Doctoral Thesis
Refine
Year of publication
- 2006 (69) (remove)
Document Type
- Doctoral Thesis (69) (remove)
Keywords
- Apfelsaft (2)
- Apoptosis (2)
- IMRT (2)
- Kontinuumsmechanik (2)
- Mischwasserbehandlung (2)
- Optimization (2)
- Oxidativer Stress (2)
- Polyphenole (2)
- Raumordnung (2)
- ammonia (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich ARUBI (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Informatik (2)
- Kaiserslautern - Fachbereich Physik (2)
In contrast to the spatial motion setting, the material motion setting of continuum mechanics is concerned with the response to variations of material placements of particles with respect to the ambient material. The material motion point of view is thus extremely prominent when dealing with defect mechanics to which it has originally been introduced by Eshelby more than half a century ago. Its primary unknown, the material deformation map is governed by the material motion balance of momentum, i.e. the balance of material forces on the material manifold in the sense of Eshelby. Material (configurational) forces are concerned with the response to variations of material placements of 'physical particles' with respect to the ambient material. Opposed to that, the common spatial (mechanical) forces in the sense of Newton are considered as the response to variations of spatial placements of 'physical particles' with respect to the ambient space. Material forces as advocated by Maugin are especially suited for the assessment of general defects as inhomogeneities, interfaces, dislocations and cracks, where the material forces are directly related to the classical J-Integral in fracture mechanics, see also Gross & Seelig. Another classical example of a material - or rather configurational - force is emblematized by the celebrated Peach-Koehler force, see e.g. the discussion in Steinmann. The present work is mainly divided in four parts. In the first part we will introduce the basic notions of the mechanics and numerics of material forces for a quasi-static conservative mechanical system. In this case the internal potential energy density per unit volume characterizes a hyperelastic material behaviour. In the first numerical example we discuss the reliability of the material force method to calculate the vectorial J-integral of a crack in a Ramberg-Osgood type material under mode I loading and superimposed T-stresses. Secondly, we study the direction of the single material force acting as the driving force of a kinked crack in a geometrically nonlinear hyperelastic Neo-Hooke material. In the second part we focus on material forces in the case of geometrically nonlinear thermo-hyperelastic material behaviour. Therefore we adapt the theory and numerics to a transient coupled problem, and elaborate the format of the Eshelby stress tensor as well as the internal material volume forces induced by the gradient of the temperature field. We study numerically the material forces in a bimaterial bar under tension load and the time dependent evolution of material forces in a cracked specimen. The third part discusses the material force method in the case of geometrically nonlinear isotropic continuum damage. The basic equations are similar to those of the thermo-hyperelastic problem but we introduce an alternative numerical scheme, namely an active set search algorithm, to calculate the damage field as an additional degree of freedom. With this at hand, it is an easy task to obtain the gradient of the damage field which induces the internal material volume forces. Numeric examples in this part are a specimen with an elliptic hole with different semi-axis, a center cracked specimen and a cracked disc under pure mode I loading. In the fourth part of this work we elaborate the format of the Eshelby stress tensor and the internal material volume forces for geometrically nonlinear multiplicative elasto-plasticity. Concerning the numerical implementation we restrict ourselves to the case of geometrically linear single slip crystal plasticity and compare here two different numerical methods to calculate the gradient of the internal variable which enters the format of the internal material volume forces. The two numerical methods are firstly, a node point based approach, where the internal variable is addressed as an additional degree of freedom, and secondly, a standard approach where the internal variable is only available at the integration points level. Here a least square projection scheme is enforced to calculate the necessary gradients of this internal variable. As numerical examples we discuss a specimen with an elliptic inclusion and an elliptic hole respectively and, in addition, a crack under pure mode I loading in a material with different slip angles. Here we focus on the comparison of the two different methods to calculate the gradient of the internal variable. As a second class of numerical problems we elaborate and implement a geometrically linear von Mises plasticity with isotropic hardening. Here the necessary gradients of the internal variables are calculated by the already mentioned projection scheme. The results of a crack in a material with different hardening behaviour under various additional T-stresses are given.
Die Verwendung organischer Moleküle in der nichtlinearen Optik (NLO) ist seit mehr als 20 Jahren Gegenstand intensiver Forschung. Man verspricht sich davon wesentliche Vorteile gegenüber den in der Anwendung weit verbreiteten anorganischen Kristallen. Diese zeigen gegenüber organischen Materialien ein wesentlich langsameres Antwortverhalten und gerin-gere nichtlinear-optische Effizienz. Als Wirtssysteme für organische Farbstoffe dienen vor allem Polymere, die mit geeigneten Methoden gepolt werden müssen. Die Weiterverarbeitung solcher Polymere zu elektrooptischen- oder nichtlinear-optischen Bauteilen ist dabei beson-ders einfach. Man kann sie in jede gewünschte Form bringen und vor allem dünne Filme ho-her Effizienz herstellen. Dies eröffnet neue interessante Perspektiven für die Anwendung in der Optoelektronik. In dieser Arbeit wurden eine Reihe interessanter neuer Chromophore für die NLO un-tersucht. Es handelt sich dabei sowohl um einfache eindimensionale Strukturen, als auch um hoch effiziente mehrdimensionale Farbstoffe. Die untersuchten ionischen Chromophore bie-ten die Möglichkeit zur einfachen Herstellung kristalliner Phasen, welche direkt in optoe-lektronische Bauteile eingesetzt werden können. Als Abschluss wurden CT-Komplexe, als Systeme niedriger nichtlinear-optischer Effizienz untersucht. Der NLO-Effekt entsteht in die-sem Fall durch intermolekulare Wechselwirkungen und nicht durch den internen Ladungs-transfer von der Donor- zur Akzeptor-Einheit des Moleküls. Die Moleküle wurden mittels polarisationsabhängiger feldinduzierter Frequenzverdoppe-lung (EFISHG) und Hyper Rayleigh-Streuung (HRS) untersucht. Die Apparatur zur Beobach-tung dieser NLO-Prozesse wurde im Rahmen dieser Arbeit neu aufgebaut und mit Erfolg wieder in den Messbetrieb überführt. Grundlegende Synthesekonzepte zur Optimierung von NLO-Chromophoren (NLOphoren) konnten mit den vorliegenden Messungen bestätigt wer-den. Die Gültigkeit des Zwei-Niveau-Modells für eindimensionale NLOphore wurde bestätigt und der Einfluss der Donor/Akzeptor-Stärke, sowie der Konjugationslänge auf die NLO-Effizienz untersucht. Für den nichtdipolaren Chromophor mit größter Konjugationslänge zeigt eine der größten für diese Art von Chromophoren je ermittelten Polarisierbarkeiten zweiter Ordnung.
Entwicklung eines Freilandtests zur Überprüfung der Wirksamkeit von Pheromonanwendungen im Weinbau
(2006)
Bei der Insektenbekämpfung durch die Paarungsstörung wird das synthetisch hergestellte Pheromon des Schädlings durch Dispenser in größeren Mengen im Freiland ausgebracht, wodurch die Paarung der Falter gestört wird. Zur Optimierung dieser Methode ist es entscheidend, die für einen wirksamen Effekt notwendigen Pheromonkonzentrationen im Freiland zu kennen. In-situ Messungen der Pheromonkonzentrationen mit gleichzeitiger Erhebung des Schadens scheiden als Methode aus, da die Messmethoden für die Pheromonkonzentration im Freiland sehr aufwendig und nicht ausreichend genau sind. Somit ergibt sich die Notwendigkeit alternative Methoden zu entwickeln, mit denen die Wirksamkeit einer bestimmten Dispenserbehandlung abschätzbar wird. Generell sind die bisher üblichen Nachweismethoden für die Wirksamkeit einer Pheromonanwendung mit großen Unsicherheiten und Kosten behaftet. In dieser Arbeit wird ein neu entwickeltes System beschrieben, mit dem es möglich ist in sehr kurzer Zeit und mit vertretbarem Aufwand die Wirksamkeit einer Pheromonanwendung abzuschätzen. Hierbei wird ein Käfig mit 8,5 m3 Volumen in einem pheromonbehandelten Weinberg aufgestellt und im Zentrum mit einer mit Weibchen der entsprechenden Art bestückten Lockfalle versehen. In diesen Käfig werden genau definierte Anzahlen von Männchen freigelassen und die in der Weibchenfalle gefangenen Männchen über mehrere Tage registriert. Ein identischer Käfig mit gleichem Männchenbesatz und Weibchenfalle in einem unbehandelten Weinberg dient als Kontrolle. Aus den Unterschieden in den Rückfangergebnissen lässt sich die Wirksamkeit einer Pheromonbehandlung bestimmen. Das Mess-System wurde mit unterschiedlichen Methoden auf seine Tauglichkeit für die angestrebten Fragestellungen überprüft. Hierbei ergab sich, dass über die Fragen der Paarungsstörung hinaus eine Vielzahl anderer Verhaltensuntersuchungen möglich wird. Erste Ergebnisse liefern unter anderem eine Dosis-Wirkungskurve für Lobesia botrana und Eupoecilia ambiguella mit der abgeschätzt werden kann, welche Abgaberate die Dispenser haben müssen um eine wirksame Paarungsstörung zu gewährleisten.
Retentionsbodenfilter dienen der weitergehenden Behandlung von Entlastungsabflüssen konventioneller Regenüberlaufbecken. Sie kommen zum Einsatz, wenn der Schutz des betroffenen Gewässers eine Reduzierung der Belastung durch Mischwassereinleitungen erfordert. Verschiedene Untersuchungen an Pilotanlagen belegen zwar grundsätzlich eine hohe Reinigungsleistung der Filterpassage, eine gesicherte Prognose der Wirksamkeit und eine Optimierung des Verfahrens erfordern jedoch eine Weiterentwicklung des vorhandenen Kenntnisstandes. Die vorliegende Arbeit soll einen Beitrag zu einem besseren Verständnis der bei der Filterpassage in RBF ablaufenden Reinigungsprozesse liefern. Im Vordergrund stehen dabei Rückhalt und Umsatz organischer Kohlenstoffverbindungen und Stickstoffverbindungen. An einer großtechnischen Anlage wurden über zwei mehrmonatige Messphasen zu- und abfließende Stoffströme erfasst. Durch die gezielte Beeinflussung des Beschickungsverhaltens wurde ein breites Spektrum unterschiedlicher Belastungszustände realisiert. Ergänzend hierzu wurden bodenkundliche Versuche durchgeführt, die der Untersuchung des Stoffumsatzes während der Trockenphasen zwischen den Beschickungsereignissen dienten. In Laborversuchen wurden darüber hinaus einzelne Teilprozesse des Stoffrückhaltes isoliert und unter definierten Randbedingungen betrachtet. Die Ergebnisse belegen, dass die Reinigungswirkung von Retentionsbodenfiltern in Bezug auf NH4 überwiegend auf einem zweistufigen Prozess beruht. Während der Durchströmung wird NH4 im Filterkörper sorbiert, um in der anschließenden Trockenphase nitrifiziert zu werden. Dauerhafte Beschickungen, wie sie unter starkem Fremdwassereinfluss auftreten, können zu einem Durchbruch der NH4-Konzentration führen. Unmittelbar nach dem Ende der Durchströmung setzt mit der Wiederbelüftung des Filterkörpers eine intensive Nitrifikation ein. Das Sorptionsvermögen regeneriert sich innerhalb weniger Tage annähernd vollständig. Bei der Prognose der Wirksamkeit von Retentionsbodenfilter mit Hilfe von Simulationsmodellen kann der NH4-Rückhaltes vereinfacht als Speicher dargestellt werden. Organische Kohlenstoffverbindungen – repräsentiert durch den CSB – weisen ein weniger eindeutiges Verhalten auf. Die partikuläre Fraktion wird während des Betriebs weitgehend an der Filteroberfläche zurückgehalten und in den Trockenphasen mineralisiert. Diese Wirkung kann als unbegrenzter Speicher modelliert werden. Hinsichtlich der gelösten Anteile konnte nicht eindeutig ermittelt werden, ob der unmittelbare Abbau während der Durchströmung dominiert oder ob auch diese Anteile wie das NH4 zunächst sorbiert werden. Die Wirkung der Filterpassage auf die gelösten und feindispersen Anteile des CSB kann annähernd durch einen konstanten Wirkungsgrad beschrieben werden.
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
In this thesis, we have dealt with two modeling approaches of the credit risk, namely the structural (firm value) and the reduced form. In the former one, the firm value is modeled by a stochastic process and the first hitting time of this stochastic process to a given boundary defines the default time of the firm. In the existing literature, the stochastic process, triggering the firm value, has been generally chosen as a diffusion process. Therefore, on one hand it is possible to obtain closed form solutions for the pricing problems of credit derivatives and on the other hand the optimal capital structure of a firm can be analysed by obtaining closed form solutions of firm's corporate securities such as; equity value, debt value and total firm value, see Leland(1994). We have extended this approach by modeling the firm value as a jump-diffusion process. The choice of the jump-diffusion process was a crucial step to obtain closed form solutions for corporate securities. As a result, we have chosen a jump-diffusion process with double exponentially distributed jump heights, which enabled us to analyse the effects of jump on the optimal capital structure of a firm. In the second part of the thesis, by following the reduced form models, we have assumed that the default is triggered by the first jump of a Cox process. Further, by following Schönbucher(2005), we have modeled the forward default intensity of a firm as a geometric Brownian motion and derived pricing formulas for credit default swap options in a more general setup than the ones in Schönbucher(2005).
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.
Die Computerisierung der Gesellschaft bedingt ein ständiges Zunehmen der Geschwindigkeit, mit der neue Daten erzeugt werden. Parallel zu dieser Entwicklung steigt der Bedarf an geeigneten Analyseverfahren, die in diesen großen und oftmals heterogenen Datenmengen Muster finden, Zusammenhänge entdecken und damit Wissen erzeugen. Das in dieser Arbeit entwickelte Verfahren findet die passende Struktur in einer ungeordneten, abstrakten Datenmenge, ordnet die zugrunde liegenden Informationen und bündelt diese somit für eine gezielte Anwendung. Dieser Prozess des Information Clustering ist zweistufig, es erfolgt zuerst ein generelles Clustering, an das sich eine interpretierende Visualisierung anschliesst. Für das Clustering wird das Verfahren der Voronoidiagramme erweitert. Durch den Einsatz einer generellen Distanzfunktion wird die Modellierung der durch die großen Datenmengen entstehenden multidimensionalen Parameter sowie weiterer Gewichte ermöglicht. Eine anschließende Visualisierung aus dem Bereich der Informationsvisualisierung unterstützt die Interpretation der neu gewonnenen Informationen. Für die praktische Anwendung wird die Stadtplanung betrachtet. In der Stadtplanung wird das Modell des Planungsablaufes eingesetzt, mit dem verschiedene Planungsalternativen erzeugt werden. Dieses Modell ist jedoch zu starr, um den dynamischen Anforderungen in der Realität gerecht zu werden. Das Information Clustering erweitert den klassischen Planungsablauf, die Flexibilität des Modells wird dadurch erhöht und die Komplexität reduziert. Das Ergebnis der Berechnung ist genau eine Planungsalternative, die sämtliche Eingabeparameter kanalisiert.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
Zusammenfassung Im Rahmen dieser Arbeit wurde ein Konzept für ein kapazitives Messsystem entwickelt und als Prototyp realisiert. Um realistische Rahmenbedingungen zu schaffen wurde der Prototyp auf einer Ultrapräzisionsmaschine des Lehrstuhls für Feinwerktechnik montiert und getestet. Für die Auswertung eines kapazitiven Sensors wurde das Trägerfrequenzmessverfahren gewählt. Um die gestellten Anforderungen erfüllen zu können musste das TF-Verfahren zunächst entscheidend modifiziert werden. Die klassischen Verfahren zur Demodulation, wie z.B. wie die synchrone Demodulation oder die Hüllkurvendemodulation sind ungeeignet, da sie zunächst das analoge modulierte Signal ins Basisband verschieben und dann erst für weitere Verarbeitung das Ausgangssignal zur Verfügung stellen. Dieser Zwischenschritt ist besonders anfällig für Signalverzerrungen und Phasenfehlern zwischen Trägerschwingung und moduliertem Signal. Um nun diese Nachteile zu umgehen erfolgt die Demodulation direkt durch die Abtastung des modulierten Signals mittels eines sehr schnellen AD-Wandlers. Das modulierte Signal wird so direkt ins Basisband zurückgefaltet. Da es sich bei dem modulierten Signal um ein bandbegrenztes Signal handelt kann die Abtastrate des AD-Wandlers an die Bandbreite des modulierten Signals angepasst werden, es findet eine Unterabtastung statt. Nachteilig ist hierbei, dass die hochfrequenten Anteile des thermischen Rauschens durch die Unterabtastung in das Basisband zurückgefaltet werden und so den Signal/Rauschabstand verschlechtern. Durch den Einsatz einer rauscharmen Sensorelektronik und der Optimierung der Messbrückenparameter konnte dieser Nachteil streckenweise wieder kompensiert werden. Aufgrund der geringen Kapazitäten von kapazitiven Sensoren spielt der Einfluss von parasitären Effekten eine besonders große Rolle und muss daher vermieden werden. Als Gegenmaßnahmen wurde neben einem kapazitätsarmen Aufbau der Schaltung die Guardtechnik zur Unterdrückung parasitärerer Kapazitäten eingesetzt. Die aktive Abschirmung der empfindlichen signalführenden Leitungen auf Leiterplatte, Sensor und Anschlusskabel bietet einen wirksamen Schutz gegen den negativen Einfluss parasitäre Kapazitäten. Der Einfluss dieser aktiven Schaltung hinsichtlich des Rauschen und des Verstärkungsfehlers auf die Performance des Messsystems wurde bewertet. Anhand von Modellen wurden der Verstärkungsfehler und die Rauschspannung quantifiziert. Neben diesen zentralen Störgrößen wurde weiter der Einfluss der Temperatur untersucht und quantifiziert Das verstärkte Messsignal wird durch einen schnellen AD-Wandler in einen digitalen Datenstrom umgesetzt. Obwohl die Datenrate des Messsystems durch Unterabtastung deutlich gesenkt werden konnte, fällt dennoch eine recht große weiterzuverarbeitende Datenmenge von einigen Megabyte pro Sekunde an, die auf einen PC gespeichert wird. Damit eine fehlerfreie Datenübertragung an den PC erfolgen kann ist eine Zwischenspeicherung der gewonnenen Daten in einem Puffer notwendig. Die Zwischenspeicherung erfolgt mit einem insgesamt 12k-Byte großen und 16 Bit breiten Fifo-Speicher, der zusammen mit der AD-Wandlerelektronik auf einer Platine untergebracht werden konnte. Diese Elektronik ist neben der Sensorelektronik und der Signalerzeugung für die Trägerfrequenz ein zentraler Bestandteil des Prototyps. Der Prototyp wird durch einen handels-üblichen PC angesteuert. Der Aufbau des gesamten Messsystems und die abschließenden Untersuchungen erfolgten auf einer Ultrapräzisionsdrehmaschine. Diese Maschine bot aufgrund ihrer bekannten mechanischen Eigenschaften eine präzise Grundlage für die Untersuchungen am Messsystem. Hierbei zeigte sich, dass neben den deterministischen Störgrößen eine Vielzahl von weiteren unvorhersehbaren Störungen negativen Einfluss auf die Gesamtperformance des Messsystems nehmen kann. Diese Störgrößen wie z.B. Netzstörungen konnten durch verschiedene Abschirmmaßnahmen deutlich verbessert werden. So enthielten die ersten Messungen deutliche Zeichen dieser Störanteile die nur unzureichend durch eine softwareseitige digitale Filterung unterdrückt werden konnten. Mit weiteren Messungen konnte dann die deutliche Abnahme des Störpegels verifiziert werden.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
This thesis introduces so-called cone scalarising functions. They are by construction compatible with a partial order for the outcome space given by a cone. The quality of the parametrisations of the efficient set given by the cone scalarising functions are then investigated. Here, the focus lies on the (weak) efficiency of the generated solutions, the reachability of effiecient points and continuity of the solution set. Based on cone scalarising functions Pareto Navigation a novel, interactive, multiobjective optimisation method is proposed. It changes the ordering cone to realise bounds on partial tradeoffs. Besides, its use of an equality constraint for the changing component of the reference point is a new feature. The efficiency of its solutions, the reachability of efficient solutions and continuity is then analysed. Potential problems are demonstrated using a critical example. Furthermore, the use of Pareto Navigation in a two-phase approach and for nonconvex problems is discussed. Finally, its application for intensity-modulated radiotherapy planning is described. Thereby, its realisation in a graphical user interface is shown.
Histondeacetylase-Inhibitoren (HDACi) stehen im Mittelpunkt zahlreicher Forschungsinteressen, seit gezeigt werden konnte, dass sie Onkoprotein-vermittelte Genrepression von bedeutenden Differenzierungsgenen in Leukämiezellen, aufheben können. Es hat sich herausgestellt, dass HDACi in vielen Tumorzellen Proliferationsstopp und Apoptose sowie teilweise Differenzierung induzieren. Gesundes Gewebe ist von diesen Auswirkungen kaum betroffen. Viele strukturell verschiedene HDACi, darunter auch die auf Grund ihrer anti-epileptischen Wirkung weltweit eingesetzte Valproinsäure (VPA), werden gegenwärtig in klinischen Studien getestet. Der therapeutische Nutzen dieser Inhibitoren scheint besonders hoch zu sein, wenn man sie mit weiteren Chemotherapeutika kombiniert. Die Ergebnisse dieser Arbeit zeigen, dass VPA den anti-leukämischen Effekt von Dexamethason in vitro und in vivo synergistisch verstärkt. Glucocorticoide (GCs) werden seit Jahrzehnten für die Therapie von Krebserkrankungen mit lymphatischem Ursprung eingesetzt. Die Glucocorticoide Prednisolon bzw. Dexamethason spielen eine Schlüsselrolle bei der Induktionstherapie gegen Akute Lymphatische Leukämie (ALL). Ein Großteil der Untersuchungen wurde an Nalm-6 Zellen durchgeführt, ursprünglich etabliert aus dem Blut eines jungen Mannes mit rezidivierender ALL. An Nalm-6 Zellen konnte gezeigt werden, dass die Behandlung mit VPA, Dexamethason und der Kombination der beiden Wirkstoffe zum programmierten Zelltod führt. Weiterhin wiesen die durchflusszytometrisch durchgeführten Messungen der Zelltodraten darauf, dass VPA und Dexamethason bezüglich der Apoptose-Induktion positiv zusammenwirken. Mit Hilfe der Calcusyn Software konnte aus den gemessenen Apoptoseraten die Stärke der Wechselwirkung zwischen den zwei Wirkstoffen berechnet werden. Die Analyse ergab einen stark synergistischen Effekt, für die kombinierte Behandlung von Nalm-6 Zellen mit VPA und Dexamethason, über den gesamten untersuchten Konzentrationsbereich. Die eingesetzten VPA-Konzentrationen deckten dabei den Bereich ab, der erfahrungsgemäß im Serum von Patienten erreicht werden kann. Auch in vier weiteren prä-B-Zelllinien führte die Behandlung mit VPA und Dexamethason zur synergistischen Apoptose-Induktion. SUP-B15 und BV-173 Zellen reagierten dabei, wie Nalm-6 Zellen, sehr sensitiv auf Dexamethason-Behandlung. Die Zelllinien SD-1 und SEM zeigten eine deutlich ausgeprägte Resistenz gegenüber dem Glucocorticoid, reagierten aber sehr stark auf VPA- und Kombinationsbehandlung. Trotz intensiver Untersuchungen ist über den molekularen Mechanismus der GC-vermittelten Apoptose nur wenig bekannt. Das ausreichende Vorhandensein eines funktionierenden Glucocorticoidrezeptors (GR) wird aber als essentiell, für das Ansprechen der Zelle auf GC-Behandlung, angesehen. Da der GR ein Transkriptionsfaktor ist, werden die Ursachen für den GC-induzierten Zelltod vornehmlich in einer veränderten Genexpression gesucht. Da HDACi ebenfalls großen Einfluss auf die Genregulation ausüben, wurden im Rahmen dieser Arbeit Genexpressionsanalysen an den behandelten Nalm-6 Zellen durchgeführt, um die Ursachen für den gefundenen Synergismus zwischen VPA und Dexamethason aufzuklären. Die Ergebnisse dieser Untersuchungen zeigten eine verstärkte Hochregulation von Proteinen, die Zellzyklusstopp und Apoptose bewirken sowie eine verstärkte Repression von Faktoren, die anti-apoptotisch bzw. wachstumsfördernd wirken, in Folge der Kombinationsbehandlung. Die starke Herunterregulierung des pro-apoptotischen Proteins Aven, durch die Wirkstoffkombination, konnte in Nalm-6 Zellen auch mittels Westernblot-Analyse auf Proteinebene nachgewiesen werden. Der potentielle Nutzen einer Kombinationstherapie mit VPA und Dexamethason konnte an einem Tiermodell für ALL überprüft werden. Das Tiermodell wurde über das Einbringen von Nalm-6 Zellen in immundefiziente SCID Mäuse generiert. Die Behandlung mit der Wirkstoffkombination führte zu einer signifikant reduzierten Infiltration von Knochenmark und Milz durch die humanen Blasten, im Vergleich zur Behandlung mit Dexamethason oder PBS als Kontrolle. Weiterhin wurde für die Tiere, die mit der Wirkstoffkombination behandelt wurden, eine signifikante Erhöhung der Überlebenswahrscheinlichkeit beobachtet. Auch für Vincristin, L Asparaginase und Daunorubicin, weitere Wirkstoffe der Induktionstherapie bei pädiatrischer ALL, konnte ein synergistisches Zusammenwirken mit VPA bezüglich der Apoptose-Induktion in Nalm-6 Zellen gezeigt werden. Die Ergebnisse der vorliegenden Arbeit zeigen, dass VPA die Effektivität der Polychemotherapie gegen ALL erhöhen könnte. Auf Grund des stark synergistischen Zusammenwirkens mit Dexamethason könnte VPA möglicherweise auch eine potentielle Alternative für schlecht verträgliche bzw. risikobehaftete Chemotherapeutika der Induktionstherapie darstellen.
This thesis deals with modeling aspects of generalized Newtonian and of non-Newtonian fluids, as well as with development and validation of algorithms used in simulation of such fluids. The main contribution in the modeling part are the introduction and analysis of a new model for the generalized Newtonian fluids, where constitutive equation is of an algebraic form. Distinction between shear and extensional viscosities leads to anisotropic viscosity model. It can be considered as a natural extension of the well known (isotropic viscosity) Carreau model, which deals only with shear viscosity properties of the fluid. The proposed model takes additionally into account extensional viscosity properties. Numerical results show that the anisotropic viscosity model gives much better agreement with experimental observations than the isotropic one. Another contribution of the thesis consists of the development and analysis of robust and reliable algorithms for simulation of generalized Newtonian fluids. For such fluids the momentum equations are strongly coupled through mixed derivatives appearing in the viscous term (unlike the case of Newtonian fluids). It is shown in this thesis, that a careful treatment of those derivatives is essential in deriving robust algorithms. A modification of a standard SIMPLE-like algorithm is given, where all the viscous terms from the momentum equations are discretized in an implicit manner. Moreover, it is shown that a block diagonal preconditioner to the viscous operator is good enough to be used in simulations. Furthermore, different solution techniques, namely projection type methods (consists of solving momentum equations and pressure correction equation) and fully coupled methods (momentum and continuity equations are solved together), are compared. It is shown, that explicit discretization of the mixed derivatives lead to stability problems. Further, analytical estimates of eigenvalue distribution for three different preconditioners, applied to the transformed system arising after discretization and linearization of the momentum and continuity equations, are provided. We propose to apply a block Gauss-Seidel preconditioner to the transformed system. The analysis shows, that this preconditioner is able to cluster eigenvalues around unity independent of the transformation step. It is not the case for other preconditioners applied to the transformed system as discussed in the thesis. The block Gauss-Seidel preconditioner has also shown the best behavior (among all preconditioners discussed in the thesis) in numerical experiments. Further contribution consists of comparison and validation of numerical algorithms applied in simulations of non-Newtonian fluids modeled by time integral constitutive equations. Numerical results from simulations of dilute polymer solutions, described by the integral Oldroyd B model, have shown very good quantitative agreement with the results obtained by differential Oldroyd B counterpart in 4:1 planar contraction domain at low Weissenberg numbers. In this case, the Weissenberg number is changed by changing the relaxation time. However, contrary to the differential Oldroyd B model, the integral one allows to perform stable simulations also in the range of high Weissenberg numbers. Moreover, very good agreement with experimental observations has been achieved. Simulations of concentrated polymer solutions (polystyrene and polybutadiene solutions), modeled by the integral Doi Edwards model, supplemented by chain length fluctuations, have shown very good qualitative agreement with the results obtained by its differential approximation in 4:1:4 constriction domain. Again, much higher Weissenberg numbers can be achieved when the integral model is used. Moreover, very good quantitative results with experimental data of polystyrene solution for the first normal stress difference and shear viscosity defined here as the quotient of a shear stress and a shear rate. Finally, comparison of the two methods used for approximating the time integral constitutive equation, namely Deformation Field Method (DFM) and Backward Lagrangian Particle Method (BLPM), is performed. In BLPM the particle paths are recalculated at every time step of the simulations, what has never been tried before. The results have shown, that in the considered geometries both methods give similar results.
Biological Soil Crusts (BSCs), composed of lichens, mosses, green algae, microfungi and cyanobacteria are an ecological important part of the perennial landcover of many arid and semiarid regions (Belnap et al. 2001a), (Büdel 2002). In many arid and hyperarid areas BSCs form the only perennial "vegetation cover" largely due to their extensive resistance to drought (Lange et al. 1975). For the Central Namib Desert (Namibia), BSCs consisting of extraordinary vast lichen communities were recently mapped and classified into six morphological classes for a coastal area of 350 km x 60 km. Embedded into the project "BIOTA" (www.biota-africa.org) financed by the German Federal Ministry of Education and Research the study was undertaken in the framework of the PhD thesis by Christoph Schultz. Some of these lichen communities grouped together in so called "lichen fields" have already been studied concerning their ecology and diversity in the past (Lange et al. 1994), (Loris & Schieferstein 1992), (Loris et al. 2004), (Ullmann & Büdel 2001a), (Wessels 1989). Multispectral LANDSAT 7 ETM+ and LANDSAT 5 TM satellite imagery was utilized for an unitemporal supervised classification as well as for the establishment of a monitoring based on a combined retrospective supervised classification and change detection approach (Bock 2003), (Weiers et al. 2003). Results comprise the analysis of the mapped distribution of lichen communities for the Central Namib Desert as of 2003 as well as reconstructed distributions for the years 2000, 1999, 1992 and 1991 derived from retrospective supervised classification. This allows a first monitoring of the disturbance, destruction and recovery of the lichen communities in these arid environments including the analysis of the major abiotic processes involved. Further analysis of these abiotic processes is key for understanding the influence of Namib lichen communities on overall aeolian and water induced erosion rates, nutrient cycles, water balance and pedogenic processes (Belnap & Gillette 1998), (Belnap et al. 2001b), (Belnap 2001c), (Evans & Lange 2001), (McKenna Neumann & Maxwell 1999). In order to aid the understanding of these processes SRTM digital elevation model data as well as climate data sets were used as reference. Good correlation between geomorphological form elements as well as hydrological drainage system and the disturbance patterns derived from individual post classification change comparisons between the timeframes could be observed. Conjoined with the climate data sets sporadic foehn-like windstorms as well as extraordinary precipitation events were identified to largely affect the distribution patterns of lichen communities. Therefore the analysis and monitoring of the diversity, distribution and spatiotemporal change of Central Namib BSCs with the means of Remote Sensing and GIS applications proof to be important tools to create further understanding of desertification and degradation processes in these arid regions.
Discontinuities can appear in different fields of mechanics. Some examples where discontinuities arise are more obvious such as the formation of cracks. Other sources of discontinuities are less apparent such as interfaces between different materials. Furthermore continuous fields with steep gradients can also be considered as discontinuous fields. This work aims at the inclusion of arbitrary discontinuities within the finite element method. Although the finite element method is the most sophisticated numerical tool in modern engineering, the inclusion of discontinuities is still a challenging task. Traditionally within finite the framework of FE methods discontinuities are modeled explicitely by the construction of the mesh. Thus, when a fixed mesh is used, the position of the discontinuity is prescribed by the location of interelement boundaries and not by the physical situation. The simulation of crack growth requires a frequent adaption of the mesh and that can be a difficult and computationally expensive task. Thus a more flexible numerical approach is needed which leads to the mesh-independent representation of the discontinuity. A challenging field where the accurate description of discontinuities is of vital importance is the modeling of failure in engineering materials. The load capacity of a structure is limited by the material strength. If the load limit is exceeded failure zones arise and increase. Representative examples of failure mechanisms are are cracks in brittle materials or shear bands in metals or soils. Failure processes are often accompanied by a strain softening material behaviour (decreasing load carrying capacity with increasing strain at a material point). It is known that the inclusion of strain softening material behaviour within a continuum description requires regularization techniques to preserve the well- posedness of the governing equations. One possibility is the consideration of non-local or gradient terms in the constitutive equations but these approaches require a sufficiently fine discretization in the localization zone, which leads to a high numerical effort. If the extent of the failure zone and the failure process to the point of the development of discrete cracks is considered it seems reasonable to include strong discontinuities. In the framework of fracture mechanics the inclusion of displacement jumps is intuitively comprehensible. However, the modeling of localized failure processes demands the consideration of inelastic material behaviour. Cohesive zone models represent an approach which is especially suited for the incorporation within the finite element framework. It is supposed that cohesive tractions are transmitted between the discontinuity surfaces. These tractions are constitutively prescribed by a phenomenological traction separation law and thus allow for the modeling of different inelastic mechanisms, like micro-crack evolution, initiation of voids, plastic flow or crack bridging. The incorporation of a displacement discontinuity in combination with a cohesive traction separation law leads to a sound model to describe failure processes and crack propagation. Another area where the existence of discontinuities is not as obvious is the occurence of material interfaces, inclusions or holes. The accurate modeling of such internal interfaces is important to predict the mechanical behaviour of components. The present discontinuity is of different nature: the displacement field is continuous but there is a jump in the strains, which is denoted by the expression weak discontinuity. Usually in FE methods material interfaces are taken into account by the mesh construction. But if the structure exhibits multiple inclusions of complex geometry it can be advantageous if the interface does not have to be meshed. And when we look at at problems where the interface moves with time, e. g. phase transformation, the mesh-independent modeling of the weak discontinuities naturally holds major advantages. The greatest challenge in the modeling of discontinuities is their incorporation into numerical methods. The focus of the present work is the development, analysis and application of a finite element approach to model mesh-independent discontinuities. The method shall be robust and flexible to be applicable to both, strong and weak discontinuities.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
Um die in der Automatisierung zunehmenden Anforderungen an Vorschubachsen hinsichtlich Dynamik, Präzision und Wartungsaufwand bei niedriger Bauhöhe und kleiner werdendem Bauvolumen gerecht zu werden, kommen immer mehr Synchron-Linearmotoren in Zahnspulentechnik mit Permanentmagneterregung in Werkzeugmaschinen zum Einsatz. Als hauptsächlicher Vorteil gegenüber der rotierenden Antriebslösung mit Getriebeübersetzung und Kugelrollspindel wird die direkte Kraftübertragung ohne Bewegungswandler genannt. Der Übergang vom konventionellen linearen Antriebssystem zum Direktantriebssystem eröffnet dem Werkzeugmaschinenherstellern und den Industrieanwendungen eine Vielzahl neuer Möglichkeiten durch beeindruckende Verfahrgeschwindigkeit und hohes Beschleunigungsvermögen sowie Positionier- und Wiederholgenauigkeit und bietet darüber hinaus die Chance zu einer weiteren Produktivitäts- und Qualitätssteigerung. Um alle dieser Vorteile ausnutzen zu können, muss der Antrieb zuerst hinsichtlich der für Linearmotoren typisch Kraftwelligkeit optimiert werden. Die Suche nach wirtschaftlichen und praxistauglichen Gegenmaßnahmen ist ein aktuelles Forschungsthema in der Antriebstechnik. In der vorliegenden Arbeit werden die Kraftschwankungen infolge Nutung, Endeffekt und elektrischer Durchflutung in PM-Synchron-Linearmotor rechnerisch und messtechnisch untersucht. Ursachen und Eigenschaften der Kraftwelligkeit werden beschrieben und Einflussparameter aufgezeigt. Es besteht die Möglichkeit, die Kraftwelligkeit durch bestimmte Maßnahmen zu beeinflussen, z. B. mit Hilfe des Kraftwelligkeitsausgleichs bestehend aus ferromagnetischem Material oder durch gegenseitigen Ausgleich mehrerer zusammengekoppelter Primärteile. Wie die Untersuchungen gezeigt haben, ist eine Abstimmung der Einflussparameter auf analytischem Weg kaum möglich, in der Praxis führt das auf eine experimentell-iterative Optimierung mit FEM-Unterstützung. Die gute Übereinstimmung zwischen Messung und Simulation bietet einen klaren Hinweis, dass die hier vorgestellten Maßnahmen als geeignet angesehen werden können, sie ermöglichen eine Kraftwelligkeitsreduzierung von ursprünglichen 3-5% bis auf 1%, wobei eine leichte Herabsetzung der Kraftdichte in Kauf genommen werden muss. Beim Maschinenentwurf muss rechtzeitig ermittelt werden, welches Kompensationsverfahren günstig ist bezüglich der vorgesehenen Anwendungen.
Die vorliegende Arbeit stellt die Ergebnisse vor, die unter Einsatz von optischer Molekülspektroskopie und quantenchemischen Berechnungen von Merocyanin-Dimeraggregaten erzielt wurden. Mit Hilfe der UV/Vis-Spektroskopie konnten aus der Vielzahl der zur Verfügung stehenden Farbstoffe diejenigen mit ausgeprägter Aggregationsneigung identifiziert werden. Für neun positiv getestete Verbindungen wurden konzentrations- und temperaturabhängige UV/Vis-Spektren aufgenommen. Die Auswertung gelang dabei mit einem selbst entwickelten Algorithmus, der neben der Aggregationskonstante auch die reinen Spektren von Monomer und Dimer berechnet. Für eine Serie von acht neuen Merocyaninen wurde eine umfassende Charakterisierung der elektrooptischen Eigenschaften vorgestellt und die Ergebnisse im Hinblick auf deren Anwendung diskutiert. Für zwei weitere Farbstoffe konnte eine Beeinflussung der Dimerisierung durch ein äußeres elektrisches Feld frei von Diskrepanzen bestätigt werden. Implikationen der beobachteten Befunde auf das Design photonischer Materialien mit exzitonisch gekoppelten Dimeren wurden besprochen. Durch die stationären und dynamischen Fluoreszenzmessungen konnte das bislang nur für einen Farbstoff bekannte Phänomen der Emission von H-Typ Dimeren an drei weiteren Merocyaninen nachgewiesen werden. Es gelang eine präzise spektrale Trennung der Teilbeiträge von Monomer und Dimer in Absorption sowie Emission vorzunehmen und damit erstmals den von Kasha[1] 1965 vorhergesagten Relaxationskanal für H-Typ Aggregate in allen Details quantitativ zu belegen. Durch quantenchemische Berechnungen auf MP2-Niveau konnte die Geometrie von sechs Monomeren und Dimeren optimiert und mit Hilfe experimenteller Strukturinformationen verifiziert werden. Auf Basis dieser Geometrien wurden essentielle Eigenschaften vom elektronischen Grund- und Anregungszustand berechnet und damit Übereinstimmungen und Unterschiede zu den Experimenten aufgezeigt. Weiterhin wurde eine Möglichkeit zur Vorhersage der Aggregationsneigung für einen gegebenen Strukturtyp alleine auf Grundlage von quantenchemischen Ergebnissen vorgestellt. Im Hinblick auf die grundlegenden Triebkräfte der Aggregation ergab die Analyse, dass die Dimerisierung im Wesentlichen auf elektrostatischen Dipol-Dipol- und Dispersionswechselwirkungen beruht, daneben aber auch von der Topologie der Chromophore abhängige lokale Wechselwirkungen einen Beitrag leisten.
This work deals with the mathematical modeling and numerical simulation of the dynamics of a curved inertial viscous Newtonian fiber, which is practically applicable to the description of centrifugal spinning processes of glass wool. Neglecting surface tension and temperature dependence, the fiber flow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the fiber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional fiber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms. For the numerical simulation of the derived model a finite volume code is developed. The results of the numerical scheme for high Reynolds numbers are validated by comparing them with the analytical solution of the inviscid problem. Moreover, the influence of parameters, like viscosity and rotation on the fiber dynamics are investigated. Finally, an application based on industrial data is performed.
Das Ziel dieser Arbeit lag in der Aufklärung zellulärer Wirkmechanismen von Apfelpolyphenolen und deren möglicher Relevanz im Hinblick auf die Chemoprävention, insbesondere des kolorektalen Karzinoms. Die Untersuchungen haben gezeigt, dass polyphenolreiche Apfelextrakte in vitro das Wachstum der humanen Kolonkarzinomzelllinie HT29 hemmen, wobei die Induktion von Apoptose eine Rolle zu spielen scheint. Die Ergebnisse dieser Arbeit deuten darauf hin, dass polyphenolreiche Apfelsaftextrakte modulierend in Signalübertragungswege eingreifen, die wesentlich sind für die Regulation von Zellwachstum und Differenzierung. In erster Linie zeichnen sich dabei Effekte auf wachstumsfaktorvermittelte Signalwege ab. Als herausragende Wirkqualität des polyphenolreichen Apfelsaftextraktes AE02 bzw. des Apfeltresterextraktes AE03B ist ihre hocheffektive Hemmung der Proteintyrosinkinase (PTK)-Aktivität des epidermalen Wachstumsfaktorrezeptors (EGFR) zu nennen. Anhand von Untersuchungen zur Modulation des Phosphorylierungsstatus (als ein Maß für die Aktivität des EGFR) konnte gezeigt werden, dass die Hemmwirkung des AE02 nicht limitiert ist auf den isolierten EGFR, sondern auch in intakten Zellen zum Tragen kommt. Insgesamt zeigte sich allerdings, dass die bislang in Apfelextrakten identifizierten Inhaltsstoffe alleine bzw. in der Summe nur marginal sowohl zur Wachstumshemmung als auch zur Hemmung des EGFR beitragen. Oligomere Procyanidine dagegen erwiesen sich als hoch potente Hemmstoffe der PTK-Aktivität des isolierten EGFR. Die Proteinkinase C (PKC)-Isoenzymfamilie spielt ebenfalls eine Schlüsselrolle bei der Regulation von Wachstumsprozessen. In dieser Arbeit wurde der Frage nachgegangen, ob Apfelpolyphenole die PKC-Aktivität im Kolon beeinflussen. Dafür wurden humane Kolonkarzinomzellen im Vergleich zu primären humanen Enterozyten (Biopsie) untersucht. Die Ergebnisse zeigen, dass sowohl die PKC-Aktivität nicht transformierter humaner Enterozyten als auch humaner Kolonkarzinomzellen durch Apfelpolyphenole gehemmt wird. Der Apfelsaftextrakt AE02 konnte als Hemmstoff der isolierten zytosolischen PKC-Aktivität von HT29-Zellen charakterisiert werden. Eine 24-stündige serumfreie Inkubation von HT29-Zellen mit AE02 führt zu einer Hemmung der zytosolischen PKC-Aktivität; sogar in geringeren Konzentrationen im Vergleich zur Hemmwirkung an isolierter PKC. Dies könnte auf einer Hemmung PKC-vorgeschalteter Signalelemente beruhen, die so den hemmenden Effekt von AE02 auf die PKC-Aktivität verstärken könnten. Jedoch zeigte sich nach 24-stündiger Inkubation von HT29-Zellen ein U-förmiger Kurvenverlauf mit einem Anstieg der PKC-Aktivität in hohen Konzentrationen. Nachdem keine PKC-Aktivierung bei Zugabe von Apfelpolyphenolen zu isolierten Enzympräparationen zu beobachten war, kann eine direkte substanzvermittelte Aktivierung ausgeschlossen werden. Die Caspase-3-Aktivierung und die DNA-Fragmentierung, als Merkmale apoptotischer Prozesse; sowie der gezeigte Wiederanstieg des Gesamtproteingehaltes an proapoptotischer PKCdelta nach 24-stündiger Zellinkubation mit AE02 deuten darauf hin, dass die PKC-Aktivierung intermediär als Teil des apoptotischen Prozesses auftritt. Des Weiteren konnte gezeigt werden, dass der polyphenolreiche Apfelsaftextrakt AE02 potent die isolierte, aus humanen Kolonkarzinomzellen immunopräzipitierte, GSK3beta, einem Schlüsselenzym des Wnt-Signalweges, in seiner Aktivität hemmt. Auch in intakten Zellen führt die Inkubation (24 h) von HT29-Zellen mit Apfelpolyphenolen zu einer signifikanten konzentrationsabhängigen Hemmung der zellulären GSK3beta-Aktivität. Damit einher geht die signifikante Abnahme an phosphoryliertem beta-Catenin. Gleichzeitig nimmt unerwarteterweise der Gehalt an Gesamt-beta-Catenin ebenfalls ab. Die Ergebnisse weisen somit darauf hin, dass der polyphenolreiche Apfelsaftextrakt AE02 in humanen Kolonkarzinomzellen keinen Wachstumsstimulus über den Wnt-Signalweg induziert und aufgrund der Reduktion der Expression von beta-Catenin eher antiproliferative Effekte des AE02 zu erwarten sind. Zusammenfassend ist festzustellen, dass Apfelpolyphenole in/unterhalb von Polyphenolkonzentrationen polyphenolreicher Apfelsäfte (z. B. 500 mg/l im Projektsaft AS02), in vitro in Signaltransduktionskaskaden eingreifen, die mit der Entstehung kolorektaler Karzinome assoziiert werden.
Die vorliegende Arbeit befasst sich mit dem signaltransduzierenden Zwei-Komponenten- System CiaRH aus Streptococcus pneumoniae. Zwei-Komponenten-Systeme sind an der Adaptation der Bakterien an Umweltbedingungen entscheidend beteiligt. Sie bestehen in der Regel aus einer Histidinkinase (hier CiaH) und einem Responseregulator (hier CiaR). Die Histidinkinase dient der Signaldetektion und Aktivierung des Responseregulators, welcher die zelluläre Antwort vermittelt. Das Cia-System wurde als Resistenzdeterminante in spontanresistenten Labormutanten gegen Cefotaxim identifiziert. Weiterhin hat dieses Zwei-Komponenten-System Einfluss auf die Zelllyse, die Virulenz und ist an der Regulation der genetischen Kompetenz beteiligt. Es wird für die Lebensfähigkeit von Zellen mit PBP2x-Punktmutationen benötigt. Inhaltlicher Schwerpunkt der vorliegenden Arbeit war neben der Etablierung der Mikroarray-Technik und globalen Transkriptionsanalysen die funktionelle Charakterisierung des Cia-Systems mit phänotypischen Analysen. Die Etablierung der Mikroarray-Technik befasste sich mit allen Schritten des Mikroarray-Prozesses inklusive Biochip-Herstellung, Datenauswertung und der Validierung des Oligo-Sets. Nach erfolgreicher Etablierung wurde diese Technik benutzt, um Cia-regulierte Gene zu identifizieren. Durch Vergleich des Transkriptoms von verschiedenen Cia-Mutanten mit dem Wildtyp R6 wurden insgesamt 158 Gene unterschiedlich transkribiert. Davon gehörten 73 Gene zum minimalen Cia- und zum Kompetenz-Regulon, welche schon als Cia-reguliert bekannt waren (Sebert et al., 2002; Mascher et al., 2003; Dagkessamanskaia et al., 2004). Überraschenderweise wurden weitere 85 Gene Cia-abhängig transkribiert, deren Genprodukte funktionell in Zucker- und Stickstoffmetabolismus sowie Transport gruppiert werden konnten. Wahrscheinlich wurden die meisten dieser 85 Gene indirekt als Folge der veränderten Zuckerverwertung reguliert. Ähnliche funktionelle Gengruppen konnten in den globalen Transkriptionsanalysen der spontanresistenten Laborfamilie C103 bis C503 aufgestellt werden. In dieser Mutantenfamilie sind Mutationen in CiaH, PBP2x und PBP2a gefunden worden. Besonders auffällig war bei diesen Untersuchungen die kontinuierliche Verstärkung der Transkription der Gene des minimalen Cia-Regulons von C103 bis C503. Deshalb ist von einer Aktivierung des Cia-Systems durch PBP-Mutationen auszugehen. Diese Aktivierung konnte auch in RT-PCR-Versuchen am Beispiel einzelner Gene des minimalen Cia-Regulons bestätigt werden. Da das Cia-System durch PBP-Mutationen aktiviert wird und ein funktionelles Cia-System bei Anwesenheit von bestimmten PBP2x-Mutationen benötigt wird, wurde in dieser Arbeit diese Notwendigkeit des Cia-Systems auch bei anderen PBP-Mutationen durch phänotypische Analysen überprüft. Dabei wurde durch Inaktivierung des Cia-Systems in verschiedenen Stämmen festgestellt, dass nicht nur Zellen mit einzelnen, im Labor selektierten PBP2x-Mutationen, sondern auch ohne ein PBP2a- und ohne ein PBP1a-Protein auf ein Cia-System angewiesen sind. Klinische PBP2x-Allele benötigten ebenfalls – aber in geringeren Maßen – das Cia-System. Wahrscheinlich haben in diesen kompensatorische Mutationen durch Evolution in der freien Natur stattgefunden. Damit wurde auch zum ersten Mal gezeigt, dass PBP-Mutationen nicht neutral sind und verschiedene PBP-Mutationen unterschiedliche Auswirkungen haben. Weiterhin wurde untersucht, welche Gene tatsächlich die durch das Cia-System verursachten Phänotypen auslösen. Dazu wurden 6 Cia-regulierte Genregionen bzw. Einzelgene mit einer Erythromycin-Resistenzkassette inaktiviert und auf das Vorhandensein von Cia „OFF“-phänotypischem Verhalten analysiert. Kein Gen konnte für das Resistenz- oder das Lyseverhalten ausfindig gemacht werden. Hingegen waren die Proteine HtrA und Spr0782 an der Reprimierung der Kompetenz durch das Cia-System beteiligt. Bei beiden Proteinen konnte nur eine Reprimierung in CpH8- und nicht in THB-Medium nachgewiesen werden, so dass eventuell noch von weiteren Faktoren ausgegangen werden muss. Die hier vorgelegten Ergebnisse haben die bisher vorliegenden Daten über das Cia-System bestätigt und entscheidende Einblicke nicht nur in die mögliche Funktion, sondern vor allem in das komplexe vernetzte Regulationssystem gegeben. Diese stellen eine wichtige Grundlage für weitere Experimente dar.
The new international capital standard for credit institutions (“Basel II”) allows banks to use internal rating systems in order to determine the risk weights that are relevant for the calculation of capital charge. Therefore, it is necessary to develop a system that enfolds the main practices and methods existing in the context of credit rating. The aim of this thesis is to give a suggestion of setting up a credit rating system, where the main techniques used in practice are analyzed, presenting some alternatives and considering the problems that can arise from a statistical point of view. Finally, we will set up some guidelines on how to accomplish the challenge of credit scoring. The judgement of the quality of a credit with respect to the probability of default is called credit rating. A method based on a multi-dimensional criterion seems to be natural, due to the numerous effects that can influence this rating. However, owing to governmental rules, the tendency is that typically one-dimensional criteria will be required in the future as a measure for the credit worthiness or for the quality of a credit. The problem as described above can be resolved via transformation of a multi-dimensional data set into a one-dimensional one while keeping some monotonicity properties and also keeping the loss of information (due to the loss of dimensionality) at a minimum level.
In this study, 27 marine bacteria were screened for production of bioactive metabolites. Two strains from the surface of the soft coral Sinularia polydactyla, collected from the Red Sea, and three strains from different habitats in the North Sea were selected as a promising candidates for isolation of antimicrobial substances. A total of 50 compounds were isolated from the selected bacterial strains. From these metabolites 25 substances were known from natural sources, 10 substances were known as synthetic chemical and herein are reported as new natural products, and 13 metabolites are new. Two substances are still under elucidation. All new compounds were chemically and biologically characterized. Pseudoalteromonas sp. T268 produced simple phenol and oxindole derivatives. Production of homogentisic acid and WZ 268S-6 from this bacteria was affected by the salinity stress. WZ 268S-6 shows antimicrobial and cytotoxic activities. Its target is still unclear. Isolation of isatin from this strain points out for the possibility of using this substance as a chemotaxonomical marker for Alteromonas-like bacteria. A large number of nitro-substituted aromatic compounds were isolated from both Salegentibacter sp. T436 and Vibrio sp. WMBA1-4. They may be derived from metabolism of phenylalanine or tyrosine. From Salegentibacter sp. T436, 24 compounds were isolated, of which four compounds are new and six compounds were known as synthetic chemicals. WZ 436S-16 (dinitro-β-styrene) is the most potent antimicrobial and cytotoxic compound. It inhibits the oxygen uptake by N. coryli and causes apoptosis in the human promyelocytic leukaemia (HL-60 cells). From Vibrio sp. WMBA1-4, 13 new alkaloids were isolated, of which four were known as synthetic products and herein are reported as new substances from natural sources. The majority of these compounds show antimicrobial and cytotoxic activities. The cytotoxic activity of WMB4S-11 against the mouse lymphocytic leukaemia (L1210 cells) is due to the inhibition in the protein biosynthesis, while the remaining cytotoxic alkaloids have no effect on the synthesis of macromolecules in this cell line. The antibacterial activity of WMB4S-2, -11, -12, -13 and the antifungal activity of WMB4S-9 are not due to the inhibition in the macromolecules biosynthesis or in the oxygen uptake by the microorganisms. The biological activity of these nitro-aromatic compounds from Salegentibacter sp. T436 and Vibrio sp. WMBA1-4 is influenced by the presence of a nitro group and its position in respect to the hydroxyl group, number of the nitro groups, and the type of substitutions on the side chain. In diaryl-maleimide derivatives, types and position of substitution on the aryl rings, on the maleimide moity, and the hydrophobicity of the aryl ring itself lead to variations in the extent of the bioactivity of these derivatives. This is the first time that vibrindole (WMB4S-14) and turbomycin B or its noncationic form (WMB4S-15), isolated from Vibrio sp., are reported as cytotoxic compounds. WMB4S-15 inhibits the biosynthesis of macromolecules in L1210 cells. The structural similarity between some of the metabolites in this study and previously reported compounds from sponges, ascidians, and bryozoan indicates that the microbial origin of these compounds must be considered.
Molekulare Analyse der Aktivierung des Kalium-Chlorid-Cotransporters KCC2 in reifenden Neuronen
(2006)
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Regenüberlaufbecken (RÜB) sind wichtige Bauwerke in Entwässerungsnetzen nach dem Mischverfahren. Sie tragen durch ihre Rückhaltewirkung dazu bei, den Schmutzaustrag in die Gewässer zu vermindern und die nachfolgende Kläranlage während der Niederschlagsereignisse zu entlasten. Obwohl nach einheitlichen Richtlinien bemessene Regenüberlaufbecken in großer An-zahl in Deutschland in Betrieb sind, ist über die Wirkung dieser recht teuren Bauwerke noch sehr wenig bekannt. Das gilt auch für alternative Anlagen wie hydrodynamische Abscheider und Kombinationsbauwerke, die in den letzten Jahren gebaut worden sind. Hier knüpft die vorliegende Arbeit an, deren Ziel es war, die Wirkung eines Kombinati-onsbauwerks in Bexbach/Rothmühle, bestehend aus Durchlaufbecken im Nebenschluss und zwei parallel beschickten hydrodynamischen Abscheidern als Trennbauwerke, zu untersuchen und modelltechnisch nachzubilden. Am Anfang der Arbeit steht ein Exkurs über Anlagen der Regenwasserbehandlung im Mischsystem und Faktoren, die für deren Reinigungswirkung maßgebend sind. Es wer-den die Grundlagen der Sedimentation und Ansätze zur Bilanzierung von Wirkungsgrad und Effektivität behandelt. Die Bedeutung des Bilanzierungszeitraums wird herausgestellt. Anschließend werden die Randbedingungen für die Untersuchungen des RÜB Bex-bach/Rothmühle sowie die Konzeption und der Betrieb des Bauwerks erläutert. Um die Wirkungsweise des Bauwerks zu ermitteln, wurden umfangreiche Messungen der Abflussquantität und -qualität an verschiedenen Punkten des Bauwerks durchgeführt. Die gemessenen Daten dienten dann als Grundlage zur Bestimmung der Wir-kungsgrade und Effektivitäten der einzelnen Anlagenteile sowie der Gesamtanlage für einige Entlastungsereignisse. Die Ergebnisse der Auswertungen über die Reinigungswirkung wurden mit den Resultaten ähnlicher Untersuchungen an anderen Anlagen verglichen und es wurde eine qualitative Wertung des untersuchten Bauwerks vorgenom-men. Im nächsten Schritt wurden sowohl die Ergebnisse der Untersuchungen als auch eines Tracerversuchs dazu genutzt, ein MATLAB/SIMULINK-Modell zur Nachbildung der Reinigungsvorgänge zu entwickeln. Durch die Verknüpfung dieses Modells mit dem Schmutzfrachtmodell WKosmoCOM gelang es, das Langzeitverhalten des Kombinati-onsbauwerks zu untersuchen. In einer vergleichenden Betrachtung der langfristigen Entlastungstätigkeit der unter-suchten Anlage mit der eines fiktiven Durchlaufbeckens im Nebenschluss herkömmli-cher Bauart wurde abgeschätzt, ob Speichervolumen durch den Einsatz der Kombinati-on von Wirbelabscheider und Durchlaufbecken eingespart werden kann. Die angesetzte Reinigungswirkung des fiktiven Durchlaufbeckens orientierte sich dabei an derjenigen, die für die Durchlaufbeckenstufe des untersuchten Bauwerks festgestellt wurde zuzüglich eines Aufschlags zur Verbesserung der Rückhaltewirkung. In mehreren Simulationsläufen auf der Basis des MATLAB/SIMULINK-Modells, gekoppelt mit dem Schmutzfrachtmodell WKosmoCOM, wurde das Volumen des fiktiven Beckens variiert, bis die Rückhaltewirkung der des realen Beckens entsprach. Der aus dem Vergleich resultierende Volumenunterschied ist ein Maß für das Einsparpotenzial. Die Simulationen erga-ben, dass die Reinigungswirkung des untersuchten Kombinationsbauwerks durch ein herkömmliches Durchlaufbecken erreicht wird, dessen Speichervolumen um etwa 17% größer ist.
Nowadays piezoelectric and ferroelectric materials are becoming more and more an interesting part of smart materials in scientific and engineering applications. Precision machining in manufacturing, micropositioning in metrology, common rail systems with piezo fuel injection control in automobile industry, and ferroelectric random access memories (FRAM) in microelectromechanical systems (MEMS) besides commercial piezo actuators and sensors can be very good examples for the application of piezoceramic and ferroelectric materials. In spite of having good characteristics, piezoelectric and ferroelectric materials have significant nonlinearities, which limit the applications in high performance usage. Domain switching (ferroelastic or ferroelectric) is the main reason for the nonlinearity of ferroelectric materials. External excessive electromechanical loads (mechanical stress and electric field) are driving forces for domain switching. In literature, various important experiments related to the non-linear properties of piezoelectric and ferroelectric materials are reported. Simulations of nonlinear properties of piezoelectric and ferroelectric materials based on physical insights of the material have been performed during the last two decades by using micromechanical and phenomenological models. The most significant experiments and models are deeply discussed in the literature survey. In this thesis the nonlinear behaviour of tetragonal perovskite type piezoceramic materials is simulated theoretically using two and three dimensional micromechanical models which are based on physical insights of the material. In the simulations a bulk piezoceramic material which has numerous grains is considered. Each grain has random orientation in properties of polarization and strain. Randomness of orientations is given by Euler angles equally distributed between \(0\) and \(2\pi\). Each element in the micromechanical model has been assumed to have the same properties of the real piezoelectric grain. In the first part of the simulations, quasi-static characteristics of piezoelectric materials are investigated by applying cyclic, rate independent, bipolar, uni-axial and external electrical loading with an amplitude of 2 kV/mm gradually starting from zero value in virgin state. Moreover, the simulations are undertaken for these materials which are subjected to quasi-static, uni-polar, uni-axial mechanical stress, namely compressive stress. The calculations are performed at each element based on linear constitutive equations, nonlinear domain switching and a probability theory for domain switching. In order to fit the simulations to the experimental data, some parameters such as spontaneous polarization, spontaneous strain, piezoelectric and dielectric constants are chosen from literature. The domain switching of each grain is determined by an electromechanical energy criterion. Depending on the actual energy related to a critical energy a certain probability is introduced for domain switching of the polarization direction. Same energy levels are assumed in the electromechanical energy relation for different types of domain switching like 90º and 180º for perovskite type tetragonal or 70.5º and 109.5º for rhombohedral microstructures. It is assumed that intergranular effects between grains can be modelled by such probability functions phenomenologically. The macroscopic response of the material to the applied electromechanical loading is calculated by using Euler transformations and averaging the individual grains. Properties of piezoelectric materials under fixed mechanical stresses are also investigated by applying constant compressive stress in addition to cyclic electrical loading in the simulations. Compressive stress is applied and kept constant before cyclic bipolar electrical loading is implemented. In the following chapters, a three-dimensional micromechanical model is extended for the simulation of the rate dependent properties of certain perovskite type tetragonal piezoelectric materials. The frequency dependent micromechanical model is now not only based on linear constitutive and nonlinear domain switching but also linear kinetics theories. The material is loaded both electrically and mechanically in separate manner with an alternating electrical voltage and mechanical stress values of various moderate frequencies, which are in the order of 0.01 Hz to 1 Hz. Electromechanical energy equation in combination with a probability function is again used to determine the onset of the domain switching inside the grains. The propagation of the domain wall during the domain switching process in grains is modelled by means of linear kinetics relations after a new domain nucleates. Electric displacement versus electric field hysteresis loops, mechanical strain versus mechanical stress and electric displacement versus mechanical stress for different frequencies and amplitudes of the alternating electric fields and compressive stresses are simulated and presented. A simple micromechanical model without using probabilistic approach is compared with the one that takes it into account. Both models give important insights into the rate dependency of piezoelectric materials, which was observed in some experiments reported in the literature. Intergranular effects are other significant factors for nonlinearities of polycrystalline ferroelectric materials. Even piezoelectric actuators and sensors show nonlinearities when they are operated with electrical loading, which is much lower than the coercive electric field level. Intergranular effects are the main cause of such small hysteresis loops. In the corresponding chapter, two basic field effects which are electrical and mechanical are taken into account for the consideration of intergranular effects micromechanically in the simulations of the two dimensional model. Therefore, a new electromechanical energy equation for the threshold of domain switching is introduced to explain nonlinearities stemming from both domain switching and intergranular effects. The material parameters like coercive electric field and critical spontaneous polarization or strain quantities are not implemented in the electromechanical energy relation. But, this relation contains new parameters which consider both mechanical and electrical field characteristics of neighbouring elements. By using this new model, mechanical strain versus electric field butterfly curves under small electrical loading conditions are also simulated. Hence, a rate dependent concept is applied in butterfly curves by means of linear kinetics model. As a result, the simulations have better matching with corresponding experiments in literature. In the next step, the model can be extended in three dimensional case and the parameters of electromechanical energy relation can be improved in order to get better simulations of nonlinear properties of polycrystalline piezoelectric materials.
Epidemiologische Studien geben Hinweise, dass eine obst- und gemüsereiche Kost präventiv gegen verschiedene ROS-assoziierte Krankheiten wirksam ist. Aufgrund der komplexen Zusammensetzung von Nahrungsmitteln ist schwer zu erfassen, welche Inhaltsstoffe für die Wirksamkeit maßgeblich sind. Phenolische Apfelsaftextrakte (AEs) aus Säften unterschiedlicher Apfelsorten und ein Tresterextrakt (APE03) wurden auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Darmzellen untersucht. Ein zweistufiges Inkubationsprotokoll kam in humanen Kolonzelllinien (Caco-2, HT29) zur Anwendung: basierend auf einer 24 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Die Apfelsaftextrakte wurden im Vergleich zu als Antioxidanzien beschriebenen Saftinhaltsstoffen (Rutin, Phloridzin, Epicatechin, Kaffeesäure, Chlorogensäure) und zu entsprechenden rekonstituierten Mischungen (rAEs) geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level und Glutathionspiegel. Zusätzlich wurden antioxidative Kapazität und die Stabilität der Einzelstoffe unter Inkubationsbedingungen erfasst. Die Apfelsaftextrakte zeigten eine ausgeprägte antioxidative Kapazität (3.6-4.2 mM Trolox), der Tresterextrakt APE03 war dabei wirksamer als die drei Saftextrakte. Die höheren TEAC-Werte der entsprechenden rAEs (4.7-7.3 mM Trolox) deuten auf eine zentrale Rolle der Einzelstoffe in der Mischung hin. Der zelluläre ROS-Level wurde durch die Extrakte AE01, AE02 und APE03 (1-100 µg/mL) und rAEs (0.5-50 µg/mL) in beiden Zelllinien signifikant verringert. AE04 war nur in HT29 Zellen wirksam. Oxidative DNA-Schäden in Caco-2 Zellen wurden durch die Extrakte (50-100 µg/mL) und deutlicher durch die rekonstituierten Mischungen (1 µg/mL) von AE01 und APE03 verringert. Von den Saftinhaltsstoffen zeigten Kaffeesäure und Rutin das höchste Potenzial zur Verringerung von DNA-Schäden; der zelluläre ROS-Level wurde am effektivsten durch Kaffeesäure und Chlorogensäure verringert. Der Glutathionspiegel von Caco-2 Zellen wurde durch AE02 und APE03 sowie durch Kaffeesäure, nicht jedoch durch andere Einzelstoffe oder Mischungen erhöht. Die Aglyka Quercetin und Phloretin, die aus Glykosiden im Intestinaltrakt freigesetzt werden können, wiesen in allen Endpunkten die höchste Wirksamkeit auf. Humane primäre Kolonzellen erwiesen sich in den Untersuchungen als ein weniger geeignetes Modellsystem, möglicherweise aufgrund der Art der gewählten Inkubation. Insgesamt erwiesen sich die phenolischen Apfelsaftextrakte als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzelllinien. Mit den begleitenden Untersuchungen von Mischungen und Einzelstoffen wurden Polyphenole (Kaffeesäure, Rutin, Chlorogensäure) identifiziert, die wesentlich zur protektiven Wirkung der Saftextrakte beitragen. Der gewählte in vitro-Prüfansatz erwies sich dabei als geeignet zur Charakterisierung der antioxidativen Wirksamkeit von Apfelsaftinhaltsstoffen in Darmzellen. Die antioxidative Wirksamkeit kann nicht alleine auf die untersuchten Hauptkomponenten zurückgeführt werden. Es liegt nahe, dass auch bisher nicht charakterisierte Substanzen/ Substanzgruppen ebenfalls einen Beitrag an der antioxidativen Wirksamkeit leisten. Eine möglichst umfassende Charaktersisierung von Apfelsaftinhaltsstoffen ist notwendig, gerade im Hinblick auf eine mögliche Prävention von Darmerkrankungen durch die Aufnahme von Apfelsaft.
Die Phagozytose apoptotischer Zellen ist ein essentieller Schritt bei der Embryogenese und dem Erhalt der Gewebehomöostase. Phagozyten beseitigen dabei nicht nur die sterbenden Zellen und verhindern damit eine Freisetzung immunogener zellulärer Bestandteile ins umliegende Gewebe, sondern unterdrücken aktiv pro-inflammatorische Antworten, wie die Sekretion von TNFalpha oder die Produktion von NO. Das Wissen über die zugrunde liegenden Prozesse und Mechanismen ist noch lückenhaft. Auch wenn bereits eine Vielzahl von beteiligten Rezeptoren und Reaktionen der Phagozytenzellen auf apoptotische Zellen (AZ) bekannt sind, sind die verantwortlichen und vermutlich sehr komplexen Signalwege noch relativ wenig erforscht. Die Produktion von kleinen reaktiven Molekülen wie NO oder Sauerstoffradikale (ROS) durch Makrophagen ist ein initialer Schritt zur Bekämpfung von Pathogenen. Zu Beginn meiner Promotion lagen noch keinerlei Daten bezüglich eines Einflusses apoptotischen Materials auf die ROS-Produktion aktivierter Makrophagen vor. Der grundlegende anti-inflammatorische Makrophagenphänotyp nach der Phagozytose von AZ führte zur Hypothese, dass auch diese durch AZ beeinflusst würde. Diese Überlegung bildete den Ausgangspunkt für meine Studien: Zunächst gelang es mir, ein Testsystem zur Untersuchung anti-inflammatorischer Effekte in Makrophagen nach der Phagozytose von AZ zu etablieren. Dabei konnte ich zeigen, dass die von mir verwendeten apoptotischen Jurkat-Zellen von murinen RAW264.7-Makrophagen aufgenommen werden und deren pro-inflammatorische Antwort, gemäß der Literatur, zu hemmen vermögen. In durchflusszytometrischen Untersuchungen konnte ich mittels eines Redox-sensitiven Farbstoffs zeigen, dass AZ im Gegensatz zu nekrotischen oder vitalen Zellen die TPA-vermittelte ROS-Produktion in Makrophagen inhibieren. Sowohl durch EMSA und Western Blot-Analysen, als auch durch die Verwendung von d/n PPARgamma und PKCalpha-überexprimierenden Makrophagen, konnte ich nachweisen, dass die initiale Hemmung des ‚oxidative burst’ (innerhalb 1 Stunde) über eine PPARgamma-induzierte Inhibition der PKCalpha-vermittelt wird. Für diese reicht eine Bindung von AZ an die Makrophagen aus, während zu späteren Zeitpunkten andere, noch unbekannte Faktoren involviert scheinen. Dieser Mechanismus scheint auch in primären humanen Makrophagen von Bedeutung zu sein. Die Beobachtung, dass es nach der Behandlung aktivierter Makrophagen mit AZ zu einer verminderten IFNgamma-vermittelten NO-Produktion bei stark exprimierter iNOS kommt, ließ die Theorie zu, dass nicht - wie bisher vermutet - TGFbeta für diesen Effekt verantwortlich ist. Auch hier gelang es mir, neue Erkenntnisse über den zugrunde liegenden Mechanismus der AZ-vermittelten NO-Inhibition zu erlangen: Mittels eines Aktivitäts-Assays und durch Einsatz des spezifischen Arginaseinhibitors nor-NOHA konnte ich zeigen, dass der Einfluss von AZ auf aktivierte Makrophagen nicht etwa deren iNOS-Aktivität verringert, sondern vielmehr aus einer erhöhten Arginaseaktivität resultiert. Diese führt scheinbar zu einer verminderten Substratverfügbarkeit für die iNOS und hemmt so die NO-Produktion. Western Blot- und quantitative PCR-Versuche zeigten eine erhöhte Arginase II-Expression nach Stimulation mit AZ, welches ebenfalls meine Theorie unterstützt. Ferner konnte ich durch den Einsatz von AZ-konditioniertem Medium zeigen, dass ein noch unbekannter, von AZ sekretierter löslicher Faktor für die Hemmung der NO-Produktion verantwortlich ist. Die Beobachtung einer sehr frühen COX-2-Expression nach der Inkubation von Makrophagen mit AZ und das Nichtvorhandensein entsprechender Beobachtungen in der Literatur führten dazu, dass ich mich im letzten Teil meiner Arbeit mit dem hierfür verantwortlichen Mechanismus befasste: Unter Verwendung eines Luziferase-Assays, bei dem das Luziferasegen mit der 3´-UTR oder AREs des COX-2-Gens gekoppelt war, konnte ich zeigen, dass - wie schon bei der Inhibition der NO-Produktion durch die Arginase II - ein von AZ sekretierter löslicher Faktor für eine schnelle, AZ-spezifische und höchstwahrscheinlich durch COX-2-mRNA-Stabilisierung vermittelte Proteinexpression verantwortlich war. Eine schnelle Erhöhung der COX-2-mRNA nach AZ-Stimulus sowie jüngste Untersuchungen unserer Arbeitsgruppe, welche eine erhöhte COX-2-mRNA-Halbwertszeit zeigen, unterstützen diese Hypothese. Die von mir gewonnenen neuen Erkenntnisse über die Makrophagenreprogrammierung nach der Erkennung von AZ tragen zu einem tieferen Verständnis der zugrunde liegenden Signalwege und Mechanismen bei. Es besteht die hoffnungsvolle Aussicht, dass das Verstehen und die Manipulation der ablaufenden Prozesse bei der Phagozytose von AZ eines Tages einerseits neue Therapiemöglichkeiten zur Behandlung von Infektions- und Autoimmunkrankheiten und andererseits verbesserte Strategien zur Bekämpfung von Krebs ermöglichen werden.
Die zunehmende Leistungsfähigkeit moderner Dieselmotoren in Verbindung mit leistungsbezogen geringen Kraftstoffverbräuchen sorgte in den letzten Jahren für eine starke Zunahme der Diesel-PKW in Deutschland. Während beim konventionellen Ottomotor durch den 3-Wege-Katalysator die gesetzlich limitierten Schadstoffkomponenten in hohem Maße (> 98 %) umgesetzt werden können, beschränkte sich beim Dieselmotor die Abgasnachbehandlung bisher im wesentlichen auf den Einsatz eines Oxidationskatalysators zur Verringerung des CO- und HC-Ausstoßes. Stickoxide und Partikel wurden bisher weitgehend über innermotorische Maßnahmen auf das gesetzlich vorgeschriebene Niveau gebracht. Mittlerweile wurde der Partikelfilters als Serienstandard eingeführt. Damit ergeben sich zwar Möglichkeiten zur Stickoxid-optimierten Motorauslegung, ob dies aber ausreicht, um einer weiteren Verschärfung der Abgasgesetzgebung zu begegnen, kann in Frage gestellt werden. Weiterhin wird, um den in der Dieselmotorentwicklung führenden europäischen Herstellern den US-amerikanischen Markt weiter zu öffnen, die Einhaltung der kalifornischen SULEV Grenzwerte als Benchmark angesehen. Diese Grenzwerte können nach heutigem Stand der Technik zwar für CO, HC und Partikel-Emissionen realisiert werden, nicht aber in bezug auf Stickoxide. Aufgrund dieser Überlegungen werden zur Zeit verstärkt Forschungsarbeiten auf dem Gebiet der DeNOx-Technologien durchgeführt. Besonders der SCR-Technologie wird eine hohe Serientauglichkeit zugetraut. Die Selektive Katalytische Reduktion bezieht sich hierbei auf die gezielte Umsetzung der Stickoxide am Katalysator mit Unterstützung eines Reduktionsmittels. Dabei können z.B. Kohlenwasserstoffe aber vor allem auch Ammoniak NH3 eingesetzt werden. Da Ammoniak als Gefahrstoff eingestuft ist und somit nur bedingt im Fahrzeug mitgeführt werden kann, befasst sich diese Arbeit mit der bereits bekannten und sowohl in stationären Anwendungen, als auch im Nutzfahrzeugbereich erprobten Harnstoff-SCR-Technologie. Dazu wurde ein Audi A8 2,5 TDI mit einer Flüssigharnstoff-SCR-Anlage ausgestattet. Es handelt sich dabei um ein druckluftunterstütztes System mit einem elektrischen Kompressor. Die Harnstofflösung wird über ein Taktventil in eine Mischkammer dosiert. Das Harnstoff- Luftgemisch wird im Zulauftrichter des Unterboden-SCR-Katalysators über ein Dosierrohr mit Radialdüse verteilt. Die Reduktionsmitteldosierung wird über einen NOx-Sensor und ein Thermoelement gesteuert. Ein weiterer NOx-Sensor dient zur online-Umsatzbestimmung im Fahrbetrieb. Um die Tieftemperaturaktivität des Systems zu steigern, wurden zwei Zusatzvorkatalysatoren verbaut. Damit konnte das im niedrigen Temperaturbereich umsatzentscheidende NO2-Verhältnis vor SCR-Katalysator deutlich gesteigert werden. Ohne Eingriffe in die Motorsteuerung konnten im MVEG_B-Kalttest Stickoxidkonvertierungsraten bis 63 % erreicht werden. Der Schwerpunkt der Untersuchungen lag auf dem Katalysatorsystem. Dazu wurden zwei Alterungsmessreihen durchgeführt. Die generelle Fahrzeugtauglichkeit des Systems konnte nachgewiesen werden. Auch im realen, transienten Fahrbetrieb lassen sich hohe Stickoxidkonvertierungsraten ohne messbaren Ammoniakschlupf erzielen. Zusätzliche Motorprüfstandsuntersuchungen lassen erkennen, dass durch Katalysatorheizmaßnahmen nicht nur eine weitere NOx-Umsatzsteigerung erzielt werden kann, sondern auch die Dosierstrategie einfacher zu realisieren ist, weil der NH3-Einspeicherungsbereich des Katalysators schneller durchlaufen wird. Zur Abschätzung des Verkleinerungspotentials von SCR-Katalysatoren wurde am Motorprüfstand eine Untersuchungsreihe mit besonderen Katalysatorträgerstrukturen im Vergleich zu Standardträgern durchgeführt. Die Trägerstrukturen erhöhen die Stoffaustauschrate im Katalysator und führen zu einer Verbesserung der Katalysatorausnutzung. Gerade im Bereich höherer Raumgeschwindigkeiten konnten zum Teil deutliche Steigerungsraten der Stickoxidkonvertierung im Vergleich zum Standardträger realisiert werden.
Die cyclischen Alkylamine Aziridin und Azetidin wurden auf ihre Reaktivität in der mehrfachen Palladium-katalysierten Arylaminierung untersucht. Obwohl es sich hierbei um gespannte Heterocyclen handelt, ließen sich mit beiden Aminen gezielte und effiziente Kupplungen verschiedener Bromaryle durchführen. Durch den gegenüber anderen sekundären Aminen geringen sterischen Anspruch lässt sich die konkurrierende Beta-Hydrideliminierung weitestgehend zurückdrängen. Durch die verhältnismäßig geringe Basizität des Aziridins ließen sich Aminierungen von Monobromarylen und elektronenarmen Oligobromarylen mit der schwachen Base Cs2CO3 bewerkstelligen. Erst bei der mehrfachen Arylaminierung von zunehmend elektronenreicheren Substraten bedurfte es der Verwendung einer stärkeren Base, wie dem verwendeten NaOtBu. Im Falle des Azetidins ließen sich dagegen effektive Umsetzungen bereits bei den monosubstituierten Substraten nur unter Einsatz einer starken Base erreichen. Darüber hinaus zeigten sowohl Aziridin als auch Azetidin eine außerordentlich hohe Reaktivität gegenüber Iodarylen. Im Gegensatz zu den Kupplungen der Bromaryle, ließen sich bei einer reduzierten Katalysatormenge die entsprechenden Arylamine innerhalb einer kürzeren Reaktionszeit erhalten. Bei der Palladium-katalysierten Aminierung von Iodbenzol reichte bereits eine Katalysatormenge von 0,3 mol% für eine effiziente Kupplung aus. Bei der Verwendung von XantPhos als Ligand lassen mit Azetidin auch effektiv Kupplungen von Iodarylen bei Raumtemperatur durchführen. Auf diese Weise lässt sich unter anderem 1,2,4,5-Tetraazetidinobenzol in exzellenter Ausbeute synthetisieren. Durch den geringen sterischen Anspruch des Aziridins in Verbindung mit seiner schlechten Elektronendonoreigenschaft ist es zudem erstmals gelungen eine sechsfache Palladium-katalysierte Arylaminierung durchzuführen. Das Reaktionsprodukt der sechsfachen Kupplung – Hexaaziridinobenzol, erweist sich als unerwartet stabile Verbindung. Obwohl Hexaaziridinobenzol ein elektronenreiches Benzolderivat ist, wie durch UV/Vis-Spektroskopie und Cyclovoltammetrie belegt werden konnte, neigt es unter Luft nicht zur Oxidation. Die Struktur des Hexaaziridinobenzols konnte durch ab initio Rechnungen und durch eine Kristallstrukturanalyse ermittelt werden. Hierbei zeigte sich, dass gegenüber dem freien Aziridin die Dreiringe des Hexaaziridinobenzols durch die Anordnung im Molekül wesentlich gespannter sind, was an den verkürzten Bindungen innerhalb der Aziridinringe zu erkennen ist. Durch die angestiegene Ringspannung lässt sich Hexaaziridinobenzol im Gegensatz zu anderen elektronenreichen Hexaamino-benzolen nicht in stabile Kationen oder Übergangsmetallkomplexe überführen.
Arealweite Phylogeografie und Populationsgenetik der temperat-montanen Meum athamanticum (Apiaceae)
(2006)
Die vorliegende Arbeit befasst sich mit der molekularen Biogeografie und der Populationsgenetik von Meum athamanticum (Apiaceae). Die Untersuchung stellt dabei die erste arealweite Phylogeografie einer europäischen temperat-montanen Pflanzenart dar. Neben der biogeografischen Struktur lag ein Schwerpunkt dieser Arbeit auf der Untersuchung der M. athamanticum-Populationen des mitteleuropäischen Periglazialgebietes. Dadurch sollte ein Beitrag zur aktuell geführten Debatte und Theoriebildung der postglazialen Arealentwicklung temperater Arten geleistet und die Rolle des mitteleuropäischen Mittelgebirgsraums für die historische Entwicklung der Art beleuchtet werden. Auf der Basis populationsgenetischer Analysen sollten außerdem Aussagen zum Schutz der gefährdeten Art M. athamanticum getroffen werden. Für die Arbeit wurden AFLP-Untersuchungen an 173 Individuen aus 23 Populationen aus dem gesamten Verbreitungsgebiet von M. athamanticum durchgeführt. Außerdem wurden von 24 Individuen ITS- und ETS-Sequenzen erzeugt und analysiert, um Hinweise auf die ursprünglichen Evolutionsvorgänge innerhalb der Art zu erhalten. Für die feinere Auflösung des mitteleuropäischen Teilareals wurde in einem zweiten AFLP-Datensatz 210 Individuen aus 14 Populationen untersucht. Innerhalb der Art ist eine deutliche Nord-Süd-Differenzierung nachweisbar, die durch eine intermediäre Populationsgruppe in den Südwest-Alpen, die vermutlich eine sekundäre Kontaktzone repräsentiert, getrennt wird. Die starke genetische Separierung südlicher Populationen und die Existenz distinkter ITS/ETS-Haplotypen liefern Hinweise darauf, dass die Auftrennung innerhalb M. athamanticum relativ alt ist. Das wird gestützt durch die Tatsache, dass in allen drei großen geografischen Regionen Populationen mit hoher genetischer Diversität und genetisch alte Reliktpopulationen, die durch eine hohe Zahl eigener Fragmente gekennzeichnet sind, existieren. Die Ergebnisse der individuellen und populationsbezogenen Diversitätsanalysen zeigen, dass M. athamanticum sich nicht an den großräumigen Rekolonisationsvorgängen der europäischen Flora beteiligte, sondern zumindest das letzte glaziale Maximum im periglazialen Mitteleuropa überdauerte. Ein Refugialgebiet bestand wahrscheinlich im Umfeld des französischen Zentralmassivs, ein weiteres vermutlich im Randbereich von Ardennen/Eifel. Weiter gibt es Hinweise darauf, dass rund um den Gebirgsbogen des Erzgebirges und im Umfeld des Schwarzwaldes Refugien der Art gelegen haben. Und schließlich wird eine glaziale Persistenz im Bereich der Britischen Inseln postuliert. Eine Gruppe mit Populationen aus dem Thüringer Wald und dem Bayerischen Alpenvorland sind als Übergangsgruppe und sekundäre Kontaktzone zwischen den mitteleuropäischen Refugien zu deuten. Die Ergebnisse weisen auf unterschiedliche Migrationsmuster von M. athamanticum hin, die durch die topografischen Gegebenheiten in den geografischen Teilräumen geprägt sind. Im nördlichen Teilareal von M. athamanticum kam es bei einem vergleichbar wenig ausgeprägten Relief (heutige Vorkommen zwischen 200 und 1020 m ü. NN) zu geografisch weiträumigen longitudinalen und latitudinalen Migrationen, was die Bildung intramontaner Populationen und den genetischen Austausch mit benachbarten Populationen ermöglichte. Demgegenüber kam es in Südeuropa während kalter Perioden im Zuge der klimabedingten Absenkung der Vegetationszonen zu geografisch eng begrenzten, altitudinalen Wanderungsbewegungen (heutige Vorkommen zwischen 1400 und 2900 m ü. NN), womit ein genetischer Austausch zwischen benachbarten Populationen auch in den Kaltphasen eingeschränkt war. Die genetischen Merkmale (AMOVA: Differenzierung zwischen den Populationen; NJ: längere Äste; modellbasiertes Clusterverfahren: höhere Likelihood für Differenzierung; hohe Anzahl privater und fixierter privater Fragmente und isolation-by-distance der Populationen des südlichen Arealrandes (rear edge) reflektieren insgesamt Isolationsereignisse, die vermutlich bis in das Tertiär zurückreichen. Aus den Ergebnissen der arealweiten phylogeografischen Studie als auch der mitteleuropäischen populationsgenetischen Studie können Schlussfolgerungen für den Schutz von M. athamanticum gezogen werden können. Dabei werden die rear-edge-Populationen der südeuropäischen Hochgebirge, genetisch rezent verarmte Kleinpopulationen in Mitteleuropa und die genetisch diversen Populationen in allen Teilarealen als prioritär für den Erhalt der Art eingestuft.
The primary object of this work is the development of a robust, accurate and efficient time integrator for the dynamics of flexible multibody systems. Particularly a unified framework for the computational dynamics of multibody systems consisting of mass points, rigid bodies and flexible beams forming open kinematic chains or closed loop systems is developed. In addition, it aims at the presentation of (i) a focused survey of the Lagrangian and Hamiltonian formalism for dynamics, (ii) five different methods to enforce constraints with their respective relations, and (iii) three alternative ways for the temporal discretisation of the evolution equations. The relations between the different methods for the constraint enforcement in conjunction with one specific energy-momentum conserving temporal discretisation method are proved and their numerical performances are compared by means of theoretical considerations as well as with the help of numerical examples.
The validity of formulas w.r.t. a specification over first-order logic with a semantics based on all models is semi-decidable. Therefore, we may implement a proof procedure which finds a proof for every valid formula fully automatically. But this semantics often lacks intuition: Some pathological models such as the trivial model may produce unexpected results w.r.t. validity. Instead, we may consider just a class of special models, for instance, the class of all data models. Proofs are then performed using induction. But, inductive validity is not semi-decidable -- even for first-order logic. This theoretical drawback manifests itself in practical limitations: There are theorems that cannot be proved by induction directly but only generalizations can be proved. For their definition, we may have to extend the specification. Therefore, we cannot expect to prove interesting theorems fully automatically. Instead, we have to support user-interaction in a suitable way. In this thesis, we aim at developing techniques that enhance automatic proof control of (inductive) theorem provers and that enable user-interaction in a suitable way. We integrate our new proof techniques into the inductive theorem prover QuodLibet and validate them with various case studies. Essentially, we introduce the following three proof techniques: -We integrate a decision procedure for linear arithmetic into QuodLibet in a close way by defining new inference rules that perform the elementary steps of the decision procedure. This allows us to implement well-known heuristics for automatic proof control. Furthermore, we are able to provide special purpose tactics that support the manual speculation of lemmas if a proof attempt gets stuck. The integration improves the ability of the theorem prover to prove theorems automatically as well as its efficiency. Our approach is competitive with other approaches regarding efficiency; it provides advantages regarding the speculation of lemmas. -The automatic proof control searches for a proof by applying inference rules. The search space is not only infinite, but grows dramatically with the depth of the search. In contrast to this, checking and analyzing performed proofs is very efficient. As the search space also has a high redundancy, it is reasonable to reuse subproofs found during proof search. We define new notions for the contribution of proof steps to a proof. These notions enable the derivation of pruned proofs and the identification of superfluous subformulas in theorems. A proof may be reused in two ways: upward propagation prunes a proof by eliminating superfluous proof steps; sideward reuse closes an open proof obligation by replaying an already found proof. -For interactive theorem provers, it is essential not only to prove automatically as many lemmas as possible but also to restrict proof search in such a way that the proof process stops within a reasonable amount of time. We introduce different markings in the goals to be proved and the lemmas to be applied to restrict proof search in a flexible way: With a forbidden marking, we can simulate well-known approaches for applying conditional lemmas. A mandatory marking provides a new heuristics which is inspired by local contribution of proof steps. With obligatory and generous markings, we can fine-tune the degree of efficiency and extent of proof search manually. With an elaborate case study, we show the benefits of the different techniques, in particular the synergetic effect of their combination.
Im Rahmen dieser Arbeit ist eine existierende, hochpräzise Mehrachsendrehmaschine untersucht worden. Die Drehmaschine ist durch einen unkonventionellen Aufbau in der Summe als neuartig zu benennen. Vom Üblichen abweichende Führungen (Doppelprismenführungen als berührende Gleitführungen statt Wälzführung oder berührungsfreie Gleitpaarung) werden durch schwingungsanregende Motoren (Schrittmotoren statt Servomotoren) angetrieben. Durch den Einsatz von Schrittmotoren wird die Position der Achsen gesteuert und nicht geregelt, eine Anzeige der Achsstellungen wird nur zur Arbeitserleichterung bei der Einstellung von Referenzpunkten verwendet. Aufgrund der Unkonventionalität des Maschinenaufbaus bestand trotz grundsätzlich nachgewiesener Eignung zu höchst präziser Fertigung Unsicherheit hinsichtlich erreichbarer Oberflächengüte und Formtreue für typische Bearbeitungsaufgaben der Metalloptikherstellung. Die Eignung der Maschine zur Herstellung einer weiteren Kategorie höchst präziser Optikelemente, Gitter oder allgemeiner Mikrostrukturen, wurde in der Vergangenheit zwar immer wieder gefordert, postuliert und teilweise auch nachgewiesen, eine Grenze der auf dieser Maschine möglichen Mikrostrukturgenauigkeiten ist jedoch bisher nicht nachgewiesen worden. Zur Erlangung besserer Planungssicherheit für die Weiterentwicklung und auch tägliche Arbeit mit dieser Maschine wurde eine mathematische Beschreibung inkl. Fehlerbetrachtung der Werkzeugposition in Abhängigkeit der Achsstellungen erstellt. In diese Fehlerbetrachtung fließt mit der praktischen Ausrichtung und Justierung der Maschine ein wichtiger genauigkeitsbestimmender Arbeitsschritt ein. Weitere Fehlerfaktoren, z.B. thermisch induzierte Positionsfehler und Schwingungen, wurden in den auftretenden Wirkungen beobachtet und angegeben. Dieses mathematische Modell und die Fehlerbetrachtung werden auf beispielhafte, typische Bearbeitungsaufgaben aus dem Bereich der Metalloptiken (Spiegel: Planflächen, sphärisch konkave Flächen, asphärisch konkave Flächen) und zusätzlich Gitter als Mikrostrukturierung angewendet. Es wird die aus dem mathematischen Modell abgeleitete Vorhersage erreichbarer Oberflächen / Rauheiten mit den tatsächlich erreichten Werten verglichen. Dieser Vergleich stützt bei Planflächen, Sphären und Asphären das Modell, gleichzeitig kann nur geringes Verbesserungspotential ausgemacht werden. Bei Gittern stützt der Vergleich im Betriebsmodus kontinuierliches Vorschubdrehen ebenfalls das Modell, jedoch kann aus Modell und Praxis Verbesserungspotential durch kleinere Winkelschritte der Antriebsmotoren abgeleitet werden. Die Grenze des Modells wird bei der Gitterherstellung durch nicht kontinuierliches Vorschubdrehen (Burst-Mode, Feuerstoß-Vorschub) aufgezeigt: Diese Betriebsart regt mit harten Stößen die gesamte Maschine zu deutlichen Schwingungen an und überfordert zusätzlich die Gleiteigenschaften der Führungen, so dass entgegen theoretischer Vorhersagen eine deutliche Verschlechterung der Konstanz der Grabenabstände realisiert wird. Die gesammelten Erkenntnisse führen im Kapitel Ausblick zu einer Vielzahl an Verbesserungsmöglichkeiten. Letztendlich wird prinzipbedingt eine Schwäche bei der Mikrostrukturierung nachgewiesen, wodurch sich hier das höchste Verbesserungspotential ableiten lässt. Bei realistischer Betrachtungsweise wird jedoch eine Empfehlung zur Bearbeitung kontinuierlicher Oberflächen erkannt werden. Hier liegt das Verbesserungspotential allerdings vorwiegend in einer Rationalisierung der Programmierung und Achssteuerung für häufig wechselnde Prototypen, also auf wenig wissenschaftlichem Gebiet. Als Fortführung dieser Arbeit wird das Aufstellen und Überprüfen eines thermischen Modells der Maschine empfohlen. Hieraus könnten nicht nur weitere Verbesserungsmöglichkeiten abgeleitet werden, darüber hinaus sind die beim Aufstellen und Überprüfen des thermischen Modells gefundenen Kenntnisse schon jetzt im Bereich der UP-Fertigung wichtig und werden weiter an Bedeutung gewinnen.
Im ersten Teil dieser Arbeit konnte gezeigt werden, dass die Spin-Label Aminosäure HO3007 (ein Derivat des Alanins, dessen Seitenkette mit dem Spinlabel 2,2,5,5-Tetramethylpyrrolin-nitroxid modifiziert ist) mit der Methode der amber-Suppression in Proteine inkorporiert werden kann. Der Einbau wurde ESR-spektroskopisch nachgewiesen. Dazu wurde eine neue amber-Suppressor tRNA synthetisiert. Am Akzeptorstamm trägt die tRNA die Spin-Label-Aminosäure HO3007, mit ihrem Anticodon erkennt die tRNA das amber Codon. Der Einbau der Aminosäure erfolgte in ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins in vitro. Zu diesem Zweck wurde in den in vitro Expressionsvektor pIVEX2.3MCS das Gen für ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins einkloniert. Das Gen wurde so mutiert, dass sich an der Position des Codons für die Aminosäure Phe113 (TAC) die amber-Mutation (TAG) befindet. Der neu synthetisierte Vektor trägt die Bezeichnung pIVEX2.3MCSMtj1pN-term. Der Vektor und die amber-Suppressor tRNA wurden in einem E.coli in vitro Translationssystem eingesetzt. Die hohen gebundenen Anteile der anschließend gemessenen ESR-Spektren zeigen, dass die Spin-Label Aminosäure in das nativ gefaltete N-terminale Fragment des Mtj1p-Proteins eingebaut wurde. Im zweiten Teil der vorliegenden Arbeit konnte nachgewiesen werden, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch in der isolierten -Untereinheit der FOF1-ATP-Synthase des thermophilen Bacillus PS3 an die katalytische Bindungsstelle bindet und somit für weitergehende Untersuchungen von Struktur-Funktionsbeziehungen als Reportermolekül geeignet ist. Dazu wurde die isolierte -Untereinheit mit dem Substratanalogon 2-N3-2’,3’-SL-ATP kovalent markiert und anschließend tryptisch verdaut. Die entstandenen Peptidfragmente wurden mittels MALDI-TOF Massenspektrometrie analysiert. Mit Hilfe der MASCOT-Datenbank und der Software BioTools der Fa. Bruker konnte ein Fragment identifiziert werden, bei dem Tyr 341, das sich in der katalytischen Bindungsstelle befindet, mit dem ADP-Derivat von 2-N3-2’,3’-SL-ATP kovalent markiert ist. Einen weiteren Hinweis für die erfolgreiche kovalente Modifizierung der -Untereinheit mit 2-N3-2’,3’-SL-ATP lieferte die Untersuchung des unverdauten Proteins im MALDI-TOF Massenspektrometer. Im Vergleich zum unmodifizierten Protein weist der Peak der modifizierten -Untereinheit ein deutliches Peak-tailing zu höheren Massen auf. Da die Proben vor der Messung entsalzt wurden, spricht diese Beobachtung deutlich für die kovalente Modifizierung des Proteins. Die Ergebnisse dieses Teils der Arbeit beweisen, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch im Fall der isolierten -Untereinheit an die katalytische Bindungsstelle bindet.
The study provides insights into the dynamic processes of vascular epiphyte vegetation in two host tree species of lowland forest in Panama. Further, a novel approach is presented to examine the possible role of host tree identity in the structuring of vascular epiphyte communities: For three locally common host tree species (Socratea exorrhiza, Marila laxiflora, Perebea xanthochyma) we created null models of the expected epiphyte assemblages assuming that epiphyte colonization reflected random distribution of epiphytes in the forest. In all three tree species, abundances of the majority of epiphyte species (69 – 81 %) were indistinguishable from random, while the remaining species were about equally over- or underrepresented compared to their occurrence in the entire forest plot. Permutations based on the number of colonized trees (reflecting observed spatial patchiness) yielded similar results. Finally, a Canonical Correspondence Analysis also confirmed host-specific differences in epiphyte assemblages. In spite of pronounced preferences of some epiphytes for particular host trees, no epiphyte species was restricted to a single host. We conclude that the epiphytes on a given tree species are not simply a random sample of the local species pool, but there are no indications of host specificity either. To determine the qualitative and quantitative long-term changes in the vascular epiphyte assemblage of the host tree Socratea exorrhiza, in the lowland forest of the San Lorenzo Crane Plot, we followed the fate of the vascular epiphyte assemblage on 99 individuals of this palm species, in three censuses over the course of five years. The composition of the epiphyte assemblage changed little during the course of the study. While the similarity of epiphyte vegetation decreased on single palm individuals through time, the similarity analyzed over all palms increased. Even well-established epiphyte individuals experienced high mortality with only 46 % of the originally mapped individuals surviving the following five years. We found a positive correlation between host tree size and epiphyte richness and detected higher colonization rates of epiphytes per surface area on larger trees. Epiphyte assemblages on single Socratea exorrhiza trees were highly dynamic while the overall composition of the epiphyte vegetation on the host tree species in the study plot was rather stable. We suggest that higher recruitment rates due to localized seed dispersal by already established epiphytes on larger palms promote the colonization of epiphytes on larger palms. Given the known growth rates and mortality rates of the host tree species, the maximum time available for colonization and reproduction of epiphytes on a given Socratea exorrhiza tree is estimated to be about 60 years. Changes in the epiphyte vegetation of c. 1000 individuals of the host tree species Annona glabra at Barro Colorado Island over the course of eight year were documented by means of repeated censuses. Considerable increase in the abundance of the dominating epiphyte species and ongoing colonization of the host tree species suggests that the epiphyte vegetation has not reached a steady state in the maximal 80 years since the establishment of the host tree. Epiphyte species composition as a whole was rather stable. We disentangled the relationship between epiphyte colonization and tree size/available time for colonization with the finding that tree size explained only a low proportion of colonization while other factors like connectivity to dispersal source and time explain may explain a larger part. Epiphyte populations are patchily distributed and examined species exhibit properties of a metapopulation with asynchronous local population growth, high local population turnover, a positive relationship between regional occurrence and patch population size, and negatively correlated relationship between extinction and patch occupancy. The documented metapopulation processes highlight the importance of not colonized suitable habitat for the conservation of epiphytes.
Tropical geometry is a rather new field of algebraic geometry. The main idea is to replace algebraic varieties by certain piece-wise linear objects in R^n, which can be studied with the aid of combinatorics. There is hope that many algebraically difficult operations become easier in the tropical setting, as the structure of the objects seems to be simpler. In particular, tropical geometry shows promise for application in enumerative geometry. Enumerative geometry deals with the counting of geometric objects that are determined by certain incidence conditions. Until around 1990, not many enumerative questions had been answered and there was not much prospect of solving more. But then Kontsevich introduced the moduli space of stable maps which turned out to be a very useful concept for the study of enumerative geometry. A well-known problem of enumerative geometry is to determine the numbers N_cplx(d,g) of complex genus g plane curves of degree d passing through 3d+g-1 points in general position. Mikhalkin has defined the analogous number N_trop(d,g) for tropical curves and shown that these two numbers coincide (Mikhalkin's Correspondence Theorem). Tropical geometry supplies many new ideas and concepts that could be helpful to answer enumerative problems. However, as a rather new field, tropical geometry has to be studied more thoroughly. This thesis is concerned with the ``translation'' of well-known facts of enumerative geometry to tropical geometry. More precisely, the main results of this thesis are: - a tropical proof of the invariance of N_trop(d,g) of the position of the 3d+g-1 points, - a tropical proof for Kontsevich's recursive formula to compute N_trop(d,0) and - a tropical proof of Caporaso's and Harris' algorithm to compute N_trop(d,g). All results were derived in joint work with my advisor Andreas Gathmann. (Note that tropical research is not restricted to the translation of classically well-known facts, there are actually new results shown by means of tropical geometry that have not been known before. For example, Mikhalkin gave a tropical algorithm to compute the Welschinger invariant for real curves. This shows that tropical geometry can indeed be a tool for a better understanding of classical geometry.)
Die vorliegende Arbeit beschäftigt sich mit der Löslichkeit von Gasen in chemisch reagierenden wässrigen Lösungen. Dabei werden zwei Beispiele näher betrachtet: Die simultane Löslichkeit von Ammoniak und Schwefeldioxid in wässrigen salzhaltigen Lösungen und die Löslichkeit von Kohlendioxid in wässrigen Lösungen von N-Methyldiethanolamin (MDEA), Piperazin und deren Mischungen. Die Phasengleichgewichte in solchen Systemen werden wesentlich durch die in der flüssigen Phase auftretenden chemischen Reaktionen und die dabei entstehenden ionischen Spezies beeinflusst. Die Lösungen weisen auch aufgrund der weitreichenden Coulombschen Wechselwirkungen ein stark reales Verhalten auf. Die Untersuchungen der vorliegenden Arbeit bauen auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Technischen Universität Kaiserslautern auf. In diesen Arbeiten wurden u.a. Modelle zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes in den Systemen NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser und CO2+MDEA+Piperazin+Wasser entwickelt. Diese Modelle wurden hier weiterentwickelt und verbessert. Beim System Ammoniak+Schwefeldioxid+Wasser wurde mittels ATR-IR-spektroskopischer Untersuchungen festgestellt, dass Pyrosulfit in den wässrigen Lösungen in nicht zu vernachlässigbarem Umfang auftritt. Deshalb muss die chemische Reaktion der Pyrosulfitbildung berücksichtigt werden, wenn die thermodynamischen Eigenschaften solcher Lösungen zuverlässig beschrieben werden sollen. Die chemische Gleichgewichtskonstante für die Pyrosulfitbildungsreaktion wurde aus IR-spektroskopischen und kalorimetrischen Untersuchungen des Systems Na2S2O5+H2O ermittelt. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes und der Enthalpieänderung beim Verdünnen des Systems NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser wurde zur Berücksichtigung sowohl der Pyrosulfitbildungsreaktion als auch der neuen experimentellen Daten für die Verdünnungsenthalpie von Meyer [70] erweitert. Das Modell ermöglicht Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht und Enthalpieänderungen der quaternären Systeme. Während die Gaslöslichkeit im System NH3+SO2+Na2SO4+Wasser zuverlässig beschrieben wird, sind die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems NH3+SO2+(NH4)2SO4+Wasser nicht so gut. Ein Grund dafür mag darin liegen, dass bei den Untersuchungen an diesem System die Ionenstärke deutlich größer war (I=20 molal) als bei den Untersuchungen am System NH3+SO2+Na2SO4+Wasser (I=10 molal). Die Verdünnungsenthalpie wird für beide quaternäre Systeme gut vorhergesagt. Mithilfe NMR-spektroskopischer Untersuchungen am System CO2+Piperazin+D2O wurden die chemischen Gleichgewichtskonstanten der drei in diesem System auftretenden Carbamatbildungsreaktionen ermittelt. Außerdem wurde der Partialdruck von Kohlendioxid in den wässrigen Lösungen von MDEA oder Piperazin bzw. deren Mischungen bei 313 und 353 K gemessen. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes wurde unter Einbeziehung der neuen experimentellen Daten überarbeitet. Das überarbeitete Modell ermöglicht die zuverlässige Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes der Systeme CO2+MDEA+Wasser und CO2+Piperazin+Wasser sowohl im Hochdruck- als auch im Niederdruckbereich. Das Modell ermöglicht auch Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems CO2+MDEA+Piperazin+Wasser. Die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht sind nicht so gut. Der Grund liegt vermutlich in der Vernachlässigung der Wechselwirkungen zwischen Piperazin- und MDEA- Spezies.
Die Transportproteine AtER-ANT1 und OsER-ANT1 sind Vertreter der MCF (mitochondrial carrier family) und werden phylogenetisch in die Gruppe der klassischen mitochondrialen ADP/ATP-Transporter (AACs) eingegliedert. Unter Verwendung des heterologen E. coli-Expressionssystems konnte gezeigt werden, dass es sich bei AtER-ANT1 und OsER-ANT1 um spezifische ADP/ATP-Transporter handelt. Der Transport dieser Substrate verläuft in Form eines Gegentausches, entsprechend den klassischen mitochondrialen AACs. Sowohl AtER-ANT1 als auch OsER-ANT1 sind hochgradig insensitiv gegen die Hemmstoffe BKA und CAT der klassischen mitochondrialen AACs. Dagegen konnte für diese Transportproteine NEM (N-ethylmaleimid) als spezifischer Hemmstoff identifiziert werden, der interessanterweise auch eine inhibierende Wirkung auf den Nukleotidtransport ber die ER-Membran besitzt. Der Transport der klassischen mitochondrialen AACs wird dagegen nicht beeinflusst. Untersuchungen zur subzellulären Lokalisierung von AtER-ANT1 mittels GFP-Fusion ergaben, dass dieses Protein in der Membran des Endoplasmatischen Retikulums lokalisiert ist. Weiter wurde eine Methode etabliert, die Lokalisierung des AtER-ANT1 in planta zu untersuchen. Durch Saccharosedichtegradienten-Zentrifugation in Abhängigkeit der An- bzw. Abwesenheit von Mg2+ konnte die Lokalisierung des AtER-ANT1 im ER bestätigt werden. Weiter konnte mit diesem Gradienten auch eine Kolokalisierung des AtER-ANT1 mit dem ER-spezifischen Marker-Protein Calretikulin gezeigt werden. Eine Analyse der gewebespezifischen Expression offenbarte eine starke Expression des AtERANT1 in Geweben, die eine hohe ER-Aktivität aufweisen, u.a. die Wurzelspitze, die Leitgefäße, die Samen und die Pollengewebe. Desweiteren wurde die physiologische Rolle des AtER-ANT1 anhand von zwei unabhängigen Knockout-Linien bezüglich dieses Gens umfassend untersucht. Es konnte dabei gezeigt werden, dass der dramatisch im Wachstum retardierte Phänotyp der Knockout-Pflanzen unter ambienten Wachstumsbedingungen mit einer enormen Veränderung des gesamten Stoffwechsels einhergeht. Detaillierte Metabolit-Analysen zeigten außerdem, dass die Deletion des AtER-ANT1 Gens besonders starke pleiotrope Effekte auf den Photorespirationsstoffwechsel hat. Diese Beobachtungen wurden durch Analysen der Knockout-Pflanzen unter hoch CO2-Bedingungen bestätigt. Die hoch CO2-Bedingungen bewirkten sowohl eine Verbesserung des gesamten Stoffwechsels als auch der morphologischen phänotypischen Erscheinung der Knockout-Pflanzen. Der zweite Teil der vorliegenden Arbeit beschäftigte sich mit der Redundanz verschiedener AACIsoformen in Arabidopsis thaliana, die auf biochemischer Ebene sehr ähnliche Eigenschaften besitzen. Knockout-Analysen zeigten, dass AtAAC1 für den pflanzlichen Stoffwechsel essentiell ist, da das Ausschalten eine Letalität der Pflanzen hervorruft. Für AtAAC2 und AtAAC3 kann dahingegen eine physiologische Bedeutung in späten Entwicklungsstadien der Pflanze angenommen werden. Neben der Charakterisierung pflanzlicher Transportproteine wurde zudem ein mitosomaler Adeninnukleotid-Transporter aus dem Protisten Entamoeba histolytica biochemisch unter Verwendung des heterologen E. coli-Expressionssystems charakterisiert. Die Analysen ergaben, dass es sich bei diesem Adeninnukleotid-Transporter um ein zu den klassischen mitochondrialen AACs alternatives Transportprotein handelt, das sich sowohl im Substratspektrum als auch in Inhibitorstudien von bereits charakterisierten mitochondrialen und hydrogenosomalen ATP/ADP-Transportern unterscheidet. Mitosomen benötigen Energie u.a. zur Bildung von Fe-S-Clustern. Da diese Organellform im Gegensatz zu Mitochondrien und Hydrogenosomen nicht zu einer ATP-Synthese fähig sind, indizieren die ermittelten Daten eine physiologische Funktion dieses Proteins in der Versorgung der Mitosomen mit ATP.
Mit zunehmender Integration von immermehr Funktionalität in zukünftigen SoC-Designs erhöht sich die Bedeutung der funktionalen Verifikation auf der Blockebene. Nur Blockentwürfe mit extrem niedriger Fehlerrate erlauben eine schnelle Integration in einen SoC-Entwurf. Diese hohen Qualitätsansprüche können durch simulationsbasierte Verifikation nicht erreicht werden. Aus diesem Grund rücken Methoden zur formalen Entwurfsverifikation in den Fokus. Auf der Blockebene hat sich die Eigenschaftsprüfung basierend auf dem iterativen Schaltungsmodell als erfolgreiche Technologie herausgestellt. Trotzdem gibt es immer noch einige Design-Klassen, die für BIMC schwer zu handhaben sind. Hierzu gehören Schaltungen mit hoher sequentieller Tiefe sowie arithmetische Blöcke. Die fortlaufende Verbesserung der verwendeten Beweismethoden, z.B. der verwendeten SAT-Solver, wird der zunehmenden Komplexität immer größer werdender Blöcke alleine nicht gewachsen sein. Aus diesem Grund zeigt diese Arbeit auf, wie bereits in der Problemaufbereitung des Front-Ends eines Werkzeugs zur formalen Verifikation Maßnahmen zur Vereinfachung der entstehenden Beweisprobleme ergriffen werden können. In den beiden angesprochenen Problemfeldern werden dazu exemplarisch geeignete Freiheitsgrade bei der Modellgenerierung im Front-End identifiziert und zur Vereinfachung der Beweisaufgaben für das Back-End ausgenutzt.
Uncoupling protein1 (UCP1) in brown adipose tissue was discovered earlier as the main uncoupling source of respiration. We describe the basic facts and a modest contribution of our group to the area of research on mitochondrial uncoupling proteins. After defining the terms uncoupling, leak, proton-mediated uncoupling, we discuss the assumption that due to its low abundance, uncoupling protein 2 (UCP2) can provide only mild uncoupling, i.e. can decrease the proton motive force by several mV only. A fatty acid cycling mechanism is described as a plausible explanation for the protonophoretic function of all uncoupling proteins together with our experiments supporting it. A speculation for the phylogenesis of all uncoupling proteins can be deduced by estimated UCP2 content in several tissues, and details of its activation are explained on the basis of our experiments. In the present study a solubilization and refolding method for UCP2 from inclusion bodies was developed and characterized. As it was known and also demonstrated from previous experiments on UCP1 that fatty acids are substrates, we used the same procedure to study the function of UCP2. Utilizing spin-labelled fatty acids (SLFA) for our experiments we demonstrated the binding of fatty acids to UCP2, and the competition of other natural fatty acids like oleic acid, palmitic acid, arachidonic acid and eicosatrienoic acid to the preformed complex emphasizes the presence of a fatty acid binding site for mitochondrial UCP2. The findings were observed by EPR spectroscopy where the highly immobilized spectra with presence of spin-labelled fatty acid eventually end up as free spin label spectra with a particular concentration of the natural fatty acid added to the UCP2 bound with spin-labelled fatty acid. This fits in significantly with the earlier findings of UCP1 and also leads to assumption of functional explanation about the physiological relevance between the uncoupling proteins functions. The present study, in which representative and sensitive parameters for EPR spectroscopy were established, at the same time describes the concentration effects of fatty acids upon the protein bound with spin-labelled fatty acids which are much of importance in comparison to physiological levels, being in the micromolar range (µM) as compared with milli molar (mM) as for UCP1 previously. In appropriate examples, different fatty acids are used and compared with competitors like alkylsulfonates also emphasizing the function of the protein. And the studies with the effect of nucleotides inhibition demonstrate that there exists a putative binding site for fatty acids. Much significance lies in demonstration with the spin-labelled-ATP studies where competition of ATP to the protein bound to spin-labelled ATP explains about the inhibition effect of nucleotides on the UCP2. So the present study applies different methods for the functional characterization of UCP2. The studies of natural fatty acids and alkylsulfonates with UCP2 bound to spin-labelled fatty acid, and study of nucleotide inhibition on UCP2 are closely related and give the much awaited answer to the question of functional similarities between UCP1 and UCP2. This supports the discussion of many groups which predict the functional similarity between these two proteins based upon sequence homology. Also many attempts have been reported in literature to explain the physiological functional relevance where by this present study can also be added to as we now suppose from the present conclusions of our experiments.
Die vorliegende Arbeit befasst sich mit dem Tragverhalten eines belasteten quadratischen Fundamentes, das durch nachträglich oder gleichzeitig hergestellte Bohrpfähle unterfangen wird. Die Auswirkungen nachträglich unter Fundamenten hergestellter Pfähle auf das Tragverhalten des Gesamtsystems Fundament und Pfähle werden untersucht. Es sind sowohl numerische Untersuchungen als auch Versuche an einem großmaßstäblichen Labor-Modell durchgeführt worden. Die Einflüsse einer nachträglichen Herstellung von Bohrpfählen auf das Fundamenttragverhalten sowie Herstellungseinflüsse werden numerisch simuliert und mit Hilfe der Methode der Finiten Elemente (FEM) untersucht. Als Untergrund ist Sand angenommen. Es sind sowohl die unterfangenen Fundamente als auch zum Vergleich eine Fundamentplatte untersucht. Für die Fundamentplatte sowie die Pfähle wird ein linear elastisches Materialverhalten angenommen. Das Materialverhalten des Sandes ist durch ein elasto-plastisches Stoffmodell beschrieben. Die numerische Berechnungen sind mit dem 3D-Finite Elemente Programm NONSAP durchgeführt, in das das Stoffmodell für trockenen Sand implementiert wurde. Zur Überprüfung der Güte des verwendeten numerischen Rechenverfahrens einschließlich Stoffgesetz sind die Ergebnisse aus Modellversuche herangezogen. In den Parameterstudien wird das Tragverhalten des Pfahl-Fundamentes in Abhängigkeit verschiedener Parameter, z.B. Pfahllänge, Pfahldurchmesser, Porenzahl des Sands sowie Überlagerungsdruck numerisch berechnet. Anhand dieser Ergebnisse werden geschlossene analytische Beziehungen hergeleitet, mit denen das Tragverhalten des untersuchten Modells prognostiziert werden kann. Weiter sind die Widerstände des Fundamentes und der Pfähle getrennt ermittelt und es ist das Interaktionsverhalten beider Gründungselemente aufgezeigt worden.
For the last decade, optimization of beam orientations in intensity-modulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity profiles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity profiles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity profiles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity profiles for every selection of beam orientations, making the dependence between beam orientations and its intensity profiles less important. This thesis takes advantage of this property to accelerate the optimization process through an approximation of the intensity profiles that are used for multiple selections of beam orientations, saving a considerable amount of calculation time. A dynamic algorithm (DA) and evolutionary algorithm (EA), for beam orientations in IMRT planning will be presented. The DA mimics, automatically, the methods of beam's eye view and observer's view which are recognized in conventional conformal radiation therapy. The EA is based on a dose-volume histogram evaluation function introduced as an attempt to minimize the deviation between the mathematical and clinical optima. To illustrate the efficiency of the algorithms they have been applied to different clinical examples. In comparison to the standard equally spaced beams plans, improvements are reported for both algorithms in all the clinical examples even when, for some cases, fewer beams are used. A smaller number of beams is always desirable without compromising the quality of the treatment plan. It results in a shorter treatment delivery time, which reduces potential errors in terms of patient movements and decreases discomfort.
Im ersten Teil der vorliegenden Arbeit wurde Knochenmarksmaterial von 110 Leukämiepatienten auf das Vorliegen von p53-Gen-Deletionen untersucht. Zu diesem Zweck wurden sowohl Interphasezellkerne als auch Metaphasen der Leukämiezellen mittels der Fluoreszenz-in-situ-Hybridisierungstechnik (FISH) mit der p53-Gen-Sonde untersucht. Dabei konnte in keinem der 55 untersuchten Patienten mit lymphatischer Leukämie eine Alleldeletion des p53-Gens nachgewiesen werden. Da die p53-Gen-Deletion nach den Literaturangaben bei etwa 7% der Patienten mit lymphatischer Leukämie vorkommt, widersprechen die eigenen Ergebnisse diesen Angaben. Als Grund kann die zu geringe Anzahl der untersuchten Fälle genannt werden. Bei den 55 hier untersuchten Patienten, die an myeloischer Leukämie erkrankt waren, konnte in 7 Fällen (13%) eine Deletion im p53-Gen mittels FISH nachgewiesen werden. Der Anteil der gefundenen p53-Gen-Deletionen war deutlich höher als aufgrund der Literaturangaben erwartet. Die sieben Patienten, bei denen eine p53-Gen-Deletion nachgewiesen wurde, waren alle an akuter myeloischer Leukämie (AML) erkrankt. Alle Patienten, die eine p53-Gen-Deletion aufwiesen, zeigten auch einen numerisch und strukturell aberranten Karyotyp. Im zweiten Arbeitsabschnitt wurden Knochenmarkszellen von 21 Patienten mit hämatologischen Erkrankungen mittels spektraler Karyotypisierung (SKY) untersucht und mit dem zytogenetischen Routinebefund verglichen. Ziel der Untersuchung war die Identifizierung von numerischen und strukturellen Chromosomenaberrationen, die durch die konventionelle zytogenetische Untersuchung nicht identifiziert werden konnten. Bei 17 (81%) der Fälle wurden durch SKY zusätzliche Chromosomenaberrationen festgestellt. Nur bei 4 (19%) der Fälle wurde der zytogenetische Befund bestätigt. Im dritten Arbeitsabschnitt wurden Meningeome untersucht. Bei 22 Meningeomen (17 benigne und 5 atypische Meningeomen) wurde mittels Interphase-FISH nach einer Alleldeletion des p53-Gens gesucht. Es konnte jedoch in keinem Fall eine solche Deletion nachgewiesen werden. Weiterhin wurden bei 24 Meningeomen 96 frische Biopsieproben von verschiedenen Tumorarealen mit G-Bänderungstechnik zytogenetisch analysiert. Zur besseren Aufklärung komplex aberranter Karyotypen wurden zwei Fälle (Nr. 1 und Nr. 7) auch mittels SKY-Analyse untersucht. Ziel der vorliegenden Arbeit war es festzustellen, ob zytogenetische Unterschiede zwischen den unterschiedlichen Arealen innerhalb eines Tumors vorliegen. Es gab bei 13 von 24 Meningeomen (54%) zytogenetische Unterschiede zwischen den verschiedenen Arealen innerhalb eines Tumors. 24 (83%) von 29 Meningeomen wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft und 5 (17%) von 29 Meningeomen in den Tumorgrad II. Die Tumorgradverteilung in dieser Arbeit entspricht den Literaturangaben. 13 von 24 Tumoren wiesen entweder einen normalen Karyotyp oder nur eine Monosomie 22 auf. Alle 13 Tumoren wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft. Vier Meningeome wiesen stark aberrante Karyotypen auf, was vermutlich ein Zeichen für die Tumorprogression darstellt. Es wurde auch untersucht, ob eine Korrelation zwischen dem zytogenetischen und histologischen Befunden vorliegt. In der vorliegenden Arbeit hat bei sechs Fällen der histologische Befund nicht mit dem zytogenetischen Befund übereingestimmt, da die Tumore in den Tumorgrad I eingestuft wurden, der zytogenetische Befund aber einen aberranten Chromosomensatz aufwies, der normalerweise nicht bei niedriggradigen Meningeomen, sondern bei atypischen und anaplastischen Meningeomen vorkommt. Die Untersuchungsergebnisse deuten darauf hin, dass die Kombination verschiedener zytogenetischer und molekularzytogenetischer Methoden zur Charakterisierung Chromosomaler Aberrationen bei Meningeomen sinnvoll ist.