Refine
Year of publication
- 2006 (69) (remove)
Document Type
- Doctoral Thesis (69) (remove)
Keywords
- Apfelsaft (2)
- Apoptosis (2)
- IMRT (2)
- Kontinuumsmechanik (2)
- Mischwasserbehandlung (2)
- Optimization (2)
- Oxidativer Stress (2)
- Polyphenole (2)
- Raumordnung (2)
- ammonia (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich ARUBI (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Informatik (2)
- Kaiserslautern - Fachbereich Physik (2)
In contrast to the spatial motion setting, the material motion setting of continuum mechanics is concerned with the response to variations of material placements of particles with respect to the ambient material. The material motion point of view is thus extremely prominent when dealing with defect mechanics to which it has originally been introduced by Eshelby more than half a century ago. Its primary unknown, the material deformation map is governed by the material motion balance of momentum, i.e. the balance of material forces on the material manifold in the sense of Eshelby. Material (configurational) forces are concerned with the response to variations of material placements of 'physical particles' with respect to the ambient material. Opposed to that, the common spatial (mechanical) forces in the sense of Newton are considered as the response to variations of spatial placements of 'physical particles' with respect to the ambient space. Material forces as advocated by Maugin are especially suited for the assessment of general defects as inhomogeneities, interfaces, dislocations and cracks, where the material forces are directly related to the classical J-Integral in fracture mechanics, see also Gross & Seelig. Another classical example of a material - or rather configurational - force is emblematized by the celebrated Peach-Koehler force, see e.g. the discussion in Steinmann. The present work is mainly divided in four parts. In the first part we will introduce the basic notions of the mechanics and numerics of material forces for a quasi-static conservative mechanical system. In this case the internal potential energy density per unit volume characterizes a hyperelastic material behaviour. In the first numerical example we discuss the reliability of the material force method to calculate the vectorial J-integral of a crack in a Ramberg-Osgood type material under mode I loading and superimposed T-stresses. Secondly, we study the direction of the single material force acting as the driving force of a kinked crack in a geometrically nonlinear hyperelastic Neo-Hooke material. In the second part we focus on material forces in the case of geometrically nonlinear thermo-hyperelastic material behaviour. Therefore we adapt the theory and numerics to a transient coupled problem, and elaborate the format of the Eshelby stress tensor as well as the internal material volume forces induced by the gradient of the temperature field. We study numerically the material forces in a bimaterial bar under tension load and the time dependent evolution of material forces in a cracked specimen. The third part discusses the material force method in the case of geometrically nonlinear isotropic continuum damage. The basic equations are similar to those of the thermo-hyperelastic problem but we introduce an alternative numerical scheme, namely an active set search algorithm, to calculate the damage field as an additional degree of freedom. With this at hand, it is an easy task to obtain the gradient of the damage field which induces the internal material volume forces. Numeric examples in this part are a specimen with an elliptic hole with different semi-axis, a center cracked specimen and a cracked disc under pure mode I loading. In the fourth part of this work we elaborate the format of the Eshelby stress tensor and the internal material volume forces for geometrically nonlinear multiplicative elasto-plasticity. Concerning the numerical implementation we restrict ourselves to the case of geometrically linear single slip crystal plasticity and compare here two different numerical methods to calculate the gradient of the internal variable which enters the format of the internal material volume forces. The two numerical methods are firstly, a node point based approach, where the internal variable is addressed as an additional degree of freedom, and secondly, a standard approach where the internal variable is only available at the integration points level. Here a least square projection scheme is enforced to calculate the necessary gradients of this internal variable. As numerical examples we discuss a specimen with an elliptic inclusion and an elliptic hole respectively and, in addition, a crack under pure mode I loading in a material with different slip angles. Here we focus on the comparison of the two different methods to calculate the gradient of the internal variable. As a second class of numerical problems we elaborate and implement a geometrically linear von Mises plasticity with isotropic hardening. Here the necessary gradients of the internal variables are calculated by the already mentioned projection scheme. The results of a crack in a material with different hardening behaviour under various additional T-stresses are given.
Die Verwendung organischer Moleküle in der nichtlinearen Optik (NLO) ist seit mehr als 20 Jahren Gegenstand intensiver Forschung. Man verspricht sich davon wesentliche Vorteile gegenüber den in der Anwendung weit verbreiteten anorganischen Kristallen. Diese zeigen gegenüber organischen Materialien ein wesentlich langsameres Antwortverhalten und gerin-gere nichtlinear-optische Effizienz. Als Wirtssysteme für organische Farbstoffe dienen vor allem Polymere, die mit geeigneten Methoden gepolt werden müssen. Die Weiterverarbeitung solcher Polymere zu elektrooptischen- oder nichtlinear-optischen Bauteilen ist dabei beson-ders einfach. Man kann sie in jede gewünschte Form bringen und vor allem dünne Filme ho-her Effizienz herstellen. Dies eröffnet neue interessante Perspektiven für die Anwendung in der Optoelektronik. In dieser Arbeit wurden eine Reihe interessanter neuer Chromophore für die NLO un-tersucht. Es handelt sich dabei sowohl um einfache eindimensionale Strukturen, als auch um hoch effiziente mehrdimensionale Farbstoffe. Die untersuchten ionischen Chromophore bie-ten die Möglichkeit zur einfachen Herstellung kristalliner Phasen, welche direkt in optoe-lektronische Bauteile eingesetzt werden können. Als Abschluss wurden CT-Komplexe, als Systeme niedriger nichtlinear-optischer Effizienz untersucht. Der NLO-Effekt entsteht in die-sem Fall durch intermolekulare Wechselwirkungen und nicht durch den internen Ladungs-transfer von der Donor- zur Akzeptor-Einheit des Moleküls. Die Moleküle wurden mittels polarisationsabhängiger feldinduzierter Frequenzverdoppe-lung (EFISHG) und Hyper Rayleigh-Streuung (HRS) untersucht. Die Apparatur zur Beobach-tung dieser NLO-Prozesse wurde im Rahmen dieser Arbeit neu aufgebaut und mit Erfolg wieder in den Messbetrieb überführt. Grundlegende Synthesekonzepte zur Optimierung von NLO-Chromophoren (NLOphoren) konnten mit den vorliegenden Messungen bestätigt wer-den. Die Gültigkeit des Zwei-Niveau-Modells für eindimensionale NLOphore wurde bestätigt und der Einfluss der Donor/Akzeptor-Stärke, sowie der Konjugationslänge auf die NLO-Effizienz untersucht. Für den nichtdipolaren Chromophor mit größter Konjugationslänge zeigt eine der größten für diese Art von Chromophoren je ermittelten Polarisierbarkeiten zweiter Ordnung.
Entwicklung eines Freilandtests zur Überprüfung der Wirksamkeit von Pheromonanwendungen im Weinbau
(2006)
Bei der Insektenbekämpfung durch die Paarungsstörung wird das synthetisch hergestellte Pheromon des Schädlings durch Dispenser in größeren Mengen im Freiland ausgebracht, wodurch die Paarung der Falter gestört wird. Zur Optimierung dieser Methode ist es entscheidend, die für einen wirksamen Effekt notwendigen Pheromonkonzentrationen im Freiland zu kennen. In-situ Messungen der Pheromonkonzentrationen mit gleichzeitiger Erhebung des Schadens scheiden als Methode aus, da die Messmethoden für die Pheromonkonzentration im Freiland sehr aufwendig und nicht ausreichend genau sind. Somit ergibt sich die Notwendigkeit alternative Methoden zu entwickeln, mit denen die Wirksamkeit einer bestimmten Dispenserbehandlung abschätzbar wird. Generell sind die bisher üblichen Nachweismethoden für die Wirksamkeit einer Pheromonanwendung mit großen Unsicherheiten und Kosten behaftet. In dieser Arbeit wird ein neu entwickeltes System beschrieben, mit dem es möglich ist in sehr kurzer Zeit und mit vertretbarem Aufwand die Wirksamkeit einer Pheromonanwendung abzuschätzen. Hierbei wird ein Käfig mit 8,5 m3 Volumen in einem pheromonbehandelten Weinberg aufgestellt und im Zentrum mit einer mit Weibchen der entsprechenden Art bestückten Lockfalle versehen. In diesen Käfig werden genau definierte Anzahlen von Männchen freigelassen und die in der Weibchenfalle gefangenen Männchen über mehrere Tage registriert. Ein identischer Käfig mit gleichem Männchenbesatz und Weibchenfalle in einem unbehandelten Weinberg dient als Kontrolle. Aus den Unterschieden in den Rückfangergebnissen lässt sich die Wirksamkeit einer Pheromonbehandlung bestimmen. Das Mess-System wurde mit unterschiedlichen Methoden auf seine Tauglichkeit für die angestrebten Fragestellungen überprüft. Hierbei ergab sich, dass über die Fragen der Paarungsstörung hinaus eine Vielzahl anderer Verhaltensuntersuchungen möglich wird. Erste Ergebnisse liefern unter anderem eine Dosis-Wirkungskurve für Lobesia botrana und Eupoecilia ambiguella mit der abgeschätzt werden kann, welche Abgaberate die Dispenser haben müssen um eine wirksame Paarungsstörung zu gewährleisten.
Retentionsbodenfilter dienen der weitergehenden Behandlung von Entlastungsabflüssen konventioneller Regenüberlaufbecken. Sie kommen zum Einsatz, wenn der Schutz des betroffenen Gewässers eine Reduzierung der Belastung durch Mischwassereinleitungen erfordert. Verschiedene Untersuchungen an Pilotanlagen belegen zwar grundsätzlich eine hohe Reinigungsleistung der Filterpassage, eine gesicherte Prognose der Wirksamkeit und eine Optimierung des Verfahrens erfordern jedoch eine Weiterentwicklung des vorhandenen Kenntnisstandes. Die vorliegende Arbeit soll einen Beitrag zu einem besseren Verständnis der bei der Filterpassage in RBF ablaufenden Reinigungsprozesse liefern. Im Vordergrund stehen dabei Rückhalt und Umsatz organischer Kohlenstoffverbindungen und Stickstoffverbindungen. An einer großtechnischen Anlage wurden über zwei mehrmonatige Messphasen zu- und abfließende Stoffströme erfasst. Durch die gezielte Beeinflussung des Beschickungsverhaltens wurde ein breites Spektrum unterschiedlicher Belastungszustände realisiert. Ergänzend hierzu wurden bodenkundliche Versuche durchgeführt, die der Untersuchung des Stoffumsatzes während der Trockenphasen zwischen den Beschickungsereignissen dienten. In Laborversuchen wurden darüber hinaus einzelne Teilprozesse des Stoffrückhaltes isoliert und unter definierten Randbedingungen betrachtet. Die Ergebnisse belegen, dass die Reinigungswirkung von Retentionsbodenfiltern in Bezug auf NH4 überwiegend auf einem zweistufigen Prozess beruht. Während der Durchströmung wird NH4 im Filterkörper sorbiert, um in der anschließenden Trockenphase nitrifiziert zu werden. Dauerhafte Beschickungen, wie sie unter starkem Fremdwassereinfluss auftreten, können zu einem Durchbruch der NH4-Konzentration führen. Unmittelbar nach dem Ende der Durchströmung setzt mit der Wiederbelüftung des Filterkörpers eine intensive Nitrifikation ein. Das Sorptionsvermögen regeneriert sich innerhalb weniger Tage annähernd vollständig. Bei der Prognose der Wirksamkeit von Retentionsbodenfilter mit Hilfe von Simulationsmodellen kann der NH4-Rückhaltes vereinfacht als Speicher dargestellt werden. Organische Kohlenstoffverbindungen – repräsentiert durch den CSB – weisen ein weniger eindeutiges Verhalten auf. Die partikuläre Fraktion wird während des Betriebs weitgehend an der Filteroberfläche zurückgehalten und in den Trockenphasen mineralisiert. Diese Wirkung kann als unbegrenzter Speicher modelliert werden. Hinsichtlich der gelösten Anteile konnte nicht eindeutig ermittelt werden, ob der unmittelbare Abbau während der Durchströmung dominiert oder ob auch diese Anteile wie das NH4 zunächst sorbiert werden. Die Wirkung der Filterpassage auf die gelösten und feindispersen Anteile des CSB kann annähernd durch einen konstanten Wirkungsgrad beschrieben werden.
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
In this thesis, we have dealt with two modeling approaches of the credit risk, namely the structural (firm value) and the reduced form. In the former one, the firm value is modeled by a stochastic process and the first hitting time of this stochastic process to a given boundary defines the default time of the firm. In the existing literature, the stochastic process, triggering the firm value, has been generally chosen as a diffusion process. Therefore, on one hand it is possible to obtain closed form solutions for the pricing problems of credit derivatives and on the other hand the optimal capital structure of a firm can be analysed by obtaining closed form solutions of firm's corporate securities such as; equity value, debt value and total firm value, see Leland(1994). We have extended this approach by modeling the firm value as a jump-diffusion process. The choice of the jump-diffusion process was a crucial step to obtain closed form solutions for corporate securities. As a result, we have chosen a jump-diffusion process with double exponentially distributed jump heights, which enabled us to analyse the effects of jump on the optimal capital structure of a firm. In the second part of the thesis, by following the reduced form models, we have assumed that the default is triggered by the first jump of a Cox process. Further, by following Schönbucher(2005), we have modeled the forward default intensity of a firm as a geometric Brownian motion and derived pricing formulas for credit default swap options in a more general setup than the ones in Schönbucher(2005).
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.