Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1864) (remove)
Language
- German (930)
- English (928)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (18)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (369)
- Kaiserslautern - Fachbereich Mathematik (291)
- Kaiserslautern - Fachbereich Informatik (229)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (63)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (35)
Die vorliegende Untersuchung beschäftigt sich mit thermodynamischen Grundlagen einiger Prozesse der chemischen Industrie, in denen ionische Flüssigkeiten eingesetzt werden. Die ionischen Flüssigkeiten werden z.B. als Lösungsmittel für chemische Reaktionen, oder als Alternativen zu klassischen Lösungsmitteln diskutiert. Im ersten kommerziellen Verfahren mit ionischen Flüssigkeiten, sog. BASIL-Prozess (2002), wird eine organische Base (z.B. eine Imidazolium-Verbindung) zum „Abfangen“ einer bei einer Reaktion anfallenden Säure verwendet, wobei eine ionische Flüssigkeit entsteht. Diese zeigt mit dem bei der Reaktion entstehenden Wertstoff häufig eine große flüssig-flüssig Mischungslücke, wodurch sich die Aufarbeitung des Wertstoffes vereinfacht. Die Rückgewinnung dieser organischen Base aus der ionischen Flüssigkeit geschieht i.d.R. durch eine chemische Umsetzung mit einer starken, anorganischen Base in einer wässrigen Lösung und einer Extraktion in ein organisches Lösungsmittel. Dabei fallen wässrig/organische Lösungsmittel mit starken Elektrolyten an. Im Fokus des ersten Teils der Arbeit standen experimentelle Untersuchungen zum binären Phasengleichgewicht von Systemen aus einer Imidazolium-basierten ionischen Flüssigkeit und einem organischen Lösungsmittel. Die ionische Flüssigkeit 1-n-Butyl-3-Methylimidazolium Hexafluorophosphat, [bmim][PF6], wurde auf ihre Mischbarkeit mit sieben organischen Lösungsmitteln (Ethanol, bzw. 1-Propanol, bzw. 1-Butanol, bzw. Cyclohexan, bzw. Butylacetat, bzw. Toluol, bzw. Chloroform) mittels Trübungstitration bei verschiedenen Temperaturen geprüft. Wegen nicht ausreichender Genauigkeit der Trübungsmethode im Bereich geringer Löslichkeiten wurde für die Systeme aus ([bmim][PF6] + Alkohol) die organisch-reiche Seite der Binodalkurve mittels UV/Vis - Spektroskopie untersucht. Im zweiten Teil der Arbeit wurden die gegenseitige Löslichkeit der ionischen Flüssigkeit 1-Methylimidazolium Hydrochlorid, HMIMCl, mit Butylacetat als Funktion der Temperatur, sowie binäre und ternäre Phasengleichgewichte in Systemen aus Wasser, 1-Propanol, 1-Methylimidazol und Natriumchlorid im Temperaturbereich zwischen 25 und 60 °C experimentell untersucht. Dazu wurden z.B. aus den im Phasengleichgewicht existierenden flüssigen Phasen Proben entnommen und mit verschiedenen Analysenmethoden (titrimetrischen Verfahren (pH-, Karl-Fischer-) und chromatographischen Verfahren (IC, GC)) die Zusammensetzung dieser Phasen bestimmt. Die Ergebnisse der experimentellen Untersuchungen sollen die für die Entwicklung und Erprobung thermodynamischer Modelle zur Beschreibung solcher Phasengleichgewichte erforderliche Datenbasis erweitern.
The goal of this work is the development and investigation of an interdisciplinary and in itself closed hydrodynamic approach to the simulation of dilute and dense granular flow. The definition of “granular flow” is a nontrivial task in itself. We say that it is either the flow of grains in a vacuum or in a fluid. A grain is an observable piece of a certain material, for example stone when we mean the flow of sand. Choosing a hydrodynamic view on granular flow, we treat the granular material as a fluid. A hydrodynamic model is developed, that describes the process of flowing granular material. This is done through a system of partial differential equations and algebraic relations. This system is derived by the kinetic theory of granular gases which is characterized by inelastic collisions extended with approaches from soil mechanics. Solutions to the system have to be obtained to understand the process. The equations are so difficult to solve that an analytical solution is out of reach. So approximate solutions must be obtained. Hence the next step is the choice or development of a numerical algorithm to obtain approximate solutions of the model. Common to every problem in numerical simulation, these two steps do not lead to a result without implementation of the algorithm. Hence the author attempts to present this work in the following frame, to participate in and contribute to the three areas Physics, Mathematics and Software implementation and approach the simulation of granular flow in a combined and interdisciplinary way. This work is structured as follows. A continuum model for granular flow which covers the regime of fast dilute flow as well as slow dense flow up to vanishing velocity is presented in the first chapter. This model is strongly nonlinear in the dependence of viscosity and other coefficients on the hydrodynamic variables and it is singular because some coefficients diverge towards the maximum packing fraction of grains. Hence the second difficulty, the challenging task of numerically obtaining approximate solutions for this model is faced in the second chapter. In the third chapter we aim at the validation of both the model and the numerical algorithm through numerical experiments and investigations and show their application to industrial problems. There we focus intensively on the shear flow experiment from the experimental and analytical work of Bocquet et al. which serves well to demonstrate the algorithm, all boundary conditions involved and provides a setting for analytical studies to compare our results. The fourth chapter rounds up the work with the implementation of both the model and the numerical algorithm in a software framework for the solution of complex rheology problems developed as part of this thesis.
The thesis at hand deals with the numerical solution of multiscale problems arising in the modeling of processes in fluid and thermo dynamics. Many of these processes, governed by partial differential equations, are relevant in engineering, geoscience, and environmental studies. More precisely, this thesis discusses the efficient numerical computation of effective macroscopic thermal conductivity tensors of high-contrast composite materials. The term "high-contrast" refers to large variations in the conductivities of the constituents of the composite. Additionally, this thesis deals with the numerical solution of Brinkman's equations. This system of equations adequately models viscous flows in (highly) permeable media. It was introduced by Brinkman in 1947 to reduce the deviations between the measurements for flows in such media and the predictions according to Darcy's model.
Die vorliegende Arbeit befasst sich mit den Anforderungen und der Programmarchitektur moderner objektorientierter 3D-CAD-Programme im Bauwesen. Die digitale Revolution des letzten Jahrzehnts hatte auch Auswirkungen auf die Bauplanung. Das Zeichenbrett wurde aus den Architektur- und Ingenieurbüros verbannt und die Arbeit wird in allen Bereichen durch den Computer bestimmt. In diesem Zeitraum setzten sich viele Innovationen im Bereich der CAD-Anwendungen durch. Heutige moderne CAD-Programme sind objektorientiert, verfügen über eine graphische Oberfläche und besitzen ein dreidimensionales Datenmodell. Die innovativen 3D-Datenmodelle der CAD-Programme ermöglichen nicht nur die Erstellung von Zeichnungen, sondern auch die Verwendung des Datenmodells für die Gebäudeausrüstung, Tragwerksplanung, Ausschreibung und Abrechnung des Bauwerkes. Die Programme besitzen eine mehrschichtige Architektur, welche die Möglichkeit der einfachen Änderung und Erweiterung der Anwendung bietet. Ziel dieser Arbeit ist die Beschreibung der Programmarchitektur und der Anforderungen an die Funktionalität, die Oberfläche und das Datenmodell moderner, objektorientierter 3D-CAD-Systeme für die Verwendung im Bauwesen. Für die Demonstration einer modernen Softwarearchitektur wurde das CAD-Programm GoCAD entwickelt, in welchem verschiedene moderne Architekturmuster exemplarisch implementiert wurden.
In dieser Arbeit wurden für die Moleküle B3, B3- und C3+ mit dem MR-CI-Verfahren hochgenaue Potentialfächen für ein oder mehrere elektronische Zustände berechnet. Alle drei Moleküle besitzen elektronisch entartete Jahn-Teller-Zustände. Im Gegesatz zu den früher untersuchten Alkalitrimeren liegt hier die konische Durchschneidung so tief, dass sie bei der Schwingungsanalyse berücksichtigt werden muss und daher eine diabatische Behandlung erfordlich ist. Für den X<-1E'-Übergang im B3 konnte die Übereinstimmung des berechneten Spektrum mit dem gemessenen durch den Einsatz des größeren Basissatzes VQZ, im Vergleich zu den bereits veröffentlichten Ergebnissen, nochmals deutlich verbessert werden. Für den berechneten 00-Übergang ist im gemessen Spektrum kein Übergang zu beobachten. Neben der guten Übereinstimmung der anderen Peaks wird diese These auch die T00 Energie gestützt. Die einfache Progression des experimentellen X<-2E'-Übergangs im B3 konnte ebenfalls in gute Übereinstimmung berechnet werden. Die einfache und kurze Progression ergibt sich aus der Tatsache, dass praktisch keine Jahn-Teller-Verzerrung vorhanden ist, und beide Teilflächen fast deckungsgleich sind. Für den X<-1E'-Übergang des B3- wurde ebenfalls ein Spektrum simuliert, allerdings findet sich keine Übereinstimmung zu den gemessenen Übergängen. Da die beobachtete Elektronenablöseenergie nur unwesentlich oberhalb der Elektronenanregungsenergie liegt und im Hinblick auf die starken X<-2E'-Absorptionen des B3 in der gleichen Messung bleibt offen, welche Strukturn im Experiment zu sehen sind. Zum C3+ wurde eine Schwingungsanalyse für den E'-Grundzustand durchgeführt. Experimentelle Vergleichswerte fehlen in diesem Fall. Allerdings konnte die bereits seit mehr als einem Jahrzehnt diskutierte Höhe der Isomerisierungsenergie zwischen gewinkelter und linearer Geometrie sehr genau, auf nun 6.8 +- 0.5 kcal/mol festgelegt werden. Bei vibronischer Betrachtung unter Einbeziehung der Nullpunktsenergien reduziert sich diese auf bzw. 4.8 kcal/mol. Ausserdem wurde die Existenz eines linearen Minimums bestätigt. C3+ liefert auch ein sehr schönes Beispiel für die Verschränkung verschiedener lokaler und globaler Schwingungszustände, was zu einer irregulären Abfolge von Zuständen führt. Für die Reaktivität des C3+ wurde beobachtet, dass es unterhalb von 50 K die höchste Reaktivität besitzt und darüber deutlich abnimmt. Auf dieses Verhalten liefert die Schwingungsanalyse keine Antwort, da bis selbst zur Raumtemperatur keine thermische Schwingungsanregung statt finden kann.
Doppelbindungen verminderter Konjugation auftreten, ähnlich der 9,10-Doppelbindung in Phenanthren. Die Eignung von Dbf-1 als η5-Metallocenligand konnte durch die Darstellung einer Reihe von Übergangsmetallkomplexen gezeigt werden: Neben dem symmetrischen Ferrocen Dbf2Fe, dessen analoge Fluorenylverbindung nicht bekannt ist, konnten auch die unsymmetrisch substituierten Ferrocene (η5-Dbf)Fe(η5-4Cp) (4Cp: 1,2,3,4- Tetraisopropylcyclopentadienyl) und (η5-Dbf)Fe(η5-Cp’’’) (Cp’’’: 1,2,4-Tri-tert-butylcyclopentadienyl) erhalten werden. Weiterhin wurden Metallocen- und Arenkomplexe mit Gruppe VI-Metallen ((η3-Allyl)(η5-Dbf)M(CO)2, M = Mo, W und (η6-DbfH)Cr(CO)3 isoliert, sowie Metallocene der Metalle Mangan ((η5-Dbf)Mn(CO)3), Cobalt ([(η5-Dbf)Co(η5-Cp*)]PF6, Cp*: 1,2,3,4,5-Pentamethylcyclopentadienyl), Ruthenium ((η5-Dbf)Ru(PPh3)2Cl, [(η5-Dbf)Ru(PPh3)2(NCMe)]SbF6) und Titan (η5-Dbf)(η1-Dbf)Ti(OiPr)2. Für die lokalisierten Doppelbindungen in 3,4- und 3’,4’-Position wird – wie im Fall des Phenanthren – partielle olefinische Reaktivität erwartet. Dies konnte durch die selektive Anwendung olefintypischer Reaktionen an diesen Positionen bestätigt werden. Reaktion von Dbf-Ferrocenen mit molekularem Wasserstoff in Gegenwart von Pd/C erlaubt selektive Hydrierung der Komplexe an Position 3,4 und 3’,4’ und liefert die entsprechenden 3,3’,4,4’-Tetrahydrodibenzo[c,g]fluorenylkomplexe (H4-Dbf)2Fe und (H4-Dbf)Fe(4Cp). Die Umsetzung mit ZnEt2 und ClCH2I erlaubt die selektive Cyclopropanierung der Ferrocens (Dbf)Fe(Cp’’’).
The enamide moiety is an important substructure often encountered in biologically active compounds and synthetic drugs. Furthermore, enamides and their derivatives are versatile synthetic intermediates for polymerization, [4+2] cycloaddition, crosscoupling, Heck-olefinination, Halogenation, enantioselective addition or asymmetric hydrogenation. Traditional syntheses of this important substrate class involve rather harsh reaction conditions such as high temperatures and/or the use of strong bases. In continuation of our work on the addition of secondary amides to alkynes, we have developed a broadly applicable protocol for the catalytic addition of N-nucleophiles such as primary amides, imides and thioamides to terminal alkynes. The choice of ligands and additives determines the regiochemical outcome so that with two complementary catalyst systems, both the E-anti-Markovnikov products and the Z-anti-Markovnikov products can be synthesized highly regio- and stereoselectively.
This thesis is devoted to two main topics (accordingly, there are two chapters): In the first chapter, we establish a tropical intersection theory with analogue notions and tools as its algebro-geometric counterpart. This includes tropical cycles, rational functions, intersection products of Cartier divisors and cycles, morphisms, their functors and the projection formula, rational equivalence. The most important features of this theory are the following: - It unifies and simplifies many of the existing results of tropical enumerative geometry, which often contained involved ad-hoc computations. - It is indispensable to formulate and solve further tropical enumerative problems. - It shows deep relations to the intersection theory of toric varieties and connected fields. - The relationship between tropical and classical Gromov-Witten invariants found by Mikhalkin is made plausible from inside tropical geometry. - It is interesting on its own as a subfield of convex geometry. In the second chapter, we study tropical gravitational descendants (i.e. Gromov-Witten invariants with incidence and "Psi-class" factors) and show that many concepts of the classical Gromov-Witten theory such as the famous WDVV equations can be carried over to the tropical world. We use this to extend Mikhalkin's results to a certain class of gravitational descendants, i.e. we show that many of the classical gravitational descendants of P^2 and P^1 x P^1 can be computed by counting tropical curves satisfying certain incidence conditions and with prescribed valences of their vertices. Moreover, the presented theory is not restricted to plane curves and therefore provides an important tool to derive similar results in higher dimensions. A more detailed chapter synopsis can be found at the beginning of each individual chapter.
It was recently reported that imatinib causes cell death in neonatal rat ventricular cardiomyocytes (NRVCM) by triggering endoplasmic reticulum (ER) stress and collapsed mitochondrial membrane potential. Retroviral gene transfer of an imatinib-resistant mutant c-Abl into NRVCM appeared to alleviate imatinib-induced cell death and it was concluded that the observed imatinib-induced cytotoxicity is mediated through direct interactions of imatinib with c-Abl. The imatinib effects were described as being specific for cardiomyocytes only, which are relevant also for the in vivo situation in man. [Kerkelä et al. 2006] The goal of the present study was to reproduce the published experiments and to further explore the dose-response relationship of imatinib-induced cell death in cardiomyocytes. Additional markers of toxicity were investigated. The following biochemical assays were applied: LDH release (membrane leakage marker), MTS-reduction (marker of mitochondrial integrity), ATP cellular contents (energy homoeostasis) and caspase 3/7 activity (apoptosis). The endoplasmatic reticulum (ER) stress markers eIF2α (elongation initiation factor 2α), XBP1 (X Box binding Protein 1), and CHOP (cAMP response element-binding transcription factor (C/EBP) homologous protein) were determined at the transcriptional and protein level. Online monitoring of cell attachment of, oxygen consumption and acidification of the medium by rat heart cells (H9c2) seated on chips (Bionas) allowed the determination of the onset and reversibility of cellular functions. Image analysis measured the spontaneous beating rates after imatinib treatment. The role of imatinib-induced reactive oxygen species was evaluated directly by 2’,7’-Dichlorofluorescein fluorescence and indirectly by means of interference experiments with antioxidants. The specificity of imatinib-induced effects were specific to cardiomyocytes was evaluated in fibroblasts derived from rat heart, lung and skin. The specific role of c-Abl in the imatinib-induced cellular toxicity was investigated by specific gene silencing of c-Abl in NRVCM. The results demonstrated that imatinib caused concentration-dependent cytotoxicity, apoptosis, and ER stress in heart, skin and lung fibroblasts, similar or stronger to those observed in cardiomyocytes. Similar to the results from cardiomyocytes, ER stress markers in fibroblasts were only increased at cytotoxic concentrations of imatinib. This effect was not reversible; also, reactive oxygen species did not participate in the mechanism of the imatinib-induced cytotoxicity in NRVCM. Small interfering RNA (siRNA)-mediated reduction of c-Abl mRNA levels by 51 % and c-Abl protein levels by 70 % had neither an effect on the spontaneous beating frequency of cardiomyocytes nor did it induce cytotoxicity, apoptosis, mitochondrial dysfunction or ER stress in NRVCM. Incubation of imatinib with c-Abl siRNA-transfected NRVCM suggested that reduced c-Abl protein levels did not rescue cardiomyocytes from imatinib-induced cytotoxicity. In conclusion, results from this study do not support a specific c-Abl-mediated mechanism of cytotoxicity in NRVCM.
Das zelluläre Uhrwerk der circadianen Rhythmik enthält eine autoregulatorische negative Feedbackschleife. Dabei induzieren am Beginn des circadianen Rhythmus die heterodimeren Komplexe aus CLOCK- und BMAL1-Proteinen die Transkription ihrer Zielgene, darunter auch die der Period- (PER) und Cryptochrom- (CRY)-Gene. Am Ende des circadianen Rhythmus inhibieren die CRY- und PER-Proteine die CLOCK/BMAL1-gesteuerte Transkription. Die durch Sauerstoffmangel gesteuerte Regulation der Transkription wird durch die Hypoxie-induzierbaren Faktoren (HIF) reguliert, von denen HIF-1α eine besondere Rolle bei vielen physiologischen und pathophysiologischen Vorgängen spielt. Im Schlaf, d.h. in der circadianen Nachtphase ändert sich die funktionelle Organisation der Atmung grundlegend und es kommt zu einer leichten Reduktion des Sauerstoffpartialdruckes und das Auftreten hypoxischer Perioden wird begünstigt, was auf einen Zusammenhang zwischen circadianer Rhythmik und Hypoxie-gesteuerter Transkription hindeutet. Daher wurde in der vorliegenden Studie untersucht, welchen Einfluss die circadianen Proteine CRY1 und PER1 auf HIF-1α und die HIF-1 regulierte Transkription haben. Es konnte die Interaktion zwischen den circadianen Proteinen CRY1 und PER1 mit HIF-1α erstmalig in lebenden Zellen nachgewiesen werden. Die HIF-1α-Proteinregion in der sich die basic-Helix-Loop-Helix-(bHLH)-Domäne befindet und die C-terminale tail-Region des CRY1-Proteins konnten als verantwortliche Proteindomänen für die Interaktion zwischen CRY1 und HIF-1α identifiziert werden. Die Interaktion von HIF-1α mit PER1 erfolgte ebenso über die bHLH Domäne des HIF-1α-Proteins. Die CRY1-HIF-1α-Interaktion beeinflusste die transkriptionelle Aktivität von HIF-1α negativ und verringerte die Expression von HIF-1-Targetgenen, wie dem Plasminogen-Aktivator-Inhibitor-1 (PAI-1). Darüberhinaus konnte mit CRY- und PER-defizienten Zellen gezeigt werden, dass CRY1 und PER1 unabhängig von der Interaktion mit HIF-1α auch eine Repression der HIF-1α-mRNA-Expression und der HIF-1α-Promotoraktivität verursachen. Diese Daten zeigen, dass die Regulation der Transkription durch Hypoxie durch die negativen Regulatoren der circadianen Rhythmik beeinflusst werden kann. Diese Befunde könnten somit zum besseren Verständnis bestimmter Krankheiten, wie der Tumorigenese oder dem Schlaf-Apnoe-Syndrom beitragen. Da HIF-1α ein wichtiger Faktor in der Tumorigenese ist, der durch Veränderungen im Redoxzustand der Zellen beeinflusst wird und dabei möglicherweise mitochondriale ROS, die einem circadianen Rhythmus unterliegen, eine wichtige Rolle spielen, wurde untersucht, inwiefern eine Erhöhung der mitochondrialen ROS-Spiegel durch Defizienz der MnSOD tumorprogressiv ist. Die MnSOD wird als eines der wichtigsten intrazellulären antioxidativen Enzyme angesehen und soll eine Rolle als Tumorsuppressor spielen. Mittels Microarraytechnologie wurde die differentielle Genexpression in den Lebern der Hepatozyten-spezifischen MnSOD-defizienten Mäuse untersucht. Es konnte die Repression von vielen Genen gefunden werden, deren Produkte eine wichtige Rolle in der Abwehr gegen oxidativen Stress, der Krebsabwehr und der Hemmung der Apoptose spielen. Auf der anderen Seite konnte die Überexpression vieler Indikatoren für oxidativen Stress festgestellt werden. Desweiteren konnte die Induktion von nur zwei Genen, die eine Rolle in der Abwehr gegen den oxidativen Stress spielen gemessen werden, so dass insgesamt nur ein geringer kompensatorischer Effekt auf die MnSOD-Defizienz erreicht wird. Ein Vergleich der differentiell exprimierten Gene in der Hepatozyten-spezifischen MnSOD-defizienten Maus mit differentiell exprimierten Genen aus unter Hypoxie inkubierten bzw. HIF-1α-dominant-aktiven arteriellen Endothelzellen brachte keine Überschneidungen und zeigt, dass die höheren ROS-Level in den MnSOD-defizienten Hepatozyten die Hypoxie nicht imitieren bzw. nicht zu einer Expression von HIF-1-Targetgenen führen. Die MnSOD-defizienten Lebern waren auch anfälliger für die Entwicklung von hepatozellulären präneoplastischen Läsionen nach Induktion durch eine Einzeldosis Diethylnitrosamin (DEN). Die Anzahl der präneoplastischen Herde und die Bildung von Adenomen war im Vergleich zu den Wildtyptieren bei den Hepatozyten-spezifischen MnSOD-defizienten Tieren signifikant erhöht. Diese Daten zeigten, dass die Entstehung von präneoplastischen Läsionen und Tumoren unter Einwirkung von karzinogenen Substanzen bei den Hepatozyten-spezifischen MnSOD(-/-)-Mäusen mit einer stark erhöhten Rate im Vergleich zu den Wildtyptieren auftritt. Damit konnte die Rolle der MnSOD als Tumorsuppressor zumindest für die Leber bestätigt bzw. direkt aufgezeigt werden.
Der Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Umweltprüfung von Bebauungsplänen
(2009)
Die im Jahr 2001 erlassene europäische SUP-Richtlinie schreibt vor, dass die Umweltauswirkungen bestimmter Pläne und Programme frühzeitig und umfassend ermittelt, beschrieben und bewertet sowie bei der Aufstellung oder Änderung der betreffenden Pläne und Programme berücksichtigt werden müssen. Seit der Implementierung der Vorschriften der SUP-Richtlinie in nationales Recht ist die so genannte Strategische Umweltprüfung auch für bestimmte Pläne und Programme des deutschen Planungssystems verpflichtend durchzuführen. Der Verfahrensschritt der Öffentlichkeitsbeteiligung und die Berücksichtigung der Ergebnisse der Öffentlichkeitsbeteiligung bei der Entscheidungsfindung sind unverzichtbare Bestandteile der Strategischen Umweltprüfung. Nach Erwägungsgrund 15 der SUP-Richtlinie soll durch die Öffentlichkeitsbeteiligung zu einer transparenteren Entscheidungsfindung beigetragen und die Vollständigkeit und Zuverlässigkeit der für die Prüfung bereitgestellten Informationen gewährleistet werden. Danach hat die Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung eine Kontroll- und Informationsfunktion. Bisher gibt es kaum wissenschaftlich fundierte Erkenntnisse darüber, ob die Öffentlichkeitsbeteiligung diese Funktionen erfüllt oder inwieweit sie sich auf die Strategische Umweltprüfung auswirkt. Dieses Wissensdefizit wurde zum Anlass genommen, im Rahmen dieser Arbeit den Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Strategischen Umweltprüfung zu ermitteln. Anhand der beispielhaften Auswertung von 41 Bebauungsplanverfahren 6 verschiedener Kommunen wurde untersucht, ob durch die Öffentlichkeit neue, abwägungsrelevante Umweltinformationen eingebracht werden und diese zu Modifikationen von Untersuchungsrahmen, Umweltbericht und Plan führen. Überdies wurden Einflussfaktoren ermittelt, die sich auf die Öffentlichkeitsbeteiligung und deren Beitrag zur Berücksichtigung von Umweltschutzbelangen im Planungs- und Entscheidungsprozess auswirken können. Die Untersuchung hat gezeigt, dass die Öffentlichkeit sich im Rahmen der untersuchten Bebauungsplanverfahren beteiligt und Stellungnahmen abgegeben hat. Von allen aus der Öffentlichkeit eingebrachten Einwendungen hatten durchschnittlich 37 Prozent Umweltschutzbelange zum Inhalt. Diese können als Einwendungen zur Umweltprüfung betrachtet werden, da diese der Ermittlung des umweltrelevanten Abwägungsmaterials dient. Wichtigstes Ergebnis der Untersuchung ist somit, dass die Informationsfunktion der Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung erfüllt wurde. Privatpersonen wollten v.a. ihre persönlichen Interessen in der Planung vertreten sehen. Von ihnen wurden in erster Linie Umwelteinwendungen zu den Themen Lärm und Verkehr sowie zu Pflanzen eingebracht. Umweltakteure haben sich mit ihren Umwelteinwendungen in erster Linie für Pflanzen eingesetzt. Weiterhin wurden die Naturgüter Wasser und Luft vermehrt angesprochen. Daneben bildeten Einwendungen zu aktuellen umweltpolitischen Themen einen Schwerpunkt der Umwelteinwendungen von Umweltakteuren. Dazu zählten Einwendungen zum Klima, zu erneuerbaren Energien und zur Flächeninanspruchnahme. Auch wichtig war den Umweltakteuren die Eingriffsregelung. Abweichend von den Erwartungen wurden dagegen kaum Einwendungen zu Tieren gemacht. Die Einwendungen der Öffentlichkeit führten zu Modifikationen von Untersuchungsrahmen, Umweltberichten und Plänen. Es wurden insgesamt 15 Prozent der untersuchten Umweltberichte und 44 Prozent der Pläne modifiziert. Neue Informationen, die zu Veränderungen von Untersuchungsrahmen und Umweltberichten geführt haben, wurden in erster Linie von Umweltakteuren eingebracht. Der Großteil der Modifikationen von Plänen ist dagegen auf Umwelteinwendungen von Privatpersonen zurückzuführen. Auch der Anteil der Umwelteinwendungen, der zu Modifikationen von Untersuchungsrahmen und Umweltbericht führte, war bei Umweltakteuren größer als bei Privatpersonen. Der Anteil der Umwelteinwendungen, der zu Modifikationen des Plans führte, war dagegen bei Umweltakteuren und Privatpersonen annährend gleich. Beim Großteil der untersuchten Verfahren waren zur frühzeitigen Beteiligung die Resonanz der Öffentlichkeit und deren Einfluss auf den Plan und die Umweltprüfung größer als zur regulären Beteiligung. Hieraus kann geschlussfolgert werden, dass der Zeitpunkt der Beteiligung ein wichtiger Einflussfaktor ist, der sich auf die Öffentlichkeitsbeteiligung auswirkt.
Der Entkopplermechanismus von UCP-2 sollte weitergehend untersucht sowie eine Methode zur Messung des Einfluss von UCP-2 auf die ROS-Homöostase gefunden werden. Durch Kompetitionsmessungen mit spinmarkierten Fettsäuren an rekonstituiertem UCP-2 sollte das Flip Flop Modell als Entkopplungsmechanismus weiter unterstützt und Bindungskonstanten abgeschätzt werden. Dies sollte in Titrationsmessungen mit kompetitierenden Fettsäuren und Purinnucleotiden gezeigt und mit Messungen in Gegenwart eines Kontrollproteins ohne Fettsäurebindungsstelle verglichen werden. Es konnte allerdings kein substöchiometrischer Verdrängungseffekt mit den Fettsäuren oder ATP gezeigt werden. Deswegen wurde der Einfluss des Detergens sowie der Ionenstärke auf das ESR-Signal untersucht und das Vorhandensein hochimmobilisierter spektraler Komponenten, typisch für die Einlagerung in eine Bindungsstelle, auch in Abwesenheit von UCP-2 gefunden. Um einen potenziellen Einfluss von UCP-2 auf die Homöostase von ROS zeigen zu können, sollte ein ESR-basierter Assay etabliert werden. Dazu wurden Spin Trapping Experimente mit ex vivo Detektion (Extraktion der generierten ROS in Ethylacetat) und in situ Detektion (direktes Messen bei der Entstehung) mit biologischen Proben (Mitochondrien, Mitoplasten und Zellen aus Zellkulturen) durchgeführt. Der in situ Assay schien geeigneter, allerdings waren die Radikalkonzentrationen nahe der Nachweisgrenze. Um dennoch eine zeitaufgelöste Auswertung der Daten zu ermöglichen und das Signal-Rauschen-Verhältnis zu verbessern, wurde zur Datenanalyse das Rauschen mit einer auf Singulärwertzerlegung basierten Methode gefiltert und zum Teil die zeitlichen Spuren der verschiedenen Radikaladdukte bestimmt. Eine weitere Methode zum Nachweis von UCP-2 auf die ROS-Homöostase ist die Verwendung fluoreszierender Double Spin Traps. Hier erlischt die zuächst vorhandene Fluoreszenz durch ROS-Einwirkung. Die Double Trap p-Nitrostilbentert.butylnitron sollte durch veränderte Substitution so modifiziert werden, dass sich die spektroskopischen Eigenschaften verbessern. Beide Spin Traps wurden hinsichtlich optischer und ESR-spektroskopischer Eigenschaften sowie dem Verhalten in der Zelle verglichen. Da die Einführung eines Coumarinrestes als Fluorophor nicht zur erhofften Rotverschiebung der Anregungswellenlänge führt, aber die Cytotoxizität ausgeprägter ist, ist NSN geeigneter, zumal dessen Fluoreszenz deckungsgleich mit dem mitochondrialem Marker TMRE ist. Das spricht für Akkumulation an diesem wichtigen Entstehungsort von ROS. In Gegenwart von ROS zeigen beide Spin Traps ein ESR-Signal und auch das Löschen der Fluoreszenz aufgrund des nahe gelegenen stabilen Radikals. Bei NSN war der Effekt ausgeprägter: Die Halbwertszeiten des Fluoreszenzrückgangs wurden zu typischerweise 25 s in Anwesenheit von ROS-induzierenden Atmungsketteninhibitoren und 180 s in deren Abwesenheit bestimmt. Zusammenfassend kann mit den vorgestellten Spin Trapping Methoden der Einfluss von UCP-2 auf die ROS-Homöostase direkt gemessen werden, indem Zellen mit deletierter Expression von UCP-2 mit adäquaten Wildtypzellen verglichen werden. Mit NSN lässt sich ROS mittels Fluoreszenzmikroskopie mit subzellulärer Auflösung in Mitochondrien detektieren.
Im Rahmen dieser Arbeit konnte gezeigt werden, dass Cobalt(II)-Komplexe mit Akzeptor-substituierten β-Diketonat-abgeleiteten Liganden geeignete Reagenzien sind, um molekularen Sauerstoff effektiv zu aktivieren und zur stereoselektiven Synthese β-hydroxylierter Tetrahydrofurane aus 1-substituierter Bishomoallylalkoholen zu verwenden. Die Reaktionen verliefen hoch diastereoselektiv (cis:trans < 1:99) und lieferten 2,5-trans-konfigurierte 2-Hydroxymethyltetrahydrofurane. Reaktivität und Selektivität waren abhängig von Solvens, Temperatur, Katalysatormenge und -konzentration, O2-Druck sowie Substitutionsgrad an den reaktiven Teilstrukturen, d. h. der olefinischen Doppelbindung und der Hydroxylgruppe. Es konnten Beiträge präparativer und mechanistischer Art geleistet werden, die einerseits zu einem vertieften Verständnis der Gesamtreaktion und andererseits zu einer weiteren Anwendung der Cobalt(II)-katalysierten Oxidation von Alkenolen führten. In präparativer Hinsicht wurde zunächst eine verbesserte Methodik entwickelt, um Alkenoloxygenierungen in einer stationären O2-Atmosphäre ohne Substrat- und Produktverlust durchzuführen. Zur Optimierung der Reaktionsbedingungen bezüglich der oben genannten Parameter wurde die aerobe Oxidation von 2,2-Dimethyl-6-hepten-3-ol im Detail untersucht. Hierbei wurden unter Verwendung der Kombination aus Lösungsmittel iPrOH, 60 °C, c0 (CoIIKat.) = 1.25 ´ 10–2 M und 1 bar O2-Druck die höchsten Ausbeuten an Zielmolekül [5-(tert-Butyl)tetrahydrofur-2-yl]methanol (63–64 %) erzielt. Präparativ interessante Ausbeuten (53–66 %) an β-hydroxylierten Tetrahydrofuranen konnten ebenfalls für die Oxidation von 4-Phenylpent-4-en-1-ol sowie von (E)- und (Z)-konfigurierten Methyl- und Phenyl-substituierten Bishomoallylalkoholen unter Anwendung der optimierten Bedingungen erzielt werden. Die erhaltene 2,5-trans-Selektivität und die Diastereoselektivität in der Seitenkette waren hierbei unabhängig – die Reaktivität und Produktselektivität dagegen abhängig – von den Substituenten und der ursprünglichen Konfiguration der π-Bindung. Im Zusammenhang mit mechanistischen Fragenstellungen gelang zum ersten Mal eine nahezu vollständige Massenbilanzierung bei aeroben Oxidationen 1-substituierter Bishomoallylalkohole. Hierbei wurden Verbindungen, deren Bildung auf reduktive Cyclisierungen, C,C-π-Bindungsspaltungen, Dehydrierungen sowie Alken-Hydratisierungen und -Reduktionen zurückgeführt wird, als Nebenprodukte identifiziert und quantifiziert. Zudem konnte eine Umkehr der Produktselektivität zugunsten der Bildung von 2-Methyl-, 2-Ethyl- und 2-Benzyl-substituierten 2,5-trans-Tetrahydrofuranen nach Durchführung der Reaktion in einem Gemisch aus Cyclohexa-1,4-dien und Benzol [50:50 (v/v)] erreicht werden. Darüber hinaus gelang eine Quantifizierung von Wasser und Aceton, den Redoxkoppelprodukten aerober Alkenoloxidationen in Isopropanol. Dabei korrelierten die ermittelten Acetonmengen mit der Bildung der 2-Hydroxymethyltetrahydrofurane und die des Wassers mit dem Reaktionsumsatz. Basierend auf den erhaltenen Daten und unter Berücksichtigung vorliegender Informationen über ähnliche Umsetzungen aus der Literatur wurde ein mechanistischer Vorschlag für den Reaktionsverlauf Cobalt(II)-katalysierter Oxidationen von Bishomoallylalkoholen entworfen, welcher die Bevorzugung des 5-exo-Ringschlusses und die beobachteten Selektivitäten erklärt. Hierbei wurde das Auftreten eines Tetrahydrofurylalkylradikals als zentrale Zwischenstufe postuliert, welches durch Heteroatomdonoren oder durch Alkene zu 1/1-Addukten abgefangen werden könnten. Aufgrund der hohen Stereoselektivität des vorangegangenen Ringschlusses würde eine Anwendung der Methode insbesondere in der Naturstoffsynthese ganz neue Perspektiven eröffnen.
This dissertation deals with two main subjects. Both are strongly related to boundary problems for the Poisson equation and the Laplace equation, respectively. The oblique boundary problem of potential theory as well as the limit formulae and jump relations of potential theory are investigated. We divide this abstract into two parts and start with the oblique boundary problem. Here we prove existence and uniqueness results for solutions to the outer oblique boundary problem for the Poisson equation under very weak assumptions on boundary, coefficients and inhomogeneities. Main tools are the Kelvin transformation and the solution operator for the regular inner problem, provided in my diploma thesis. Moreover we prove regularization results for the weak solutions of both, the inner and the outer problem. We investigate the non-admissible direction for the oblique vector field, state results with stochastic inhomogeneities and provide a Ritz-Galerkin approximation. Finally we show that the results are applicable to problems from Geomathematics. Now we come to the limit formulae. There we combine the modern theory of Sobolev spaces with the classical theory of limit formulae and jump relations of potential theory. The convergence in Lebesgue spaces for integrable functions is already treated in literature. The achievement of this dissertation is this convergence for the weak derivatives of higher orders. Also the layer functions are elements of Sobolev spaces and the surface is a two dimensional suitable smooth submanifold in the three dimensional space. We are considering the potential of the single layer, the potential of the double layer and their first order normal derivatives. Main tool in the proof in Sobolev norm is the uniform convergence of the tangential derivatives, which is proved with help of some results taken from literature. Additionally, we need a result about the limit formulae in the Lebesgue spaces, which is also taken from literature, and a reduction result for normal derivatives of harmonic functions. Moreover we prove the convergence in the Hölder spaces. Finally we give an application of the limit formulae and jump relations. We generalize a known density of several function systems from Geomathematics in the Lebesgue spaces of square integrable measureable functions, to density in Sobolev spaces, based on the results proved before. Therefore we have prove the limit formula of the single layer potential in dual spaces of Soboelv spaces, where also the layer function is an element of such a distribution space.
Product development with end-user integration is not an end in itself but a logical necessity due to divergent types of knowledge of the user and the developer of a product. While the user is an expert in regard to the product’s usage the developer is an expert in the product’s construction and functioning. For the development of high-end products both types of expertises were a prerequisite at all times. The efficient and throughout integration of the user’s perspective into existing product development approaches is the core of user-centred product development. Activities that are the basic ingredient of just any user-centred development approach can be roughly categorized into analysis, design and evaluation activities. Research and practice prove the early integration of real end-users within those activities to add significant and sustainable value to product innovation. The instrumental, methodological and procedural impact of globalization tendencies, on modern user-centred product development in particular, is the primary research focus of the field of cross-cultural user-centred product development. This research aims at the further advancement of the methodological foundations of cross-cultural user centred product development approaches based on a stabile and profound theoretical basis. Primary research objects are established user-analysis methodologies, which are mainly based on Western concepts and theories, and their applicability in disparate cultural contexts of the Far East (China and Korea in particular). For facilitating the adaptation of abstract method characteristics to the situational context of method application as foundation of cross-cultural methodological advancement, a model of method localization was developed. In alignment with internationalization and localization activities within product development processes, a framework for localizing user-centred methodologies was developed. Equivalent to internationalization activities of real product development, the abstraction of method traits from specific methodologies is a necessity in a first step. Methodological adaptation with the primary objective of optimizing situational application of a methodology is to be done in a second step – the step of method-localization. This model of method localization and its underlying theories and principles were tested within an extensive empirical study in Germany, China and Korea. Within this study the applicability of six distinct user-centred product development methodologies, each with its very own profile of abstract method traits, was tested with 248 participants in total. Results clearly back the basic hypothesis of method-localization, i.e. that the application of a user-centred methodology rises and falls with the alignment of its characteristic traits with the cross-cultural application context. Beyond, applicability-influencing factors identified within this study could be proven to be valid indicators of adaptation-necessities and –potentials of user-centred product development methodologies.
This study deals with the optimal control problems of the glass tube drawing processes where the aim is to control the cross-sectional area (circular) of the tube by using the adjoint variable approach. The process of tube drawing is modeled by four coupled nonlinear partial differential equations. These equations are derived by the axisymmetric Stokes equations and the energy equation by using the approach based on asymptotic expansions with inverse aspect ratio as small parameter. Existence and uniqueness of the solutions of stationary isothermal model is also proved. By defining the cost functional, we formulated the optimal control problem. Then Lagrange functional associated with minimization problem is introduced and the first and the second order optimality conditions are derived. We also proved the existence and uniqueness of the solutions of the stationary isothermal model. We implemented the optimization algorithms based on the steepest descent, nonlinear conjugate gradient, BFGS, and Newton approaches. In the Newton method, CG iterations are introduced to solve the Newton equation. Numerical results are obtained for two different cases. In the first case, the cross-sectional area for the entire time domain is controlled and in the second case, the area at the final time is controlled. We also compared the performance of the optimization algorithms in terms of the solution iterations, functional evaluations and the computation time.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Knowledge discovery from large and complex collections of today’s scientific datasets is a challenging task. With the ability to measure and simulate more processes at increasingly finer spatial and temporal scales, the increasing number of data dimensions and data objects is presenting tremendous challenges for data analysis and effective data exploration methods and tools. Researchers are overwhelmed with data and standard tools are often insufficient to enable effective data analysis and knowledge discovery. The main objective of this thesis is to provide important new capabilities to accelerate scientific knowledge discovery form large, complex, and multivariate scientific data. The research covered in this thesis addresses these scientific challenges using a combination of scientific visualization, information visualization, automated data analysis, and other enabling technologies, such as efficient data management. The effectiveness of the proposed analysis methods is demonstrated via applications in two distinct scientific research fields, namely developmental biology and high-energy physics. Advances in microscopy, image analysis, and embryo registration enable for the first time measurement of gene expression at cellular resolution for entire organisms. Analysis of highdimensional spatial gene expression datasets is a challenging task. By integrating data clustering and visualization, analysis of complex, time-varying, spatial gene expression patterns and their formation becomes possible. The analysis framework MATLAB and the visualization have been integrated, making advanced analysis tools accessible to biologist and enabling bioinformatic researchers to directly integrate their analysis with the visualization. Laser wakefield particle accelerators (LWFAs) promise to be a new compact source of highenergy particles and radiation, with wide applications ranging from medicine to physics. To gain insight into the complex physical processes of particle acceleration, physicists model LWFAs computationally. The datasets produced by LWFA simulations are (i) extremely large, (ii) of varying spatial and temporal resolution, (iii) heterogeneous, and (iv) high-dimensional, making analysis and knowledge discovery from complex LWFA simulation data a challenging task. To address these challenges this thesis describes the integration of the visualization system VisIt and the state-of-the-art index/query system FastBit, enabling interactive visual exploration of extremely large three-dimensional particle datasets. Researchers are especially interested in beams of high-energy particles formed during the course of a simulation. This thesis describes novel methods for automatic detection and analysis of particle beams enabling a more accurate and efficient data analysis process. By integrating these automated analysis methods with visualization, this research enables more accurate, efficient, and effective analysis of LWFA simulation data than previously possible.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Microfibrillar reinforced composites (MFC) have attracted considerable academic and practical interests after the concept was introduced more than a decade years ago. This new type of composites will be created by blending of two polymers with different melting temperatures and processing the blend under certain thermo-mechanical conditions to generate in-situ formed microfibrils of the higher melting polymer grade of temperature in the blend. The compression molded microfibrillar composites were reported to possess excellent mechanical properties and thus they are promising materials for different applications. In the present work, a typical immiscible polymer blend PET/PP was selected for the preparation of PET/PP, PET/PP/TiO2 microfibrillar reinforced composites. The objective of this study is to analyse the processing-structure-property relationship in the PET/PP based MFCs. The morphology of the PET microfibrils and the dispersion of the TiO2 nanoparticles were characterized by scanning electron microscopy (SEM) and transmission electron microscopy (TEM), and discussed. The crystallization behaviour of PET and PP was studied by means of differential scanning calorimetry (DSC). The thermomechanical and mechanical properties of the composites were determined by dynamic mechanical thermal analysis (DMTA) and uniaxial tensile tests and the related results discussed as a function of the composition of the corresponding system. During stretching of the PET/PP extrudate, the PET dispersed phase was deformed into microfibrils. These microfibrils were still well persevered after compression molding of the drawn strands. Therefore the PET microfibrils acted as the reinforcement for the PP matrix. Compared with neat PP, the tensile properties of the PET/PP MFC were greatly improved. For the PET/PP/TiO2 MFC, the effects of polypropylene grafted maleic anhydride (PP-g-MA, introduced as compatibilizer) and TiO2 particles on the structure and properties of drawn strands and composites were investigated. Upon the addition of PP-g-MA, the preferential location of TiO2 particles changed: they migrated from the PET dispersed phase to the continuous PP matrix phase. This was accompanied with structural changes of the drawn strands. The microfibril formation mechanism was also investigated. After injection molding of the microfibrillar composites, the preferential location of TiO2 particles was still preserved. DMTA analysis of drawn strands, the tensile and impact tests of the composites demonstrated that the mechanical properties of the drawn strands of the microfibrillar composites were strongly dependent on the respective structures of the tested materials. To further investigate the preferential location of TiO2 particles in the PET/PP blend which were discovered during the preparation of PET/PP/TiO2 MFCs, PET/PP/TiO2 ternary nanocomposites were prepared according to four blending procedures. The preferential location of TiO2 nanoparticles was influenced by the blending sequence and the amount of PP-g-MA incorporated. Furthermore, it was discovered that TiO2 nanoparticles exerted a compatibilizing effect on the morphology of the composites. Three different compatibilization mechanisms of nanoparticles were proposed depending on the location of the nanoparticles.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
Adaptive Extraction and Representation of Geometric Structures from Unorganized 3D Point Sets
(2009)
The primary emphasis of this thesis concerns the extraction and representation of intrinsic properties of three-dimensional (3D) unorganized point clouds. The points establishing a point cloud as it mainly emerges from LiDaR (Light Detection and Ranging) scan devices or by reconstruction from two-dimensional (2D) image series represent discrete samples of real world objects. Depending on the type of scenery the data is generated from the resulting point cloud may exhibit a variety of different structures. Especially, in the case of environmental LiDaR scans the complexity of the corresponding point clouds is relatively high. Hence, finding new techniques allowing the efficient extraction and representation of the underlying structural entities becomes an important research issue of recent interest. This thesis introduces new methods regarding the extraction and visualization of structural features like surfaces and curves (e.g. ridge-lines, creases) from 3D (environmental) point clouds. One main part concerns the extraction of curve-like features from environmental point data sets. It provides a new method supporting a stable feature extraction by incorporating a probability-based point classification scheme that characterizes individual points regarding their affiliation to surface-, curve- and volume-like structures. Another part is concerned with the surface reconstruction from (environmental) point clouds exhibiting objects that are more or less complex. A new method providing multi-resolutional surface representations from regular point clouds is discussed. Following the applied principles of this approach a volumetric surface reconstruction method based on the proposed classification scheme is introduced. It allows the reconstruction of surfaces from highly unstructured and noisy point data sets. Furthermore, contributions in the field of reconstructing 3D point clouds from 2D image series are provided. In addition, a discussion concerning the most important properties of (environmental) point clouds with respect to feature extraction is presented.
This PhD thesis aims at finding a global robot navigation strategy for rugged off-road terrain which is robust against inaccurate self-localization, scalable to large environments, but also cost-efficient, e.g. able to generate navigation paths which optimize a cost measure closely related to terrain traversability. In order to meet this goal, aspects of both metrical and topological navigation techniques are combined. A primarily topological map is extended with the previously lacking capability of cost-efficient path planning and map extension. Further innovations include a multi-dimensional cost measure for topological edges, a method to learn these costs based on live feedback from the robot and a set of extrapolation methods to predict the traversability costs for untraversed edges. The thesis presents two sophisticated new image analysis techniques to optimize cost prediction based on the shape and appearance of surrounding terrain. Experimental results indicate that the proposed global navigation system is indeed able to perform cost-efficient, large scale path planning. At the same time, the need to maintain a fine-grained, global world model which would reduce the scalability of the approach is avoided.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
Photochemical reactions are of great interest due to their importance in chemical and biological processes. Highly sensitive IR/UV double and triple resonance spectroscopy in molecular beam experiments in combination with ab initio and DFT calculations yields information on reaction coordinates and Intersystem Crossing (ISC) processes subsequent to photoexcitation. In general, molecular beam experiments enable the investigation of isolated, cold molecules without any influence of the environment. Furthermore, small aggregates can be analyzed in a supersonic jet by gradually adding solvent molecules like water. Conclusions concerning the interactions in solution can be derived by investigating and fully understanding small systems with a defined amount of solvent molecules. In this work the first applications of combined IR/UV spectroscopy on reactive isolated molecules and triplet states in molecular beams without using any messenger molecules are presented. Special focus was on excited state proton transfer reactions, which can also be described as keto enol tautomerisms. Various molecules such as 3-hydroxyflavone, 2-(2-naphthyl)-3-hydroxychromone and 2,5-dihydroxybenzoic acid have been investigated with regard to this question. In the case of 3-hydroxyflavone and 2-(2-naphthyl)-3-hydroxychromone, the IR spectra have been recorded subsequent to an excited state proton transfer. Furthermore the dihydrate of 3-hydroxyflavone has been analyzed concerning a possible proton transfer in the excited state: The proton transfer reaction along the water molecules (proton wire) has to be induced by raising the excitation energy. However, photoinduced reactions involve not only singlet but also triplet states. As an archetype molecule xanthone has been analysed. After excitation to the S2 state, ISC occurs into the triplet manifold leading to a population of the T1 state. The IR spectrum of the T1 state has been recorded for the first time using the UV/IR/UV technique without using any messenger molecules. Altogether it is shown that IR/UV double and triple resonance techniques are suitable tools to analyze reaction coordinates of photochemical processes.
In der Automobilindustrie muss der Nachweis von Bauteilzuverlässigkeiten auf statistischen Verfahren basieren, da die Bauteilfestigkeit und Kundenbeanspruchung streuen. Die bisherigen Vorgehensweisen der Tests führen häufig Fehlentscheidungen bzgl. der Freigabe, was unnötige Design-Änderungen und somit hohe Kosten bedeuten kann. In vorliegender Arbeit wird der Ansatz der partiellen Durchläuferzählung entwickelt, welche die statische Güte der bisherigen Testverfahren (Success Runs) erhöht.
Continuous stochastic control theory has found many applications in optimal investment. However, it lacks some reality, as it is based on the assumption that interventions are costless, which yields optimal strategies where the controller has to intervene at every time instant. This thesis consists of the examination of two types of more realistic control methods with possible applications. In the first chapter, we study the stochastic impulse control of a diffusion process. We suppose that the controller minimizes expected discounted costs accumulating as running and controlling cost, respectively. Each control action causes costs which are bounded from below by some positive constant. This makes a continuous control impossible as it would lead to an immediate ruin of the controller. We give a rigorous development of the relevant theory, where our guideline is to establish verification and convergence results under minimal assumptions, without focusing on the existence of solutions to the corresponding (quasi-)variational inequalities. If the impulse control problem can be characterized or approximated by (quasi-)variational inequalities, it remains to solve these equations. In Section 1.2, we solve the stochastic impulse control problem for a one-dimensional diffusion process with constant coefficients and convex running costs. Further, in Section 1.3, we solve a particular multi-dimensional example, where the uncontrolled process is given by an at least two-dimensional Brownian motion and the cost functions are rotationally symmetric. By symmetry, this problem can be reduced to a one-dimensional problem. In the last section of the first chapter, we suggest a new impulse control problem, where the controller is in addition allowed to invest his initial capital into a market consisting of a money market account and a risky asset. The costs which arise upon controlling the diffusion process and upon trading in this market have to be paid out of the controller's bond holdings. The aim of the controller is to minimize the running costs, caused by the abstract diffusion process, without getting ruined. The second chapter is based on a paper which is joint work with Holger Kraft and Frank Seifried. We analyze the portfolio decision of an investor trading in a market where the economy switches randomly between two possible states, a normal state where trading takes place continuously, and an illiquidity state where trading is not allowed at all. We allow for jumps in the market prices at the beginning and at the end of a trading interruption. Section 2.1 provides an explicit representation of the investor's portfolio dynamics in the illiquidity state in an abstract market consisting of two assets. In Section 2.2 we specify this market model and assume that the investor maximizes expected utility from terminal wealth. We establish convergence results, if the maximal number of liquidity breakdowns goes to infinity. In the Markovian framework of Section 2.3, we provide the corresponding Hamilton-Jacobi-Bellman equations and prove a verification result. We apply these results to study the portfolio problem for a logarithmic investor and an investor with a power utility function, respectively. Further, we extend this model to an economy with three regimes. For instance, the third state could model an additional financial crisis where trading is still possible, but the excess return is lower and the volatility is higher than in the normal state.
Photonic crystals are inhomogeneous dielectric media with periodic variation of the refractive index. A photonic crystal gives us new tools for the manipulation of photons and thus has received great interests in a variety of fields. Photonic crystals are expected to be used in novel optical devices such as thresholdless laser diodes, single-mode light emitting diodes, small waveguides with low-loss sharp bends, small prisms, and small integrated optical circuits. They can be operated in some aspects as "left handed materials" which are capable of focusing transmitted waves into a sub-wavelength spot due to negative refraction. The thesis is focused on the applications of photonic crystals in communications and optical imaging: • Photonic crystal structures for potential dispersion management in optical telecommunication systems • 2D non-uniform photonic crystal waveguides with a square lattice for wide-angle beam refocusing using negative refraction • 2D non-uniform photonic crystal slabs with triangular lattice for all-angle beam refocusing • Compact phase-shifted band-pass transmission filter based on photonic crystals
Im Rahmen dieser Arbeit wurde die Adduktbildung von Acrylamid und Glycidamid mit dem N-terminalen Valin des Hämoglobins unter verschiedenen Aspekten untersucht. Die Bestimmung der Biomarker AAVal und GAVal erfolgte unter Anwendung des modifizierten Edman-Abbaus und einer sich anschließenden Analytik mittels LC/MS/MS oder GC/MS. Die zur Quantifizierung von AAVal und GAVal benötigten Pentafluorphenylthiohydantoin-Derivate wurden synthetisiert und charakterisiert. Mit Hilfe der GC/MS-Methodik wurden Hintergrundadduktgehalte gefunden, die bei Nichtrauchern durchschnittlich 37 pmol AAVal/g Hb und 21 pmol GAVal/g Hb betrugen, während Raucher mit durchschnittlich 91 pmol AAVal/g Hb deutlich höhere Werte aufwiesen. Diese Werte liegen im Bereich der üblicherweise gefundenen Hintergrundadduktgehalte für AAVal und GAVal. Ein Raucher wies abweichend davon mit 859 pmol AAVal/g Hb und 211 pmol GAVal/g Hb eine überdurchschnittlich hohe Hintergrundbelastung auf. Es wurde eine Dosimetrie der Adduktbildung von Acrylamid und Glycidamid durch Inkubation von Humanblut durchgeführt. Die LC/MS/MS-Methodik wies dabei keine ausreichende Sensitivität auf. Die Kinetik dieser Reaktion im Konzentrationsbereich der Hintergrundadduktgehalte nach Inkubation mit 0,3, 3 und 10 µM für 1 bzw. 4 Stunden wurde deshalb mittels GC/MS untersucht. Nach vierstündiger Inkubation zeigte der AAVal-Gehalt bei Inkubation mit 0,3 µM Acrylamid einen statistisch signifikanten Anstieg (p<0,01), während der GAVal-Gehalt erst bei Inkubation mit 3 µM Glycidamid statistisch signifikant anwuchs (p<0,01). Im Hinblick auf die unter vergleichbaren Bedingungen mittels Comet Assay detektierten DNA-Strangbrüche ab 10 µM Glycidamid, kann auf Grund des geringen Konzentrationsabstandes ein partieller Schutz der Zellen vor Glycidamid-induzierten DNA-Schäden durch Addukbildung mit dem Hämoglobin angenommen werden. Die um den Faktor 2-4 höher erscheinende Reaktivität von Acrylamid gegenüber dem N-terminalen Valin kann durch weitere Bestandteile im Blut mit nukleophilen Zentren beeinflusst sein. Um die Effektivität der Abspaltung von AAVal und GAVal bei der Derivatisierung zu den PFPTH-Derivaten bei Quantifizierung des Adduktgehaltes berücksichtigen zu sollten Methoden zur Verwendung von Dipeptid-Standardsubstanzen etabliert werden. Auf Grund der Unsicherheiten bei der Charakterisierung wurden diese jedoch nur für orientierende Untersuchungen verwendet. Nach Inkubation des humanen Vollblutes mit 3 und 30 µM [2,3-14C-Acrylamid] für 15 Minuten, 1, 4 oder 6 Stunden zeigte sich eine schnelle Verteilung des Acrylamids über die einzelnen Blutkompartimente und eine schnell erfolgende Reaktion mit nukleophilen Zentren. Die Radioaktivität liegt zu 9-14 % an Plasmaproteine gebunden vor, während auf das Hämoglobin 7 % und auf Erythrozytenfragmente weitere 8 % entfallen. Somit liegen 25-35 % des Acrylamids gebunden vor. Es ist jedoch auf Grund der hohen Konzentration von GSH im Erythrozyten-Zytosol eine insgesamt höhere Bindung des Acrylamids zu erwarten. Im Rahmen einer humanen Acrylamid-Verzehrsstudie wurde die zeitliche Veränderung von AAVal und GAVal bei 3 ausgewählten Probanden nach der in der jeweiligen Studienphase in Form von Kartoffelchips verabreichten Menge von 1 mg untersucht. In der Referenzperiode R zeigte AAVal bei diesen Probanden einen durchschnittlichen Anstieg von 17 %. Eine höhere Zuwachsrate von 39 % zeigte AAVal in der Testperiode T1, in der CYP 2E1 durch Disulfiram gehemmt wurde und somit kein oxidativer Metabolismus zu Glycidamid stattfand. In der Testperiode T2, in der CYP 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wies AAVal einen der Referenzphase vergleichbaren Anstieg um 19 % auf. Die höhere statistische Signifikanz des Anstiegs von AAVal in der Testperiode T1 im Vergleich zu den beiden anderen Studienabschnitten konnte mit Hilfe einer geeigneten statistischen Auswertung gezeigt werden. Für GAVal hingegen konnte auf Grund der größeren Messwertschwankungen nur für die gesamte Studiendauer ein Anstieg um 49 % festgestellt werden. Für den Anstieg von GAVal deutet sich ein Zusammenhang mit der individuellen CYP 2E1-Aktivität der drei Probanden, deren Phänotypisierung mittels Chlorzoxazon-Metabolismus bestimmt wurde. Diese Tendenz bestätigt sich jedoch nicht für die Gesamtheit der 16 Probanden. In dieser Arbeit wurde die Effizienz der Adduktbildung von Acrylamid und Glycidamid mit Hämoglobin unter verschiedenen Aspekten aufgezeigt. Ob die protektiven Mechanismen auf zellulärer Ebene ausreichend sind, um elektrophile Xenobiotika wie Acrylamid und Glycidamid bis hin zu einem möglicherweise vorhandenen Schwellenwert biologisch zu inaktivieren, müssen weitere Untersuchungen aufzeigen.
Funktionalisierte Binaphthyle erlangen immer größere Bedeutung für die enantioselektive Katalyse. Durch Koordination an entsprechende Metallzentren vermögen sie Reaktionen zu katalysieren und Chiralität zu induzieren. Die Synthese neuer chiraler P,N-Binaphthylliganden mit verschiedenen Heterozyklen wie Pyrazol oder Triazol als N-Donoreinheit war das Ziel dieser Arbeit. Ausgehend von 1,1’-Binaphth-2,2’-diol (BINOL) konnten auf unterschiedlichen Reaktionswegen entsprechende Ligandvorstufen mit Phosphanoyleinheit in 2-Position synthetisiert werden. Anhand von Einkristallen konnte die Festkörperstruktur der zum Teil enantiomerenreinen Binaphthyle mit Cyano-, Acetyl-, Methylester-, Carbonsäure- und Amidgruppe in 2’-Position mittels Röntgenstrukturanalyse nachgewiesen werden. Durch die Kondensation der Acetyl- bzw. Amidvorstufe mit N,N-Dimethylformamiddimethylacetal sowie der anschließenden Zyklisierung mit Hydrazin-Monohydrat gelang es den Pyrazol- bzw. Triazolring in das Binaphthylgerüst einzuführen. Die Reduktion der Phosphanoyleinheit mit Trichlorsilan komplettierte die Ligandsynthesen. Während vom Triazolliganden die Synthese beider Enantiomere durchgeführt wurde, konnte vom Pyrazolliganden im Rahmen dieser Arbeit nur das S-Enantiomer erhalten werden. Die neuen P,N-Liganden wurden im weiteren Verlauf der Arbeit auf ihre Fähigkeit zur Koordination an Übergangsmetallen wie Palladium untersucht. Die Komplexierung mit PdCl2(PhCN)2 konnte bislang jedoch nur mit dem Triazolliganden erfolgreich durchgeführt werden. Spektroskopische und kristallographische Untersuchungen zeigten dabei einen interessanten Aspekt im Koordinationsverhalten dieses neuen P,N-Binaphthyls. Sowohl beim S-Enantiomer als auch beim R-Enantiomer dieses Liganden wurde die Bildung eines dimeren Pd2Cl2-Komplexes beobachtet und durch Röntgenstrukturanalyse des enantiomerenreinen R-Komplexes bestätigt.
Das zentrale Thema dieser Arbeit sind vollständig gekoppelte reflektierte Vorwärts-Rückwärts-Stochastische-Differentialgleichungen (FBSDE). Zunächst wird ein Spezialfall, die teilweise gekoppelten FBSDE, betrachtet und deren Verbindung zur Bewertung Amerikanischer Optionen aufgezeigt. Für die Lösung dieser Gleichung wird Monte-Carlo-Simulation benötigt, daher werden verschiedene Varianzreduktionsmaßnahmen erarbeitet und miteinander verglichen. Im Folgenden wird der allgemeinere Fall der vollständig gekoppelten reflektierten FBSDE behandelt. Es wird gezeigt, wie das Problem der Lösung dieser Gleichungen in ein Optimierungsproblem übertragen werden kann und infolgedessen mit numerischen Methoden aus diesem Bereich der Mathematik bearbeitet werden kann. Abschließend folgen Vergleiche der verschiedenen numerischen Ansätze mit bereits existierenden Verfahren.
Proprietary polyurea based thermosets (3P resins) were produced from polymeric methylene diphenylisocyanate (PMDI) and water glass (WG) using a phosphate emulsifier. Polyisocyanates when combined with WG in presence of suitable emulsifier result in very versatile products. WG acts in the resulting polyurea through a special sol-gel route as a cheap precursor of the silicate (xerogel) filler produced in-situ. The particle size and its distribution of the silicate are coarse and very broad, respectively, which impart the mechanical properties of the 3P systems negatively. The research strategy was to achieve initially a fine water in oil type (W/O = WG/PMDI) emulsion by “hybridising” the polyisocyanate with suitable thermosetting resins (such as vinylester (VE), melamine/formaldehyde (MF) or epoxy resin (EP)). As the presently used phosphate emulsifiers may leak into the environment, the research work was directed to find such “reactive” emulsifiers which can be chemically built in into the final polyurea-based thermosets. The progressive elimination of the organic phosphate, following the European Community Regulation on chemicals and their safe use (REACH), was studied and alternative emulsifiers for the PMDI/WG systems were found. The new hybrid systems in which the role of the phosphate emulsifier has been overtaken by suitable resins (VE, EP) or additives (MF) are designed 2P resins. Further, the cure behaviour (DSC, ATR-IR), chemorheology (plate/plate rheometer), morphology (SEM, AFM) and mechanical properties (flexure, fracture mechanics) have been studied accordingly. The property upgrade targeted not only the mechanical performances but also thermal and flame resistance. Therefore, emphasis was made to improve the thermal and fire resistance (e.g. TGA, UL-94 flammability test) of the in-situ filled hybrid resins. Improvements on the fracture mechanical properties as well as in the flexural properties of the novel 3P and 2P hybrids were obtained. This was accompanied in most of the cases by a pronounced reduction of the polysilicate particle size as well as by a finer dispersion. Further the complex reaction kinetics of the reference 3P was studied, and some of the main reactions taking place during the curing process were established. The pot life of the hybrid resins was, in most of the cases, prolonged, which facilitates the posterior processing of such resins. The thermal resistance of the hybrid resins was also enhanced for all the novel hybrids. However, the hybridization strategy (mostly with EP and VE) did not have satisfactory results when taking into account the fire resistance. Efforts will be made in the future to overcome this problem. Finally it was confirmed that the elimination of the organic phosphate emulsifier was feasible, obtaining the so called 2P hybrids. Those, in many cases, showed improved fracture mechanical, flexural and thermal resistance properties as well as a finer and more homogeneous morphology. The novel hybrid resins of unusual characteristics (e.g. curing under wet conditions and even in water) are promising matrix materials for composites in various application fields such as infrastructure (rehabilitation of sewers), building and construction (refilling), transportation (coating of vessels, pipes of improved chemical resistance)…
A series of (oligo)phenthiazines, thiazolium salts and sulfonic acid functionalized organic/inorganic hybrid materials were synthesized. The organic groups were covalently bound on the inorganic surface through reactions of organosilane precursors with TEOS or with the silanol groups of material surface. These synthetic methods are called the co-condensation process and the post grafting. The structures and the textural parameters of the generated hybrid materials were characterized by XRD, N2 adsorption-desorption measurements, SEM and TEM. The incorporations of the organic groups were verified by elemental analysis, thermogravimetric analysis, FT-IR, UV-Vis, EPR, CV, as well as by 13C CP-MAS NMR and 29Si CP-MAS NMR spectroscopy. Introduction of various organic groups endow different phsysical, chemical properties to these hybrid materials. The (oligo)phenothiazines provide a group of novel redox acitive hybrid materials with special electronic and optic properties. The thiazolium salts modified materials were applied as heterogenized organo catalysts for the benzoin condensation and the cross-coupling of aldehydes with acylimines to yield a-amido ketones. The sulfonic acid containing materials can not only be used as Broensted acid catalysts, but also can serve as ion exchangable supports for further modifications and applications.
Untersuchungen zu Raum und Abschirmung am Beispiel der privaten Wohnhäuser von Philip Johnson
(2009)
Architektur ist geprägt vom Wandel. Auch wenn viele Architekten den daraus resultierenden Verlust von Konstanz in der Architektur bemängeln, lohnt sich die Auseinandersetzung mit dem Wandel. Er beinhaltet Entwicklungsmöglichkeiten der Architektur, aus denen wiederum Rückschlüsse für das eigene Entwerfen gewonnen werden können. Da sich die Gründe des Wandels selten eindeutig bestimmen lassen, liegt der Interessensschwerpunkt der Dissertation auf dessen Erscheinungen. Die Aufmerksamkeit wird deshalb auf die wesentlichen Elemente der Architektur, nämlich Raum und Abschirmung, gerichtet. An ihnen werden die Prinzipien des Wandels beschrieben. Dazu werden die Veränderungen von Raum und Abschirmung exemplarisch an den privaten Wohnhäusern von Philip Johnson untersucht. Diese Analyse ergibt, dass sich der Wandel in der Transformation von Raumtyp und Abschirmung bzw. im Wechsel zwischen Raumtypen manifestiert. Während durch die Transformation ein Raumtyp weiterentwickelt wird - Mittel der Transformation sind z.B. die Verformung oder die Verselbständigung von Elementen-, steht der Wechsel von einem Raumtyp zu einem anderen für den fundamentalen Wandel eines Raum- und Gestaltungskonzeptes. Die Wohnhäuser von Philip Johnson können in Bezug auf den Wandel nicht als inhaltlich abschließend bezeichnet werden. Zum einen arbeitet Johnson bei den Wohnhäusern nur mit den vier Raumtypen „Das klar definierte Innen“, „Das Ineinanderfließen von Innen und Außen“, „Innen und Außen als Raumeinheiten“ und „Das Innen im Außen“, zum anderen blendet er z.B. konstruktive Aspekte, wie Bauteilstärken aus. Dennoch können aus der Untersuchung allgemeingültige Rückschlüsse gewonnen werden. Zunächst ist festzustellen, dass der Wandel nicht so komplex ist, wie er durch die Masse diffuser Erscheinungsformen der Architektur erscheint. Er ist rückführbar auf die Veränderungen von Raum und Abschirmung. Sie bilden gemeinsam ein gedankliches und gebautes System, innerhalb dessen sich Architektur bewegt. Dieses System ist offen für potentielle Entwicklungen, d.h. es lässt neue Raumtypen oder aber Veränderungen des Raumtyps und der Abschirmung zu. Darüber hinaus ermöglicht es ein systematisches Vorgehen beim Entwerfen. Entwurfsalternativen und -varianten können aufbauend auf diesen Erkenntnissen aus Raum und Abschirmung gezielt entwickelt werden.
This thesis deals with the following question. Given a moduli space of coherent sheaves on a projective variety with a fixed Hilbert polynomial, to find a natural construction that replaces the subvariety of the sheaves that are not locally free on their support (we call such sheaves singular) by some variety consisting of sheaves that are locally free on their support. We consider this problem on the example of the coherent sheaves on \(\mathbb P_2\) with Hilbert polynomial 3m+1.
Given a singular coherent sheaf \(\mathcal F\) with singular curve C as its support we replace \(\mathcal F\) by locally free sheaves \(\mathcal E\) supported on a reducible curve \(C_0\cup C_1\), where \(C_0\) is a partial normalization of C and \(C_1\) is an extra curve bearing the degree of \(\mathcal E\). These bundles resemble the bundles considered by Nagaraj and Seshadri. Many properties of the singular 3m+1 sheaves are inherited by the new sheaves we introduce in this thesis (we call them R-bundles). We consider R-bundles as natural replacements of the singular sheaves. R-bundles refine the information about 3m+1 sheaves on \(\mathbb P_2\). Namely, for every isomorphism class of singular 3m+1 sheaves there are \(\mathbb P_1\) many equivalence classes of R-bundles. There is a variety \(\tilde M\) of dimension 10 that may be considered as the space of all the isomorphism classes of the non-singular 3m+1 sheaves on \(\mathbb P_2\) together with all the equivalence classes of all R-bundles. This variety is obtained by blowing up the moduli space of 3m+1 sheaves on \(\mathbb P_2\) along the subvariety of singular sheaves. We modify the definition of a 3m+1 family and obtain a notion of a new family over an arbitrary variety S. In particular 3m+1 families of the non-singular sheaves on \(\mathbb P_2\) are families in this sense. New families over one point are either non-singular 3m+1 sheaves or R-bundles. For every variety S we introduce an equivalence relation on the set of all new families over S. The notion of equivalence for families over one point coincides with isomorphism for non-singular 3m+1 sheaves and with equivalence for R-bundles. We obtain a moduli functor \(\tilde{\mathcal M}:(Sch) \rightarrow (Sets)\) that assigns to every variety S the set of the equivalence classes of the new families over S. There is a natural transformation of functors \(\tilde{\mathcal M}\rightarrow \mathcal M\) that establishes a relation between \(\tilde{\mathcal M}\) and the moduli functor \(\mathcal M\) of the 3m+1 moduli problem on \(\mathbb P_2\). There is also a natural transformation \(\tilde{\mathcal M} \rightarrow Hom(\__ ,\tilde M)\), inducing a bijection \(\tilde{\mathcal M}(pt)\cong \tilde M\), which means that \(\tilde M\) is a coarse moduli space of the moduli problem \(\tilde{\mathcal M}\).
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
Das Zwei-Komponenten System CiaRH von S. pneumoniae ist an der ß-Laktam-Resistenz, Regulation der genetischen Kompetenz, Lyse und Virulenz beteiligt. Unter den 16 Promotoren, die von diesem System kontrolliert werden, befanden sich die fünf stärksten Promotoren in intergenen Regionen. Hieraus resultierte die Vermutung, dass diese Promotoren die Expression von kleinen nichtkodierenden RNAs steuern könnten. Mittels Northern-Analyse konnte nachgewiesen werden, dass von diesen Promotoren aus kleine RNAs mit einer Größe von 87 bis 151 Basen exprimiert werden. Im Stamm mit deletierten ciaR waren diese RNAs nicht bzw. kaum detektierbar. Die fünf CiaRH-abhängigen kleinen RNAs wurden csRNAs benannt (cia controlled small RNAs). Durch Northern-Analyse an vier verschiedenen Zeitpunkten des Wachstums konnte gezeigt werden, dass die csRNAs in hoher Konzentration sowohl während der exponentiellen als auch in der stationären Wachstumsphase in den Zellen von S. pneumoniae vorhanden sind. Mittels 3´-RACE-Analyse wurde die Länge der csRNAs auf die Base genau bestimmt. csRNA1, csRNA2, csRNA3 und csRNA4 bestehen aus 87 bis 101 Nukleotiden. csRNA5 besitzt dagegen eine Länge aus 151 Basen. Die Promotoren der stromabwärts der kleinen RNAs liegenden Gene wurden mittels 5´-RACE-Analyse kartiert und ihre Expression mittels realtime RT-PCR-Analyse im Wildtyp, im ciaR-Deletionsstamm und einem Stamm mit aktiviertem CiaRH-System untersucht. Hierbei konnte gezeigt werden, dass diese Gene unabhängig von CiaRH exprimiert werden. Um die Beteiligung der csRNAs an den CiaRH-assoziierten Phänotypen aufzuklären, wurden die Gene für alle fünf csRNAs deletiert und mit verschiedenen Antibiotika-Resistenz-Genen ersetzt. Durch Kombination aller Deletionen wurde der Stamm S. pneumoniae RK12345 konstruiert, welcher keine csRNA mehr exprimiert. In Stamm RK12345 konnte eine erniedrigte Transformationseffizienz und eine erhöhte Lyserate im Vergleich zum Wildtyp S. pneumoniae R6 beobachtet werden. Hierdurch wurde gezeigt, dass die csRNAs eine Rolle bei den CiaRH-regulierten Prozessen spielen. Kleine RNAs üben ihren regulatorischen Effekt meist durch Wechselwirkung mit der mRNA ihrer Zielgene aus. Die beiden RNA-Moleküle interagieren hierbei über komplementäre Sequenzbereiche. Durch diese Basenpaarungen kommt es zur Hemmung oder Aktivierung der Translation bzw. zum Abbau des RNA-RNA-Interaktionskomplexes. Um die Ursachen der csRNA-vermittelten phänotypischen Veränderungen bestimmen zu können, wurde die Identifizierung der csRNA-Zielgene angestrebt. Mittels bioinformatischer Analyse wurde eine große Anzahl putativer Zielgene vorhergesagt, wovon nach Anlegung verschiedener Kriterien letztendlich 13 zu den weiteren Untersuchungen eingesetzt wurden. Um diese teilweise uncharakterisierten Gene auf eine posttranskriptionelle Regulation durch die csRNAs untersuchen zu können, wurde ein integratives Translations Probe Plasmid namens pTP3 konstruiert. Dieses Plasmid ermöglicht die Klonierung von 5´-Genfragmenten vor das ´lacZ-Gen, wodurch in frame-Zielgen´-´lacZ-Fusionsproteine entstehen. Die Expression des entstandenen Fusionsgens erfolgt hierbei von einem konstitutiven CiaRH-unabhängigen Promotor, namens PvegT. Die Klonierung und Untersuchung der ß-Galaktosidase- Expression der Zielgen´-´lacZ-Fusionsproteine ergab, dass die klonierten Fragmente der Gene spr0081, comC, spr1645 und cibB durch die csRNAs reguliert werden. Die Untersuchung dieser vier Zielgene bei Expression von den eigenen Promotoren und Intaktheit der entsprechenden mRNAs zeigte, dass letztendlich zwei Gene posttranskriptionell negativ durch die csRNAs reguliert werden. Interessanterweise ist eines dieser Zielgene das comC-Gen, welches für das Vorläuferpeptid des Kompetenz-Phäromons CSP kodiert. Diese Beobachtung könnte eine mögliche Ursache für die csRNA-abhängige veränderte Transformierbarkeit von Stamm RK12345 darstellen. Das zweite Zielgen der csRNAs, spr0081, kodiert für einen bisher uncharakterisierten ABC-Transporter, welcher möglicherweise am Transport eines Kohlenhydrats beteiligt ist. Letztendlich wurde die direkte Interaktion der in vitro produzierten mRNA dieser beiden Zielgene mit den csRNAs durch die Entwicklung und Etablierung einer neuartigen Methode der Bandshift-Analyse untersucht. Hierbei konnte nachgewiesen werden, dass die mRNA von comC mit allen fünf csRNAs Interaktions-komplexe bildet und die mRNA von spr0081 befähigt ist mit vier csRNAs Interaktionskomplexe zu bilden. Schließlich wurde der Effekt einzelner RNAs auf die Expression des ComC´-´lacZ-Fusionsproteins getestet. Hierbei konnte gezeigt werden, dass csRNA1, csRNA2 und csRNA3 einerseits bzw. csRNA4 und csRNA5 andererseits genügen, um den Effekt aller fünf RNAs ausüben zu können. Die stärkste Hemmungsaktivität einer einzelnen csRNA konnte bei csRNA4 festgestellt werden.
Von der Bauplanung zur Gebäudebewirtschaftung: Ein integrales Bewertungs- und Transformationsmodell
(2009)
Gegenstand der vorliegenden Arbeit ist der Entwurf eines integralen Bewertungs- und Transformationsmodells zur Integration der Gebäudebewirtschaftung in die Bauplanungsphase. Das Ziel der Untersuchung ist die Bildung eines Modells zur Identifizierung einer Bauplanungsvariante, die hinsichtlich ihrer späteren Nutzung bezüglich des Ressourcenverbrauchs, der Belastung für Mensch und Umwelt, der Durchführung von Bewirtschaftungsprozessen und bezüglich der Umgebungsressourcen eine optimierte Variante darstellt. Im ersten Teil der Arbeit werden nach einer kurzen Einführung zunächst die Motivation zur vorliegenden Arbeit, ihre Zielsetzung und die Grundlagen des Facility Management, der Bauplanung und Baukosten erläutert. Die ganzheitliche Betrachtung von Facility Management über den gesamten Lebenszyklus unter Berücksichtigung auch nicht monetärer Ziele wie Belastungsvermeidung oder Optimierung der Umgebungsressourcen macht eine eigene Neudefinition von Facility Management notwendig. Basis der weiteren Untersuchungen sind die entwickelten Übergeordneten Ziele des Facility Management. Zur Befriedigung der Übergeordneten Ziele des Facility Management muss Facility Management schon in der frühen Phase der Rahmen- und Nutzungsplanung und auf der funktional organisatorischen Bauplanungsebene integriert werden und muss die Interessen aller an Bau und Nutzung beteiligten integrieren. Der zweite Teil der Arbeit befasst sich mit der Integration von Facility Management in den Bauplanungsprozess. Dazu werden in einem ersten Schritt planungsabhängige Kosten und Leistungen des Facility Management identifiziert. Durch eine Analyse der Planungsabhängigkeiten der Übergeordneten Ziele des Facility Management wird aufgezeigt, wie Planungsobjekte identifiziert werden. Das entwickelte Transformationsmodell erlaubt die Transformation von Planungsobjekten zu Bewirtschaftungsobjekten, deren Variation in der Planungsphase die Bewirtschaftungsphase maßgeblich beeinflussen. Das erarbeitete Objektmodell zeigt im Sinne der Objektorientierung die Beziehungen der Bewirtschaftungsobjekte untereinander auf. Das Transformationsmodell bildet die Grundlage zur abschließenden Planungsbewertung anhand derer verschiedene Bauplanungsalternativen untereinander vergleichbar gemacht werden und hinsichtlich ihres Nutzwertes bezüglich der Bewirtschaftungsphase bewertet werden können.
Modern digital imaging technologies, such as digital microscopy or micro-computed tomography, deliver such large amounts of 2D and 3D-image data that manual processing becomes infeasible. This leads to a need for robust, flexible and automatic image analysis tools in areas such as histology or materials science, where microstructures are being investigated (e.g. cells, fiber systems). General-purpose image processing methods can be used to analyze such microstructures. These methods usually rely on segmentation, i.e., a separation of areas of interest in digital images. As image segmentation algorithms rarely adapt well to changes in the imaging system or to different analysis problems, there is a demand for solutions that can easily be modified to analyze different microstructures, and that are more accurate than existing ones. To address these challenges, this thesis contributes a novel statistical model for objects in images and novel algorithms for the image-based analysis of microstructures. The first contribution is a novel statistical model for the locations of objects (e.g. tumor cells) in images. This model is fully trainable and can therefore be easily adapted to many different image analysis tasks, which is demonstrated by examples from histology and materials science. Using algorithms for fitting this statistical model to images results in a method for locating multiple objects in images that is more accurate and more robust to noise and background clutter than standard methods. On simulated data at high noise levels (peak signal-to-noise ratio below 10 dB), this method achieves detection rates up to 10% above those of a watershed-based alternative algorithm. While objects like tumor cells can be described well by their coordinates in the plane, the analysis of fiber systems in composite materials, for instance, requires a fully three dimensional treatment. Therefore, the second contribution of this thesis is a novel algorithm to determine the local fiber orientation in micro-tomographic reconstructions of fiber-reinforced polymers and other fibrous materials. Using simulated data, it will be demonstrated that the local orientations obtained from this novel method are more robust to noise and fiber overlap than those computed using an established alternative gradient-based algorithm, both in 2D and 3D. The property of robustness to noise of the proposed algorithm can be explained by the fact that a low-pass filter is used to detect local orientations. But even in the absence of noise, depending on fiber curvature and density, the average local 3D-orientation estimate can be about 9° more accurate compared to that alternative gradient-based method. Implementations of that novel orientation estimation method require repeated image filtering using anisotropic Gaussian convolution filters. These filter operations, which other authors have used for adaptive image smoothing, are computationally expensive when using standard implementations. Therefore, the third contribution of this thesis is a novel optimal non-orthogonal separation of the anisotropic Gaussian convolution kernel. This result generalizes a previous one reported elsewhere, and allows for efficient implementations of the corresponding convolution operation in any dimension. In 2D and 3D, these implementations achieve an average performance gain by factors of 3.8 and 3.5, respectively, compared to a fast Fourier transform-based implementation. The contributions made by this thesis represent improvements over state-of-the-art methods, especially in the 2D-analysis of cells in histological resections, and in the 2D and 3D-analysis of fibrous materials.
In der vorliegenden Arbeit werden experimentelle und theoretische Untersuchungen für die Löslichkeiten von Methan in den organischen Lösungsmitteln Petroleumbenzin, 1-Oktanol, n-Hexan und n-Dodekan sowie Untersuchungen des LW-H-V-Gleichgewichts des Systems (CH4 + H2O) vorgestellt. Im Vergleich zu den Vorhersageergebnissen von Sloan sowie Parrish und Praus-nitz wurde mit dem in der vorliegenden Arbeit weiterentwickelten, thermodynamischen Modell für das Hydratgleichgewicht des Systems (CH4 + H2O) durch Berücksichtigung des Dampf-Flüssigkeits-Gleichgewichts gerade im Bereich erhöhter Drücke eine wesentlich bessere Übereinstimmung der berechneten Hydratgleichgewichtsdrücke mit den Messdaten der vorliegenden Arbeit sowie mit Literaturdaten erreicht. Die Untersuchungen zur physikalischen Löslichkeit von Methan in den organischen Lö-sungsmitteln und Wasser wurden in einem Temperaturbereich von 273,2 K bis 293 K bei Ge-samtdrücken bis maximal 10 MPa durchgeführt. Die Ergebnisse wurden mit Rechenwerten verglichen, die mit dem in der vorliegenden Arbeit entwickelten Modell erhalten wurden. Die maximale Konzentration von Methan in der organischen Lösemittelphase betrug im System (CH4 + n-Hexan) bei max. 8,7 Mol CH4 pro Kilogramm Hexan. Dieses entspricht einer Beladung des Lösungsmittels von 140 Gramm Methan pro Kilogramm Hexan. Die Untersuchungen zur Löslichkeit von Kohlendioxid (CO2) und Schwefelwasser-stoff (H2S) in wässrigen Aminlösungen (Amine A, B, C, D) waren Teil einer Industriekooperation mit der BASF AG, Ludwigshafen. Ziel des Gesamtprojekts war es, ein bestehendes Aminsystem zu ersetzen. Die experimentellen Ergebnisse für die Löslichkeit von Kohlendi-oxid in diesen Aminmischungen liefern fundierte Grundlagen zur Thermodynamik solcher Lösungen in einem industriellen Absorptionsprozess. Die Untersuchungen am System (CO2 + MDEA + PIPH2 + H2O) stellen eine Weiter-entwicklung des von Pérez-Salado Kamps entwickelten thermodynamischen Modells dar. Die experimentellen Untersuchungen der vorliegenden Arbeit und von Speyer erweitern den Konzentrationsbereich dieses Modells und führten zu einer Neuparametrisierung im Hoch- und Niederdruckbereich. Dabei wurden auch Wechselwirkungen zwischen den aus MDEA und Piperazin entstehenden Spezies berücksichtigt. Die Korrelations- und Vorhersa-geergebnisse werden im Vergleich zu den Vorhersagen von Ermatchkov deutlich verbessert. Die Messungen erfolgten in einer Phasengleichgewichtsapparatur, die nach der synthetischen, d.h. mit bekannter Zusammensetzung des Lösungsmittels/-gemisches und bekannter Gasmenge, Methode arbeitet. Bei der experimentellen Vorgehensweise wurde die evakuierte Hochdrucksichtzelle mit dem zu lösenden Gas bei gemessenem Druck und konstanter Temperatur und einem Teil des Lösungsmittels befüllt. Mit einem Hochdruckverdränger wird gerade soviel Lösungsmittel in die Zelle nachgepresst, bis sich gerade eine homogene Phase bildet, d.h. bis keine Gasphase mehr sichtbar ist. Damit ist die gesamte Menge an Gas in der flüssi-gen Phase gelöst, allerdings liegt der Druck deutlich über dem Löslichkeitsdruck. Durch Entnehmen geringer Menge der Lösung (Herausdrehen der Verdrängerspindel) wird der Druck schrittweise gesenkt. Bei Erreichen der Siedelinie beginnt das Gas aus dem Lösungsmittel auszugasen. Der sich einzustellende Gleichgewichtsdruck ist derjenige Druck, der notwendig ist, um die gesamte Menge an Gas in der in die Zelle eingebrachte Lösungsmittelmenge zu lösen. Die Modellierung der gemessenen Gaslöslichkeiten erfolgte für die flüssigen Phasen mit dem von Edwards, Maurer und Newman modifizierten GE-Ansatz von Pitzer zur Be-rücksichtigung der Nichtidealitäten und Berechnung der Aktivitätskoeffizienten. Die Abweichungen von dem idealen Gasverhalten in der Gasphase wurden durch die Berech-nung der Fugazitätskoeffizienten mit der nach dem zweiten Koeffizienten abgebrochenen Virialgleichung ausgedrückt.
Pflasterflächen bilden heute einen hohen Anteil der befestigten Siedlungsfläche. Dabei kommen diverse Pflastersysteme mit ganz unterschiedlichem VErsickerungsvermögen zum Einsatz. Die Quantifizierung des Abflussbeitrages der unterschiedlichen Befestigungsarten ist jedoch bislang mit erheblichen Unsicherheiten behaftet, da fundierte und ausreichend differenzierte Kennwerte zum Versickerungsvermögen fehlen. Im Rahmen der vorliegenden Forschungsarbeit wurde das Versickerungsvermögen gängiger Pflasterbauweisen systematisch untersucht. Den Kern der Untersuchung bilden mehrere hundert Messungen an Bestandflächen sowie im Labor. Im Zuge der Untersuchungen konnte eine Vielzahl gewinnbringender und teilweise neuer Erkenntnisse zur Charakterisierung und Quantifizierung des Versickerungsphänomens auf durchlässig befestigten Siedlungsflächen gewonnen und zur Ableitung substanzieller Anwendungsempfehlungen genutzt werden. Mit den erarbeiteten Versickerungskennwerten wird eine deutlich verbesserte und zugleich durch umfangreiche Messungen und Analysen abgesicherte Grundlage zur quantitativen Bewertung des Versickerungsvermögens bereit gestellt. Die Kennwerte tragen hierbei dem Einfluss wesentlicher Randbedingungen wie dem Eintrag von Feinpartikeln in den Fugenraum, der Niederschlagsintensität, dem Gefälle, der Liegezeit sowie der Nutzung Rechnung. Vielfach konnten anhand der Messwertanalysen Erkenntnisse früherer Untersuchungen bestätigt und mit messtechnisch abgesicherten Zahlenwerten untermauert werden. Ferner konnten für zahlreiche Belagsarten Häufigkeitsverteilungen des Versickerungsvermögens generiert werden, mit denen der ausgeprägte stochastische Charakter des Versickerungsverhaltens, der sich in einer enormen Variabilität des Versickerungsvermögens äußert, erstmals quantitativ umschrieben werden kann. Darüber hinaus wurde ein erster Schritt zu einer verbesserten urbanhydrologischen Erfassung des Abflussverhaltens versickerungsfähiger Siedlungsflächen getätigt. Neben der Ableitung von bauartspezifischen Abflussbeiwerten und Parameterempfehlungen zur Niederschlagsabflusssimulation wurde ein urbanhydrologischer Modellbaustein konzipiert. Die Infiltrationsprozesse werden hierbei über eine modifizierten Ansatz nach Horton/Paulsen abgebildet, bei dem die Berechnungsflächen in Teilflächen diskretisiert und mit nach Auftretenshäufigkeiten gestaffelten Parameterwerten verbunden werden. Der Ansatz hat sich als äußerst effektiv erwiesen und wird daher ausdrücklich zur weiteren programmtechnischen Umsetzung empfohlen.
This thesis deals with 3 important aspects of optimal investment in real-world financial markets: taxes, crashes, and illiquidity. An introductory chapter reviews the portfolio problem in its historical context and motivates the theme of this work: We extend the standard modelling framework to include specific real-world features and evaluate their significance. In the first chapter, we analyze the optimal portfolio problem with capital gains taxes, assuming that taxes are deferred until the end of the investment horizon. The problem is solved with the help of a modification of the classical martingale method. The second chapter is concerned with optimal asset allocation under the threat of a financial market crash. The investor takes a worst-case attitude towards the crash, so her investment objective is to be best off in the most adverse crash scenario. We first survey the existing literature on the worst-case approach to optimal investment and then present in detail the novel martingale approach to worst-case portfolio optimization. The first part of this chapter is based on joint work with Ralf Korn. In the last chapter, we investigate optimal portfolio decisions in the presence of illiquidity. Illiquidity is understood as a period in which it is impossible to trade on financial markets. We use dynamic programming techniques in combination with abstract convergence results to solve the corresponding optimal investment problem. This chapter is based on joint work with Holger Kraft and Peter Diesinger.
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum Stand
der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls weiter oder
neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
The scarcity of raw materials such as oil and natural gas has led the necessity to design
more and more energy-efficient constructions. This applies particularly to the
automotive industry and its component suppliers. There are two possibilities to meet
this obligation. On the one hand, one can develop new forms of drive concepts, e.g.
hybrid or electric motors. On the other hand, the reduction of weight can significantly
diminish the consumption of fuel. Especially in the aerospace industry every gram
less counts. To put this requirement into action traditional materials, e.g. steel and
cast iron, are replaced by new lightweight materials. This can be miscellaneous light
alloys or one of several fibre reinforced plastics. After the production of plastic devices
such as display panels in cars, more and more security-relevant plastic devices
appeared.
This report deals with one important material within the group of glass fibre reinforced
thermoplastics i.e. long-glass-fibre reinforced polypropylene. Polypropylene with approximately
14% of the worldwide usage of plastics is very cheap and can support
companies in cost-saving. This aspect becomes more and more important considering
the expansion of global business competition, especially in the automotive industry.
With approximately 50%, glass-fibre reinforced polypropylene is the dominant
material in the group of glass fibre reinforced thermoplastics. To counteract the demand
of shorter development times in the design process the automotive industry
and its suppliers count on simulation tools such as the finite-element (FE)-simulation.
For this reason the quality of the mathematical material models has to be improved
and its parameters have to be identified. After choosing a suitable material model and
identifying the corresponding parameters, a verification of both has to follow to assure
their reliability. This is typically carried out by comparing measurement with simulation
data at distinctive points of the considered geometry. With advanced performance
of computer hardware and measurement systems it is possible to measure
specimens and more complex geometries at high strain rates by means of high
speed cameras and to conduct FE-Simulations in a justifiable time with sufficient accuracy Thus the following chapter firstly discusses the basics of continuum mechanics with
its well-established mathematical formulations for anisotropic elasticity, plasticity and
viscoelasticity and the corresponding rheological models. In chapter three the properties
of the matrix material polypropylene are presented with more precise consideration
of the strength and failure of the composite material under tensile load depending
on the fibre length and volume. Thereafter, the geometry and dimensions of the
specimens for tensile and shear tests are presented, together with a test sample
which is used as an example for the design of automotive structures via coactions of
measuring and simulation techniques. Chapter four deals with the state of the art in
high speed testing, the experimental setup and its mode of operation as well as the
explanation of different kinds of evaluation software which is used in this work.
Here, the main focus is aimed at the determination and interpretation of displacement
and strain fields with the grey scale method. The following paragraph describes different
initial examinations of specimens and the test sample. In this context, exposures
of fracture surfaces and polished micrograph sections were examined by
means of optical and scanning electron microscopy. In this way discontinuities and
cracks caused by the injection moulding process are detected. The quality of the
specimens and the test sample and their suitability for systematic material testing are
finally evaluated by means of thermoelastic stress analysis and a laser extensometer.
With these systems a direct optical strain measurement can be accomplished to
screen the homogeneity of specimens and parts.
In chapter six an approach for an experimental method is presented for measuring
displacement fields of the surface of specimens of long-glass-fibre reinforced polypropylene
at high strain rate. A strategy is introduced for reasonable data evaluation
to characterise stress strain behaviour under tensile and shear load. Specimens of
long-glass-fibre polypropylene with a fibre volume content of 30% and 40% respectively,
are tested and analysed. Anisotropy of the material is considered by testing
specimens with fibres oriented either in the direction of the tensile load or perpendicular
to it. The resulting stress strain curves for the two main directions are used as
basis for identifying material properties for an orthotropic constitutive law. Hence the
elastic parameters that are collected from stress strain curves are the axial modulus
in fibre direction and perpendicular to it, the shear modulus in the fibre plane and the
matrix plane and finally the lateral contraction in fibre direction, at right angle to it and
in the matrix plane. After having collected the parameters for elasticity, the HILLcriterion
is utilised to describe orthotropic plasticity. The different stresses at the
yielding points related to the designated directions are used to compute the parameters
of the HILL-criterion. Finally, in order to describe the strain-rate dependent behaviour
of the material, a one dimensional rheological model with four relaxation
terms is utilized to represent the set of curves resulting from tests of specimens at five different strain rates. The viscoelastic parameters are identified by means of a
least square approach using the Levenberg-Marquardt algorithm.
In chapter eight, the elastic-plastic orthotropic material model is verified for low strain
rates. A specimen with a hole in its middle is exposed to a tensile load until break and
simultaneously measured by means of a CCD-camera to obtain the two-dimensional
displacement field on its surface. Comparison of the experimental displacements with
the displacements of a finite-element model at the same points shows the quality of
the material model and its parameters. Finally, in chapter nine, the results of a filling
simulation of the test sample is shown and again a comparison of measured and
simulated data is presented. This we describe the potential and the limits of current
filling-simulation-software in conjunction with a popular finite-element-tool like
ABAQUS. To conclude appropriate mathematical characterisation and reliable parameters
of long-glass-fibre reinforced polypropylene require stringent experimental
and theoretical characterisation. Complete specification of such a complex material is still very time-consuming and prone to mistakes during the whole sequence of operations.
For this reason it is very important to improve the reliability of every single step
in product engineering. Hence the performance of a mathematical material model is
not only dependent on its formulation but also and particularly on the quality of its
material parameters whether they are determined directly from material tests or by
means of special optimization software. The best optimization tools can only optimize
material parameters reliably if the underlying experimental data is just as reliable.
Sound surrounds us all the time and in every place in our daily life, may it be pleasant music in a concert hall or disturbing noise emanating from a busy street in front of our home. The basic properties are the same for both kinds of sound, namely sound waves propagating from a source, but we perceive it in different ways depending on our current mood or if the sound is wanted or not. In this thesis both pleasant sound as well as disturbing noise is examined by means of simulating the sound and visualizing the results thereof. However, although the basic properties of music and traffic noise are the same, one is interested in different features. For example, in a concert hall, the reverberation time is an important quality measure, but if noise is considered only the resulting sound level, for example on ones balcony, is of interest. Such differences are reflected in different methods of simulation and required visualizations, therefore this thesis is divided into two parts. The first part about room acoustics deals with the simulation and novel visualizations for indoor sound and acoustic quality measures, such as definition (original "Deutlichkeit") and clarity index (original "Klarheitsmaß"). For the simulation two different methods, a geometric (phonon tracing) and a wave based (FEM) approach, are applied and compared. The visualization techniques give insight into the sound behaviour and the acoustic quality of a room from a global as well as a listener based viewpoint. Furthermore, an acoustic rendering equation is presented, which is used to render interference effects for different frequencies. Last but not least a novel visualization approach for low frequency sound is presented, which enables the topological analysis of pressure fields based on room eigenfrequencies. The second part about environmental noise is concerned with the simulation and visualization of outdoor sound with a focus on traffic noise. The simulation instruction prescribed by national regulations is discussed in detail, and an approach for the computation of noise volumes, as well as an extension to the simulation, allowing interactive noise calculation, are presented. Novel visualization and interaction techniques for the calculated noise data, incorporated in an interactive three dimensional environment, enabling the easy comprehension of noise problems, are presented. Furthermore additional information can be integrated into the framework to enhance the visualization of noise and the usability of the framework for different usages.
Rapid growth in sensors and sensor technology introduces variety of products to the market. The increasing number of available sensor concepts and implementations demands more versatile sensor electronics and signal conditioning. Nowadays signal conditioning for the available spectrum of sensors is becoming more and more challenging. Moreover, developing a sensor signal conditioning ASIC is a function of cost, area, and robustness to maintain signal integrity. Field programmable analog approaches and the recent evolvable hardware approaches offer partial solution for advanced compensation as well as for rapid prototyping. The recent research field of evolutionary concepts focuses predominantly on digital and is at its advancement stage in analog domain. Thus, the main research goal is to combine the ever increasing industrial demand for sensor signal conditioning with evolutionary concepts and dynamically reconfigurable matched analog arrays implemented in main stream Complementary Metal Oxide Semiconductors (CMOS) technologies to yield an intelligent and smart sensor system with acceptable fault tolerance and the so called self-x features, such as self-monitoring, self-repairing and self-trimming. For this aim, the work suggests and progresses towards a novel, time continuous and dynamically reconfigurable signal conditioning hardware platform suitable to support variety of sensors. The state-of-the-art has been investigated with regard to existing programmable/reconfigurable analog devices and the common industrial application scenario and circuits, in particular including resource and sizing analysis for proper motivation of design decisions. The pursued intermediate granular level approach called as Field Programmable Medium-granular mixed signal Array (FPMA) offers flexibility, trimming and rapid prototyping capabilities. The proposed approach targets at the investigation of industrial applicability of evolvable hardware concepts and to merge it with reconfigurable or programmable analog concepts, and industrial electronics standards and needs for next generation robust and flexible sensor systems. The devised programmable sensor signal conditioning test chips, namely FPMA1/FPMA2, designed in 0.35 µm (C35B4) Austriamicrosystems, can be used as a single instance, off the shelf chip at the PCB level for conditioning or in the loop with dedicated software to inherit the aspired self-x features. The use of such self–x sensor system carries the promise of improved flexibility, better accuracy and reduced vulnerability to manufacturing deviations and drift. An embedded system, namely PHYTEC miniMODUL-515C was used to program and characterize the mixed-signal test chips in various feedback arrangements to answer some of the questions raised by the research goals. Wide range of established analog circuits, ranging from single output to fully differential amplifiers, was investigated at different hierarchical levels to realize circuits like instrumentation amplifier and filters. A more extensive design issues based on low-power like for e.g., sub-threshold design were investigated and a novel soft sleep mode idea was proposed. The bandwidth limitations observed in the state of the art fine granular approaches were enhanced by the proposed intermediate granular approach. The so designed sensor signal conditioning instrumentation amplifier was then compared to the commercially available products in the market like LT 1167, INA 125 and AD 8250. In an adaptive prototype, evolutionary approaches, in particular based on particle swarm optimization with multi-objectives, were just deployed to all the test samples of FPMA1/FMPA2 (15 each) to exhibit self-x properties and to recover from manufacturing variations and drift. The variations observed in the performance of the test samples were compensated through reconfiguration for the desired specification.
Im Rahmen der vorliegenden Dissertation konnten wichtige Ergebnisse zur Charakterisierung des neuartigen Nukleotidtransporters AtNTT3 gewonnen werden. Die vorgeschlagenen Spleißvarianten des AtNTT3 wurden erfolgreich in Gesamtblüten-, Pollen- und Wurzelgewebe nachgewiesen. Zusätzlich konnte in diesen Geweben die stärkste AtNTT3-Promotoraktivität gezeigt werden. Die subzelluläre Expression der AtNTT3-Proteine wurde mit Hilfe von GFP-Fusionskonstrukten untersucht und untermauert eine außergewöhnliche Lokalisierung von zwei der drei untersuchten Proteinvarianten (AtNTT3-2 und AtNTT3-3) in der pflanzlichen Plasmamembran. Für AtNTT3-1 kann ein anderer Insertionsort, wie beispielsweise die Membranen des ER, nicht ausgeschlossen werden. Insgesamt ist AtNTT3 damit der erste pflanzliche Nukleotidtransporter der NTTFamilie, der nicht in den Plastiden lokalisiert ist. Die Hauptfunktion des AtNTT3 und seinen Spleißvarianten besteht in dem Transport von Nukleotiden. ATP, ADP und auch dATP konnten als favorisierte Importsubstrate identifiziert werden. Obwohl die heterolog exprimierten AtNTT3-Varianten im Vergleich mit strukturell ähnlichen Nukleotidtransportern eine geringe Transportaktivität zeigten, konnte ein spezifischer Transport der Substrate ATP und ADP verifiziert werden. Weiterhin wurde eine homozygote AtNTT3-KO-Linie identifiziert und damit eine Vielzahl von Versuchen zur physiologischen Rolle des AtNTT3 durchgeführt. Bisher konnten keine Hinweise auf einen veränderten Stoffwechsel der KO-Mutanten erhalten werden. Zusätzlich wurden AtNTT3-Überexpressionsmutanten hergestellt, um eine weiterführende detaillierte Analyse vorzubereiten. Wenngleich die physiologische Funktion des untersuchten Membranproteins im Rahmen dieser Arbeit nicht vollständig geklärt werden konnte, zeigen die Ergebnisse jedoch deutlich, dass es sich bei AtNTT3-2 und AtNTT3-3 um plasmamembranständige Nukleotidtransporter handelt. Aufgrund des vorliegenden Expressionsmusters, der subzellulären Lokalisierung und der transportierten Substrate liegt eine Beteiligung der Spleißvarianten am extrazellulären Nukleotidstoffwechsel nahe. Transportstudien indizieren für AtNTT3-1 das gleiche Substratspektrum, die Expression auf Zellebene muss aber nochmals überprüft werden, bevor hier eine konkrete Aussage möglich ist.
In this thesis, the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to porous media is investigated. For that purpose, the transmission conditions across the interfaces between the fluid regions and the porous domain are derived. A proper algorithm is formulated and numerical examples are presented. First, the transmission conditions for the coupling of various physical phenomena are reviewed. For the coupling of free flow with porous media, it has to be distinguished whether the fluid flows tangentially or perpendicularly to the porous medium. This plays an essential role for the formulation of the transmission conditions. In the thesis, the transmission conditions for the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to the porous medium in one and three dimensions are derived. With these conditions, the continuous fully coupled system of equations in one and three dimensions is formulated. In the one dimensional case the extreme cases, i.e. fluid-fluid interface and fluid impermeable solid interface, are considered. Two chapters of the thesis are devoted to the discretisation of the fully coupled Biot-Stokes system for matching and non-matching grids, respectively. Therefor, operators are introduced that map the internal and boundary variables to the respective domains via Stokes equations, Biot equations and the transmission conditions. The matrix representation of some of these operators is shown. For the non-matching case, a cell-centred grid in the fluid region and a staggered grid in the porous domain are used. Hence, the discretisation is more difficult, since an additional grid on the interface has to be introduced. Corresponding matching functions are needed to transfer the values properly from one domain to the other across the interface. In the end, the iterative solution procedure for the Biot-Stokes system on non-matching grids is presented. For this purpose, a short review of domain decomposition methods is given, which are often the methods of choice for such coupled problems. The iterative solution algorithm is presented, including details like stopping criteria, choice and computation of parameters, formulae for non-dimensionalisation, software and so on. Finally, numerical results for steady state examples, depth filtration and cake filtration examples are presented.
We present a new efficient and robust algorithm for topology optimization of 3D cast parts. Special constraints are fulfilled to make possible the incorporation of a simulation of the casting process into the optimization: In order to keep track of the exact position of the boundary and to provide a full finite element model of the structure in each iteration, we use a twofold approach for the structural update. A level set function technique for boundary representation is combined with a new tetrahedral mesh generator for geometries specified by implicit boundary descriptions. Boundary conditions are mapped automatically onto the updated mesh. For sensitivity analysis, we employ the concept of the topological gradient. Modification of the level set function is reduced to efficient summation of several level set functions, and the finite element mesh is adapted to the modified structure in each iteration of the optimization process. We show that the resulting meshes are of high quality. A domain decomposition technique is used to keep the computational costs of remeshing low. The capabilities of our algorithm are demonstrated by industrial-scale optimization examples.
Organische Moleküle lösen zunehmend anorganische Verbindungen wegen ihrer schnelleren bzw. kostengünstigeren Herstellung sowie der leichteren Modifikation ihrer Eigenschaften als Grundlage neuer hocheffizienter Materialien mit optischen und dielektrischen Anisotropien in der technischen Anwendung ab. Zusätzlich bieten Prozesse der supramolekularen Chemie zur Selbstorganisation niedermolekularer Bausteine nach dem Vorbild der Natur neue Möglichkeiten makroskopische Systeme mit maßgeschneiderter Funktionalität zu erzeugen. Diese supramolekularen Aggregate bilden sich auf Grund unspezifischer und spezifischer Wechselwirkungen ihrer Bausteine, die sich in Veränderungen der elektronischen Struktur sowie anderer molekularer Eigenschaften widerspiegelt. Mittels elektrooptischer Absorptionsmessung (EOAM) können die Dipolmomente des Grund- und Anregungszustandes von Verbindungen in Lösung bestimmt sowie die Anisotropie der (Hyper-)Polarisierbarkeit abgeschätzt werden. Die EOA-Spektroskopie stellte die Methode der Wahl dar, organische Moleküle bzw. ihre supramolekularen Aggregate für Materialien mit gewünschter Funktionalität zu identifizieren Im Rahmen dieser Arbeit wurde ein vollautomatisiertes Spektrometer zur Bestimmung der Elektrochromie von Molekülen in Lösung erfolgreich konstruiert, aufgebaut und in Betrieb genommen. Die computergestützte Automatisierung der Apparatur ermöglichte die schnellere und bessere Charakterisierung einer Vielzahl unterschiedlichster Verbindungen. Durch die höhere spektrale Auflösung konnten überlagerte Absorptionsbanden einer bzw. verschiedener Spezies in Lösung durch neu entwickelte bzw. verfeinerte Analyseverfahren identifiziert und erstmal quantitativ ausgewertet werden. Hierdurch konnte erfolgreich demonstriert werden, dass die EOA-Spektroskopie zahlreiche Beiträge zur Analyse vielfältiger Fragestellungen liefern kann, die mittels anderer Techniken unter den experimentellen Bedingungen nicht zugänglich sind. Neben der Charakterisierung zahlreicher Verbindungen für die Anwendung in organischen Solarzellen, bei der Frequenzverdopplung und für die holographische Speicherung lag der Schwerpunkt der experimentellen Arbeiten im Nachweis und der Untersuchung der Interaktion von organischen Molekülen durch spezifische und unspezifische Wechselwirkungen. Dabei konnten Veränderungen der Konformation bei Rezeptoren durch die Komplexierung eines Gast-Moleküles nachgewiesen werden. Darüber hinaus gelang es erstmals mit Hilfe der EOA-Spektroskopie, Strukturparameter von Komplexen in flüssiger Lösung zu erhalten. Durch konkurrierende Wechselwirkung der Orientierung dipolarer Merocyanine konnten Komplexe mit sehr kleinen und den derzeit größten bekannten Dipolmomenten erzeugt werden. Die Variation der Feldstärken interner und externer elektrischer Felder bzw. die Konzepte der supramolekularen Chemie bieten in Zukunft neben den bestehenden Verfahren zur Modifikation organischer Moleküle neue Möglichkeiten, effiziente und funktionelle Materialien zu erzeugen.
Untersuchungen zu Spincrossover und Valenztautomerie an an Eisen(II)- bzw. Kobalt(II)-Komplexen
(2008)
Mit den Komplexen [Fe(L-N4H2)(NCS)2]∙MeOH (1) und [Fe(L-N2S2)(NCS)2]∙0,5 DMF (2) konnten zwei neue Spincrossover-Verbindungen synthetisiert werden, die Thiocyanat-Anionen als Liganden beinhalten. Die magnetischen Untersuchungen für Komplex 1 wurden aufgrund der verwitterungsanfälligen Kristalle mit einer lösungsmittelfreien Probe ([Fe(L-N4H2)(NCS)2]) durchgeführt. Sowohl die SQUID-Magnetometrie als auch die Mößbauer-Spektroskopie zeigen hierbei einen unvollständigen Spinübergang, bei dem bei tiefen Temperaturen ein high-spin Restanteil von 30 % verbleibt. Die Übergangstemperatur beträgt T1/2 = 141 K, für Komplex 2 wird ein Wert von T1/2 = 232 K gefunden. Der Komplex [Fe(L-N4tBu2)(CN)2]•MeCN (3) ist das erste Beispiel einer eisen(II)-haltigen low-spin Verbindung, die den makrozyklischen Pyridinophanliganden L-N4tBu2 enthält. Durch die Verwendung von Coliganden mit geringerer Ligandenfeldstärke (verglichen zum Cyanid-Anion) gelang es in der vorliegenden Arbeit erstmals, Spincrossover-Komplexe mit dem Liganden L-N4tBu2 zu synthetisieren. Dabei handelt es sich um die Eisen(II)-Komplexe [Fe(L-N4tBu2)(bipy)](BPh4)2•MeCN•Et2O (4), [Fe(L-N4tBu2)(phen)](BPh4)2•Et2O (5a), [Fe(L-N4tBu2)(phen)](BPh4)2•MeCN (5b), [Fe(L-N4tBu2)(dppz)](BPh4)2 (6) sowie [Fe(L-N4tBu2)(bpym)](BPh4)2•MeCN (7), bei denen aromatische Diimine als Coliganden eingesetzt wurden. Die Röntgenstrukturanalysen zeigen mehr oder weniger ausgeprägte Bindungslängenunterschiede, die jeweils auf einen Spincrossover schließen lassen. Die magnetischen Untersuchungen zeigen für die Komplexe 4 (T1/2 = 177 K), 5a (T1/2 = 179 K), 5b (T1/2 ≈ 347 K), 6 (T1/2 = 275 K) und 7 (T1/2 ≈ 335 K) Spinübergänge mit unterschiedlichen Verläufen und Übergangstemperaturen. Besonders hervorzuheben sind dabei die analogen Komplexe 5a und 5b, die sich zwar lediglich durch das im Kristallgitter eingebaute Lösungsmittelmolekül unterscheiden, jedoch völlig verschiedene magnetische Eigenschaften und Spinübergangsarten aufweisen. Neben den einkernigen low-spin Komplexen [Fe(L-N4Me2)(bpym)](ClO4)2 (8) und [Fe(L-N4Me2)(BiBzIm)]∙4 MeOH (9) konnten erstmals mit dem Pyridinophanliganden L-N4Me2 zweikernige Spincrossover-Komplexe hergestellt werden. Der zweikernige Komplex [{Fe(L-N4Me2)}2(BiBzIm)](ClO4)2∙2 EtCN (10) zeigt bei T = 175 K einen abrupten high-spin/high-spin→high-spin/low-spin Übergang. Nur eines der beiden Eisen(II)-Ionen geht beim Abkühlen vom high-spin in den low-spin Zustand über. In der Kristallstruktur können bei tiefen Temperaturen die beiden unterschiedlichen Eisen(II)-Zentren genau lokalisiert werden. Ein solcher high-spin/high-spin→high-spin/low-spin Übergang wird auch für [{Fe(L-N4Me2)}2(BzImCOO)](ClO4)2∙0.5 (CH3)2CO (11) beobachtet. Die Übergangstemperatur beträgt hier T = 210 K. Das high-spin und das low-spin Eisen(II)-Ion können in dieser Kristallstruktur bei tiefer Temperatur ebenfalls genau identifiziert werden. Bei dem Komplex [{Fe(L-N4Me2)}2(pndc)](ClO4)2∙H2O (12) handelt es sich ebenfalls um einen zweikernigen Spincrossover-Komplex, der einen vollständigen Spinübergang aufweist (T1/2 ≈ 260 K). Die Untersuchungen zur Valenztautomerie wurden an Kobalt-Komplexen mit dem redoxaktiven Liganden 3,5-Di-tert-butylcatecholat und den makrozyklischen Pyridinophan-liganden L-N4Me2 und L-N4tBu2 durchgeführt. Die Röntgenstrukturanalyse weist Verbindung [Co(L-N4Me2)(dbc)](BPh4) (13) als diamagnetische low-spin Kobalt(III)-Catecholat-Spezies aus. Die C-C-Bindungen und die C-O-Abstände belegen, dass der Dioxolenligand in der Catecholat-Form vorliegt. Außerdem sind die Co-N- und die Co-O-Bindungslängen sehr kurz, was auf das low-spin Kobalt(III)-Ion zurückzuführen ist. Bei Komplex [Co(L-N4tBu2)(dbsq)](B(C6H4Cl)4) (14) handelt es sich hingegen um eine paramagnetische Kobalt(II)-Semichinonat-Verbindung. In der Kristallstruktur ist im kompletten Temperaturbereich das typische Bindungsschema eines Semichinonatliganden zu erkennen. Dagegen unterscheiden sich die Co-N- und die Co-O-Abstände bei den verschiedenen Messtemperaturen deutlich voneinander. Während die kürzeren Bindungs-längen bei T = 100 K eindeutig auf ein low-spin Kobalt(II)-Ion schließen lassen, legen die bei T = 400 K deutlich elongierten Bindungslängen einen beginnenden Spinübergang in den high-spin Zustand nahe. Dieser Befund wird durch die SQUID-Messung unterstützt, bei der im Temperaturintervall von 50 K bis 200 K konstante Werte für χMT bzw. für µeff gefunden werden, während die Werte für T > 200 K deutlich ansteigen und somit auf einen Spincrossover hinweisen.