Refine
Year of publication
- 2015 (100) (remove)
Document Type
- Doctoral Thesis (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Stadtplanung (2)
- finite element method (2)
- isogeometric analysis (2)
- tractor (2)
- verification (2)
- AMC225xe (1)
- Adaptive time step (1)
- Adjoint method (1)
- Allylierung (1)
- Aminierung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Bauingenieurwesen (3)
- Kaiserslautern - Fachbereich Sozialwissenschaften (2)
- Kaiserslautern - Fachbereich ARUBI (1)
Für alle Organismen ist es wichtig, sich gegen das Eindringen exogener DNA bzw. RNA wie z.B. Viren oder transposablen Elementen zur Wehr zu setzen um die Integrität ihres eigenen Genoms zu bewahren. Zudem müssen innerhalb eines Organismus oft ganze Genfamilien reguliert werden. Die RNA-Interferenz stellt ein optimales Mittel sowohl für die Abwehr exogener Nukleinsäuren, als auch für die Regulierung endogener Gene dazu bereit. Das Herzstück der RNAi stellen kleine regulatorische siRNAs dar, die Homologie-abhängig Reaktionen in einer Zelle hervorrufen können, wie z.B. das transkriptionelle oder das posttranskriptionelle Silencing. Bei dem Mechanismus der RNAi sind zudem mehrere Komponenten beteiligt um diese siRNAs zu synthetisieren, zu stabilisieren und zu ihrem Zielort zu bringen um dort das Silencing zu vermitteln. Dabei spielen die Enzyme Dicer und RNA abhängige RNA-Polymerasen eine wichtige Rolle in der Synthese. Argonauten, bzw. eine Unterklasse von ihnen, die Piwi-Proteine sind für das eigentliche Silencing des Zielgens wichtig und spielen, wie auch die 2´-O-Methyltransferase Hen1, eine Rolle in der Stabilisierung der siRNAs.
In Paramecium tetraurelia weiß man, dass endogene Genfamilien, wie z.B. die Oberflächen-Antigene RNAi-vermittelt reguliert werden. Zudem ist bekannt, dass man RNAi-Mechanismen, die diesem endogenen Mechanismus ähneln, artifiziell durch das Einbringen einer doppelsträngigen RNA induzieren kann. Dies kann entweder durch das Verfüttern von Bakterien geschehen, die zur Synthese einer dsRNA in ihrem Inneren veranlasst werden und diese anreichern, oder durch die Injektion eines Transgens in den Makronukleus, dessen Transkript ebenfalls zu einer dsRNA umgesetzt wird.
Der Fokus dieser Arbeit lag auf dem exogenen, durch ein injiziertes Transgen induzierten RNAi-Mechanismus in Paramecium tetraurelia und dessen genauere Charakterisierung. Dabei konnte gezeigt werden, dass dieser RNAi-Mechanismus eine Temperaturabhängigkeit aufweist, wie es auch für RNAi-Mechanismen in anderen Organismen beschrieben wurde. Im Rahmen dieser Arbeit konnte jedoch die Ursache diese Temperaturabhängigkeit nicht aufgeklärt werden.
Dafür konnte gezeigt werden, dass zwei Klassen an siRNAs an diesem Mechanismus beteiligt sind. Es konnten neben den schon in der Literatur beschriebenen primären siRNAs auch sekundäre siRNAs nachgewiesen werden, deren Synthese von einer RdRP abhängig ist. Im Rahmen dieser Arbeit konnte der Schluss gezogen werden, das diese RdRP, die für die Synthese der sekundären siRNAs verantwortlich ist, das Homolog Rdr2 ist. Weiter konnte gezeigt werden, dass diese sekundären siRNAs Transitivität induzieren. Dies beschreibt die Amplifikation der siRNAs über das Ausgangsmolekül hinaus. Es konnte dargestellt werden, dass die sekundären siRNAs nicht von dem ursprünglichen Transgen synthetisiert, sondern vielmehr von einem homologen endogenen Transkript, einer mRNA, entstammen und somit als transitiv angesehen werden können.
Ferner konnte gezeigt werden, dass die Nukleotidyltransferase Cid2 ebenfalls in die Akkumulation dieser sekundären siRNAs involviert ist. Es konnte der Schluss gezogen werden, dass dieses Cid2 in einem Komplex mit Rdr2 vorliegt und das Template zur Generierung der sekundären siRNAs stabilisiert und so für Rdr2 zugänglich macht.
Ein weiterer Schwerpunkt dieser Arbeit war die detailliertere Untersuchung der spezifischen Stabilisierung beider siRNA-Klassen. Dabei konnte gezeigt werden, dass mehrere Piwi-Proteine in den Transgen-induzierten Mechanismus involviert sind. Die Paramecium spezifischen Piwis Ptiwi 8, Ptiwi 13 und Ptiwi 14 spielen dabei eine Rolle. Im Rahmen der durchgeführten Analysen konnte gezeigt werden, dass die Ptiwis 8 und 14 in die Akkumulation und damit in die Stabilisierung beider siRNA-Klassen involviert sind. Allerdings scheint dieser Effekt eher auf dem Ptiwi14 zu beruhen. Für das Ptiwi 13 konnte vermutet werden, dass dieses eher in die Akkumulation und spezifischen Stabilisierung der sekundären siRNAs involviert ist. Auch konnte aufgezeigt werden, dass beide Klassen an Transgen-induzierten siRNAs eine Methylgruppe an ihrem 3´ Ende tragen, welche von der 2´-O-Methyltransferase Hen1 abhängig ist und ebenfalls der Stabilisierung der siRNAs dient. Zudem konnte vermutet werden, dass diese Methylierung bereits vor dem Binden der siRNAs an eines der Ptiwis stattfindet und davon unabhängig ist. Somit konnten Rückschlüsse auf den zeitlichen Verlauf des Transgen-induzierten RNAi-Mechanismus gezogen werden.
Über eine Lokalisation dieses Hen1-Proteins konnte ferner gezeigt werden, dass dieses Protein in bzw. an den mit der Keimbahn assoziierten Mikronuklei und dem vegetativen Makronukleus aufzufinden ist. Die Methylierung der siRNAs findet somit in den Kernen statt. Dies lässt den Schluss zu, dass der Transgen-induzierte RNAi-Mechanismus neben der posttranskriptionellen Regulation auch eine transkriptionelle Genregulation direkt am Chromatin vermitteln kann.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
The advances in sensor technology have introduced smart electronic products with
high integration of multi-sensor elements, sensor electronics and sophisticated signal
processing algorithms, resulting in intelligent sensor systems with a significant level
of complexity. This complexity leads to higher vulnerability in performing their
respective functions in a dynamic environment. The system dependability can be
improved via the implementation of self-x features in reconfigurable systems. The
reconfiguration capability requires capable switching elements, typically in the form
of a CMOS switch or miniaturized electromagnetic relay. The emerging DC-MEMS
switch has the potential to complement the CMOS switch in System-in-Package as
well as integrated circuits solutions. The aim of this thesis is to study the feasibility
of using DC-MEMS switches to enable the self-x functionality at system level.
The self-x implementation is also extended to the component level, in which the
ISE-DC-MEMS switch is equipped with self-monitoring and self-repairing features.
The MEMS electrical behavioural model generated by the design tool is inadequate,
so additional electrical models have been proposed, simulated and validated. The
simplification of the mechanical MEMS model has produced inaccurate simulation
results that lead to the occurrence of stiction in the actual device. A stiction conformity
test has been proposed, implemented, and successfully validated to compensate
the inaccurate mechanical model. Four different system simulations of representative
applications were carried out using the improved behavioural MEMS model, to
show the aptness and the performances of the ISE-DC-MEMS switch in sensitive
reconfiguration tasks in the application and to compare it with transmission gates.
The current design of the ISE-DC-MEMS switch needs further optimization in terms
of size, driving voltage, and the robustness of the design to guarantee high output
yield in order to match the performance of commercial DC MEMS switches.
Mobile Partizipation
(2015)
Smartphones bringen computertechnische Anwendungen in den öffentlichen Raum. Mobiles Web, Geolokalisierung und integrierte Sensoren ermöglichen kollaborative Datenerfassung (Urban Sensing), spontane Kommunikation (Smart Mobs) sowie neue Formen der Planungskommunikation (Mobile Augmented Reality). Es lässt sich eine Partizipation unter geändertem Vorzeichen diagnostizieren: Transparentere Verfahren, früherer Einbezug der Öffentlichkeit und mehr Mitsprachemöglichkeiten werden zunehmend eingefordert. Zugleich entwickeln sich eine Vielzahl an neuen Bottom-up-Bewegungen, die das Internet als einen Ort der Teilhabe und konstruktiver Mitwirkung an Stadt(-planung) begreifen und sich auf vielfältige Weise einbringen. Crowdsourcing, Civic-Hacking und urbane Interventionen stehen beispielhaft für diesen Wandel und fördern diese neuen Formen selbstinitiierter Partizipation. Nach der Definition des Phänomens mobiler Partizipation und einer Vielzahl an Beispielen, werden neue Entwicklungen, Möglichkeiten und Chancen, aber auch Herausforderungen und Hemmnisse für die Stadtplanung beschrieben und ein Blick auf sich zukünftig entwickelnde Arbeitsfelder im Zeitalter der der Smart Cities geworfen.
Many tasks in image processing can be tackled by modeling an appropriate data fidelity term \(\Phi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and then solve one of the regularized minimization problems \begin{align*}
&{}(P_{1,\tau}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \big\{ \Phi(x) \;{\rm s.t.}\; \Psi(x) \leq \tau \big\} \\ &{}(P_{2,\lambda}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \{ \Phi(x) + \lambda \Psi(x) \}, \; \lambda > 0 \end{align*} with some function \(\Psi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and a good choice of the parameter(s). Two tasks arise naturally here: \begin{align*} {}& \text{1. Study the solver sets \({\rm SOL}(P_{1,\tau})\) and
\({\rm SOL}(P_{2,\lambda})\) of the minimization problems.} \\ {}& \text{2. Ensure that the minimization problems have solutions.} \end{align*} This thesis provides contributions to both tasks: Regarding the first task for a more special setting we prove that there are intervals \((0,c)\) and \((0,d)\) such that the setvalued curves \begin{align*}
\tau \mapsto {}& {\rm SOL}(P_{1,\tau}), \; \tau \in (0,c) \\ {} \lambda \mapsto {}& {\rm SOL}(P_{2,\lambda}), \; \lambda \in (0,d) \end{align*} are the same, besides an order reversing parameter change \(g: (0,c) \rightarrow (0,d)\). Moreover we show that the solver sets are changing all the time while \(\tau\) runs from \(0\) to \(c\) and \(\lambda\) runs from \(d\) to \(0\).
In the presence of lower semicontinuity the second task is done if we have additionally coercivity. We regard lower semicontinuity and coercivity from a topological point of view and develop a new technique for proving lower semicontinuity plus coercivity.
Dropping any lower semicontinuity assumption we also prove a theorem on the coercivity of a sum of functions.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Optimal Multilevel Monte Carlo Algorithms for Parametric Integration and Initial Value Problems
(2015)
We intend to find optimal deterministic and randomized algorithms for three related problems: multivariate integration, parametric multivariate integration, and parametric initial value problems. The main interest is concentrated on the question, in how far randomization affects the precision of an approximation. We want to understand when and to which extent randomized algorithms are superior to deterministic ones.
All problems are studied for Banach space valued input functions. The analysis of Banach space valued problems is motivated by the investigation of scalar parametric problems; these can be understood as particular cases of Banach space valued problems. The gain achieved by randomization depends on the underlying Banach space.
For each problem, we introduce deterministic and randomized algorithms and provide the corresponding convergence analysis.
Moreover, we also provide lower bounds for the general Banach space valued settings, and thus, determine the complexity of the problems. It turns out that the obtained algorithms are order optimal in the deterministic setting. In the randomized setting, they are order optimal for certain classes of Banach spaces, which includes the L_p spaces and any finite dimensional Banach space. For general Banach spaces, they are optimal up to an arbitrarily small gap in the order of convergence.
In this thesis we extend the worst-case modeling approach as first introduced by Hua and Wilmott (1997) (option pricing in discrete time) and Korn and Wilmott (2002) (portfolio optimization in continuous time) in various directions.
In the continuous-time worst-case portfolio optimization model (as first introduced by Korn and Wilmott (2002)), the financial market is assumed to be under the threat of a crash in the sense that the stock price may crash by an unknown fraction at an unknown time. It is assumed that only an upper bound on the size of the crash is known and that the investor prepares for the worst-possible crash scenario. That is, the investor aims to find the strategy maximizing her objective function in the worst-case crash scenario.
In the first part of this thesis, we consider the model of Korn and Wilmott (2002) in the presence of proportional transaction costs. First, we treat the problem without crashes and show that the value function is the unique viscosity solution of a dynamic programming equation (DPE) and then construct the optimal strategies. We then consider the problem in the presence of crash threats, derive the corresponding DPE and characterize the value function as the unique viscosity solution of this DPE.
In the last part, we consider the worst-case problem with a random number of crashes by proposing a regime switching model in which each state corresponds to a different crash regime. We interpret each of the crash-threatened regimes of the market as states in which a financial bubble has formed which may lead to a crash. In this model, we prove that the value function is a classical solution of a system of DPEs and derive the optimal strategies.
In this work we focus on the regression models with asymmetrical error distribution,
more precisely, with extreme value error distributions. This thesis arises in the framework
of the project "Robust Risk Estimation". Starting from July 2011, this project won
three years funding by the Volkswagen foundation in the call "Extreme Events: Modelling,
Analysis, and Prediction" within the initiative "New Conceptual Approaches to
Modelling and Simulation of Complex Systems". The project involves applications in
Financial Mathematics (Operational and Liquidity Risk), Medicine (length of stay and
cost), and Hydrology (river discharge data). These applications are bridged by the
common use of robustness and extreme value statistics.
Within the project, in each of these applications arise issues, which can be dealt with by
means of Extreme Value Theory adding extra information in the form of the regression
models. The particular challenge in this context concerns asymmetric error distributions,
which significantly complicate the computations and make desired robustification
extremely difficult. To this end, this thesis makes a contribution.
This work consists of three main parts. The first part is focused on the basic notions
and it gives an overview of the existing results in the Robust Statistics and Extreme
Value Theory. We also provide some diagnostics, which is an important achievement of
our project work. The second part of the thesis presents deeper analysis of the basic
models and tools, used to achieve the main results of the research.
The second part is the most important part of the thesis, which contains our personal
contributions. First, in Chapter 5, we develop robust procedures for the risk management
of complex systems in the presence of extreme events. Mentioned applications use time
structure (e.g. hydrology), therefore we provide extreme value theory methods with time
dynamics. To this end, in the framework of the project we considered two strategies. In
the first one, we capture dynamic with the state-space model and apply extreme value
theory to the residuals, and in the second one, we integrate the dynamics by means of
autoregressive models, where the regressors are described by generalized linear models.
More precisely, since the classical procedures are not appropriate to the case of outlier
presence, for the first strategy we rework classical Kalman smoother and extended
Kalman procedures in a robust way for different types of outliers and illustrate the performance
of the new procedures in a GPS application and a stylized outlier situation.
To apply approach to shrinking neighborhoods we need some smoothness, therefore for
the second strategy, we derive smoothness of the generalized linear model in terms of
L2 differentiability and create sufficient conditions for it in the cases of stochastic and
deterministic regressors. Moreover, we set the time dependence in these models by
linking the distribution parameters to the own past observations. The advantage of
our approach is its applicability to the error distributions with the higher dimensional
parameter and case of regressors of possibly different length for each parameter. Further,
we apply our results to the models with generalized Pareto and generalized extreme value
error distributions.
Finally, we create the exemplary implementation of the fixed point iteration algorithm
for the computation of the optimally robust in
uence curve in R. Here we do not aim to
provide the most
exible implementation, but rather sketch how it should be done and
retain points of particular importance. In the third part of the thesis we discuss three applications,
operational risk, hospitalization times and hydrological river discharge data,
and apply our code to the real data set taken from Jena university hospital ICU and
provide reader with the various illustrations and detailed conclusions.
The last couple of years have marked the entire field of information technology with the introduction of a new global resource, called data. Certainly, one can argue that large amounts of information and highly interconnected and complex datasets were available since the dawn of the computer and even centuries before. However, it has been only a few years since digital data has exponentially expended, diversified and interconnected into an overwhelming range of domains, generating an entire universe of zeros and ones. This universe represents a source of information with the potential of advancing a multitude of fields and sparking valuable insights. In order to obtain this information, this data needs to be explored, analyzed and interpreted.
While a large set of problems can be addressed through automatic techniques from fields like artificial intelligence, machine learning or computer vision, there are various datasets and domains that still rely on the human intuition and experience in order to parse and discover hidden information. In such instances, the data is usually structured and represented in the form of an interactive visual representation that allows users to efficiently explore the data space and reach valuable insights. However, the experience, knowledge and intuition of a single person also has its limits. To address this, collaborative visualizations allow multiple users to communicate, interact and explore a visual representation by building on the different views and knowledge blocks contributed by each person.
In this dissertation, we explore the potential of subjective measurements and user emotional awareness in collaborative scenarios as well as support flexible and user- centered collaboration in information visualization systems running on tabletop displays. We commence by introducing the concept of user-centered collaborative visualization (UCCV) and highlighting the context in which it applies. We continue with a thorough overview of the state-of-the-art in the areas of collaborative information visualization, subjectivity measurement and emotion visualization, combinable tabletop tangibles, as well as browsing history visualizations. Based on a new web browser history visualization for exploring user parallel browsing behavior, we introduce two novel user-centered techniques for supporting collaboration in co-located visualization systems. To begin with, we inspect the particularities of detecting user subjectivity through brain-computer interfaces, and present two emotion visualization techniques for touch and desktop interfaces. These visualizations offer real-time or post-task feedback about the users’ affective states, both in single-user and collaborative settings, thus increasing the emotional self-awareness and the awareness of other users’ emotions. For supporting collaborative interaction, a novel design for tabletop tangibles is described together with a set of specifically developed interactions for supporting tabletop collaboration. These ring-shaped tangibles minimize occlusion, support touch interaction, can act as interaction lenses, and describe logical operations through nesting operations. The visualization and the two UCCV techniques are each evaluated individually capturing a set of advantages and limitations of each approach. Additionally, the collaborative visualization supported by the two UCCV techniques is also collectively evaluated in three user studies that offer insight into the specifics of interpersonal interaction and task transition in collaborative visualization. The results show that the proposed collaboration support techniques do not only improve the efficiency of the visualization, but also help maintain the collaboration process and aid a balanced social interaction.
The aim of this work was to synthesize and characterize new bidentate N,N,P-ligands and their corresponding heterobimetallic complexes. These bidentate pyridylpyrimidine aminophosphine ligands were synthesized by ring closure of two different enaminones ( 3-(dimethylamino)-1-(pyridine-2-yl)-prop-2-en-1-one or 3-(dimethylamino)-1-(pyridine-2-yl)-but-2-en-1-one) with excess amount of guanidinium salts in the presence of base. The novel phosphine functionalized guanidinium salts were prepared from 2-(diphenylphosphinyl)ethylamine or 3-(diphenyl-phosphinyl)propylamine. These bidentate N,N,P-ligands contain hard and soft donor sites which allows the coordination of two different metal centers and bimetallic complexes. These bimetallic complexes can exhibit a unique behavior as a result of a cooperation between the two metal atoms. First, the gold(I) complexes of all these four different ligands were synthesized. The gold metal coordinates only to the phosphorus atom. It was proved by X-Ray crystallography technique and 31P NMR spectroscopy. Addition to the gold(I)-monometallic complexes, trans- coordinated rhodium complex of (2-amino)pyridylpyrimidine aminophosphine ligand was successfully prepared. The characterization of this complex was achieved by NMR and IR spectroscopy. Reacting the mono gold(I) complexes with the different metal salts like Pd(PhCN)2Cl2, ZnCl2, [Ru(p-cymene)Cl2] dimer gave the target heterobimetallic complexes. The second metal centers coordinated to the N,N donor site which was proved by the help of NMR spectroscopy and ESI-MS measurements. The Au(I) and Au-Zn complexes of N,N,P-ligands were examined as catalysts for the hydroamidation reaction of cyclohexene with p-toluenesulfonamide. They did not show activities under the tested conditions. Further studies are necessary to understand the catalytic activities and cooperativity between the two metal atoms. In addition, bi-and trimetallic complexes with the rhodium compound could be synthesized and tested in different organic transformations. Furthermore, the chiral hydroxyl[2.2]paracyclophane substituted with five different aminopyrimidines were accomplished. These aminopyrimidine ligands were synthesized by a cyclization reaction with hydroxyl[2.2]paracyclophane substituted enaminone and excess amount of corresponding guanidinium salts under basic conditions. In the last part of this work, kinetic studies of cyclopalladation reaction of the 2-(arylaminopyrimidin-4-yl)pyridine ligands with Pd(PhCN)2 These measurements were carried out by using UV-Vis spectroscopy. The spectral studies of cyclometallation step showed that the reaction fits a second order kinetics. In addition to this, a full kinetic investigation was performed at different temperatures and the activation parameters of complex formation were calculated.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
In this thesis we develop a shape optimization framework for isogeometric analysis in the optimize first–discretize then setting. For the discretization we use
isogeometric analysis (iga) to solve the state equation, and search optimal designs in a space of admissible b-spline or nurbs combinations. Thus a quite
general class of functions for representing optimal shapes is available. For the
gradient-descent method, the shape derivatives indicate both stopping criteria and search directions and are determined isogeometrically. The numerical treatment requires solvers for partial differential equations and optimization methods, which introduces numerical errors. The tight connection between iga and geometry representation offers new ways of refining the geometry and analysis discretization by the same means. Therefore, our main concern is to develop the optimize first framework for isogeometric shape optimization as ground work for both implementation and an error analysis. Numerical examples show that this ansatz is practical and case studies indicate that it allows local refinement.