Doctoral Thesis
Refine
Year of publication
- 2015 (100) (remove)
Document Type
- Doctoral Thesis (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Stadtplanung (2)
- finite element method (2)
- isogeometric analysis (2)
- tractor (2)
- verification (2)
- AMC225xe (1)
- Adaptive time step (1)
- Adjoint method (1)
- Allylierung (1)
- Aminierung (1)
- Asymptotic Expansion (1)
- Ausflussfaktor (1)
- Automat <Automatentheorie> (1)
- Autonomer Roboter (1)
- B-Spline (1)
- Bauphysik (1)
- Beam models (1)
- Beteiligung (1)
- Biaryle (1)
- Biotransformation (1)
- Boltzmann Equation (1)
- Brownian Diffusion (1)
- CFD (1)
- Computational Homogenization (1)
- Computational Mechanics (1)
- Configurational Forces (1)
- Crowdsourcing (1)
- DSMC (1)
- Decarboxylierende Kupplung (1)
- Decarboxylierung (1)
- Diazoniumverbindungen (1)
- Druckdifferenz (1)
- Einzelhandel (1)
- Elasticity (1)
- Electronic Commerce (1)
- Endlicher Automat (1)
- Energieversorgungsnetz (1)
- Entwurf (1)
- Epoxidharz (1)
- Erdschluss (1)
- Erdschlussentfernung (1)
- Experiment (1)
- Experimentation (1)
- Extended Kalman Filter (1)
- Extrudiertes Polystyrol (1)
- FEM (1)
- Fehlerwiderstand (1)
- Fermentation (1)
- Fertigungsmesstechnik (1)
- Feuchtetransport (1)
- Filler (1)
- Finite-Elemente-Methode (1)
- Freiraumentwicklung (1)
- Freiraumplanung (1)
- Freiraumschutz (1)
- Functional Safety (1)
- Funktionale Sicherheit (1)
- Furan (1)
- Füllstoff (1)
- Gefahren- und Risikoanalyse (1)
- Geoweb (1)
- Gradient based optimization (1)
- Hazard Analysis (1)
- Histologie (1)
- Hochleistungsbeton (1)
- Holzleichtbaukonstruktion (1)
- Homogene Katalyse (1)
- Homogenization (1)
- ISO 26262 (1)
- Innenstadt (1)
- Isogeometrische Analyse (1)
- Isomerisierungsreaktion (1)
- Katalyse (1)
- Katalytische Isomerisierung (1)
- Kirchhoff-Love shell (1)
- Klebstoff (1)
- Kollaboration (1)
- Konvektion (1)
- Kreuzkupplungsreaktion (1)
- Kupfer (1)
- Landschaftsplanung (1)
- Large Eddy Simulation (1)
- Lattice Boltzmann Method (1)
- Leading-Order Optimality (1)
- Lebensmittel (1)
- Leber (1)
- Leckage (1)
- Linear-Quadratic-Regulator (1)
- Ländliche Regionen (1)
- MAC protocols (1)
- MCMT (1)
- Messtechnik (1)
- Metabolismus (1)
- Mikrobewehrter Beton (1)
- Mobiler Roboter (1)
- Model Checking (1)
- Multicore Resource Management (1)
- Multicore Scheduling (1)
- NURBS (1)
- Nickel (1)
- Nickel-katalysierte Decarboxylierung (1)
- Nocardia (1)
- Non-Newtonian (1)
- Oberschwingung (1)
- Online-Handel (1)
- Optimale Kontrolle (1)
- Optimization (1)
- Organische Synthese (1)
- Palladium (1)
- Palladium-katalysierte Isomerisierung (1)
- Partial Differential Equations (1)
- Pathwise Optimality (1)
- Permeabilität (1)
- Pflanzenzellkultivierung (1)
- Phenylessigsäurederivate (1)
- Piezoelectric Materials (1)
- Polymer OR Verbund OR Füllstoff OR Klebstoff OR Epoxid OR Polyurethan OR innere Oberfläche (1)
- Polymer-Metall-Verbund (1)
- Polystyrolschaumstoff (1)
- Polyurethan (1)
- Prototyp (1)
- Prototype (1)
- Pump Intake Flows (1)
- Qualitätssicherung (1)
- Quasi-Variational Inequalities (1)
- Rarefied gas (1)
- Real-Time Systems (1)
- Regime Shifts (1)
- Regionalentwicklung (1)
- Regionalpark (1)
- Rheinland-Pfalz (1)
- Rigid Body Motion (1)
- Risikobewertung (1)
- Risk Assessment (1)
- Roboter (1)
- Robotik (1)
- SAHARA (1)
- SDL extensions (1)
- Sandmeyer Trifluormethylierung (1)
- Sandwichbauweise (1)
- Sandwichtheorie (1)
- Schwingfestigkeit (1)
- Selektive Monoarylierung (1)
- Sensor (1)
- Shape optimization (1)
- Signalverarbeitung (1)
- Simulation acceleration (1)
- Smartphones (1)
- Software Comprehension (1)
- Software Dependencies (1)
- Software Evolution (1)
- Software Maintenance (1)
- Software Measurement (1)
- Software Visualization (1)
- Softwareentwicklung (1)
- Softwaremetrie (1)
- Softwarewartung (1)
- Stadtumbau (1)
- Sternpunkterdung (1)
- Stochastic Impulse Control (1)
- Streptomyces (1)
- Streulicht (1)
- Strukturoptimierung (1)
- Textilbeton (1)
- Thermophoresis (1)
- Toxifizierung (1)
- Transaction Costs (1)
- Triterpene (1)
- Ubiquitous Computing (1)
- Ultrafeinkörnig (1)
- VALBM (1)
- Verbundorganisation (1)
- Verifikation (1)
- Verkehrsverbund (1)
- Verkehrsverbünde (1)
- Viscosity Adaptive Lattice Boltzmann Method (1)
- Visual Analytics (1)
- Visual Queries (1)
- Visualisierung (1)
- XFEM (1)
- Zytotoxizität (1)
- actively steered implement (1)
- adhesive (1)
- adhesive joints in concrete (1)
- affective user interface (1)
- artificial neural network (1)
- assembly tasks (1)
- autonomous networking (1)
- behaviour-based system (1)
- bending strip method (1)
- beta-Lactame (1)
- binary countdown protocol (1)
- black bursts (1)
- building physics (1)
- carrier-grade point-to-point radio networks (1)
- collaborative information visualization (1)
- collective intelligence (1)
- composite materials (1)
- computational homogenization (1)
- computer-based systems (1)
- computer-supported cooperative work (1)
- condition number (1)
- configurational forces (1)
- context awareness (1)
- context management (1)
- context-aware topology control (1)
- continuum damage mechanics (1)
- controller (1)
- convection (1)
- coordinated backhaul networks in rural areas (1)
- crowdsourcing (1)
- decidability (1)
- design (1)
- deterministic arbitration (1)
- discharge coefficient (1)
- distributed real-time systems (1)
- distributed tasks (1)
- document analysis (1)
- dynamic (1)
- dynamic model (1)
- emotion visualization (1)
- erdschlusskompensiertes Netz (1)
- event segmentation (1)
- filter (1)
- fracture mechanics (1)
- front loader (1)
- fuzzy Q-learning (1)
- fuzzy logic (1)
- handover optimzaiion (1)
- heterogeneous access management (1)
- historical documents (1)
- iB2C (1)
- ice shelves (1)
- image processing (1)
- implement (1)
- incompressible elasticity (1)
- inertial measurement unit (1)
- information systems (1)
- innerstädtische Einzelhandelslagen (1)
- intellectual disability (1)
- kalman (1)
- kinematic (1)
- kinematic model (1)
- language modeling (1)
- leakage (1)
- lightweight timber frame construction (1)
- loader (1)
- long short-term memory (1)
- long tail (1)
- metadata (1)
- mixed methods (1)
- mobile scale (1)
- mobility robustness optimization (1)
- modal derivatives (1)
- model (1)
- model order reduction (1)
- moisture transfer (1)
- moisture transport (1)
- multi-domain modeling and evaluation methodology (1)
- multipatch (1)
- multiscale analysis (1)
- nestable tangibles (1)
- nonlinear vibration analysis (1)
- numerics (1)
- optical character recognition (1)
- optimal (1)
- output feedback approximation (1)
- path (1)
- path tracking (1)
- penalty-free formulation (1)
- permeability (1)
- pneumatische Abstandsmessung (1)
- position detection (1)
- pressure difference (1)
- real-time tasks (1)
- redundant constraint (1)
- reinforcement learning (1)
- relaxed memory models (1)
- robustness (1)
- scattered light (1)
- self-optimizing networks (1)
- social media (1)
- société des transports en commun (1)
- stabilization (1)
- stationärer Einzelhandel (1)
- sternpunktisoliertes Netz (1)
- subjective evaluation (1)
- tabletop (1)
- task sequence (1)
- touch surfaces (1)
- tracking (1)
- transport association (1)
- user-centered design (1)
- virtual training (1)
- weighing (1)
- weighted finite-state transducers (1)
- wheel side-slip estimation (1)
- wireless networks (1)
- worker assistance (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Bauingenieurwesen (3)
- Kaiserslautern - Fachbereich Sozialwissenschaften (2)
Für alle Organismen ist es wichtig, sich gegen das Eindringen exogener DNA bzw. RNA wie z.B. Viren oder transposablen Elementen zur Wehr zu setzen um die Integrität ihres eigenen Genoms zu bewahren. Zudem müssen innerhalb eines Organismus oft ganze Genfamilien reguliert werden. Die RNA-Interferenz stellt ein optimales Mittel sowohl für die Abwehr exogener Nukleinsäuren, als auch für die Regulierung endogener Gene dazu bereit. Das Herzstück der RNAi stellen kleine regulatorische siRNAs dar, die Homologie-abhängig Reaktionen in einer Zelle hervorrufen können, wie z.B. das transkriptionelle oder das posttranskriptionelle Silencing. Bei dem Mechanismus der RNAi sind zudem mehrere Komponenten beteiligt um diese siRNAs zu synthetisieren, zu stabilisieren und zu ihrem Zielort zu bringen um dort das Silencing zu vermitteln. Dabei spielen die Enzyme Dicer und RNA abhängige RNA-Polymerasen eine wichtige Rolle in der Synthese. Argonauten, bzw. eine Unterklasse von ihnen, die Piwi-Proteine sind für das eigentliche Silencing des Zielgens wichtig und spielen, wie auch die 2´-O-Methyltransferase Hen1, eine Rolle in der Stabilisierung der siRNAs.
In Paramecium tetraurelia weiß man, dass endogene Genfamilien, wie z.B. die Oberflächen-Antigene RNAi-vermittelt reguliert werden. Zudem ist bekannt, dass man RNAi-Mechanismen, die diesem endogenen Mechanismus ähneln, artifiziell durch das Einbringen einer doppelsträngigen RNA induzieren kann. Dies kann entweder durch das Verfüttern von Bakterien geschehen, die zur Synthese einer dsRNA in ihrem Inneren veranlasst werden und diese anreichern, oder durch die Injektion eines Transgens in den Makronukleus, dessen Transkript ebenfalls zu einer dsRNA umgesetzt wird.
Der Fokus dieser Arbeit lag auf dem exogenen, durch ein injiziertes Transgen induzierten RNAi-Mechanismus in Paramecium tetraurelia und dessen genauere Charakterisierung. Dabei konnte gezeigt werden, dass dieser RNAi-Mechanismus eine Temperaturabhängigkeit aufweist, wie es auch für RNAi-Mechanismen in anderen Organismen beschrieben wurde. Im Rahmen dieser Arbeit konnte jedoch die Ursache diese Temperaturabhängigkeit nicht aufgeklärt werden.
Dafür konnte gezeigt werden, dass zwei Klassen an siRNAs an diesem Mechanismus beteiligt sind. Es konnten neben den schon in der Literatur beschriebenen primären siRNAs auch sekundäre siRNAs nachgewiesen werden, deren Synthese von einer RdRP abhängig ist. Im Rahmen dieser Arbeit konnte der Schluss gezogen werden, das diese RdRP, die für die Synthese der sekundären siRNAs verantwortlich ist, das Homolog Rdr2 ist. Weiter konnte gezeigt werden, dass diese sekundären siRNAs Transitivität induzieren. Dies beschreibt die Amplifikation der siRNAs über das Ausgangsmolekül hinaus. Es konnte dargestellt werden, dass die sekundären siRNAs nicht von dem ursprünglichen Transgen synthetisiert, sondern vielmehr von einem homologen endogenen Transkript, einer mRNA, entstammen und somit als transitiv angesehen werden können.
Ferner konnte gezeigt werden, dass die Nukleotidyltransferase Cid2 ebenfalls in die Akkumulation dieser sekundären siRNAs involviert ist. Es konnte der Schluss gezogen werden, dass dieses Cid2 in einem Komplex mit Rdr2 vorliegt und das Template zur Generierung der sekundären siRNAs stabilisiert und so für Rdr2 zugänglich macht.
Ein weiterer Schwerpunkt dieser Arbeit war die detailliertere Untersuchung der spezifischen Stabilisierung beider siRNA-Klassen. Dabei konnte gezeigt werden, dass mehrere Piwi-Proteine in den Transgen-induzierten Mechanismus involviert sind. Die Paramecium spezifischen Piwis Ptiwi 8, Ptiwi 13 und Ptiwi 14 spielen dabei eine Rolle. Im Rahmen der durchgeführten Analysen konnte gezeigt werden, dass die Ptiwis 8 und 14 in die Akkumulation und damit in die Stabilisierung beider siRNA-Klassen involviert sind. Allerdings scheint dieser Effekt eher auf dem Ptiwi14 zu beruhen. Für das Ptiwi 13 konnte vermutet werden, dass dieses eher in die Akkumulation und spezifischen Stabilisierung der sekundären siRNAs involviert ist. Auch konnte aufgezeigt werden, dass beide Klassen an Transgen-induzierten siRNAs eine Methylgruppe an ihrem 3´ Ende tragen, welche von der 2´-O-Methyltransferase Hen1 abhängig ist und ebenfalls der Stabilisierung der siRNAs dient. Zudem konnte vermutet werden, dass diese Methylierung bereits vor dem Binden der siRNAs an eines der Ptiwis stattfindet und davon unabhängig ist. Somit konnten Rückschlüsse auf den zeitlichen Verlauf des Transgen-induzierten RNAi-Mechanismus gezogen werden.
Über eine Lokalisation dieses Hen1-Proteins konnte ferner gezeigt werden, dass dieses Protein in bzw. an den mit der Keimbahn assoziierten Mikronuklei und dem vegetativen Makronukleus aufzufinden ist. Die Methylierung der siRNAs findet somit in den Kernen statt. Dies lässt den Schluss zu, dass der Transgen-induzierte RNAi-Mechanismus neben der posttranskriptionellen Regulation auch eine transkriptionelle Genregulation direkt am Chromatin vermitteln kann.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
The advances in sensor technology have introduced smart electronic products with
high integration of multi-sensor elements, sensor electronics and sophisticated signal
processing algorithms, resulting in intelligent sensor systems with a significant level
of complexity. This complexity leads to higher vulnerability in performing their
respective functions in a dynamic environment. The system dependability can be
improved via the implementation of self-x features in reconfigurable systems. The
reconfiguration capability requires capable switching elements, typically in the form
of a CMOS switch or miniaturized electromagnetic relay. The emerging DC-MEMS
switch has the potential to complement the CMOS switch in System-in-Package as
well as integrated circuits solutions. The aim of this thesis is to study the feasibility
of using DC-MEMS switches to enable the self-x functionality at system level.
The self-x implementation is also extended to the component level, in which the
ISE-DC-MEMS switch is equipped with self-monitoring and self-repairing features.
The MEMS electrical behavioural model generated by the design tool is inadequate,
so additional electrical models have been proposed, simulated and validated. The
simplification of the mechanical MEMS model has produced inaccurate simulation
results that lead to the occurrence of stiction in the actual device. A stiction conformity
test has been proposed, implemented, and successfully validated to compensate
the inaccurate mechanical model. Four different system simulations of representative
applications were carried out using the improved behavioural MEMS model, to
show the aptness and the performances of the ISE-DC-MEMS switch in sensitive
reconfiguration tasks in the application and to compare it with transmission gates.
The current design of the ISE-DC-MEMS switch needs further optimization in terms
of size, driving voltage, and the robustness of the design to guarantee high output
yield in order to match the performance of commercial DC MEMS switches.
Mobile Partizipation
(2015)
Smartphones bringen computertechnische Anwendungen in den öffentlichen Raum. Mobiles Web, Geolokalisierung und integrierte Sensoren ermöglichen kollaborative Datenerfassung (Urban Sensing), spontane Kommunikation (Smart Mobs) sowie neue Formen der Planungskommunikation (Mobile Augmented Reality). Es lässt sich eine Partizipation unter geändertem Vorzeichen diagnostizieren: Transparentere Verfahren, früherer Einbezug der Öffentlichkeit und mehr Mitsprachemöglichkeiten werden zunehmend eingefordert. Zugleich entwickeln sich eine Vielzahl an neuen Bottom-up-Bewegungen, die das Internet als einen Ort der Teilhabe und konstruktiver Mitwirkung an Stadt(-planung) begreifen und sich auf vielfältige Weise einbringen. Crowdsourcing, Civic-Hacking und urbane Interventionen stehen beispielhaft für diesen Wandel und fördern diese neuen Formen selbstinitiierter Partizipation. Nach der Definition des Phänomens mobiler Partizipation und einer Vielzahl an Beispielen, werden neue Entwicklungen, Möglichkeiten und Chancen, aber auch Herausforderungen und Hemmnisse für die Stadtplanung beschrieben und ein Blick auf sich zukünftig entwickelnde Arbeitsfelder im Zeitalter der der Smart Cities geworfen.
Many tasks in image processing can be tackled by modeling an appropriate data fidelity term \(\Phi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and then solve one of the regularized minimization problems \begin{align*}
&{}(P_{1,\tau}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \big\{ \Phi(x) \;{\rm s.t.}\; \Psi(x) \leq \tau \big\} \\ &{}(P_{2,\lambda}) \qquad \mathop{\rm argmin}_{x \in \mathbb R^n} \{ \Phi(x) + \lambda \Psi(x) \}, \; \lambda > 0 \end{align*} with some function \(\Psi: \mathbb{R}^n \rightarrow \mathbb{R} \cup \{+\infty\}\) and a good choice of the parameter(s). Two tasks arise naturally here: \begin{align*} {}& \text{1. Study the solver sets \({\rm SOL}(P_{1,\tau})\) and
\({\rm SOL}(P_{2,\lambda})\) of the minimization problems.} \\ {}& \text{2. Ensure that the minimization problems have solutions.} \end{align*} This thesis provides contributions to both tasks: Regarding the first task for a more special setting we prove that there are intervals \((0,c)\) and \((0,d)\) such that the setvalued curves \begin{align*}
\tau \mapsto {}& {\rm SOL}(P_{1,\tau}), \; \tau \in (0,c) \\ {} \lambda \mapsto {}& {\rm SOL}(P_{2,\lambda}), \; \lambda \in (0,d) \end{align*} are the same, besides an order reversing parameter change \(g: (0,c) \rightarrow (0,d)\). Moreover we show that the solver sets are changing all the time while \(\tau\) runs from \(0\) to \(c\) and \(\lambda\) runs from \(d\) to \(0\).
In the presence of lower semicontinuity the second task is done if we have additionally coercivity. We regard lower semicontinuity and coercivity from a topological point of view and develop a new technique for proving lower semicontinuity plus coercivity.
Dropping any lower semicontinuity assumption we also prove a theorem on the coercivity of a sum of functions.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Optimal Multilevel Monte Carlo Algorithms for Parametric Integration and Initial Value Problems
(2015)
We intend to find optimal deterministic and randomized algorithms for three related problems: multivariate integration, parametric multivariate integration, and parametric initial value problems. The main interest is concentrated on the question, in how far randomization affects the precision of an approximation. We want to understand when and to which extent randomized algorithms are superior to deterministic ones.
All problems are studied for Banach space valued input functions. The analysis of Banach space valued problems is motivated by the investigation of scalar parametric problems; these can be understood as particular cases of Banach space valued problems. The gain achieved by randomization depends on the underlying Banach space.
For each problem, we introduce deterministic and randomized algorithms and provide the corresponding convergence analysis.
Moreover, we also provide lower bounds for the general Banach space valued settings, and thus, determine the complexity of the problems. It turns out that the obtained algorithms are order optimal in the deterministic setting. In the randomized setting, they are order optimal for certain classes of Banach spaces, which includes the L_p spaces and any finite dimensional Banach space. For general Banach spaces, they are optimal up to an arbitrarily small gap in the order of convergence.
In this thesis we extend the worst-case modeling approach as first introduced by Hua and Wilmott (1997) (option pricing in discrete time) and Korn and Wilmott (2002) (portfolio optimization in continuous time) in various directions.
In the continuous-time worst-case portfolio optimization model (as first introduced by Korn and Wilmott (2002)), the financial market is assumed to be under the threat of a crash in the sense that the stock price may crash by an unknown fraction at an unknown time. It is assumed that only an upper bound on the size of the crash is known and that the investor prepares for the worst-possible crash scenario. That is, the investor aims to find the strategy maximizing her objective function in the worst-case crash scenario.
In the first part of this thesis, we consider the model of Korn and Wilmott (2002) in the presence of proportional transaction costs. First, we treat the problem without crashes and show that the value function is the unique viscosity solution of a dynamic programming equation (DPE) and then construct the optimal strategies. We then consider the problem in the presence of crash threats, derive the corresponding DPE and characterize the value function as the unique viscosity solution of this DPE.
In the last part, we consider the worst-case problem with a random number of crashes by proposing a regime switching model in which each state corresponds to a different crash regime. We interpret each of the crash-threatened regimes of the market as states in which a financial bubble has formed which may lead to a crash. In this model, we prove that the value function is a classical solution of a system of DPEs and derive the optimal strategies.
In this work we focus on the regression models with asymmetrical error distribution,
more precisely, with extreme value error distributions. This thesis arises in the framework
of the project "Robust Risk Estimation". Starting from July 2011, this project won
three years funding by the Volkswagen foundation in the call "Extreme Events: Modelling,
Analysis, and Prediction" within the initiative "New Conceptual Approaches to
Modelling and Simulation of Complex Systems". The project involves applications in
Financial Mathematics (Operational and Liquidity Risk), Medicine (length of stay and
cost), and Hydrology (river discharge data). These applications are bridged by the
common use of robustness and extreme value statistics.
Within the project, in each of these applications arise issues, which can be dealt with by
means of Extreme Value Theory adding extra information in the form of the regression
models. The particular challenge in this context concerns asymmetric error distributions,
which significantly complicate the computations and make desired robustification
extremely difficult. To this end, this thesis makes a contribution.
This work consists of three main parts. The first part is focused on the basic notions
and it gives an overview of the existing results in the Robust Statistics and Extreme
Value Theory. We also provide some diagnostics, which is an important achievement of
our project work. The second part of the thesis presents deeper analysis of the basic
models and tools, used to achieve the main results of the research.
The second part is the most important part of the thesis, which contains our personal
contributions. First, in Chapter 5, we develop robust procedures for the risk management
of complex systems in the presence of extreme events. Mentioned applications use time
structure (e.g. hydrology), therefore we provide extreme value theory methods with time
dynamics. To this end, in the framework of the project we considered two strategies. In
the first one, we capture dynamic with the state-space model and apply extreme value
theory to the residuals, and in the second one, we integrate the dynamics by means of
autoregressive models, where the regressors are described by generalized linear models.
More precisely, since the classical procedures are not appropriate to the case of outlier
presence, for the first strategy we rework classical Kalman smoother and extended
Kalman procedures in a robust way for different types of outliers and illustrate the performance
of the new procedures in a GPS application and a stylized outlier situation.
To apply approach to shrinking neighborhoods we need some smoothness, therefore for
the second strategy, we derive smoothness of the generalized linear model in terms of
L2 differentiability and create sufficient conditions for it in the cases of stochastic and
deterministic regressors. Moreover, we set the time dependence in these models by
linking the distribution parameters to the own past observations. The advantage of
our approach is its applicability to the error distributions with the higher dimensional
parameter and case of regressors of possibly different length for each parameter. Further,
we apply our results to the models with generalized Pareto and generalized extreme value
error distributions.
Finally, we create the exemplary implementation of the fixed point iteration algorithm
for the computation of the optimally robust in
uence curve in R. Here we do not aim to
provide the most
exible implementation, but rather sketch how it should be done and
retain points of particular importance. In the third part of the thesis we discuss three applications,
operational risk, hospitalization times and hydrological river discharge data,
and apply our code to the real data set taken from Jena university hospital ICU and
provide reader with the various illustrations and detailed conclusions.
The last couple of years have marked the entire field of information technology with the introduction of a new global resource, called data. Certainly, one can argue that large amounts of information and highly interconnected and complex datasets were available since the dawn of the computer and even centuries before. However, it has been only a few years since digital data has exponentially expended, diversified and interconnected into an overwhelming range of domains, generating an entire universe of zeros and ones. This universe represents a source of information with the potential of advancing a multitude of fields and sparking valuable insights. In order to obtain this information, this data needs to be explored, analyzed and interpreted.
While a large set of problems can be addressed through automatic techniques from fields like artificial intelligence, machine learning or computer vision, there are various datasets and domains that still rely on the human intuition and experience in order to parse and discover hidden information. In such instances, the data is usually structured and represented in the form of an interactive visual representation that allows users to efficiently explore the data space and reach valuable insights. However, the experience, knowledge and intuition of a single person also has its limits. To address this, collaborative visualizations allow multiple users to communicate, interact and explore a visual representation by building on the different views and knowledge blocks contributed by each person.
In this dissertation, we explore the potential of subjective measurements and user emotional awareness in collaborative scenarios as well as support flexible and user- centered collaboration in information visualization systems running on tabletop displays. We commence by introducing the concept of user-centered collaborative visualization (UCCV) and highlighting the context in which it applies. We continue with a thorough overview of the state-of-the-art in the areas of collaborative information visualization, subjectivity measurement and emotion visualization, combinable tabletop tangibles, as well as browsing history visualizations. Based on a new web browser history visualization for exploring user parallel browsing behavior, we introduce two novel user-centered techniques for supporting collaboration in co-located visualization systems. To begin with, we inspect the particularities of detecting user subjectivity through brain-computer interfaces, and present two emotion visualization techniques for touch and desktop interfaces. These visualizations offer real-time or post-task feedback about the users’ affective states, both in single-user and collaborative settings, thus increasing the emotional self-awareness and the awareness of other users’ emotions. For supporting collaborative interaction, a novel design for tabletop tangibles is described together with a set of specifically developed interactions for supporting tabletop collaboration. These ring-shaped tangibles minimize occlusion, support touch interaction, can act as interaction lenses, and describe logical operations through nesting operations. The visualization and the two UCCV techniques are each evaluated individually capturing a set of advantages and limitations of each approach. Additionally, the collaborative visualization supported by the two UCCV techniques is also collectively evaluated in three user studies that offer insight into the specifics of interpersonal interaction and task transition in collaborative visualization. The results show that the proposed collaboration support techniques do not only improve the efficiency of the visualization, but also help maintain the collaboration process and aid a balanced social interaction.
The aim of this work was to synthesize and characterize new bidentate N,N,P-ligands and their corresponding heterobimetallic complexes. These bidentate pyridylpyrimidine aminophosphine ligands were synthesized by ring closure of two different enaminones ( 3-(dimethylamino)-1-(pyridine-2-yl)-prop-2-en-1-one or 3-(dimethylamino)-1-(pyridine-2-yl)-but-2-en-1-one) with excess amount of guanidinium salts in the presence of base. The novel phosphine functionalized guanidinium salts were prepared from 2-(diphenylphosphinyl)ethylamine or 3-(diphenyl-phosphinyl)propylamine. These bidentate N,N,P-ligands contain hard and soft donor sites which allows the coordination of two different metal centers and bimetallic complexes. These bimetallic complexes can exhibit a unique behavior as a result of a cooperation between the two metal atoms. First, the gold(I) complexes of all these four different ligands were synthesized. The gold metal coordinates only to the phosphorus atom. It was proved by X-Ray crystallography technique and 31P NMR spectroscopy. Addition to the gold(I)-monometallic complexes, trans- coordinated rhodium complex of (2-amino)pyridylpyrimidine aminophosphine ligand was successfully prepared. The characterization of this complex was achieved by NMR and IR spectroscopy. Reacting the mono gold(I) complexes with the different metal salts like Pd(PhCN)2Cl2, ZnCl2, [Ru(p-cymene)Cl2] dimer gave the target heterobimetallic complexes. The second metal centers coordinated to the N,N donor site which was proved by the help of NMR spectroscopy and ESI-MS measurements. The Au(I) and Au-Zn complexes of N,N,P-ligands were examined as catalysts for the hydroamidation reaction of cyclohexene with p-toluenesulfonamide. They did not show activities under the tested conditions. Further studies are necessary to understand the catalytic activities and cooperativity between the two metal atoms. In addition, bi-and trimetallic complexes with the rhodium compound could be synthesized and tested in different organic transformations. Furthermore, the chiral hydroxyl[2.2]paracyclophane substituted with five different aminopyrimidines were accomplished. These aminopyrimidine ligands were synthesized by a cyclization reaction with hydroxyl[2.2]paracyclophane substituted enaminone and excess amount of corresponding guanidinium salts under basic conditions. In the last part of this work, kinetic studies of cyclopalladation reaction of the 2-(arylaminopyrimidin-4-yl)pyridine ligands with Pd(PhCN)2 These measurements were carried out by using UV-Vis spectroscopy. The spectral studies of cyclometallation step showed that the reaction fits a second order kinetics. In addition to this, a full kinetic investigation was performed at different temperatures and the activation parameters of complex formation were calculated.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
In this thesis we develop a shape optimization framework for isogeometric analysis in the optimize first–discretize then setting. For the discretization we use
isogeometric analysis (iga) to solve the state equation, and search optimal designs in a space of admissible b-spline or nurbs combinations. Thus a quite
general class of functions for representing optimal shapes is available. For the
gradient-descent method, the shape derivatives indicate both stopping criteria and search directions and are determined isogeometrically. The numerical treatment requires solvers for partial differential equations and optimization methods, which introduces numerical errors. The tight connection between iga and geometry representation offers new ways of refining the geometry and analysis discretization by the same means. Therefore, our main concern is to develop the optimize first framework for isogeometric shape optimization as ground work for both implementation and an error analysis. Numerical examples show that this ansatz is practical and case studies indicate that it allows local refinement.
Context-Enabled Optimization of Energy-Autarkic Networks for Carrier-Grade Wireless Backhauling
(2015)
This work establishes the novel category of coordinated Wireless Backhaul Networks (WBNs) for energy-autarkic point-to-point radio backhauling. The networking concept is based on three major building blocks: cost-efficient radio transceiver hardware, a self-organizing network operations framework, and power supply from renewable energy sources. The aim of this novel backhauling approach is to combine carrier-grade network performance with reduced maintenance effort as well as independent and self-sufficient power supply. In order to facilitate the success prospects of this concept, the thesis comprises the following major contributions: Formal, multi-domain system model and evaluation methodology
First, adapted from the theory of cyber-physical systems, the author devises a multi-domain evaluation methodology and a system-level simulation framework for energy-autarkic coordinated WBNs, including a novel balanced scorecard concept. Second, the thesis specifically addresses the topic of Topology Control (TC) in point-to-point radio networks and how it can be exploited for network management purposes. Given a set of network nodes equipped with multiple radio transceivers and known locations, TC continuously optimizes the setup and configuration of radio links between network nodes, thus supporting initial network deployment, network operation, as well as topology re-configuration. In particular, the author shows that TC in WBNs belongs to the class of NP-hard quadratic assignment problems and that it has significant impact in operational practice, e.g., on routing efficiency, network redundancy levels, service reliability, and energy consumption. Two novel algorithms focusing on maximizing edge connectivity of network graphs are developed.
Finally, this work carries out an analytical benchmarking and a numerical performance analysis of the introduced concepts and algorithms. The author analytically derives minimum performance levels of the the developed TC algorithms. For the analyzed scenarios of remote Alpine communities and rural Tanzania, the evaluation shows that the algorithms improve energy efficiency and more evenly balance energy consumption across backhaul nodes, thus significantly increasing the number of available backhaul nodes compared to state-of-the-art TC algorithms.
The heterogeneity of today's access possibilities to wireless networks imposes challenges for efficient mobility support and resource management across different Radio Access Technologies (RATs). The current situation is characterized by the coexistence of various wireless communication systems, such as GSM, HSPA, LTE, WiMAX, and WLAN. These RATs greatly differ with respect to coverage, spectrum, data rates, Quality of Service (QoS), and mobility support.
In real systems, mobility-related events, such as Handover (HO) procedures, directly affect resource efficiency and End-To-End (E2E) performance, in particular with respect to signaling efforts and users' QoS. In order to lay a basis for realistic multi-radio network evaluation, a novel evaluation methodology is introduced in this thesis.
A central hypothesis of this thesis is that the consideration and exploitation of additional information characterizing user, network, and environment context, is beneficial for enhancing Heterogeneous Access Management (HAM) and Self-Optimizing Networks (SONs). Further, Mobile Network Operator (MNO) revenues are maximized by tightly integrating bandwidth adaptation and admission control mechanisms as well as simultaneously accounting for user profiles and service characteristics. In addition, mobility robustness is optimized by enabling network nodes to tune HO parameters according to locally observed conditions.
For establishing all these facets of context awareness, various schemes and algorithms are developed and evaluated in this thesis. System-level simulation results demonstrate the potential of context information exploitation for enhancing resource utilization, mobility support, self-tuning network operations, and users' E2E performance.
In essence, the conducted research activities and presented results motivate and substantiate the consideration of context awareness as key enabler for cognitive and autonomous network management. Further, the performed investigations and aspects evaluated in the scope of this thesis are highly relevant for future 5G wireless systems and current discussions in the 5G infrastructure Public Private Partnership (PPP).
The goal of this work is to develop statistical natural language models and processing techniques
based on Recurrent Neural Networks (RNN), especially the recently introduced Long Short-
Term Memory (LSTM). Due to their adapting and predicting abilities, these methods are more
robust, and easier to train than traditional methods, i.e., words list and rule-based models. They
improve the output of recognition systems and make them more accessible to users for browsing
and reading. These techniques are required, especially for historical books which might take
years of effort and huge costs to manually transcribe them.
The contributions of this thesis are several new methods which have high-performance computing and accuracy. First, an error model for improving recognition results is designed. As
a second contribution, a hyphenation model for difficult transcription for alignment purposes
is suggested. Third, a dehyphenation model is used to classify the hyphens in noisy transcription. The fourth contribution is using LSTM networks for normalizing historical orthography.
A size normalization alignment is implemented to equal the size of strings, before the training
phase. Using the LSTM networks as a language model to improve the recognition results is
the fifth contribution. Finally, the sixth contribution is a combination of Weighted Finite-State
Transducers (WFSTs), and LSTM applied on multiple recognition systems. These contributions
will be elaborated in more detail.
Context-dependent confusion rules is a new technique to build an error model for Optical
Character Recognition (OCR) corrections. The rules are extracted from the OCR confusions
which appear in the recognition outputs and are translated into edit operations, e.g., insertions,
deletions, and substitutions using the Levenshtein edit distance algorithm. The edit operations
are extracted in a form of rules with respect to the context of the incorrect string to build an
error model using WFSTs. The context-dependent rules assist the language model to find the
best candidate corrections. They avoid the calculations that occur in searching the language
model and they also make the language model able to correct incorrect words by using context-
dependent confusion rules. The context-dependent error model is applied on the university of
Washington (UWIII) dataset and the Nastaleeq script in Urdu dataset. It improves the OCR
results from an error rate of 1.14% to an error rate of 0.68%. It performs better than the
state-of-the-art single rule-based which returns an error rate of 1.0%.
This thesis describes a new, simple, fast, and accurate system for generating correspondences
between real scanned historical books and their transcriptions. The alignment has many challenges, first, the transcriptions might have different modifications, and layout variations than the
original book. Second, the recognition of the historical books have misrecognition, and segmentation errors, which make the alignment more difficult especially the line breaks, and pages will
not have the same correspondences. Adapted WFSTs are designed to represent the transcription. The WFSTs process Fraktur ligatures and adapt the transcription with a hyphenations
model that allows the alignment with respect to the varieties of the hyphenated words in the line
breaks of the OCR documents. In this work, several approaches are implemented to be used for
the alignment such as: text-segments, page-wise, and book-wise approaches. The approaches
are evaluated on German calligraphic (Fraktur) script historical documents dataset from “Wan-
derungen durch die Mark Brandenburg” volumes (1862-1889). The text-segmentation approach
returns an error rate of 2.33% without using a hyphenation model and an error rate of 2.0%
using a hyphenation model. Dehyphenation methods are presented to remove the hyphen from
the transcription. They provide the transcription in a readable and reflowable format to be used
for alignment purposes. We consider the task as classification problem and classify the hyphens
from the given patterns as hyphens for line breaks, combined words, or noise. The methods are
applied on clean and noisy transcription for different languages. The Decision Trees classifier
returns better performance on UWIII dataset and returns an accuracy of 98%. It returns 97%
on Fraktur script.
A new method for normalizing historical OCRed text using LSTM is implemented for different texts, ranging from Early New High German 14th - 16th centuries to modern forms in New
High German applied on the Luther bible. It performed better than the rule-based word-list
approaches. It provides a transcription for various purposes such as part-of-speech tagging and
n-grams. Also two new techniques are presented for aligning the OCR results and normalize the
size by using adding Character-Epsilons or Appending-Epsilons. They allow deletion and insertion in the appropriate position in the string. In normalizing historical wordforms to modern
wordforms, the accuracy of LSTM on seen data is around 94%, while the state-of-the-art combined rule-based method returns 93%. On unseen data, LSTM returns 88% and the combined
rule-based method returns 76%. In normalizing modern wordforms to historical wordforms, the
LSTM delivers the best performance and returns 93.4% on seen data and 89.17% on unknown
data.
In this thesis, a deep investigation has been done on constructing high-performance language
modeling for improving the recognition systems. A new method to construct a language model
using LSTM is designed to correct OCR results. The method is applied on UWIII and Urdu
script. The LSTM approach outperforms the state-of-the-art, especially for unseen tokens
during training. On the UWIII dataset, the LSTM returns reduction in OCR error rates from
1.14% to 0.48%. On the Nastaleeq script in Urdu dataset, the LSTM reduces the error rate
from 6.9% to 1.58%.
Finally, the integration of multiple recognition outputs can give higher performance than a
single recognition system. Therefore, a new method for combining the results of OCR systems is
explored using WFSTs and LSTM. It uses multiple OCR outputs and votes for the best output
to improve the OCR results. It performs better than the ISRI tool, Pairwise of Multiple Sequence and it helps to improve the OCR results. The purpose is to provide correct transcription
so that it can be used for digitizing books, linguistics purposes, N-grams, and part-of-speech
tagging. The method consists of two alignment steps. First, two recognition systems are aligned
using WFSTs. The transducers are designed to be more flexible and compatible with the different symbols in line and page breaks to avoid the segmentation and misrecognition errors.
The LSTM model then is used to vote the best candidate correction of the two systems and
improve the incorrect tokens which are produced during the first alignment. The approaches
are evaluated on OCRs output from the English UWIII and historical German Fraktur dataset
which are obtained from state-of-the-art OCR systems. The Experiments show that the error
rate of ISRI-Voting is 1.45%, the error rate of the Pairwise of Multiple Sequence is 1.32%, the
error rate of the Line-to-Page alignment is 1.26% and the error rate of the LSTM approach has
the best performance with 0.40%.
The purpose of this thesis is to contribute methods providing correct transcriptions corresponding to the original book. This is considered to be the first step towards an accurate and
more effective use of the documents in digital libraries.
Today's ubiquity of visual content as driven by the availability of broadband Internet, low-priced storage, and the omnipresence of camera equipped mobile devices conveys much of our thinking and feeling as individuals and as a society. As a result the growth of video repositories is increasing at enourmous rates with content now being embedded and shared through social media. To make use of this new form of social multimedia, concept detection, the automatic mapping of semantic concepts and video content has to be extended such that concept vocabularies are synchronized with current real-world events, systems can perform scalable concept learning with thousands of concepts, and high-level information such as sentiment can be extracted from visual content. To catch up with these demands the following three contributions are made in this thesis: (i) concept detection is linked to trending topics, (ii) visual learning from web videos is presented including the proper treatment of tags as concept labels, and (iii) the extension of concept detection with adjective noun pairs for sentiment analysis is proposed.
In order for concept detection to satisfy users' current information needs, the notion of fixed concept vocabularies has to be reconsidered. This thesis presents a novel concept learning approach built upon dynamic vocabularies, which are automatically augmented with trending topics mined from social media. Once discovered, trending topics are evaluated by forecasting their future progression to predict high impact topics, which are then either mapped to an available static concept vocabulary or trained as individual concept detectors on demand. It is demonstrated in experiments on YouTube video clips that by a visual learning of trending topics, improvements of over 100% in concept detection accuracy can be achieved over static vocabularies (n=78,000).
To remove manual efforts related to training data retrieval from YouTube and noise caused by tags being coarse, subjective and context-depedent, this thesis suggests an automatic concept-to-query mapping for the retrieval of relevant training video material, and active relevance filtering to generate reliable annotations from web video tags. Here, the relevance of web tags is modeled as a latent variable, which is combined with an active learning label refinement. In experiments on YouTube, active relevance filtering is found to outperform both automatic filtering and active learning approaches, leading to a reduction of required label inspections by 75% as compared to an expert annotated training dataset (n=100,000).
Finally, it is demonstrated, that concept detection can serve as a key component to infer the sentiment reflected in visual content. To extend concept detection for sentiment analysis, adjective noun pairs (ANP) as novel entities for concept learning are proposed in this thesis. First a large-scale visual sentiment ontology consisting of 3,000 ANPs is automatically constructed by mining the web. From this ontology a mid-level representation of visual content – SentiBank – is trained to encode the visual presence of 1,200 ANPs. This novel approach of visual learning is validated in three independent experiments on sentiment prediction (n=2,000), emotion detection (n=807) and pornographic filtering (n=40,000). SentiBank is shown to outperform known low-level feature representations (sentiment prediction, pornography detection) or perform comparable to state-of-the art methods (emotion detection).
Altogether, these contributions extend state-of-the-art concept detection approaches such that concept learning can be done autonomously from web videos on a large-scale, and can cope with novel semantic structures such as trending topics or adjective noun pairs, adding a new dimension to the understanding of video content.
In Rheinland-Pfalz kommt den ländlichen Regionen eine hohe Bedeutung als Lebens-, Wirtschafts-, Natur- und Erholungsraum zu. Bei ihrer Entwicklung kann festgestellt werden, dass diese Regionen sowohl Schrumpfungstendenzen wie einen Rückgang der Bevölkerungszahl, zum Teil aber auch positive Entwicklungsdynamiken wie positive bevölkerungsstrukturelle und sozio-ökonomische Entwicklungen aufweisen. In jenen Regionen die positive Entwicklungsdynamiken verzeichnen stellt sich insbesondere die Frage nach „den Erfolgsfaktoren“, die diese Entwicklung begünstigt haben.
Die Bundesraumordnung hat das Potenzial dieser Räume, einen gesamtwirtschaftlichen Wachstumsbeitrag zu liefern, erkannt. Im Jahr 2010 und 2013 hat die Ministerkonferenz für Raumordnung den Beschluss gefasst, die Leitbilder für die Raumentwicklung in Deutschland dahingehend zu konkretisieren und weiterzuentwickeln, dass die Rolle und Bedeutung ländlicher Räume als „eigenständige Wirtschafts-, Kultur- und Lebensräume, die ihre Potenziale durch die Entwicklung eigener Stärken, aber auch durch Verflechtung und Vernetzung besser zur Geltung bringen können“, noch stärker herausgearbeitet werden soll. Im aktuellen Entwurf der Leitbilder und Handlungsstrategien für die Raumentwicklung in Deutschland 2013 zeigt sich, dass im vorgesehenen Leitbild „Wettbewerbsfähigkeit stärken“ sowohl ländliche als auch verstädterte wirtschaftliche Wachstumsräume außerhalb der Metropolregionen verortet werden, die im Rahmen einer Raumentwicklungsstrategie als Wirtschafts-, Innovations- und Technologiestandorte gestärkt werden sollen.
Somit stellt sich für ländliche Regionen insbesondere die Frage, welches die maßgeblichen Faktoren sein können, um eine eigene positive Entwicklungsdynamik zu fördern. Die vorliegende Dissertation identifiziert im Bundesland Rheinland-Pfalz, für das ländliche Regionen in exemplarischer Weise von Bedeutung sind, Landkreise die positive Entwicklungsdynamiken aufzeigen und untersucht sie hinsichtlich ihrer Erfolgsfaktoren. Dabei handelt es sich um den Donnersbergkreis, den Rhein-Hunsrück-Kreis und den Landkreis Südliche Weinstraße einschließlich der Stadt Landau in der Pfalz.
Um sich der Thematik der Erfolgsfaktoren in theoretischer Weise zu nähern, werden zunächst Ansätze zur Erklärung unterschiedlicher regionaler Entwicklungsdynamiken betrachtet und Kriterien abgeleitet, die dazu dienen, bereits bestehende Ansätze, Programme und Projekte zur Förderung solcher Entwicklungen in ländlichen Regionen zu bewerten. Der Untersuchung liegen ferner empirische Erhebungen wie leitfadengestützte Gespräche mit Experten, regionalen Akteuren aus Verwaltung und Wirtschaft sowie mit regionalen und kommunalen Entscheidungsträgern und eine schriftliche Befragung der Bevölkerung in allen drei Landkreisen zugrunde, um weitere Erkenntnisse über (spezifische) Erfolgsfaktoren zu erhalten.
Es zeigt sich dabei, dass die positiven Entwicklungsdynamiken durch die unterschiedlichen Rahmenbedingungen, wie die Lage der Landkreise im Raum, verkehrsinfrastrukturelle und naturräumliche Ausstattung, historische Entwicklungspfade sowie durch bestimmte Unternehmensansiedlungen und ein strategisches Handeln regionaler und kommunaler Akteure, maßgeblich beeinflusst wird. Im Zusammenhang mit dem Thema der europäischen Metropolregionen bleibt zu sagen, dass die untersuchten Räume auch von der Nähe zu diesen Räumen profitieren. Hierbei spielen vor allem eine gut ausgebaute Verkehrsinfrastruktur, Arbeitsplätze und Hochschulen eine wichtige Rolle.
Weiterhin zeigt sich, dass sich beispielsweise eine wirtschaftsnahe Verwaltung und die Etablierung von Netzwerken zwischen Politik, Wirtschaft und Verwaltung unterstützend auswirken. Ein weiteres Hauptaugenmerk im Zusammenhang mit positiven Entwicklungsdynamiken ist auf die Existenz hochinnovativer, vielfach klein- und mittelständischer Unternehmen zu richten. Als maßgeblich für die Entwicklung eines Raumes ist aber auch das hohe Engagement einzelner Personen zu betrachten, die oftmals eine wichtige Rolle als die treibenden Kräfte bei der regionalen Entwicklung einnehmen. Darüber hinaus spielt in den untersuchten ländlichen Regionen, die stark durch den produzierenden Sektor geprägt sind, die betriebliche Aus- und Weiterbildung sowie eine frühzeitige Berufsorientierung in Schulen und die Vermittlung von Praktika eine wichtige Rolle und trägt zur Sicherung der Fachkräftebasis in den Regionen bei. Die durchgeführte Haushaltsbefragung verdeutlicht, dass die Räume eine sehr hohe Wohn- und Lebensqualität aufweisen, welche die Bevölkerung verstärkt an den Raum bindet.
Aufbauend auf den identifizierten Erfolgsfaktoren werden Handlungsansätze der Raumordnung, Landes- und Regionalplanung sowie der Regionalentwicklung und relevanter Politikfelder erarbeitet. Hierbei steht insbesondere die Frage im Vordergrund, wie vorhandene Entwicklungsdynamiken unterstützt, ausgebaut und in anderen Regionen angestoßen werden können. In Hinblick auf die Übertragbarkeit auf andere Regionen ist zu erwähnen, dass dies durchaus möglich ist, wobei die identifizierten Erfolgsfaktoren vielfach von den spezifischen Rahmenbedingungen des Raumes abhängig sind. Wesentlich ist, dass die genannten Handlungsansätze und -strategien eine Orientierung ermöglichen. Berücksichtigt werden muss beim Verfolgen der dargestellten Strategien jedoch, dass sich die Entwicklungen in den Untersuchungsräumen über einen langen Zeitraum vollzogen haben. Somit sollte auch an einer „Strategie der kleinen Schritte“ angesetzt werden.
In this thesis, an approach is presented that turns the currently unstructured process of automotive hazard analysis and risk assessments (HRA), which relies on creativity techniques, into a structured, model-based approach that makes the HRA results less dependent on experts' experience, more consistent, and gives them higher quality. The challenge can be subdivided into two steps. The first step is to improve the HRA as it is performed in current practice. The second step is to go beyond the current practice and consider not only single service failures as relevant hazards, but also multiple service failures. For the first step, the most important aspect is to formalize the operational situation of the system and to determine its likelihood. Current approaches use natural-language textual descriptions, which makes it hard to ensure consistency and increase efficiency through reuse. Furthermore, due to ambiguity in natural language, it is difficult to ensure consistent likelihood estimates for situations.
The main aspect of the second step is that considering multiple service failures as hazards implies that one needs to analyze an exponential number of hazards. Due to the fact that hazard assessments are currently done purely manually, considering multiple service failures is not possible. The only way to approach this challenge is to formalize the HRA and make extensive use of automation support.
In SAHARA we handle these challenges by first introducing a model-based representation of an HRA with GOBI. Based on this, we formalized the representation of operational situations and their likelihood assessment in OASIS and HEAT, respectively. We show that more consistent situation assessments are possible and that situations (including their likelihood) can be efficiently reused. The second aspect, coping with multiple service failures, is addressed in ARID. We show that using our tool-supported HRA approach, 100% coverage of all possible hazards (including multiple service failures) can be achieved by relying on very limited manual effort. We furthermore show that not considering multiple service failures results in insufficient safety goals.
In embedded systems, there is a trend of integrating several different functionalities on a common platform. This has been enabled by increasing processing power and the arise of integrated system-on-chips.
The composition of safety-critical and non-safety-critical applications results in mixed-criticality systems. Certification Authorities (CAs) demand the certification of safety-critical applications with strong confidence in the execution time bounds. As a consequence, CAs use conservative assumptions in the worst-case execution time (WCET) analysis which result in more pessimistic WCETs than the ones used by designers. The existence of certified safety-critical and non-safety-critical applications can be represented by dual-criticality systems, i.e., systems with two criticality levels.
In this thesis, we focus on the scheduling of mixed-criticality systems which are subject to certification. Scheduling policies cognizant of the mixed-criticality nature of the systems and the certification requirements are needed for efficient and effective scheduling. Furthermore, we aim at reducing the certification costs to allow faster modification and upgrading, and less error-prone certification. Besides certification aspects, requirements of different operational modes result in challenging problems for the scheduling process. Despite the mentioned problems, schedulers require a low runtime overhead for an efficient execution at runtime.
The presented solutions are centered around time-triggered systems which feature a low runtime overhead. We present a transformation to include event-triggered activities, represented by sporadic tasks, already into the offline scheduling process. Further, this transformation can also be applied on periodic tasks to shorten the length of schedule tables which reduces certification costs. These results can be used in our method to construct schedule tables which creates two schedule tables to fulfill the requirements of dual-criticality systems using mode changes at runtime. Finally, we present a scheduler based on the slot-shifting algorithm for mixed-criticality systems. In a first version, the method schedules dual-criticality jobs without the need for mode changes. An already certified schedule table can be used and at runtime, the scheduler reacts to the actual behavior of the jobs and thus, makes effective use of the available resources. Next, we extend this method to schedule mixed-criticality job sets with different operational modes. As a result, we can schedule jobs with varying parameters in different modes.
Nitrogen element is preponderant in Nature. Found in its simplest form as diatomic gas in the air, as well as in elaborated molecules such as the double helix of DNA, this element is indisputably essential for life. Indeed, nitrogen is omnipresent in all metabolic pathways.
With the advent of green chemistry, researchers attempt to functionalize arenes without pre-functionalization of the later for the establishment of C-C bond formation. Why not C-N bond formation?
We investigated new oxidative amination reactions by cross-dehydrogenative-coupling. Concerned by atom economy and green processes, our objectives were: 1) to obviate pre-activation or pre-oxidation of both C-H coupling partner and N-aminating agent. 2) to avoid the use of chelating directing group.
We achieved C-N bond formation for some classes of amines. Thus, we will describe the reactivity of cyclic secondary amines: carbazole, in presence of catalytic amount of ruthenium (II) and copper (II) to build the challenging C-N bond between two carbazoles. The initial mechanistic experiments will be present and discuss.
Then, we will describe more challenging hetero-coupling formation between diarylamines and carbazoles. The new ruthenium (II)/ copper (II) catalytic system allowed forming the ortho-N-carbazolation of diarylamines. This reaction performed under mild conditions (O2 as terminal oxidant) displays an unusual intramolecular N-H••N interaction in the novel class of compounds.
Finally, we will present a surprising metal free C-N bond formation between the ubiquitous phenols and the phenothiazines. Initially conducted in the presence of transition metals (RuII/CuII), this reaction proved to be efficient with the only effect of cumene and O2. Those components suggest a mechanism initiated by a Hock process. An initial infra-red analysis might point out a strong intramolecular O-H••N interaction in the resulting products.
These first elements of reactivity, developed within the laboratory for “modern dehydrogenative amination reactions”, will be presented and discussed.
Es gibt vielfache Ansätze, die mechanischen Eigenschaften von Werkstoffen zu verbessern, wobei in den meisten Fällen mit einer Erhöhung der quasistatischen Festigkeit eine Verringerung der Duktilität einhergeht. Bei ultrafeinkörnigen Werkstoffen ist diese Verringerung des Verformungsvermögens, aufgrund des dominierenden Verfestigungsmechanismus der Korngrenzenverfestigung, nicht zwangsläufig die Folge. Bei der Forschung mit Werkstoffen, die eine sehr kleine Korngröße aufweisen, stellt dieser Aspekt die Hauptmotivation dar.
Im Rahmen der aktuellen Arbeit wurden mehrere ultrafeinkörnige Modifikationen des Vergütungsstahles C45 mikrostrukturell, mit Hilfe von Raster- sowie Transmissionselektronenmikroskopie, aber auch Nanoindentation charakterisiert. Es konnten verbreitet Korngrößen unter 1 µm festgestellt werden, was der Definition ultrafeinkörnig entspricht. Anschließend folgte eine Korrelation der zyklischen Eigenschaften, welche mittels 4-Punkt-Mikrobiegeversuchen untersucht wurden und der Mikrostruktur. Da die hochfesten Ausprägungen der ultrafeinkörnigen Modifikationen in großen Teilen Rissinitiierung an nichtmetallischen Einschlüssen zeigten, erfolgte eine bruchmechanische Betrachtung mittels Spannungsintensitätsfaktoren. Als Quintessenz der vorliegenden Arbeit steht ein Modell, welches die Ermüdungseigenschaften von ultrafeinkörnigen Werkstoffen zusammenfasst. Mehrere Eigenschaften, wie das Auftreten von innerer Rissinitiierung, sowie insgesamt die extrem hohen Härten und Ermüdungsfestigkeiten (vergleichbar mit bainitisiertem 100Cr6), wurden im Rahmen der Arbeit erstmals bei diesen Modifikationen nachgewiesen und gehörten zuvor nicht zum Stand der Technik.
In der vorliegenden Arbeit wurde die Reaktivität und Selektivität anellierter, verbrückter und tertiärer O-Radikale, in drei Teilprojekten, untersucht. Die zur Erzeugung primärer und sekundärer O-Radikale benötigten Thiohydroxamsäure-O-ester stammen aus Reaktionen von Cyclopentenyltosylaten mit 3-Hydroxy-4-methylthiazol-2(3H)-thion-Tetraethylammoniumsalz (Salz-Methode). Für tertiäre Thiohydroxamsäure-O-ester hat sich die Umsetzung tertiärer O-Alkylisoharnstoffe mit 3-Hydroxy-4-methylthiazol-2(3H)-thionen bewährt (Isoharnstoff-Methode). Die anschließende Freisetzung der O-Radikale, aus den O-Alkylthiohydroxamaten, erfolgte photochemisch oder thermisch unter pH-neutralen und nicht oxidativen Bedingungen in Gegenwart von Bromtrichlormethan. Relative Reaktivitäten der O-Radikale in Sauerstoff-Elementarreaktionen beruhen auf Abschätzungen mit Hilfe unimolekularer Vergleichsreaktionen (Radikaluhr Konzept). Beobachtete Selektivitäten und Stabilitäten wurden anhand theoretischer Analyseverfahren (Twist-Modell, Dichtefunktional-Rechnungen und Møller-Plesset-Störungsrechnung 2. Ordnung), in Kooperation mit Jens Hartung, interpretiert und quantifiziert. Die synthetisierten \({\beta}\)-bromierten, bicyclischen, tricyclischen sowie tertiären Tetrahydrofurane erweitern die bis dato auf primäre und sekundäre Monocyclen beschränkte Vielfalt der 5-Ring-Strukturen über Sauerstoff-Radikalreaktionen. Beispiele für Synthesen mittels intermolekularer O-Radikaladditionen liefern funktionalisierte Bromalkoxybicyclo[2.2.1]heptane und tert-Butoxybromalkane.
Durch Variation (1,2-Cyclopentyl und 1,2-Cyclohexyl) und Permutation (Kohlenstoff-Atome C1 und C2 / C2 und C3 / C3 und C4) der Anellierung, sowie durch verbrückte Reste (C2 und C5 / C3 und C5) am 4-Penten-1-oxyl-Gerüst gelang es, im ersten Teilprojekt, diastereomerenreine primäre und sekundäre O-Radikalvorläufer für eine systematische Untersuchung der Stereoselektivität in 5-exo-trig-Reaktionen zu synthetisieren. Umsetzungen der O-Radikalvorläufer zeigten Regelmäßigkeiten im Produktbild, die in Form von Richtlinien für zukünftige Syntheseplanungen zusammengefasst wurden: (I) Für sterisch und elektronisch vergleichbare Substituenten in direkter Nachbarschaft (zum Beispiel C1 und C2) ist der stereochemische Einfluss des Substituenten größer, der der Doppelbindung näher ist (hier Substituent an C2). Die relative Konfiguration der beiden anellierten Substituenten zueinander wirkt sich auf den Stereoselektivitätsgrad aus, wobei trans-anellierte 4-Penten-1-oxyl-Radikale stereoselektiver cyclisieren als cis-konfigurierte Isomere. Hauptprodukte der 1,2- und 2,3-cyclohexyl-anellierten 4-Penten-1-oxyl-Radikale sind 2,4-cis- und 2,3-trans-substituierte Tetrahydrofurane. (II) Ist die Flexibilität der Sauerstoffatom-tragenden Seitenkette konformell eingeschränkt, cyclisieren anellierte (C3 und C4) sowie verbrückte (C2 und C5 / C3 und C5) 4-Penten-1-oxyl-Radikale 2,3- und 2,4-cis-spezifisch an endo- und exo-cyclische \({\pi}\)-Bindungen. Theoretische Berechnungen diesbezüglich haben gezeigt, dass der 2,3-trans-Ringschluss des Modell-Radikals 1-(Cyclohexen-3-yl)-2-ethoxylradikal aufgrund sterischer Effekte eine deutlich höhere Barriere besitzt (89.5 kJ/mol) als der 2,3-cis-Ringschluss (35.4 kJ/mol).
Die Herstellung tertiärer 3-Alkyloxy- und 3-Cumyloxy-5-(4-methoxyphenyl)thiazol-2(3H)-thione und die Untersuchung der Reaktivitäten daraus erzeugter tertiärer O-Radikale in Elementarreaktionen waren Schwerpunkte des zweiten Themengebiets. Experimentell bestimmte relative Geschwindigkeitskonstanten für die \({\delta}\)-H-Abstraktion (\({k^{Subst} = 10^7-10^8 s^{-1}}\)), die 5-exo-trig-Cyclisierung (\({k^{5-exo} = 10^8-10^9 s^{-1}}\)) und die intermolekulare Addition (\({k^{Add} = 10^7 M^{-1}s^{-1}}\)) demonstrieren, dass tertiäre O-Radikale trotz größerer sterischer Hinderung eine ähnliche (Substitution) oder höhere Reaktivität (5-exo-Reaktion) als vergleichbare primäre und sekundäre Analoga aufweisen. Der 5-exo-Rinschluss des 2-Phenyl-5-hexen-2-oxyl-Radikals erfolgt 2,5-cis-selektiv. Intermolekulare Additionen der tert-Butoxyl-, Cumyloxyl- oder p-Chlorcumyloxyl-Radikale an Norbornen verlaufen exo-spezifisch. Dichtefunktional Berechnungen zufolge sind Torsionsspannungen im 2,5-trans-Übergangszustand der 5-exo-trig-Cyclisierung und im endo-Übergangszustand der intermolekularen Addition für die beobachtete Selektivität verantwortlich.
Im dritten Projekt wurden O-(tert-Butyl)thiohydroxamate aus O-(tert-Butyl)-N,N-diisopropylisoharnstoff und dem 3-Hydroxy-4-methylthiazol-2(3H)-thion sowie dem 3-Hydroxy-4-methyl-5-(4-nitrophenyl)thiazol-2(3H)-thion hergestellt. Die gleiche Reaktion zeigt bei Verwendung des 1-Hydroxypyridin-2(1H)-thions eine spontane Umlagerung des O-(tert-Butyl)thiohydroxamats zum O-(tert-Butyl)pyridin-2-sulfenat. Stabilitätsunterschiede der tertiären Thiohydroxamat-Klassen lassen sich der Molekülorbital-Theorie folgend auf drei unterschiedliche, \({\pi}\)-artige Wechselwirkungen der N,O-Bindung mit dem Thiohydroxamat-Kern und dem O-Alkyl-Rest im Grundzustand zurückführen, die die N,O-Bindung insgesamt stärken. Tertiäre 3-Alkoxythiazolthione erfahren dabei eine größere Stabilisierung als vergleichbare Pyridinthione. Photochemische Umsetzungen der tert-Butoxythiazolthione liefern tert-Butoxyl-Radikale, die durch Addition an 5,5-Dimethylpyrrolidin N-Oxid (DMPO) und Styrol nachgewiesen wurden.
Regionalparks werden als informelles projekt-, kommunikations- und kooperationsorientiertes
Planungsinstrument der Regionalentwicklung seit Ende der 1980er Jahre in
Deutschland umgesetzt. Seit einigen Jahren werden Regionalparks auch in anderen
europäischen Ländern, vor allem in Metropolregionen, entwickelt.
In Deutschland wurde der erste Regionalpark, der Emscher Landschaftspark, bereits
1989 gegründet. Mit dem Regionalpark Rhein-Main folgte 1994 ein weiterer Regionalpark.
Seitdem sind in vielen Bundesländern Deutschlands Regionalparks entwickelt
worden, so z. B. im Saarland, in Hamburg, in Berlin und Brandenburg oder in Baden-
Württemberg. Die Tendenz ist, auch aufgrund von EU-Fördermitteln, steigend.
Ein Schwerpunkt von Regionalparks liegt auf dem Landschafts- und Freiraumschutz.
Als informelles Instrument der Landschafts- und Freiraumentwicklung bieten Regionalparks
somit Strategien für eine nachhaltige und qualifizierte Sicherung von Freiräumen.
Regionalparks dienen im weiteren Bereich aber auch der lokalen und regionalen
Wirtschaft, verfolgen touristische, kulturelle und soziale Ziele. Sie gelten weiterhin als
Instrument zur Stärkung der weichen Standortfaktoren in z. B. strukturschwachen Regionen.
Im Kontext der raumordnungspolitischen Debatte um die territoriale Kohäsion
in Europa bieten Regionalparks somit Argumente für die Akquirierung von EU-Fördermitteln.
Im Rahmen wachsender internationaler Standortkonkurrenzen spielen Faktoren wie
das Image einer Region, eine hohe Umwelt- und Freiraumqualität, ein attraktives Wohnumfeld
und ein vielseitiges Kultur- und Naherholungsangebot in den Stadtregionen
Europas eine immer wichtigere Rolle für die Ansiedlung von Unternehmen und für den
Zuzug hochqualifizierter Arbeitnehmer. Durch die Folgeeffekte der Projekte in Regionalparks
können die Chancen im internationalen Wettbewerb verbessert werden.
Was in der Fachwelt bisher fehlt, ist ein empirischer Vergleich der deutschen Regionalparks
mit vergleichbaren Ansätzen im europäischen Ausland. Es wird in dieser Arbeit
daher der Frage nachgegangen, wie das Instrument Regionalpark in anderen Ländern
Europas interpretiert und umgesetzt wird, welchen Einfluss die Belange des Freiraum-
und Naturschutzes auf die Projekte in Regionalparks haben und wie detailliert
die Projekte der Regionalparks zu Themen wie Freiraum- und Naturschutz umgesetzt
werden. Dies wird anhand von vier Fallbeispielen – zwei Regionalparks in Deutschland
und zwei Regionalparks in Europa – beschrieben und bewertet und stellt den Schwerpunkt
der Arbeit dar.
Ein weiterer sich anschließender Untersuchungsaspekt ist die Bewertung und Analyse
der in den letzten Jahren neu in Europa entstandenen Regionalparks, die noch nicht
näher wissenschaftlich erforscht worden sind. Dazu zählen z. B. als Regionalparks
benannte Gebiete in Großbritannien, der Schweiz oder in Slowenien. Nicht immer gleichen
die Regionalparks im europäischen Ausland dabei den deutschen Konzepten,
sondern erweisen sich bei näherer Betrachtung als Natur-, Freizeit oder Ferienparks.
Durch eine kritische Bewertung nach verschiedenen vorher definierten Kriterien werden
die ausgewählten Regionalparks hinsichtlich des Schwerpunktes auf Natur- und
Freiraumschutz beleuchtet und bewertet. Aus den gewonnenen Erkenntnissen werden
Handlungsempfehlungen für Politik und Praxis abgeleitet.
Mit dieser Arbeit sollen Impulse für eine moderne, informelle, nachhaltige und ökologisch
orientierte Stadt -und Regionalentwicklung in Europa gegeben werden. Die Arbeit
soll darüber hinaus Handlungsempfehlungen für die Vernetzung von und den Informationsaustausch
zwischen Regionalparks geben und damit einen Beitrag zur Regionalparkentwicklung
in Europa leisten, um so ein geeintes Europa auch hinsichtlich
der Natur-, Regional- und Freiraumentwicklung zu stärken.
Motivated by the results of infinite dimensional Gaussian analysis and especially white noise analysis, we construct a Mittag-Leffler analysis. This is an infinite dimensional analysis with respect to non-Gaussian measures of Mittag-Leffler type which we call Mittag-Leffler measures. Our results indicate that the Wick ordered polynomials, which play a key role in Gaussian analysis, cannot be generalized to this non-Gaussian case. We provide evidence that a system of biorthogonal polynomials, called generalized Appell system, is applicable to the Mittag-Leffler measures, instead of using Wick ordered polynomials. With the help of an Appell system, we introduce a test function and a distribution space. Furthermore we give characterizations of the distribution space and we characterize the weak integrable functions and the convergent sequences within the distribution space. We construct Donsker's delta in a non-Gaussian setting as an application.
In the second part, we develop a grey noise analysis. This is a special application of the Mittag-Leffler analysis. In this framework, we introduce generalized grey Brownian motion and prove differentiability in a distributional sense and the existence of generalized grey Brownian motion local times. Grey noise analysis is then applied to the time-fractional heat equation and the time-fractional Schrödinger equation. We prove a generalization of the fractional Feynman-Kac formula for distributional initial values. In this way, we find a Green's function for the time-fractional heat equation which coincides with the solutions given in the literature.
Maltose binding protein (MBP) is a monomeric, two domain protein containing 370 amino acids. Seven double cysteine mutants of maltose binding protein (MBP) were generated with one each in the active cleft at position 298 and the second cysteine distributed over both domains of the protein. These cysteines were spin labeled and distances between the labels in biradical pairs determined by pulsed double electron–electron resonance (DEER) measurements. The values were compared with
theoretical predictions of distances between the labels in biradicals constructed by molecular modeling from the crystal structure of MBP without maltose and were found to be in excellent agreement.
MBP is in a molten globule state at pH 3.3 and is known to still bind its substrate maltose.
The ligand-binding affinity of the molten globule and the native states of MBP was studied by isothermal titration calorimetry. Ligand binding affinity measured by isothermal titration calorimetry for the native state of MBP was found to be comparable to that from the literature.
Simultaneous measurements to investigate the molten globule state of MBP were implemented, including the use of far-and near-UV CD and the 8-anilino-1-naphthalene sulfonate (ANS) binding employing fluorescence techniques. Guanidine hydrochloride, urea and thermal denaturation studies have been carried out to compare the stability of the two states of maltose binding protein.
In cw- experiments, the X-band EPR measurements at low temperature confirm indirect that all distances of the biradicals are above 20 Å, otherwise no evidence of dipolar interactions in the immobilized spectra were observed.
DEER measurements of MBP in a molten globule state were yielding a broad distance distribution as was to be expected if there is no explicit tertiary structure and the individual helices pointing into all possible directions.
Untersuchungen zum langzeitbeständigen Kleben von organisch bandbeschichteten
Stahlfeinblechen mittels Labormethoden stoßen immer wieder auf
die Problematik der korrosiven Unterwanderung der Beschichtung. Diese ist
für die Bestimmung der Langzeitbeständigkeit der Klebung hinderlich, da sie in
der Realität in dieser Form selten vorzufinden ist. Ein Ziel dieser Arbeit war es,
eine angepasste Klebprobengeometrie zu entwickeln, welche eine korrosive
Unterwanderung der organischen Bandbeschichtung in zeitraffenden Laboralterungstests
verhindert. Es konnte gezeigt werden, dass mittels der entwickelten
Probengeometrie eine zuverlässige Bestimmung des Alterungsverhaltens
an geklebten Verbunden mit organisch bandbeschichteten Stahlfeinblechen
möglich ist.
Hierauf aufbauend zielten die weiteren Untersuchungen mit zweikomponentigen
Polyurethan-Klebstoffen auf einen Vergleich der zeitraffenden Laboralterungsmethoden
mit nicht zeitraffenden Alterungsverfahren wie der Freibewitterung
und der Auslagerung am Feldfahrzeug. Die Auslagerung am
Feldfahrzeug erfolgte an Kühlfahrzeugen, welche im Speditionsverkehr auf
europäischen Routen verkehrten. Hauptaugenmerk bei allen Alterungsversuchen
war es neben der Bestimmung der Restfestigkeit auch die klimatischen
Expositionsbedingungen zu dokumentieren. Dies ermöglichte zum einen die
Interpretation der Zugscherergebnisse. Zum anderen konnte hieraus eine
Korrelation und letztendlich ein mathematisches Modell zur Festigkeitsvorhersage
von reversiblen Alterungseffekten abgeleitet werden. Mit diesem Modell
ist eine Vorhersage der Zugscherfestigkeit auf Basis eines bekannten Expositionsprofils
möglich.
In some processes for spinning synthetic fibers the filaments are exposed to highly turbulent air flows to achieve a high degree of stretching (elongation). The quality of the resulting filaments, namely thickness and uniformity, is thus determined essentially by the aerodynamic force coming from the turbulent flow. Up to now, there is a gap between the elongation measured in experiments and the elongation obtained by numerical simulations available in the literature.
The main focus of this thesis is the development of an efficient and sufficiently accurate simulation algorithm for the velocity of a turbulent air flow and the application in turbulent spinning processes.
In stochastic turbulence models the velocity is described by an \(\mathbb{R}^3\)-valued random field. Based on an appropriate description of the random field by Marheineke, we have developed an algorithm that fulfills our requirements of efficiency and accuracy. Applying a resulting stochastic aerodynamic drag force on the fibers then allows the simulation of the fiber dynamics modeled by a random partial differential algebraic equation system as well as a quantization of the elongation in a simplified random ordinary differential equation model for turbulent spinning. The numerical results are very promising: whereas the numerical results available in the literature can only predict elongations up to order \(10^4\) we get an order of \(10^5\), which is closer to the elongations of order \(10^6\) measured in experiments.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.
This thesis treats the application of configurational forces for the evaluation of fracture processes in Antarctic ice shelves. FE simulations are used to analyze the influence of geometric scales, material parameters and boundary conditions on single surface cracks. A break-up event at the Wilkins Ice Shelf that coincided with a major temperature drop motivates the consideration of frost wedging as a mechanism for ice shelf disintegration. An algorithm for the evaluation of the crack propagation direction is used to analyze the horizontal growth of rifts. Using equilibrium considerations for a viscoelastic fluid, a method is introduced to compute viscous volume forces from measured velocity fields as loads for a linear elastic fracture mechanical analysis.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
Die vorliegende Arbeit behandelt das Thema der pneumatischen Abstandsmessung. Diese Technologie ist neben der taktilen und optischen Messtechnik eine der drei Ansätze, um Messaufgaben in der Fertigungsmesstechnik zu lösen. Der große Vorteil pneumatischer Sensoren ist ihr Selbstreinigungseffekt, wodurch in rauen Umgebungen sicher gemessen werden kann. Momentan fehlende Grundlagenkenntnisse führen jedoch zu einer ineffizienten Nutzung der Technik. Im Rahmen dieser Arbeit wurde neues Wissen erarbeitet, so dass eine optimierte Anwendung dieser Sensorklasse möglich ist. Für das laterale und dynamische Verhalten der Sensoren sind Modelle zur Vorhersage von Messergebnissen vorgestellt. Weiterhin finden sich ausführliche Auslegestrategien für systemkritische Bauteile in dieser Arbeit. Auf Basis der Grundlagenuntersuchungen sind die wichtigsten Einflussgrößen der Messunsicherheit erläutert. Zur effizienten Wissensübertragung ist abschließend eine moderne Software präsentiert, welche eine Auslegung pneumatischer Sensoren für eine gegebene Messaufgabe ermöglicht und so das gesamte Wissen der Arbeit für den Anwender in der Industrie zusammenfasst.
This thesis deals with the development of a tractor front loader scale which measures payload continuously, independent of the center of gravity of the payload, and unaffected of the position and movements of the loader. To achieve this, a mathematic model of a common front loader is simplified which makes it possible to identify its parameters by a repeatable and automatic procedure. By measuring accelerations as well as cylinder forces, the payload is determined continuously during the working process. Finally, a prototype was build and the scale was tested on a tractor.
Die hier vorgelegte Arbeit konzentrierte sich auf den vakuolären Ribonukleinsäure- (RNA) Abbau in Arabidopsis thaliana (A. thaliana) und die Integration in den Nukleotid- Metabolismus unter Berücksichtigung von Nukleosidtransportprozessen. Insbesondere die physiologische Bedeutung des Verlustes der RNS2-Aktivität auf die vakuolären RNA-Abbauprozesse sollte untersucht werden. Es konnte gezeigt werden, dass RNS2 den größten Anteil an der vakuolären Ribonuklease- (RNase-) Aktivität ausmacht, wobei die Restaktivität von circa 30 Prozent ein Hinweis auf mindestens eine weitere vakuoläre RNase ist. Die vakuolären Adenylatgehalte, Abbauprodukte der RNA, in RNS2-T-DNA-Insertionslinien zeigten, dass RNS2, ähnlich wie die intrazellulären RNasen in L. esculentum, 2‘,3‘-zyklische Nukleotidmonophosphate (2‘,3‘-cNMPs) produzieren. Ferner konnte gezeigt werden, dass in diesen Linien die vakuolären Enzyme sowohl RNA, als auch 2‘,3‘-cNMPs langsamer abbauen als vakuoläre Enzyme aus Wildtyp-Pflanzen. Die Akkumulation dieses zyklischen Intermediates des RNA-Abbaus lässt darauf schließen, dass die Transphosphorylierung schneller verläuft als die Hydrolyse (Abel & Glund, 1987; Löffler et al., 1992; Nürnberger et al., 1990). Es kann angenommen werden, dass ein weiteres Enzym, wie etwa eine zyklische Phosphodiesterase oder eine weitere Ribonuklease, an der Hydrolyse beteiligt ist. Ein weiterer Abschnitt dieser Arbeit beschäftigt sich mit der wichtigen Frage der Qualität von Vakuolenisolationen. Protoplastenkontaminationen konnten mikroskopisch ausgeschlossen werden. Die chloroplastidäre Verunreinigung war mit circa 5 Prozent gering, die cytosolische Kontamination lag jedoch je nach Isolationsmethode bei bis zu 30 Prozent im Vergleich zu Protoplasten. Es konnte darüber hinaus erstmals durch fluoreszenzmikroskopische Untersuchungen gezeigt werden, dass Vakuolen RNA besitzen. Diese Oligonukleotide sind vornehmlich kleine Fragmente im Größenbereich bis 50 nt.
Next Generation Sequencing ermöglichte eine detaillierte Analyse von cDNA- Bibliotheken, gewonnen aus vakuolärer RNA. Diese Technik wurde unter anderem angewandt, um die Reliabilität des Experimentes zu untersuchen. Es zeigte sich eine große Varianz in der Verteilung der Counts auf die verschiedenen RNA-Loci innerhalb biologischer Replikate und unterschiedlicher Vakuolenisolationsmethoden. Erstmals konnte jedoch gezeigt werden, dass circa 70 Prozent der RNA-Fragmente in der
Vakuole von mRNA stammen. Darüber hinaus gibt es Hinweise, dass der Abbau der wenigen rRNA-Transkripte in diesem Organell verstärkt abläuft.
In A. thaliana existiert mit ENT7 lediglich ein Vertreter, der einen Export von RNA- Abbauprodukten aus der Zelle ermöglicht. Da er den namensgebenden Vertretern aus dem Reich der Säugetiere strukturell und funktionell ähnelt, ist ENT7 ein geeignetes ENT-Protein für zukünftige Kristallisations- und Strukturanalysen. In dieser Arbeit konnte ENT7-eGFP in Pichia pastoris mit großer Ausbeute (2 mg Protein pro Liter Hefekultur) synthetisiert und in stabiler Form gereinigt werden. Es konnte gezeigt werden, dass ENT7 ohne eGFP ebenfalls stabil und als Dimer vorliegt. Durch Bindungsstudien erfolgte der Nachweis der erfolgreichen Bindung an bekannte Substrate. Darüber hinaus stellte sich heraus, dass neben Nukleosiden auch Nukleobasen, aber nicht ATP gebunden werden.
A Consistent Large Eddy Approach for Lattice Boltzmann Methods and its Application to Complex Flows
(2015)
Lattice Boltzmann Methods have shown to be promising tools for solving fluid flow problems. This is related to the advantages of these methods, which are among others, the simplicity in handling complex geometries and the high efficiency in calculating transient flows. Lattice Boltzmann Methods are mesoscopic methods, based on discrete particle dynamics. This is in contrast to conventional Computational Fluid Dynamics methods, which are based on the solution of the continuum equations. Calculations of turbulent flows in engineering depend in general on modeling, since resolving of all turbulent scales is and will be in near future far beyond the computational possibilities. One of the most auspicious modeling approaches is the large eddy simulation, in which the large, inhomogeneous turbulence structures are directly computed and the smaller, more homogeneous structures are modeled.
In this thesis, a consistent large eddy approach for the Lattice Boltzmann Method is introduced. This large eddy model includes, besides a subgrid scale model, appropriate boundary conditions for wall resolved and wall modeled calculations. It also provides conditions for turbulent domain inlets. For the case of wall modeled simulations, a two layer wall model is derived in the Lattice Boltzmann context. Turbulent inlet conditions are achieved by means of a synthetic turbulence technique within the Lattice Boltzmann Method.
The proposed approach is implemented in the Lattice Boltzmann based CFD package SAM-Lattice, which has been created in the course of this work. SAM-Lattice is feasible of the calculation of incompressible or weakly compressible, isothermal flows of engineering interest in complex three dimensional domains. Special design targets of SAM-Lattice are high automatization and high performance.
Validation of the suggested large eddy Lattice Boltzmann scheme is performed for pump intake flows, which have not yet been treated by LBM. Even though, this numerical method is very suitable for this kind of vortical flows in complicated domains. In general, applications of LBM to hydrodynamic engineering problems are rare. The results of the pump intake validation cases reveal that the proposed numerical approach is able to represent qualitatively and quantitatively the very complex flows in the intakes. The findings provided in this thesis can serve as the basis for a broader application of LBM in hydrodynamic engineering problems.
The present thesis describes the development and validation of a viscosity adaption method for the numerical simulation of non-Newtonian fluids on the basis of the Lattice Boltzmann Method (LBM), as well as the development and verification of the related software bundle SAM-Lattice.
By now, Lattice Boltzmann Methods are established as an alternative approach to classical computational fluid dynamics
methods. The LBM has been shown to be an accurate and efficient tool for the numerical simulation of weakly compressible or incompressible fluids. Fields of application reach from turbulent simulations through thermal problems to acoustic calculations among others. The transient nature of the method and the need for a regular grid based, non body conformal discretization makes the LBM ideally suitable for simulations involving complex solids. Such geometries are common, for instance, in the food processing industry, where fluids are mixed by static mixers or agitators. Those fluid flows are often laminar and non-Newtonian.
This work is motivated by the immense practical use of the Lattice Boltzmann Method, which is limited due to stability issues. The stability of the method is mainly influenced by the discretization and the viscosity of the fluid. Thus, simulations of non-Newtonian fluids, whose kinematic viscosity depend on the shear rate, are problematic. Several authors have shown that the LBM is capable of simulating those fluids. However, the vast majority of the simulations in the literature are carried out for simple geometries and/or moderate shear rates, where the LBM is still stable. Special care has to be taken for practical non-Newtonian Lattice Boltzmann simulations in order to keep them stable. A straightforward way is to truncate the modeled viscosity range by numerical stability criteria. This is an effective approach, but from the physical point of view the viscosity bounds are chosen arbitrarily. Moreover, these bounds depend on and vary with the grid and time step size and, therefore, with the simulation Mach number, which is freely chosen at the start of the simulation. Consequently, the modeled viscosity range may not fit to the actual range of the physical problem, because the correct simulation Mach number is unknown a priori. A way around is, to perform precursor simulations on a fixed grid to determine a possible time step size and simulation Mach number, respectively. These precursor simulations can be time consuming and expensive, especially for complex cases and a number of operating points. This makes the LBM unattractive for use in practical simulations of non-Newtonian fluids.
The essential novelty of the method, developed in the course of this thesis, is that the numerically modeled viscosity range is consistently adapted to the actual physically exhibited viscosity range through change of the simulation time step and the simulation Mach number, respectively, while the simulation is running. The algorithm is robust, independent of the Mach number the simulation was started with, and applicable for stationary flows as well as transient flows. The method for the viscosity adaption will be referred to as the "viscosity adaption method (VAM)" and the combination with LBM leads to the "viscosity adaptive LBM (VALBM)".
Besides the introduction of the VALBM, a goal of this thesis is to offer assistance in the spirit of a theory guide to students and assistant researchers concerning the theory of the Lattice Boltzmann Method and its implementation in SAM-Lattice. In Chapter 2, the mathematical foundation of the LBM is given and the route from the BGK approximation of the Boltzmann equation to the Lattice Boltzmann (BGK) equation is delineated in detail.
The derivation is restricted to isothermal flows only. Restrictions of the method, such as low Mach number flows are highlighted and the accuracy of the method is discussed.
SAM-Lattice is a C++ software bundle developed by the author and his colleague Dipl.-Ing. Andreas Schneider. It is a highly automated package for the simulation of isothermal flows of incompressible or weakly compressible fluids in 3D on the basis of the Lattice Boltzmann Method. By the time of writing of this thesis, SAM-Lattice comprises 5 components. The main components are the highly automated lattice generator SamGenerator and the Lattice Boltzmann solver SamSolver. Postprocessing is done with ParaSam, which is our extension of the
open source visualization software ParaView. Additionally, domain decomposition for MPI
parallelism is done by SamDecomposer, which makes use of the graph partitioning library MeTiS. Finally, all mentioned components can be controlled through a user friendly GUI (SamLattice) implemented by the author using QT, including features to visually track output data.
In Chapter 3, some fundamental aspects on the implementation of the main components, including the corresponding flow charts will be discussed. Actual details on the implementation are given in the comprehensive programmers guides to SamGenerator and SamSolver.
In order to ensure the functionality of the implementation of SamSolver, the solver is verified in Chapter 4 for Stokes's First Problem, the suddenly accelerated plate, and for Stokes's Second Problem, the oscillating plate, both for Newtonian fluids. Non-Newtonian fluids are modeled in SamSolver with the power-law model according to Ostwald de Waele. The implementation for non-Newtonian fluids is verified for the Hagen-Poiseuille channel flow in conjunction with a convergence analysis of the method. At the same time, the local grid refinement as it is implemented in SamSolver, is verified. Finally, the verification of higher order boundary conditions is done for the 3D Hagen-Poiseuille pipe flow for both Newtonian and non-Newtonian fluids.
In Chapter 5, the theory of the viscosity adaption method is introduced. For the adaption process, a target collision frequency or target simulation Mach number must be chosen and the distributions must be rescaled according to the modified time step size. A convenient choice is one of the stability bounds. The time step size for the adaption step is deduced from the target collision frequency \(\Omega_t\) and the currently minimal or maximal shear rate in the system, while obeying auxiliary conditions for the simulation Mach number. The adaption is done in the collision step of the Lattice Boltzmann algorithm. We use the transformation matrices of the MRT model to map from distribution space to moment space and vice versa. The actual scaling of the distributions is conducted on the back mapping, because we use the transformation matrix on the basis of the new adaption time step size. It follows an additional rescaling of the non-equilibrium part of the distributions, because of the form of the definition for the discrete stress tensor in the LBM context. For that reason it is clear, that the VAM is applicable for the SRT model as well as the MRT model, where there is virtually no extra cost in the latter case. Also, in Chapter 5, the multi level treatment will be discussed.
Depending on the target collision frequency and the target Mach number, the VAM can be used to optimally use the viscosity range that can be modeled within the stability bounds or it can be used to drastically accelerate the simulation. This is shown in Chapter 6. The viscosity adaptive LBM is verified in the stationary case for the Hagen-Poiseuille channel flow and in the transient case for the Wormersley flow, i.e., the pulsatile 3D Hagen-Poiseuille pipe flow. Although, the VAM is used here for fluids that can be modeled with the power-law approach, the implementation of the VALBM is straightforward for other non-Newtonian models, e.g., the Carreau-Yasuda or Cross model. In the same chapter, the VALBM is validated for the case of a propeller viscosimeter developed at the chair SAM. To this end, the experimental data of the torque on the impeller of three shear thinning non-Newtonian liquids serve for the validation. The VALBM shows excellent agreement with experimental data for all of the investigated fluids and in every operating point. For reasons of comparison, a series of standard LBM simulations is carried out with different simulation Mach numbers, which partly show errors of several hundred percent. Moreover, in Chapter 7, a sensitivity analysis on the parameters used within the VAM is conducted for the simulation of the propeller viscosimeter.
Finally, the accuracy of non-Newtonian Lattice Boltzmann simulations with the SRT and the MRT model is analyzed in detail. Previous work for Newtonian fluids indicate that depending on the numerical value of the collision frequency \(\Omega\), additional artificial viscosity is introduced due to the finite difference scheme, which negatively influences the accuracy. For the non-Newtonian case, an error estimate in the form of a functional is derived on the basis of a series expansion of the Lattice Boltzmann equation. This functional can be solved analytically for the case of the Hagen-Poiseuille channel flow of non-Newtonian fluids. The estimation of the error minimum is excellent in regions where the \(\Omega\) error is the dominant source of error as opposed to the compressibility error.
Result of this dissertation is a verified and validated software bundle on the basis of the viscosity adaptive Lattice Boltzmann Method. The work restricts itself on the simulation of isothermal, laminar flows with small Mach numbers. As further research goals, the testing of the VALBM with minimal error estimate and the investigation of the VALBM in the case of turbulent flows is suggested.
It is well known that the structure at a microscopic point of view strongly influences the
macroscopic properties of materials. Moreover, the advancement in imaging technologies allows
to capture the complexity of the structures at always decreasing scales. Therefore, more
sophisticated image analysis techniques are needed.
This thesis provides tools to geometrically characterize different types of three-dimensional
structures with applications to industrial production and to materials science. Our goal is to
enhance methods that allow the extraction of geometric features from images and the automatic
processing of the information.
In particular, we investigate which characteristics are sufficient and necessary to infer
the desired information, such as particles classification for technical cleanliness and
fitting of stochastic models in materials science.
In the production line of automotive industry, dirt particles collect on the surface of mechanical
components. Residual dirt might reduce the performance and durability of assembled products.
Geometric characterization of these particles allows to identify their potential danger.
While the current standards are based on 2d microscopic images, we extend the characterization
to 3d.
In particular, we provide a collection of parameters that exhaustively describe size and shape
of three-dimensional objects and can be efficiently estimated from binary images. Furthermore,
we show that only a few features are sufficient to classify particles according to the standards
of technical cleanliness.
In the context of materials science, we consider two types of microstructures: fiber systems
and foams.
Stochastic geometry grants the fundamentals for versatile models able to encompass the
geometry observed in the samples. To allow automatic model fitting, we need rules stating which
parameters of the model yield the best-fitting characteristics. However, the validity of such
rules strongly depends on the properties of the structures and on the choice of the model.
For instance, isotropic orientation distribution yields the best theoretical results for Boolean
models and Poisson processes of cylinders with circular cross sections. Nevertheless, fiber
systems in composites are often anisotropic.
Starting from analytical results from the literature, we derive formulae for anisotropic
Poisson processes of cylinders with polygonal cross sections that can be directly used in
applications. We apply this procedure to a sample of medium density fiber board. Even
if image resolution does not allow to estimate reliably characteristics of the singles fibers,
we can fit Boolean models and Poisson cylinder processes. In particular, we show the complete
model fitting and validation procedure with cylinders with circular and squared cross sections.
Different problems arise when modeling cellular materials. Motivated by the physics of foams,
random Laguerre tessellations are a good choice to model the pore system of foams.
Considering tessellations generated by systems of non-overlapping spheres allows to control the
cell size distribution, but yields the loss of an analytical description of the model.
Nevertheless, automatic model fitting can still be obtained by approximating the characteristics
of the tessellation depending on the parameters of the model. We investigate how to improve
the choice of the model parameters. Angles between facets and between edges were never considered
so far. We show that the distributions of angles in Laguerre tessellations
depend on the model parameters. Thus, including the moments of the angles still allows automatic
model fitting. Moreover, we propose an algorithm to estimate angles from images of real foams.
We observe that angles are matched well in random Laguerre tessellations also when they are not
employed to choose the model parameters. Then, we concentrate on the edge length distribution. In
Laguerre tessellations occur many more short edges than in real foams. To deal with this problem,
we consider relaxed models. Relaxation refers to topological and structural modifications
of a tessellation in order to make it comply with Plateau's laws of mechanical equilibrium. We inspect
samples of different types of foams, closed and open cell foams, polymeric and metallic. By comparing
the geometric characteristics of the model and of the relaxed tessellations, we conclude that whether
the relaxation improves the edge length distribution strongly depends on the type of foam.
Verkehrsverbünde in Deutschland haben heute eine hohe Relevanz für die Gestaltung des ÖPNV. Aktuell bestehen bundesweit 58 Verbünde, die ca. 70% des Bundesgebietes abde-cken. Die Bandbreite der Verbünde ist dabei groß und reicht vom Landkreisverbund bis hin zur Abdeckung ganzer Bundesländer. Durch die Heterogenität der Verbundlandschaft ist festzuhalten, dass es DEN Verbundprototyp nicht gibt. Das Erfolgsmodell „Verkehrsver-bund“ hat jedoch auch negative Aspekte. Verbünde sind keine Instrumente zur Defizitbeseitigung. Die regelmäßig auszugleichenden Defizite werden durch die verschiedenen Institutionen der öffentlichen Hand getragen. Obwohl den Verbünden aus dem evidenten Umstand einer Mangelverwaltung ein Effizienzauftrag praktisch mit in die Wiege gelegt wird, ist bisher in der Verbundpraxis kein einheitliches Instrument vorzufinden, das das Handeln der Verbünde systematisch erfasst, eine Bewertung ermöglicht und ggf. einen Vergleich mit anderen Verbünden vornimmt.
Ziel der Arbeit ist es daher, ein Instrument zur Erfassung, Bewertung und zum Vergleich der Arbeit von Verkehrsverbundorganisationen aufzustellen. Dazu lassen sich verschiedene Forschungsfragen formulieren:
1. Welches sind die Ziele und Aufgaben von Verbünden?
2. Wie können Ziele und Aufgaben von Verbünden erfasst und bewertet werden?
3. Wie ist ein Instrument zur einheitlichen Erfassung und Bewertung der Arbeit von Ver-kehrsverbundorganisationen auszugestalten?
4. Wie können Verkehrsverbünde verglichen werden?
5. Ist eine Verbundbewertung und ein Verbundvergleich in der Praxis anwendbar?
Hinsichtlich der Ziele und Aufgaben von Verbundorganisationen zeigen die Untersuchungsergebnisse, dass in der Praxis keine klare Verwendung der Begriffe Oberziele, Ziele und Aufgaben erfolgt. Oberziele liegen oft weit außerhalb des Wirkungsbereichs von Verkehrsverbünden und können somit nicht von diesen beeinflusst werden. Der Züricher Verkehrsverbund (ZVV) hat daher den Begriff der „lenkbaren Größe“ eingeführt, der auch im Rahmen dieser Arbeit Verwendung findet.
Die weiteren Untersuchungen zeigen, dass sich eine Bewertung nicht nur auf betriebswirt-schaftliche Kennzahlen stützen kann, da der jeweilige Handlungsauftrag einer Verkehrsver-bundorganisation, entgegen dem eines Wirtschaftsunternehmens, nicht nur an marktwirt-schaftlich orientierten Erfolgs- und Effizienzkriterien ausgerichtet ist, sondern auch nicht gewinnorientierte Aufgaben der öffentlichen Hand wie z.B. die Daseinsvorsorge einschließt.
In einem folgenden Arbeitsschritt werden die Erkenntnisse aus den Voruntersuchungen im Rahmen der Aufstellung eines speziellen Instruments zur Erfassung und Bewertung der Verbundarbeit zusammengeführt. Dazu werden vier Kernthemen und vier erweiterte Themen der Verbundarbeit definiert, denen dann einzelne Aufgaben zugeordnet werden. Zu diesen Aufgaben werden Indikatoren und Messgrößen bestimmt.
Ein komplexes und anspruchsvolles Bewertungsinstrument benötigt eine systematische Einführung und Anwendung. Eine wesentliche Unterstützung ist dabei eine Institutionalisierung. Die Untersuchung der verschiedenen Möglichkeiten einer Institutionalisierung für das hier entwickelte Bewertungsinstrument lassen den Verband Deutscher Verkehrsunternehmen (VDV) als Branchenverband oder eine unabhängige, als Verein organisierte Institution in Frage kommen.
Als erste Anwendungsstufe ist der entwickelte Bewertungsansatz als internes Controlling-Instrument einzusetzen. Damit kann eine Verkehrsverbundorganisation ihre internen Aufgaben und Prozesse erfassen und den Soll-Ist-Abgleich als Steuerungsinstrument für die Verbundarbeit verwenden. In einer zweiten Stufe ist über den einzelnen Verbund hinaus ein Benchmarking mit anderen Verbünden möglich. Hierbei sollte jedoch ein Vergleich innerhalb einer geeigneten (homogenen) Vergleichsgruppe stattfinden.
Im Rahmen der vorliegenden Arbeit wird eine Systematik zur Einteilung von Verkehrsver-bünden entwickelt, um so geeignete homogene Vergleichsgruppen bilden zu können. Dazu werden die vier Merkmale Fläche, Einwohnerzahl, Anzahl der Verkehrsunternehmen und Anzahl der Aufgabenträger sowie die Organisationsform der Verbünde für eine Einteilung herangezogen. So lassen sich alle Verbünde in eine von neun gebildeten Eigenschaftsgruppen einteilen. Für die vorliegende Untersuchung werden aus den stärksten Gruppen typische Vertreter für eine weitere Untersuchung auswählt.
Nach einer Rückkopplung mit ausgewählten Verbünden zeigte sich, dass die grundsätzliche Systematik des Bewertungsinstruments von allen Verbünden bestätigt wurde. Hinsichtlich der Anwendung als Controlling-Instrument haben die großen Verbünde oft eigene Systematiken aufgebaut, die nur schwer einem neuen hier entwickelten Instrument angepasst werden können. Bei kleinen Verbünden sind i.d.R. keine internen Bewertungsinstrumente im Einsatz, so dass die Voraussetzungen für eine Anwendung hier eher gegeben sind. Aufgrund ihrer oft sehr geringen (personellen) Ressourcen sehen sie sich jedoch mit der Einführung und Anwendung überfordert. Daher kommt einer unterstützenden Institutionalisierung für den zukünftigen Einsatz eine große Bedeutung zu. Im Rahmen der Arbeit wurden dazu Ansätze untersucht und Lösungen aufgezeigt.
An der zweiten Anwendungsstufe in Form eines Benchmarking haben alle befragten Verbünde großes Interesse. Die großen Verbünde sehen hier weniger einen vollumfänglichen Vergleich, sondern eher ausgewählte punktuelle Vergleiche zu speziellen Themen - auch vor dem Hintergrund, dass es nach Einschätzung der Verbünde keine richtigen Vergleichsgruppen in ihrer Größenklasse gibt. Die kleinen Verbünde haben sowohl Interesse an einem vergleichenden Einsatz als auch an der Methodik zur Bildung von (homogenen) Vergleichsgruppen. Insgesamt empfiehlt sich eine intensivere Auseinandersetzung der Verbünde mit der Anwendung eines Bewertungsinstruments, da die Grundlagen eines internen und eines externen Vergleichs dicht zusammen liegen - eine interne Verwendung stellt eine wesentliche Vorstufe für einen externen Vergleich dar. Auch hier kann eine Institutionalisierung diese anstehende Auseinandersetzung positiv unterstützen.
Die Arbeit zeigt, dass für die unterschiedlichen Verbundtypen ein flexibles Bewertungs-instrumentarium, sowohl inhaltlich als auch hinsichtlich der Anwendung, benötigt wird. Die mit dieser Arbeit entwickelten Grundlagen und Instrumente zur Erfassung, Bewertung und Einteilung von Verkehrsverbünden können dies leisten und sollten eine weitere praktische Anwendung erfahren.
Vorgestellt wird ein Verfahren zur Bestimmung der Erdschlussentfernung in hochohmig geerdeten
Netzen. Nach Abklingen der transienten Vorgänge im Fehlerfall stellt sich ein stationärer
Zustand ein, in dem das Netz zunächst weiter betrieben werden kann.
Ausgehend von diesem stationären Fehlerfall wird auf der Basis eines Π-Glieds das Leitungsmodell
des einseitig gespeisten Stichabgangs mit einer Last in der Vier-Leiter-Darstellung
entwickelt. Die Schaltungsanalyse erfolgt mit Hilfe komplexer Rechnung und der Kirchhoffschen
Gesetze. Grundlage der Betrachtungen bildet das Netz mit isoliertem Sternpunkt.
Das entstehende Gleichungssystem ist in seiner Grundform nichtlinear, lässt sich jedoch auf eine
elementar lösbare kubische Gleichung im gesuchten Fehlerentfernungsparameter zurückführen.
Eine weitere Lösungsmöglichkeit bietet das Newton-Raphson-Verfahren.
Durch Verlegen der lastseitigen Leiter-Erd-Kapazitäten an den Abgangsanfang kann das vollständige,
nichtlineare System in ein lineares System überführt werden. Hierbei sind die beiden
Ausprägungen „direkte Lösung mit unsymmetrischer Last“ oder „Ausgleichsrechnung mit
symmetrischer Last“ möglich.
Eine MATLAB®-Implementierung dieser vier Rechenalgorithmen bildet die Basis der weiteren
Analysen.
Alle messtechnischen Untersuchungen erfolgten am Netz-Kraftwerksmodell der TU Kaiserslautern.
Hier wurden verschiedene Fehlerszenarien hinsichtlich Fehlerentfernung, -widerstand und
Größe des gesunden Restnetzes hergestellt, in 480 Einzelmessungen erfasst und mit den Algorithmen
ausgewertet. Dabei wurden auch Messungen an fehlerfreien Abgängen erhoben, um das
Detektionsvermögen der Algorithmen zu testen.
Neben Grundschwingungsbetrachtungen ist die Auswertung aller Datensätze mit der 5. und der
7. Harmonischen ein zentrales Thema. Im Fokus steht die Verwendbarkeit dieser Oberschwingungen
zur Erdschlussentfernungsmessung bzw. -detektion mit den o.g. Algorithmen.
Besondere Bedeutung kommt der Fragestellung zu, inwieweit die für ein Netz mit isoliertem
Sternpunkt konzipierten Algorithmen unter Benutzung der höheren Harmonischen zur Erdschlussentfernungsmessung
in einem gelöschten Netz geeignet sind.
Schließlich wird das Verfahren auf Abgänge mit inhomogenem Leitermaterial erweitert, da auch
diese Konstellation von praktischer Bedeutung ist.
This thesis is concerned with stochastic control problems under transaction costs. In particular, we consider a generalized menu cost problem with partially controlled regime switching, general multidimensional running cost problems and the maximization of long-term growth rates in incomplete markets. The first two problems are considered under a general cost structure that includes a fixed cost component, whereas the latter is analyzed under proportional and Morton-Pliska
transaction costs.
For the menu cost problem and the running cost problem we provide an equivalent characterization of the value function by means of a generalized version of the Ito-Dynkin formula instead of the more restrictive, traditional approach via the use of quasi-variational inequalities (QVIs). Based on the finite element method and weak solutions of QVIs in suitable Sobolev spaces, the value function is constructed iteratively. In addition to the analytical results, we study a novel application of the menu cost problem in management science. We consider a company that aims to implement an optimal investment and marketing strategy and must decide when to issue a new version of a product and when and how much
to invest into marketing.
For the long-term growth rate problem we provide a rigorous asymptotic analysis under both proportional and Morton-Pliska transaction costs in a general incomplete market that includes, for instance, the Heston stochastic volatility model and the Kim-Omberg stochastic excess return model as special cases. By means of a dynamic programming approach leading-order optimal strategies are constructed
and the leading-order coefficients in the expansions of the long-term growth rates are determined. Moreover, we analyze the asymptotic performance of Morton-Pliska strategies in settings with proportional transaction costs. Finally, pathwise optimality of the constructed strategies is established.
Sequential Consistency (SC) is the memory model traditionally applied by programmers and verification tools for the analysis of multithreaded programs.
SC guarantees that instructions of each thread are executed atomically and in program order.
Modern CPUs implement memory models that relax the SC guarantees: threads can execute instructions out of order, stores to the memory can be observed by different threads in different order.
As a result of these relaxations, multithreaded programs can show unexpected, potentially undesired behaviors, when run on real hardware.
The robustness problem asks if a program has the same behaviors under SC and under a relaxed memory model.
Behaviors are formalized in terms of happens-before relations — dataflow and control-flow relations between executed instructions.
Programs that are robust against a memory model produce the same results under this memory model and under SC.
This means, they only need to be verified under SC, and the verification results will carry over to the relaxed setting.
Interestingly, robustness is a suitable correctness criterion not only for multithreaded programs, but also for parallel programs running on computer clusters.
Parallel programs written in Partitioned Global Address Space (PGAS) programming model, when executed on cluster, consist of multiple processes, each running on its cluster node.
These processes can directly access memories of each other over the network, without the need of explicit synchronization.
Reorderings and delays introduced on the network level, just as the reorderings done by the CPUs, may result into unexpected behaviors that are hard to reproduce and fix.
Our first contribution is a generic approach for solving robustness against relaxed memory models.
The approach involves two steps: combinatorial analysis, followed by an algorithmic development.
The aim of combinatorial analysis is to show that among program computations violating robustness there is always a computation in a certain normal form, where reorderings are applied in a restricted way.
In the algorithmic development we work out a decision procedure for checking whether a program has violating normal-form computations.
Our second contribution is an application of the generic approach to widely implemented memory models, including Total Store Order used in Intel x86 and Sun SPARC architectures, the memory model of Power architecture, and the PGAS memory model.
We reduce robustness against TSO to SC state reachability for a modified input program.
Robustness against Power and PGAS is reduced to language emptiness for a novel class of automata — multiheaded automata.
The reductions lead to new decidability results.
In particular, robustness is PSPACE-complete for all the considered memory models.
This work aims at including nonlinear elastic shell models in a multibody framework. We focus our attention to Kirchhoff-Love shells and explore the benefits of an isogeometric approach, the latest development in finite element methods, within a multibody system. Isogeometric analysis extends isoparametric finite elements to more general functions such as B-Splines and Non-Uniform Rational B-Splines (NURBS) and works on exact geometry representations even at the coarsest level of discretizations. Using NURBS as basis functions, high regularity requirements of the shell model, which are difficult to achieve with standard finite elements, are easily fulfilled. A particular advantage is the promise of simplifying the mesh generation step, and mesh refinement is easily performed by eliminating the need for communication with the geometry representation in a Computer-Aided Design (CAD) tool.
Quite often the domain consists of several patches where each patch is parametrized by means of NURBS, and these patches are then glued together by means of continuity conditions. Although the techniques known from domain decomposition can be carried over to this situation, the analysis of shell structures is substantially more involved as additional angle preservation constraints between the patches might arise. In this work, we address this issue in the stationary and transient case and make use of the analogy to constrained mechanical systems with joints and springs as interconnection elements. Starting point of our work is the bending strip method which is a penalty approach that adds extra stiffness to the interface between adjacent patches and which is found to lead to a so-called stiff mechanical system that might suffer from ill-conditioning and severe stepsize restrictions during time integration. As a remedy, an alternative formulation is developed that improves the condition number of the system and removes the penalty parameter dependence. Moreover, we study another alternative formulation with continuity constraints applied to triples of control points at the interface. The approach presented here to tackle stiff systems is quite general and can be applied to all penalty problems fulfilling some regularity requirements.
The numerical examples demonstrate an impressive convergence behavior of the isogeometric approach even for a coarse mesh, while offering substantial savings with respect to the number of degrees of freedom. We show a comparison between the different multipatch approaches and observe that the alternative formulations are well conditioned, independent of any penalty parameter and give the correct results. We also present a technique to couple the isogeometric shells with multibody systems using a pointwise interaction.