Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich ARUBI (1)
We propose and study a strongly coupled PDE-ODE system with tissue-dependent degenerate diffusion and haptotaxis that can serve as a model prototype for cancer cell invasion through the
extracellular matrix. We prove the global existence of weak solutions and illustrate the model behaviour by numerical simulations for a two-dimensional setting.
On the Extended Finite Element Method for the Elasto-Plastic Deformation of Heterogeneous Materials
(2015)
This thesis is concerned with the extended finite element method (XFEM) for deformation analysis of three-dimensional heterogeneous materials. Using the "enhanced abs enrichment" the XFEM is able to reproduce kinks in the displacements and therewith jumps in the strains within elements of the underlying tetrahedral finite element mesh. A complex model for the micro structure reconstruction of aluminum matrix composite AMC225xe and the modeling of its macroscopic thermo-mechanical plastic deformation behavior is presented, using the XFEM. Additionally, a novel stabilization algorithm is introduced for the XFEM. This algorithm requires preprocessing only.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
It is well known that the structure at a microscopic point of view strongly influences the
macroscopic properties of materials. Moreover, the advancement in imaging technologies allows
to capture the complexity of the structures at always decreasing scales. Therefore, more
sophisticated image analysis techniques are needed.
This thesis provides tools to geometrically characterize different types of three-dimensional
structures with applications to industrial production and to materials science. Our goal is to
enhance methods that allow the extraction of geometric features from images and the automatic
processing of the information.
In particular, we investigate which characteristics are sufficient and necessary to infer
the desired information, such as particles classification for technical cleanliness and
fitting of stochastic models in materials science.
In the production line of automotive industry, dirt particles collect on the surface of mechanical
components. Residual dirt might reduce the performance and durability of assembled products.
Geometric characterization of these particles allows to identify their potential danger.
While the current standards are based on 2d microscopic images, we extend the characterization
to 3d.
In particular, we provide a collection of parameters that exhaustively describe size and shape
of three-dimensional objects and can be efficiently estimated from binary images. Furthermore,
we show that only a few features are sufficient to classify particles according to the standards
of technical cleanliness.
In the context of materials science, we consider two types of microstructures: fiber systems
and foams.
Stochastic geometry grants the fundamentals for versatile models able to encompass the
geometry observed in the samples. To allow automatic model fitting, we need rules stating which
parameters of the model yield the best-fitting characteristics. However, the validity of such
rules strongly depends on the properties of the structures and on the choice of the model.
For instance, isotropic orientation distribution yields the best theoretical results for Boolean
models and Poisson processes of cylinders with circular cross sections. Nevertheless, fiber
systems in composites are often anisotropic.
Starting from analytical results from the literature, we derive formulae for anisotropic
Poisson processes of cylinders with polygonal cross sections that can be directly used in
applications. We apply this procedure to a sample of medium density fiber board. Even
if image resolution does not allow to estimate reliably characteristics of the singles fibers,
we can fit Boolean models and Poisson cylinder processes. In particular, we show the complete
model fitting and validation procedure with cylinders with circular and squared cross sections.
Different problems arise when modeling cellular materials. Motivated by the physics of foams,
random Laguerre tessellations are a good choice to model the pore system of foams.
Considering tessellations generated by systems of non-overlapping spheres allows to control the
cell size distribution, but yields the loss of an analytical description of the model.
Nevertheless, automatic model fitting can still be obtained by approximating the characteristics
of the tessellation depending on the parameters of the model. We investigate how to improve
the choice of the model parameters. Angles between facets and between edges were never considered
so far. We show that the distributions of angles in Laguerre tessellations
depend on the model parameters. Thus, including the moments of the angles still allows automatic
model fitting. Moreover, we propose an algorithm to estimate angles from images of real foams.
We observe that angles are matched well in random Laguerre tessellations also when they are not
employed to choose the model parameters. Then, we concentrate on the edge length distribution. In
Laguerre tessellations occur many more short edges than in real foams. To deal with this problem,
we consider relaxed models. Relaxation refers to topological and structural modifications
of a tessellation in order to make it comply with Plateau's laws of mechanical equilibrium. We inspect
samples of different types of foams, closed and open cell foams, polymeric and metallic. By comparing
the geometric characteristics of the model and of the relaxed tessellations, we conclude that whether
the relaxation improves the edge length distribution strongly depends on the type of foam.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
Spin and orbital magnetic moments of isolated single molecule magnets and transition metal clusters
(2015)
In the present work, magnetic moments of isolated Single Molecule Magnets (SMMs) and transition
metal clusters were investigated. Gas phase X‐ray Magnetic Circular Dichroism (XMCD) in
combination with sum rule analysis served to separate the total magnetic moments of the
investigated species into their spin and orbital contributions. Two different mass spectrometry based
setups were used for the presented investigations on transition metal clusters (GAMBIT‐setup) and
on single molecule magnets (NanoClusterTrap). Both experiments were coupled to the UE52‐PGM
beamline at the BESSY II synchrotron facility (Helmholtz Zentrum Berlin) which provided the
necessary polarized X‐ray photons. The investigation of the given compounds as isolated molecules
in the gas phase enabled a determination of their intrinsic magnetic properties void of any influences
of e.g. a surrounding bulk or supporting surface
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
In embedded systems, there is a trend of integrating several different functionalities on a common platform. This has been enabled by increasing processing power and the arise of integrated system-on-chips.
The composition of safety-critical and non-safety-critical applications results in mixed-criticality systems. Certification Authorities (CAs) demand the certification of safety-critical applications with strong confidence in the execution time bounds. As a consequence, CAs use conservative assumptions in the worst-case execution time (WCET) analysis which result in more pessimistic WCETs than the ones used by designers. The existence of certified safety-critical and non-safety-critical applications can be represented by dual-criticality systems, i.e., systems with two criticality levels.
In this thesis, we focus on the scheduling of mixed-criticality systems which are subject to certification. Scheduling policies cognizant of the mixed-criticality nature of the systems and the certification requirements are needed for efficient and effective scheduling. Furthermore, we aim at reducing the certification costs to allow faster modification and upgrading, and less error-prone certification. Besides certification aspects, requirements of different operational modes result in challenging problems for the scheduling process. Despite the mentioned problems, schedulers require a low runtime overhead for an efficient execution at runtime.
The presented solutions are centered around time-triggered systems which feature a low runtime overhead. We present a transformation to include event-triggered activities, represented by sporadic tasks, already into the offline scheduling process. Further, this transformation can also be applied on periodic tasks to shorten the length of schedule tables which reduces certification costs. These results can be used in our method to construct schedule tables which creates two schedule tables to fulfill the requirements of dual-criticality systems using mode changes at runtime. Finally, we present a scheduler based on the slot-shifting algorithm for mixed-criticality systems. In a first version, the method schedules dual-criticality jobs without the need for mode changes. An already certified schedule table can be used and at runtime, the scheduler reacts to the actual behavior of the jobs and thus, makes effective use of the available resources. Next, we extend this method to schedule mixed-criticality job sets with different operational modes. As a result, we can schedule jobs with varying parameters in different modes.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
In this dissertation, we discuss how to price American-style options. Our aim is to study and improve the regression-based Monte Carlo methods. In order to have good benchmarks to compare with them, we also study the tree methods.
In the second chapter, we investigate the tree methods specifically. We do research firstly within the Black-Scholes model and then within the Heston model. In the Black-Scholes model, based on Müller's work, we illustrate how to price one dimensional and multidimensional American options, American Asian options, American lookback options, American barrier options and so on. In the Heston model, based on Sayer's research, we implement his algorithm to price one dimensional American options. In this way, we have good benchmarks of various American-style options and put them all in the appendix.
In the third chapter, we focus on the regression-based Monte Carlo methods theoretically and numerically. Firstly, we introduce two variations, the so called "Tsitsiklis-Roy method" and the "Longstaff-Schwartz method". Secondly, we illustrate the approximation of American option by its Bermudan counterpart. Thirdly we explain the source of low bias and high bias. Fourthly we compare these two methods using in-the-money paths and all paths. Fifthly, we examine the effect using different number and form of basis functions. Finally, we study the Andersen-Broadie method and present the lower and upper bounds.
In the fourth chapter, we study two machine learning techniques to improve the regression part of the Monte Carlo methods: Gaussian kernel method and kernel-based support vector machine. In order to choose a proper smooth parameter, we compare fixed bandwidth, global optimum and suboptimum from a finite set. We also point out that scaling the training data to [0,1] can avoid numerical difficulty. When out-of-sample paths of stock prices are simulated, the kernel method is robust and even performs better in several cases than the Tsitsiklis-Roy method and the Longstaff-Schwartz method. The support vector machine can keep on improving the kernel method and needs less representations of old stock prices during prediction of option continuation value for a new stock price.
In the fifth chapter, we switch to the hardware (FGPA) implementation of the Longstaff-Schwartz method and propose novel reversion formulas for the stock price and volatility within the Black-Scholes and Heston models. The test for this formula within the Black-Scholes model shows that the storage of data is reduced and also the corresponding energy consumption.
In seiner Entwicklungsgeschichte hat der stationäre Einzelhandel eine enorme Wandlungsfähigkeit bewiesen. Dieser hat er es zu verdanken, dass er bis heute eine zentrale Funktion der Innenstadt darstellt. Allerdings wird die Stabilität der innerstädtischen Einzelhandelslagen seit einigen Jahren zunehmend auf die Probe gestellt. Mit dem Online-Handel als sich etablierenden neuen Absatzkanal mit wachsenden Umsatz- und Nutzerzahlen, bekommen die innerstädtischen Einzelhandelslagen einerseits deutliche Konkurrenz. So eignet sich das innerstädtische Sortiment besonders gut für den Online-Vertrieb. Umsatzeinbußen in den lokalen Geschäften, Geschäftsaufgaben, Ladenverkleinerungen, Leerstände sowie eine Abwertung der innerstädtischen Einzelhandelslagen sind die Folgen. Andererseits stellen der Online-Handel sowie einkaufsunterstützende digitale Medien eine Chance dar, die innerstädtischen Einzelhandelslagen für das digitale Zeitalter zu qualifizieren und hiermit zukunftsfähig zu halten. Zentrale Bedeutung kommt in diesem Zusammenhang den Konsumenten zu. Die innerstädtischen Einzelhandelslagen müssen an die, u.a. aus den Einfluss digitaler Medien im Allgemeinen und dem Online-Handel im Besonderen, resultierenden veränderten Bedürfnisse und Anforderungen der Konsumenten angepasst werden, wenn sie keinen Attraktivitätsverlust erleiden sollen. Eine schwierige Aufgabe, zeichnet sich doch das Kauf- und Konsumverhalten der ‚Neuen Konsumenten‘ durch Hybridität bzw. Multioptionalität aus. Diese macht ständige Neuausrichtungen und Anpassungen der Einzelhandelsbetriebe und Unternehmen erforderlich, welche durch die gestiegene Informiertheit, die höhere Anspruchshaltung, die Sprunghaftigkeit und Spontanität der Konsumenten sowie ihre abnehmende Loyalität mit den Anbietern erschwert werden.
Insgesamt ist davon auszugehen, dass zukünftig – abhängig von ihrer Lokalisierung in räumlich und strukturell begünstigten oder benachteiligten Städten – unterschiedliche Herausforderungen auf die innerstädtischen Einzelhandelslagen zukommen werden. Unter benachteiligte Städte werden strukturschwache Kommunen mit negativer Bevölkerungsentwicklung, geringer Zentralität und geringer wirtschaftlicher Anziehungskraft für das Umland gefasst, während sich begünstigte Städte durch wirtschaftliche Prosperität, Zentralität und Bevölkerungswachstum auszeichnen. Während innerstädtische Einzelhandelslagen in benachteiligten Städten vor allem negative Folgen zu erwarten haben und folglich akuter Handlungsbedarf besteht, können innerstädtische Einzelhandelslagen in räumlich-strukturell begünstigten Städten i.d.R. von der Digitalisierung und dem veränderten Kauf- und Konsumverhalten der Konsumenten profitieren. Zentrale Bedeutung kommt in diesem Zusammenhang den charakteristischen Merkmalen einer Innenstadt zu. Sie zeichnet sich im Idealfall durch Zentralität, Bedeutungsüberschuss, Dichte und Nutzungsmischung, eine hohe Besucherfrequenz sowie einen hohen Identifikationsgrad bzw. Authentizität aus. Diese Standortvorteile verhelfen innerstädtischen Einzelhandelslagen in begünstigten Städten zu einem Alleinstellungsmerkmal gegenüber konkurrierenden lokalen Einzelhandelsstandorten sowie gegenüber dem Online-Handel. So gewinnen Atmosphäre und zentrales Erleben bei Konsumenten, die das Internet nutzen, an Bedeutung. Qualitativ hochwertige innerstädtische Einzelhandelslagen erlangen somit eine neue Anziehungskraft.
Handlungsbedarf besteht folglich vor allem in den räumlich-strukturell benachteiligten Städten. Aber auch die begünstigen Städte brauchen Unterstützung, um die innerstädtischen Einzelhandelslagen den Bedürfnissen der Konsumenten nach Erlebnis, Bequemlichkeit, Individualität, Flexibilität, Schnelligkeit etc. entsprechend zu gestalten sowie die Voraussetzungen für den Einsatz einkaufsunterstützender digitaler Medien zu schaffen.
Als Modellansatz sind drei Strategieansätze im Rahmen eines integrierten Gesamtkonzepts umzusetzen:
1. Befähigende Ansätze: Hierzu zählt einerseits die Schaffung der technischen Rahmenbedingungen hinsichtlich Verfügbarkeit und Leistungsfähigkeit, funktioneller Zuverlässigkeit, Sicherheit und Nutzerfreundlichkeit der technischen Infrastruktur und der digitalen Medien. Konkret sind der Ausbau flächendeckender Breitbandverbindungen und eines frei zugänglichen WLAN-Netzes in den Innenstädten sowie der Einsatz von elektronischer Authentisierung und biometrischen Verifikationssystemen anzuraten. Andererseits gilt es, die Medienkompetenz der Einzelhändler und der Konsumenten für den Umgang und die Nutzung digitaler Medien zu schulen. Die Nutzerfreundlichkeit muss durch eine qualitätvolle HCI (Human Computer Interaction) sowie den Einsatz von Feature based visualization verbessert werden. Weiterhin ist die Nutzung von Multi-Channel-Retailing, der Verknüpfung des stationären Handels mit dem Online-Handel, zu unterstützen.
2. Steuernde Ansätze: Vor dem Hintergrund des engen finanziellen Gestaltungsspielraums der Mehrheit der Kommunen sollten die Städtebauförderprogramme und die Förderprogramme zur Breitbandförderung gezielt genutzt und weiterentwickelt werden. Weiterhin gilt es die Effektivität der Steuerung über die Stärkung gemeinschaftlichen Handelns zu verbessern. Es sind hierbei sowohl Kooperationen zwischen Kommunen, Handel und Eigentümern zu unterstützen als auch die Bevölkerung verstärkt in bedeutsame Umgestaltungsprozesse in der Innenstadt einzubinden.
3. Stärkende Ansätze: Unter dem Ansatz der Stärkung werden die Verbesserung der Aufenthaltsqualität sowie die Schaffung von Strukturen für eine zukunftsfähige Mobilität verstanden. Um die Aufenthaltsqualität und damit die Attraktivität der innerstädtischen Einzelhandelslagen zu erhöhen, muss frühzeitig ein angepasstes Leerstandsmanagement initiiert, Einkaufsbereiche konzentriert, eine attraktive Gestaltung und Möblierung unterstützt sowie die Innenstadt entsprechend ihrer besonderen Merkmale inszeniert werden. Eine zukunftsfähige Mobilität innerhalb der Innenstadt ist durch Maßnahmen zur Verbesserung der Erreichbarkeit der innerstädtischen Einzelhandelslagen sowie der Förderung zukunftsfähiger Mobilitätsformen zu unterstützen.
Insgesamt sollen besagte Strategieansätze dazu beitragen, die Voraussetzungen für die Digitalisierung des innerstädtischen Einzelhandels zu schaffen, die analysierten Restriktionen der Innenstadt abzumildern sowie die besonderen Potenziale der innerstädtischen Einzelhandelslagen im Sinne von Alleinstellungsmerkmalen hervorzuheben, um die innerstädtischen Einzelhan-delslagen für das digitale Zeitalter zu qualifizieren.
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
An efficient multiscale approach is established in order to compute the macroscopic response of nonlinear composites. The micro problem is rewritten in an integral form of the Lippmann-Schwinger type and solved efficiently by Fast Fourier Transforms. Using realistic microstructure models complex nonlinear effects are reproduced and validated with measured data of fiber reinforced plastics. The micro problem is integrated in a Finite Element framework which is used to solve the macroscale. The scale coupling technique and a consistent numerical algorithm is established. The method provides an efficient way to determine the macroscopic response considering arbitrary microstructures, constitutive behaviors and loading conditions.
To write about the history of a subject is a challenge that grows with the number of pages as the original goal of completeness is turning more and more into an impossibility. With this in mind, the present article takes a very narrow approach and uses personal side trips and memories on conferences,
workshops, and summer schools as the stage for some of the most important protagonists and their contributions to the field of Differential-Algebraic Equations (DAEs).
We present a numerical scheme to simulate a moving rigid body with arbitrary shape suspended in a rarefied gas micro flows, in view of applications to complex computations of moving structures in micro or vacuum systems. The rarefied gas is simulated by solving the Boltzmann equation using a DSMC particle method. The motion of the rigid body is governed by the Newton-Euler equations, where the force and the torque on the rigid body is computed from the momentum transfer of the gas molecules colliding with the body. The resulting motion of the rigid body affects in turn again the gas flow in the surroundings. This means that a two-way coupling has been modeled. We validate the scheme by performing various numerical experiments in 1-, 2- and 3-dimensional computational domains. We have presented 1-dimensional actuator problem, 2-dimensional cavity driven flow problem, Brownian diffusion of a spherical particle both with translational and rotational motions, and finally thermophoresis on a spherical particles. We compare the numerical results obtained from the numerical simulations with the existing theories in each test examples.
The work consists of two parts.
In the first part an optimization problem of structures of linear elastic material with contact modeled by Robin-type boundary conditions is considered. The structures model textile-like materials and possess certain quasiperiodicity properties. The homogenization method is used to represent the structures by homogeneous elastic bodies and is essential for formulations of the effective stress and Poisson's ratio optimization problems. At the micro-level, the classical one-dimensional Euler-Bernoulli beam model extended with jump conditions at contact interfaces is used. The stress optimization problem is of a PDE-constrained optimization type, and the adjoint approach is exploited. Several numerical results are provided.
In the second part a non-linear model for simulation of textiles is proposed. The yarns are modeled by hyperelastic law and have no bending stiffness. The friction is modeled by the Capstan equation. The model is formulated as a problem with the rate-independent dissipation, and the basic continuity and convexity properties are investigated. The part ends with numerical experiments and a comparison of the results to a real measurement.
The Event Segmentation Theory (Kurby & Zacks, 2008; Zacks, Speer, Swallow, Braver, & Reynolds, 2007) explains the perceptual organization of an ongoing activity into meaningful events. The classical event segmentation task (Newtson, 1973) involves watching an online video and indicating with key presses the event boundaries, i.e., when one event ends and the next one begins. The resulting hierarchical organization of object-based coarse events and action-based fine events gives insight into various cognitive processes. I used the Event Segmentation Theory to develop assistance and training systems for assembly workers in industrial settings at various levels - experts, new hires, and intellectually disabled people. Therefore, the first scientific question I asked was whether online and offline event segmentation result in the same event boundaries. This is important because assembly work requires not only watching activities online but processing the information offline, e.g., while performing the assembly task. By developing a special software tool that enables assessment of offline event boundaries, I established that online perception and offline elaboration lead to similar event boundaries. This study supports prior work suggesting that instructions should be structured around event boundaries.
Secondly, I investigated the importance of fine versus coarse event boundaries when learning the sequence of steps in virtual training, both for novices and experts in car door assembly. I found memory, tested by ability to predict the next frame, to be enhanced for object-based coarse events from the nearest fine event boundary. However, virtual training did not improve memory for action-based fine events from the nearest coarse event boundary. I conjecture that trainees primarily acquire the sequence of object-based coarse events in an initial training. Based on differences found in memory performance between experts and novices, I conclude that memory for action-based fine events is dependent on expertise.
Thirdly, I used the Event Segmentation Theory to investigate whether the simple and repetitive assembly tasks offered at workshops for intellectually disabled persons utilize their full cognitive potential. I analyzed event segmentation performance of 32 intellectually disabled persons compared to 30 controls using a variety of event segmentation measures. I found specific deficits in event boundary detection and hierarchical organization of events for the intellectually disabled group. However, results suggest that hierarchical organization is task-dependent. Because the event segmentation task accounted for differences in general cognitive ability, I propose the event segmentation task as diagnostic method for the need for support in executing assembly tasks.
Based on these three studies, I argue that the Event Segmentation Theory offers a framework for assessment and assistance of important attentional, perceptual, and memory processes related to assembly tasks. I demonstrate how practical applications can make use of this framework for the development of new computer-based assistance and training systems that are tailored to the users’ need for support and improve their quality of life.
Die vorliegende Arbeit behandelt das Thema der pneumatischen Abstandsmessung. Diese Technologie ist neben der taktilen und optischen Messtechnik eine der drei Ansätze, um Messaufgaben in der Fertigungsmesstechnik zu lösen. Der große Vorteil pneumatischer Sensoren ist ihr Selbstreinigungseffekt, wodurch in rauen Umgebungen sicher gemessen werden kann. Momentan fehlende Grundlagenkenntnisse führen jedoch zu einer ineffizienten Nutzung der Technik. Im Rahmen dieser Arbeit wurde neues Wissen erarbeitet, so dass eine optimierte Anwendung dieser Sensorklasse möglich ist. Für das laterale und dynamische Verhalten der Sensoren sind Modelle zur Vorhersage von Messergebnissen vorgestellt. Weiterhin finden sich ausführliche Auslegestrategien für systemkritische Bauteile in dieser Arbeit. Auf Basis der Grundlagenuntersuchungen sind die wichtigsten Einflussgrößen der Messunsicherheit erläutert. Zur effizienten Wissensübertragung ist abschließend eine moderne Software präsentiert, welche eine Auslegung pneumatischer Sensoren für eine gegebene Messaufgabe ermöglicht und so das gesamte Wissen der Arbeit für den Anwender in der Industrie zusammenfasst.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) greift die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern auf. Ein zentraler Aspekt im Projekt ist die Analyse von (neuen) Zielgruppen wissenschaftlicher Weiterbildungsangebote, um daraus Konsequenzen für die Angebotsentwicklung ziehen zu können. Die bisher praktizierte Verfahrensweise der Angebotsplanung und -entwicklung ist angebotsorientiert und bezieht sich vor allem auf die Antizipation potenzieller Teilnehmerinnen und Teilnehmer. Demgegenüber impliziert die evidenzbasierte Herangehensweise des Projektes E-hoch-B einen Ansatz, der eine Angebotsentwicklung nicht allein auf antizipierte und verallgemeinerte, sondern auf empirisch fundierte Erkenntnisse zu Bedarfen der Zielgruppen stützt. Das Arbeitspapier erarbeitet basierend auf den Planungsschritten bei Schlutz (2006) Kriterien, die Rückschlüsse für die Entwicklung von Studienangeboten zulassen sowie die Identifikation und Beschreibung (neuer) Zielgruppen ermöglichen.
In der vorliegenden Arbeit wurde die Reaktivität und Selektivität anellierter, verbrückter und tertiärer O-Radikale, in drei Teilprojekten, untersucht. Die zur Erzeugung primärer und sekundärer O-Radikale benötigten Thiohydroxamsäure-O-ester stammen aus Reaktionen von Cyclopentenyltosylaten mit 3-Hydroxy-4-methylthiazol-2(3H)-thion-Tetraethylammoniumsalz (Salz-Methode). Für tertiäre Thiohydroxamsäure-O-ester hat sich die Umsetzung tertiärer O-Alkylisoharnstoffe mit 3-Hydroxy-4-methylthiazol-2(3H)-thionen bewährt (Isoharnstoff-Methode). Die anschließende Freisetzung der O-Radikale, aus den O-Alkylthiohydroxamaten, erfolgte photochemisch oder thermisch unter pH-neutralen und nicht oxidativen Bedingungen in Gegenwart von Bromtrichlormethan. Relative Reaktivitäten der O-Radikale in Sauerstoff-Elementarreaktionen beruhen auf Abschätzungen mit Hilfe unimolekularer Vergleichsreaktionen (Radikaluhr Konzept). Beobachtete Selektivitäten und Stabilitäten wurden anhand theoretischer Analyseverfahren (Twist-Modell, Dichtefunktional-Rechnungen und Møller-Plesset-Störungsrechnung 2. Ordnung), in Kooperation mit Jens Hartung, interpretiert und quantifiziert. Die synthetisierten \({\beta}\)-bromierten, bicyclischen, tricyclischen sowie tertiären Tetrahydrofurane erweitern die bis dato auf primäre und sekundäre Monocyclen beschränkte Vielfalt der 5-Ring-Strukturen über Sauerstoff-Radikalreaktionen. Beispiele für Synthesen mittels intermolekularer O-Radikaladditionen liefern funktionalisierte Bromalkoxybicyclo[2.2.1]heptane und tert-Butoxybromalkane.
Durch Variation (1,2-Cyclopentyl und 1,2-Cyclohexyl) und Permutation (Kohlenstoff-Atome C1 und C2 / C2 und C3 / C3 und C4) der Anellierung, sowie durch verbrückte Reste (C2 und C5 / C3 und C5) am 4-Penten-1-oxyl-Gerüst gelang es, im ersten Teilprojekt, diastereomerenreine primäre und sekundäre O-Radikalvorläufer für eine systematische Untersuchung der Stereoselektivität in 5-exo-trig-Reaktionen zu synthetisieren. Umsetzungen der O-Radikalvorläufer zeigten Regelmäßigkeiten im Produktbild, die in Form von Richtlinien für zukünftige Syntheseplanungen zusammengefasst wurden: (I) Für sterisch und elektronisch vergleichbare Substituenten in direkter Nachbarschaft (zum Beispiel C1 und C2) ist der stereochemische Einfluss des Substituenten größer, der der Doppelbindung näher ist (hier Substituent an C2). Die relative Konfiguration der beiden anellierten Substituenten zueinander wirkt sich auf den Stereoselektivitätsgrad aus, wobei trans-anellierte 4-Penten-1-oxyl-Radikale stereoselektiver cyclisieren als cis-konfigurierte Isomere. Hauptprodukte der 1,2- und 2,3-cyclohexyl-anellierten 4-Penten-1-oxyl-Radikale sind 2,4-cis- und 2,3-trans-substituierte Tetrahydrofurane. (II) Ist die Flexibilität der Sauerstoffatom-tragenden Seitenkette konformell eingeschränkt, cyclisieren anellierte (C3 und C4) sowie verbrückte (C2 und C5 / C3 und C5) 4-Penten-1-oxyl-Radikale 2,3- und 2,4-cis-spezifisch an endo- und exo-cyclische \({\pi}\)-Bindungen. Theoretische Berechnungen diesbezüglich haben gezeigt, dass der 2,3-trans-Ringschluss des Modell-Radikals 1-(Cyclohexen-3-yl)-2-ethoxylradikal aufgrund sterischer Effekte eine deutlich höhere Barriere besitzt (89.5 kJ/mol) als der 2,3-cis-Ringschluss (35.4 kJ/mol).
Die Herstellung tertiärer 3-Alkyloxy- und 3-Cumyloxy-5-(4-methoxyphenyl)thiazol-2(3H)-thione und die Untersuchung der Reaktivitäten daraus erzeugter tertiärer O-Radikale in Elementarreaktionen waren Schwerpunkte des zweiten Themengebiets. Experimentell bestimmte relative Geschwindigkeitskonstanten für die \({\delta}\)-H-Abstraktion (\({k^{Subst} = 10^7-10^8 s^{-1}}\)), die 5-exo-trig-Cyclisierung (\({k^{5-exo} = 10^8-10^9 s^{-1}}\)) und die intermolekulare Addition (\({k^{Add} = 10^7 M^{-1}s^{-1}}\)) demonstrieren, dass tertiäre O-Radikale trotz größerer sterischer Hinderung eine ähnliche (Substitution) oder höhere Reaktivität (5-exo-Reaktion) als vergleichbare primäre und sekundäre Analoga aufweisen. Der 5-exo-Rinschluss des 2-Phenyl-5-hexen-2-oxyl-Radikals erfolgt 2,5-cis-selektiv. Intermolekulare Additionen der tert-Butoxyl-, Cumyloxyl- oder p-Chlorcumyloxyl-Radikale an Norbornen verlaufen exo-spezifisch. Dichtefunktional Berechnungen zufolge sind Torsionsspannungen im 2,5-trans-Übergangszustand der 5-exo-trig-Cyclisierung und im endo-Übergangszustand der intermolekularen Addition für die beobachtete Selektivität verantwortlich.
Im dritten Projekt wurden O-(tert-Butyl)thiohydroxamate aus O-(tert-Butyl)-N,N-diisopropylisoharnstoff und dem 3-Hydroxy-4-methylthiazol-2(3H)-thion sowie dem 3-Hydroxy-4-methyl-5-(4-nitrophenyl)thiazol-2(3H)-thion hergestellt. Die gleiche Reaktion zeigt bei Verwendung des 1-Hydroxypyridin-2(1H)-thions eine spontane Umlagerung des O-(tert-Butyl)thiohydroxamats zum O-(tert-Butyl)pyridin-2-sulfenat. Stabilitätsunterschiede der tertiären Thiohydroxamat-Klassen lassen sich der Molekülorbital-Theorie folgend auf drei unterschiedliche, \({\pi}\)-artige Wechselwirkungen der N,O-Bindung mit dem Thiohydroxamat-Kern und dem O-Alkyl-Rest im Grundzustand zurückführen, die die N,O-Bindung insgesamt stärken. Tertiäre 3-Alkoxythiazolthione erfahren dabei eine größere Stabilisierung als vergleichbare Pyridinthione. Photochemische Umsetzungen der tert-Butoxythiazolthione liefern tert-Butoxyl-Radikale, die durch Addition an 5,5-Dimethylpyrrolidin N-Oxid (DMPO) und Styrol nachgewiesen wurden.
The central topic of this thesis is Alperin's weight conjecture, a problem concerning the representation theory of finite groups.
This conjecture, which was first proposed by J. L. Alperin in 1986, asserts that for any finite group the number of its irreducible Brauer characters coincides with the number of conjugacy classes of its weights. The blockwise version of Alperin's conjecture partitions this problem into a question concerning the number of irreducible Brauer characters and weights belonging to the blocks of finite groups.
A proof for this conjecture has not (yet) been found. However, the problem has been reduced to a question on non-abelian finite (quasi-) simple groups in the sense that there is a set of conditions, the so-called inductive blockwise Alperin weight condition, whose verification for all non-abelian finite simple groups implies the blockwise Alperin weight conjecture. Now the objective is to prove this condition for all non-abelian finite simple groups, all of which are known via the classification of finite simple groups.
In this thesis we establish the inductive blockwise Alperin weight condition for three infinite series of finite groups of Lie type: the special linear groups \(SL_3(q)\) in the case \(q>2\) and \(q \not\equiv 1 \bmod 3\), the Chevalley groups \(G_2(q)\) for \(q \geqslant 5\), and Steinberg's triality groups \(^3D_4(q)\).
Real-time systems are systems that have to react correctly to stimuli from the environment within given timing constraints.
Today, real-time systems are employed everywhere in industry, not only in safety-critical systems but also in, e.g., communication, entertainment, and multimedia systems.
With the advent of multicore platforms, new challenges on the efficient exploitation of real-time systems have arisen:
First, there is the need for effective scheduling algorithms that feature low overheads to improve the use of the computational resources of real-time systems.
The goal of these algorithms is to ensure timely execution of tasks, i.e., to provide runtime guarantees.
Additionally, many systems require their scheduling algorithm to flexibly react to unforeseen events.
Second, the inherent parallelism of multicore systems leads to contention for shared hardware resources and complicates system analysis.
At any time, multiple applications run with varying resource requirements and compete for the scarce resources of the system.
As a result, there is a need for an adaptive resource management.
Achieving and implementing an effective and efficient resource management is a challenging task.
The main goal of resource management is to guarantee a minimum resource availability to real-time applications.
A further goal is to fulfill global optimization objectives, e.g., maximization of the global system performance, or the user perceived quality of service.
In this thesis, we derive methods based on the slot shifting algorithm.
Slot shifting provides flexible scheduling of time-constrained applications and can react to unforeseen events in time-triggered systems.
For this reason, we aim at designing slot shifting based algorithms targeted for multicore systems to tackle the aforementioned challenges.
The main contribution of this thesis is to present two global slot shifting algorithms targeted for multicore systems.
Additionally, we extend slot shifting algorithms to improve their runtime behavior, or to handle non-preemptive firm aperiodic tasks.
In a variety of experiments, the effectiveness and efficiency of the algorithms are evaluated and confirmed.
Finally, the thesis presents an implementation of a slot-shifting-based logic into a resource management framework for multicore systems.
Thus, the thesis closes the circle and successfully bridges the gap between real-time scheduling theory and real-world implementations.
We prove applicability of the slot shifting algorithm to effectively and efficiently perform adaptive resource management on multicore systems.
Der Energiebedarf von Mobilbaggern während des Betriebs hängt neben dem kundenspezifischen Einsatz unter anderem stark vom verwendeten hydraulischen Systemkonzept ab. Durch die sukzessive Weiterentwicklung der Komponenten und hydraulischen Systeme existiert dazu mittlerweile eine Vielzahl an verschiedenen Konzepten und Teillösungen, mit denen die Energieeffizienz der Maschine gesteigert werden kann. Jedoch handelt es sich oftmals um eine komplexe Aufgabe, aus den vorhandenen Einzellösungen ein für den Kunden verbrauchsoptimales Gesamtsystemkonzept zu erstellen. Um dies zu erleichtern, ist eine Unterstützung des Konzeptauswahlprozesses mittels hydraulischer Systemsimulationen möglich, sodass der Energieverbrauch verschiedener Konzepte und Konzeptkombinationen im Gesamtsystemzusammenhang schon frühzeitig im Produktentwicklungsprozess abgeschätzt werden kann.
Um dies effizient durchzuführen, wird in dieser Arbeit ein methodischer Ansatz entwickelt, mit dem ein Vergleich verschiedener hydraulischer Konzepte modellgestützt durchgeführt werden kann. Im Fokus stehen dabei die Entwicklung eines modular aufgebauten Simulationsmodells für eine vereinfachte Implementierung von Konzepten in ein Gesamtsystemmodell sowie die Einbindung eines variablen, kundenspezifischen Nutzungsprofils in den Bewertungsprozess.
Dazu wird zunächst auf die Modellerstellung und Modularisierung eingegangen und die Validierung und Verifikation des Modells beschrieben. Im Anschluss werden exemplarische Konzepte vorgestellt, die durch eine Bewertung unter Berücksichtigung des realen Einsatzes beim Kunden hinsichtlich ihres Energieverbrauchs miteinander verglichen werden.
A Consistent Large Eddy Approach for Lattice Boltzmann Methods and its Application to Complex Flows
(2015)
Lattice Boltzmann Methods have shown to be promising tools for solving fluid flow problems. This is related to the advantages of these methods, which are among others, the simplicity in handling complex geometries and the high efficiency in calculating transient flows. Lattice Boltzmann Methods are mesoscopic methods, based on discrete particle dynamics. This is in contrast to conventional Computational Fluid Dynamics methods, which are based on the solution of the continuum equations. Calculations of turbulent flows in engineering depend in general on modeling, since resolving of all turbulent scales is and will be in near future far beyond the computational possibilities. One of the most auspicious modeling approaches is the large eddy simulation, in which the large, inhomogeneous turbulence structures are directly computed and the smaller, more homogeneous structures are modeled.
In this thesis, a consistent large eddy approach for the Lattice Boltzmann Method is introduced. This large eddy model includes, besides a subgrid scale model, appropriate boundary conditions for wall resolved and wall modeled calculations. It also provides conditions for turbulent domain inlets. For the case of wall modeled simulations, a two layer wall model is derived in the Lattice Boltzmann context. Turbulent inlet conditions are achieved by means of a synthetic turbulence technique within the Lattice Boltzmann Method.
The proposed approach is implemented in the Lattice Boltzmann based CFD package SAM-Lattice, which has been created in the course of this work. SAM-Lattice is feasible of the calculation of incompressible or weakly compressible, isothermal flows of engineering interest in complex three dimensional domains. Special design targets of SAM-Lattice are high automatization and high performance.
Validation of the suggested large eddy Lattice Boltzmann scheme is performed for pump intake flows, which have not yet been treated by LBM. Even though, this numerical method is very suitable for this kind of vortical flows in complicated domains. In general, applications of LBM to hydrodynamic engineering problems are rare. The results of the pump intake validation cases reveal that the proposed numerical approach is able to represent qualitatively and quantitatively the very complex flows in the intakes. The findings provided in this thesis can serve as the basis for a broader application of LBM in hydrodynamic engineering problems.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Holzleichtbaukonstruktionen weisen eine besondere Anfälligkeit für Perforationen der raumseitigen Schichten auf. Diese können bei Verwendung permeabler Dämmstoffe und einem regelkonformen, luftdurchlässigen Aufbau der nach außen anschließenden Schichten zu Leckageströmen führen. Die vorliegende Arbeit behandelt den konvektiven Feuchteeintrag durch Einzelleckagen im Gefach von Holzleichbaukonstruktionen infolge derartiger Leckageströme.
Das Potential der Durchströmung von Leckagen wird durch die anliegende Druckdifferenz zwischen Innenraum und Umgebung bestimmt. Im ersten Teil der Arbeit werden daher die über 5 Heizperioden, an verschiedenen Gebäuden, in unterschiedlichen Regionen Deutschlands durchgeführten Differenzdruckuntersuchungen analysiert und bewertet. Es wird gezeigt, dass die Häufigkeiten der anliegenden Druckdifferenzen schiefsymmetrisch verteilt ist. Sowohl der Auftrieb als auch die Windanströmung beeinflussen
die Druckdifferenz an der Gebäudehülle. Die Richtung der Windanströmung auf die Gebäudehülle, die regionale Lage, der Umbauungsgrad, die Luftdichtigkeit des Gesamtgebäudes und die Leckageverteilung in diesem sind zudem einflussnehmend.
Im zweiten Teil wird das mittels eines patentierten Messsystems und -verfahrens untersuchte Durchströmungsverhalten von Einzelleckagen in Holzleichtbaukonstruktionen dargestellt. Die Analysen zeigen, dass der Volumenstrom und Ausflussfaktor durch raumseitige Schichten u. a. von der Form, Randbeschaffenheit und Größe der Leckage beeinflusst werden. Weiterhin wird nachgewiesen, dass die Eigenschaften der Perforation(en) in den von der Dämmung nach außen angeordneten Schichten eine untergeordnete Rolle spielen. Außerdem wird verdeutlicht, dass sich der Luftstrom nach der raumseitigen Leckage konisch im mineralischen Faserdämmstoff öffnet. Dieses Ausbreitungsverhalten, kann mittels dem kleinsten durchströmbaren Dämmstoffvolumen berechnet werden. Eine entscheidende Einflussgröße dafür ist die Permeabilität des Dämmstoffs unter realistischen Druckdifferenzen.
Das entwickelte praxisnahe, analytische Berechnungsmodell zum konvektiven Feuchteeintrag stellt den abschließenden Teil der Arbeit dar. Der Volumenstrom durch eine Leckage im Gefach einer Holzleichtbaukonstruktion kann anhand dieses Modells mit einer durchschnittlichen Genauigkeit von ±12 % berechnet werden. Mittels eines quasi-stationären Berechnungsverfahrens wird anschließend die hygrische Hüllflächeninfiltration durch eine Einzelleckage, für eine Heizperiode, unter realistisch an einer Gebäudehüllfläche anliegenden Druckdifferenzen berechnet. Die Plausibilität der Ergebnisse wird an einem untersuchten Schadensfall nachgewiesen. Mit den Berechnungsergebnissen ist eine Bewertung des Schadenspotentials durch konvektiven Feuchteeintrag möglich.
Regionalparks werden als informelles projekt-, kommunikations- und kooperationsorientiertes
Planungsinstrument der Regionalentwicklung seit Ende der 1980er Jahre in
Deutschland umgesetzt. Seit einigen Jahren werden Regionalparks auch in anderen
europäischen Ländern, vor allem in Metropolregionen, entwickelt.
In Deutschland wurde der erste Regionalpark, der Emscher Landschaftspark, bereits
1989 gegründet. Mit dem Regionalpark Rhein-Main folgte 1994 ein weiterer Regionalpark.
Seitdem sind in vielen Bundesländern Deutschlands Regionalparks entwickelt
worden, so z. B. im Saarland, in Hamburg, in Berlin und Brandenburg oder in Baden-
Württemberg. Die Tendenz ist, auch aufgrund von EU-Fördermitteln, steigend.
Ein Schwerpunkt von Regionalparks liegt auf dem Landschafts- und Freiraumschutz.
Als informelles Instrument der Landschafts- und Freiraumentwicklung bieten Regionalparks
somit Strategien für eine nachhaltige und qualifizierte Sicherung von Freiräumen.
Regionalparks dienen im weiteren Bereich aber auch der lokalen und regionalen
Wirtschaft, verfolgen touristische, kulturelle und soziale Ziele. Sie gelten weiterhin als
Instrument zur Stärkung der weichen Standortfaktoren in z. B. strukturschwachen Regionen.
Im Kontext der raumordnungspolitischen Debatte um die territoriale Kohäsion
in Europa bieten Regionalparks somit Argumente für die Akquirierung von EU-Fördermitteln.
Im Rahmen wachsender internationaler Standortkonkurrenzen spielen Faktoren wie
das Image einer Region, eine hohe Umwelt- und Freiraumqualität, ein attraktives Wohnumfeld
und ein vielseitiges Kultur- und Naherholungsangebot in den Stadtregionen
Europas eine immer wichtigere Rolle für die Ansiedlung von Unternehmen und für den
Zuzug hochqualifizierter Arbeitnehmer. Durch die Folgeeffekte der Projekte in Regionalparks
können die Chancen im internationalen Wettbewerb verbessert werden.
Was in der Fachwelt bisher fehlt, ist ein empirischer Vergleich der deutschen Regionalparks
mit vergleichbaren Ansätzen im europäischen Ausland. Es wird in dieser Arbeit
daher der Frage nachgegangen, wie das Instrument Regionalpark in anderen Ländern
Europas interpretiert und umgesetzt wird, welchen Einfluss die Belange des Freiraum-
und Naturschutzes auf die Projekte in Regionalparks haben und wie detailliert
die Projekte der Regionalparks zu Themen wie Freiraum- und Naturschutz umgesetzt
werden. Dies wird anhand von vier Fallbeispielen – zwei Regionalparks in Deutschland
und zwei Regionalparks in Europa – beschrieben und bewertet und stellt den Schwerpunkt
der Arbeit dar.
Ein weiterer sich anschließender Untersuchungsaspekt ist die Bewertung und Analyse
der in den letzten Jahren neu in Europa entstandenen Regionalparks, die noch nicht
näher wissenschaftlich erforscht worden sind. Dazu zählen z. B. als Regionalparks
benannte Gebiete in Großbritannien, der Schweiz oder in Slowenien. Nicht immer gleichen
die Regionalparks im europäischen Ausland dabei den deutschen Konzepten,
sondern erweisen sich bei näherer Betrachtung als Natur-, Freizeit oder Ferienparks.
Durch eine kritische Bewertung nach verschiedenen vorher definierten Kriterien werden
die ausgewählten Regionalparks hinsichtlich des Schwerpunktes auf Natur- und
Freiraumschutz beleuchtet und bewertet. Aus den gewonnenen Erkenntnissen werden
Handlungsempfehlungen für Politik und Praxis abgeleitet.
Mit dieser Arbeit sollen Impulse für eine moderne, informelle, nachhaltige und ökologisch
orientierte Stadt -und Regionalentwicklung in Europa gegeben werden. Die Arbeit
soll darüber hinaus Handlungsempfehlungen für die Vernetzung von und den Informationsaustausch
zwischen Regionalparks geben und damit einen Beitrag zur Regionalparkentwicklung
in Europa leisten, um so ein geeintes Europa auch hinsichtlich
der Natur-, Regional- und Freiraumentwicklung zu stärken.
Die Gewichtsreduktion im Strukturbereich stellt einen zentralen Optimierungsansatz in der Luftfahrtindustrie dar, der vor allem durch adäquate Fügetechnologien genutzt werden kann. Ausgehend vom aktuellen Stand der Technik im Helikopterbau, dem Nieten, gilt es durch die Verwendung einer innovativen Fügetechnologie das volle technologische Leistungsvermögen hinsichtlich Performance, Qualität und Kosten zu nutzen. Dazu wurde das Induktionsschweißen als die potentialreichste Fügetechno-logie für den Helikopterbau bewertet. Um dieses identifizierte Potential für eine Luftfahrtfertigungstechnologie nutzbar zu machen, ist es unerlässlich, das Indukti-onsschweißen an die Luftfahrtanforderungen anzupassen. Vor allem in den Berei-chen Nachweisbarkeit, Leistungsfähigkeit und Kosten wurden daher Fragestellungen identifiziert deren Beantwortung den Kern dieser Arbeit darstellt.
Beim Induktionsschweißen werden faserverstärkte Thermoplaste durch ein Auf-schmelzen der Matrix und ein anschließendes Abkühlen unter Druck gefügt. Die Erwärmung des sich in einem alternierenden elektromagnetischen Feld (EMF) befindlichen Laminats erfolgt dabei durch die Einkopplung eines elektrischen Stroms in die Fasern.
Das zentrale Element zur Erreichung der geforderten Leistungsfähigkeit stellt die interlaminare Temperaturverteilung dar, welche es nachzuweisen gilt. Dieser Nach-weis wurde durch ein umfassendes analytisches Modell realisiert, das eine höchst-präzise interlaminare Temperaturberechnung ermöglicht. Die Kernaussagen, welche aus dem Modell abgeleitet werden, sind die dickenabhängige Erwärmung des Laminats, die EMF-Semipermeabilität der Laminatoberflächen und der nicht expo-nentielle Abfall sowie der nicht lineare Verlauf der Temperatur in Dickenrichtung. Die Validierung der analytischen Modellierung gelang nur durch die Identifikation einer EMF-toleranten, hochdynamischen Temperaturmesstechnologie, welche mit hoher Auflösung interlaminar eingesetzt werden kann.
Auf Grundlage der Modellergebnisse wurden die optimalen Schweißparameter definiert, auf deren Basis die Leistungsfähigkeit der Induktionsschweißtechnologie mit circa 36 MPa Scherfestigkeit bestätigt wurde. Durch eine Sensibilitätsanalyse konnte weiterhin der Einfluss der Parameter Generatorleistung, Kühlvolumen, Anpressdruck, Induktorabstand, Fehlereinschlüsse und Geschwindigkeit bestimmt werden. Aufgrund der im aktuellen Anlagenaufbau nicht vorhanden Parameterüber-wachung und aufgrund des hohen Prozesseinflusses erwies sich dabei der Induktor-abstand als der kritischste Faktor.
Etwaige dadurch auftretende qualitative Mängel können durch den schlanken, maßgeschneiderten Einsatz einer Kombination aus der Ultraschalluntersuchung, einer in der Luftfahrt standardmäßig eingesetzten Qualitätssicherungsmethode und eines progressiven Inline-Prozesskontrollansatzes detektiert werden.
Parallel zur mechanischen Leistungsfähigkeit der Technologie stand der Einfluss der Temperaturverteilung auf die Oberflächenqualität im Fokus. Durch die umfangreiche theoretische und experimentelle Analyse bereits bekannter und neu entwickelter Temperaturoptimierungsmethoden konnte mit der Kühlung der Oberfläche mit temperatur- und volumenvariablen Druckluftströmen eine effiziente Methode zur zielführenden Lösung der bestehenden Problemstellung ermittelt werden.
Die Anwendbarkeit der Induktionsschweißtechnologie konnte auch durch eine Kostenrechnung am Beispiel eines helikopterspezifischen Musterbauteils bestätigt werden.
Es gibt vielfache Ansätze, die mechanischen Eigenschaften von Werkstoffen zu verbessern, wobei in den meisten Fällen mit einer Erhöhung der quasistatischen Festigkeit eine Verringerung der Duktilität einhergeht. Bei ultrafeinkörnigen Werkstoffen ist diese Verringerung des Verformungsvermögens, aufgrund des dominierenden Verfestigungsmechanismus der Korngrenzenverfestigung, nicht zwangsläufig die Folge. Bei der Forschung mit Werkstoffen, die eine sehr kleine Korngröße aufweisen, stellt dieser Aspekt die Hauptmotivation dar.
Im Rahmen der aktuellen Arbeit wurden mehrere ultrafeinkörnige Modifikationen des Vergütungsstahles C45 mikrostrukturell, mit Hilfe von Raster- sowie Transmissionselektronenmikroskopie, aber auch Nanoindentation charakterisiert. Es konnten verbreitet Korngrößen unter 1 µm festgestellt werden, was der Definition ultrafeinkörnig entspricht. Anschließend folgte eine Korrelation der zyklischen Eigenschaften, welche mittels 4-Punkt-Mikrobiegeversuchen untersucht wurden und der Mikrostruktur. Da die hochfesten Ausprägungen der ultrafeinkörnigen Modifikationen in großen Teilen Rissinitiierung an nichtmetallischen Einschlüssen zeigten, erfolgte eine bruchmechanische Betrachtung mittels Spannungsintensitätsfaktoren. Als Quintessenz der vorliegenden Arbeit steht ein Modell, welches die Ermüdungseigenschaften von ultrafeinkörnigen Werkstoffen zusammenfasst. Mehrere Eigenschaften, wie das Auftreten von innerer Rissinitiierung, sowie insgesamt die extrem hohen Härten und Ermüdungsfestigkeiten (vergleichbar mit bainitisiertem 100Cr6), wurden im Rahmen der Arbeit erstmals bei diesen Modifikationen nachgewiesen und gehörten zuvor nicht zum Stand der Technik.
Bei Asthma handelt es sich um eine chronische Entzündung der Atemwege, die durch bronchiale
Hyperreagibilität, reversible Atemwegsobstruktion und airway remodeling gekennzeichnet
ist. Letzteres bezieht sich dabei auf die permanenten strukturellen Veränderungen in den
Atemwegen, die zur Verdickung der Bronchialwand beitragen und für die bei Asthmatikern
auftretende progressive und irreversible Abnahme der Lungenfunktion verantwortlich sind. Die
epithelial zu mesenchymale Transition (EMT), ein physiologischer Prozess bei dem epitheliale
Zellen den motilen und invasiven Phänotyp von Fibroblasten übernehmen, ist dabei eng mit
der Zerstörung der epithelialen Barriere, subepithelialer Fibrose und der Akkumulation von
Myofibroblasten assoziiert, die bei airway remodeling auftreten. Obwohl Wachstumsfaktoren wie der transforming growth factor β (TGF-β) als wichtige Induktoren von EMT gelten, weisen jüngste Ergebnisse auf eine EMT-modifizierende Wirkung von inflammatorischen Mediatoren
hin. Ein Ziel dieser Arbeit war es deshalb, den Effekt der inflammatorischen Zytokine IL-4, IL-
17 und IL-22, die in der Pathogenese von allergischem (IL-4) bzw. nicht-allergischem (IL-17/
-22) Asthma involviert sind, auf die TGF-β induzierte EMT in vitro zu untersuchen. Keines der Zytokine war dabei in der Lage, selbstständig EMT induzieren, allerdings verstärkten und beschleunigten sie den EMT-Prozess in Kombination mit TGF-β, wobei die kombinierte
Stimulation mit allen 3 Zytokinen einen additiven Effekt zeigte. Obwohl die Zytokine allein kurzzeitig die Transkription von EMT-essentiellen Transkriptionsfaktoren förderten, nahm deren Transkriptmenge sowie Proteinabundanz rasch wieder ab. Dieser Effekt wurde durch die zusätzliche Stimulation mit TGF-β jedoch stark verringert, was auf eine essentielle Rolle
des mRNA-stabilisierenden Effektes von TGF-β bei der Induktion von EMT hindeutet.
Obwohl inhalierte Kortikosteroide als goldene Standardtherapie in der Asthmabehandlung gelten, verbleiben 5-10% der Asthmatiker therapieresistent. Desweiteren wird airway
remodeling durch die Langzeit-Behandlung mit Kortikosteroiden nicht unterdrückt, weswegen
neue therapeutische Ansätze entwickelt werden müssen. Naturstoffe mit ihrer strukturellen
Komplexität sowie ihrem breiten Spektrum an biologischen Aktivitäten können dabei als
potentielle Leitstrukturen dienen. In dieser Arbeit wurde das therapeutische Potenzial der Naturstoffe Cyclonerodiol und Oxacyclododecindion bezüglich Asthma-relevanter
Pathomechanismen in vitro untersucht. Cyclonerodiol, das zuvor bereits als Inhibitor des IL-4 Signalweges charakterisiert wurde, hemmte auch den IL-13 Signalweg, der ebenfalls mit
allergischem Asthma assoziiert ist. Auf mRNA- und Proteinebene reduzierte der Naturstoff die Expression inflammatorischer Zytokine und Chemokine, die an der Pathogenese von
allergischem Asthma beteiligt sind. Untersuchungen zum Wirkmechanismus zeigten, dass Cyclonerodiol die Interaktion des Transkriptionsfaktors STAT6 mit den MAP-Kinasen p38
und ERK1/2 und somit die Serin-Phosphorylierung von STAT6 reduziert, wodurch auch die Interaktion mit dem transkriptionellen Coaktivator p300 verringert wird. Oxacyclododecindion,
das bereits als potenter Inhibitor der Expression von inflammatorischen sowie fibrotischen Genen identifiziert wurde, hemmte charakteristische Merkmale von schwerem, Glukokortikoidresistentem
Asthma wie die durch IL-17 induzierte Expression inflammatorischer Gene.
Die Substanz inhibierte zudem die durch TGF-β induzierte EMT wesentlich stärker als das potente Glukokortikoid Dexamethason. Studien zum Wirkmechanismus weisen darauf hin,dass es sich bei Oxacyclododecindion um einen Kinaseinhibitor mit TAK1 als potentieller Zielstruktur handeln könnte.
There are a number of designs for an online advertising system that allow for behavioral targeting without revealing user online behavior or user interest profiles to the ad network. Although these designs purport to be practical solutions, none of them adequately consider the role of ad auctions, which today are central to the operation of online advertising systems. Moreover, none of the proposed designs have been deployed in real-life settings. In this thesis, we present an effort to fill this gap. First, we address the challenge of running ad auctions that leverage user profiles while keeping the profile information private. We define the problem, broadly explore the solution space, and discuss the pros and cons of these solutions. We analyze the performance of our solutions using data from Microsoft Bing advertising auctions. We conclude that, while none of our auctions are ideal in all respects, they are adequate and practical solutions. Second, we build and evaluate a fully functional prototype of a practical privacy-preserving ad system at a reasonably large scale. With more than 13K opted-in users, our system was in operation for over two months serving an average of 4800 active users daily. During the last month alone, we registered 790K ad views, 417 clicks, and even a small number of product purchases. Our system obtained click-through rates comparable with those for Google display ads. In addition, our prototype is equipped with a differentially private analytics mechanism, which we used as the primary means for gathering experimental data. In this thesis, we describe our first-hand experience and lessons learned in running the world's first fully operational “private-by-design” behavioral advertising and analytics system.
Das Ziel dieser Dissertation ist die Entwicklung und Implementation eines Algorithmus zur Berechnung von tropischen Varietäten über allgemeine bewertete Körper. Die Berechnung von tropischen Varietäten über Körper mit trivialer Bewertung ist ein hinreichend gelöstes Problem. Hierfür kombinieren die Autoren Bogart, Jensen, Speyer, Sturmfels und Thomas eindrucksvoll klassische Techniken der Computeralgebra mit konstruktiven Methoden der konvexer Geometrie.
Haben wir allerdings einen Grundkörper mit nicht-trivialer Bewertung, wie zum Beispiel den Körper der \(p\)-adischen Zahlen \(\mathbb{Q}_p\), dann stößt die konventionelle Gröbnerbasentheorie scheinbar an ihre Grenzen. Die zugrundeliegenden Monomordnungen sind nicht geeignet um Problemstellungen zu untersuchen, die von einer nicht-trivialen Bewertung auf den Koeffizienten abhängig sind. Dies führte zu einer Reihe von Arbeiten, welche die gängige Gröbnerbasentheorie modifizieren um die Bewertung des Grundkörpers einzubeziehen.\[\phantom{newline}\]
In dieser Arbeit präsentieren wir einen alternativen Ansatz und zeigen, wie sich die Bewertung mittels einer speziell eingeführten Variable emulieren lässt, so dass eine Modifikation der klassischen Werkzeuge nicht notwendig ist.
Im Rahmen dessen wird Theorie der Standardbasen auf Potenzreihen über einen Koeffizientenring verallgemeinert. Hierbei wird besonders Wert darauf gelegt, dass alle Algorithmen bei polynomialen Eingabedaten mit ihren klassischen Pendants übereinstimmen, sodass für praktische Zwecke auf bereits etablierte Softwaresysteme zurückgegriffen werden kann. Darüber hinaus wird die Konstruktion des Gröbnerfächers sowie die Technik des Gröbnerwalks für leicht inhomogene Ideale eingeführt. Dies ist notwendig, da bei der Einführung der neuen Variable die Homogenität des Ausgangsideal gebrochen wird.\[\phantom{newline}\]
Alle Algorithmen wurden in Singular implementiert und sind als Teil der offiziellen Distribution erhältlich. Es ist die erste Implementation, welches in der Lage ist tropische Varietäten mit \(p\)-adischer Bewertung auszurechnen. Im Rahmen der Arbeit entstand ebenfalls ein Singular Paket für konvexe Geometrie, sowie eine Schnittstelle zu Polymake.
In this work we focus on the regression models with asymmetrical error distribution,
more precisely, with extreme value error distributions. This thesis arises in the framework
of the project "Robust Risk Estimation". Starting from July 2011, this project won
three years funding by the Volkswagen foundation in the call "Extreme Events: Modelling,
Analysis, and Prediction" within the initiative "New Conceptual Approaches to
Modelling and Simulation of Complex Systems". The project involves applications in
Financial Mathematics (Operational and Liquidity Risk), Medicine (length of stay and
cost), and Hydrology (river discharge data). These applications are bridged by the
common use of robustness and extreme value statistics.
Within the project, in each of these applications arise issues, which can be dealt with by
means of Extreme Value Theory adding extra information in the form of the regression
models. The particular challenge in this context concerns asymmetric error distributions,
which significantly complicate the computations and make desired robustification
extremely difficult. To this end, this thesis makes a contribution.
This work consists of three main parts. The first part is focused on the basic notions
and it gives an overview of the existing results in the Robust Statistics and Extreme
Value Theory. We also provide some diagnostics, which is an important achievement of
our project work. The second part of the thesis presents deeper analysis of the basic
models and tools, used to achieve the main results of the research.
The second part is the most important part of the thesis, which contains our personal
contributions. First, in Chapter 5, we develop robust procedures for the risk management
of complex systems in the presence of extreme events. Mentioned applications use time
structure (e.g. hydrology), therefore we provide extreme value theory methods with time
dynamics. To this end, in the framework of the project we considered two strategies. In
the first one, we capture dynamic with the state-space model and apply extreme value
theory to the residuals, and in the second one, we integrate the dynamics by means of
autoregressive models, where the regressors are described by generalized linear models.
More precisely, since the classical procedures are not appropriate to the case of outlier
presence, for the first strategy we rework classical Kalman smoother and extended
Kalman procedures in a robust way for different types of outliers and illustrate the performance
of the new procedures in a GPS application and a stylized outlier situation.
To apply approach to shrinking neighborhoods we need some smoothness, therefore for
the second strategy, we derive smoothness of the generalized linear model in terms of
L2 differentiability and create sufficient conditions for it in the cases of stochastic and
deterministic regressors. Moreover, we set the time dependence in these models by
linking the distribution parameters to the own past observations. The advantage of
our approach is its applicability to the error distributions with the higher dimensional
parameter and case of regressors of possibly different length for each parameter. Further,
we apply our results to the models with generalized Pareto and generalized extreme value
error distributions.
Finally, we create the exemplary implementation of the fixed point iteration algorithm
for the computation of the optimally robust in
uence curve in R. Here we do not aim to
provide the most
exible implementation, but rather sketch how it should be done and
retain points of particular importance. In the third part of the thesis we discuss three applications,
operational risk, hospitalization times and hydrological river discharge data,
and apply our code to the real data set taken from Jena university hospital ICU and
provide reader with the various illustrations and detailed conclusions.
This thesis treats the application of configurational forces for the evaluation of fracture processes in Antarctic ice shelves. FE simulations are used to analyze the influence of geometric scales, material parameters and boundary conditions on single surface cracks. A break-up event at the Wilkins Ice Shelf that coincided with a major temperature drop motivates the consideration of frost wedging as a mechanism for ice shelf disintegration. An algorithm for the evaluation of the crack propagation direction is used to analyze the horizontal growth of rifts. Using equilibrium considerations for a viscoelastic fluid, a method is introduced to compute viscous volume forces from measured velocity fields as loads for a linear elastic fracture mechanical analysis.
In 2003, a dictionary data structure called jumplist has been introduced by Brönnimann, Cazals and Durand. It is based on a circularly closed (singly) linked list, but additional jump-pointers are added to provide shortcuts to parts further ahead in the list.
The original jump-and-walk data structure by Brönnimann, Cazals and Durand only introduces one jump-pointer per node. In this thesis, I add one more-jump pointer to each node and present algorithms for generation, insertion and search for the resulting data structure.
Furthermore, I try to evaluate the effects on the expected search costs and the complexity of the generation and insertion.
It turns out that the two-jump-pointer variant of the jumplist has a slightly better prefactor (1.2 vs. 2) in the leading term of the expected internal path length than the original version and despite the more complex structure of the two-jump-pointer variant compared to the regular jumplist, the complexity of generation and insertion remains linearithmic.
Ausgehend von Andrew Moravcsiks liberaler Außenpolitiktheorie, nach
der gesellschaftliche Akteure rationale und risikoaverse bzw. kostensensitive
Präferenzen verfolgen, die konstitutiv für die Außen- und Sicherheitspolitik
von Staaten sind, untersucht die vorliegende Studie entlang
der Fallbeispiele Afghanistankrieg, Politik der gezielten Tötungen und
Schließung Guantánamos, inwiefern diese Präferenzen des amerikanischen
Demos die Politik der Terrorismusbekämpfung der Obama-
Administration maßgeblich beeinflussen, ob sich das politische System
gegenüber dem Präferenzmuster des Demos responsiv verhält und
unter welchen Kontextbedingungen gesellschaftliche Präferenzen von
Kongress und Präsident repräsentiert werden. Gestützt auf der Analyse
von Einstellungsmustern der amerikanischen Öffentlichkeit und dem
Kongruenzabgleich zwischen gesellschaftlichen Präferenzen und dem
Handeln von Kongress und Präsident ergibt sich ein widersprüchliches
Bild mit Blick auf die Grundannahmen der liberalen Außenpolitiktheorie.
Der amerikanische Demos favorisierte die gezielte Tötung von
Terroristen, lehnte aber die Schließung Guantánamos und die Intensivierung
des militärischen Einsatzes in Afghanistan ab. Der Kongress als
zentraler Transmissionsriemen gesellschaftlicher Präferenzen unterstützte
einerseits den Präsidenten seit 9/11 bei seiner Terrorismusbekämpfungsstrategie,
scheiterte aber trotz seiner verfassungsrechtlichen
Kompetenzen daran den exekutiven Dominanzanspruch beim Einsatz
militärischer Mittel in Frage zu stellen. Andererseits verweigerte der
Kongress fortlaufend die Schließung Guantánamos. Ziel dieser qualitativen
Studie ist es deshalb durch Verwendung von wirkmächtigen
intervenierenden Variablen wie Schwellenwertbedingung, Parteipolitische
Polarisierung und Politikfeldspezifizität - die argumentative und modelltheoretische
Erweiterung der liberalen Außenpolitiktheorie voranzutreiben
Sandwichelemente mit Deckschichten aus Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol
(2015)
Sandwichelemente vereinen aufgrund des gezielten Einsatzes verschiedener Materialien und deren schichtartigen Aufbaus sehr gute Dämmeigenschaften und ein geringes Eigengewicht mit hoher Tragfähigkeit und Biegesteifigkeit. Sie werden daher seit Beginn der 1960er-Jahre sowohl im Metallleichtbau als auch im Stahlbetonmassivbau vielfältig eingesetzt. Im Rahmen der vorliegenden Arbeit wurden Sandwichelemente mit Deckschichten aus einem mikro- oder auch textilbewehrtem Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol-Hartschaum umfangreich experimentell und rechnerisch untersucht. Ziel war es, den Verbund zwischen dem Kern und den Deckschichten ohne mechanische Verbundmittel, sondern rein über die Adhäsion des profilierten Dämmkerns und den Deckschichten zu erzielen.
Das Sandwichtragverhalten wurde durch eine Vielzahl von Biege- und Scherversuchen experimentell untersucht. Die Dauerhaftigkeit des Verbunds zwischen dem Kern und den Deckschichten wurde durch eine Frost-Tau-Wechselbeanspruchung der Scherprobekörper sowie durch eine zyklische Ermüdungsbeanspruchung der Biegeprobekörper bestimmt. Anhand der Versuchsergebnisse konnte gezeigt werden, dass die Sandwichelemente bei der Verwendung als Wand- oder Dachelement den praxisüblichen Beanspruchungen standhalten und nicht vorzeitig versagen. Das Tragverhalten wurde weiterhin in Bauteilversuchen an großformatigen Sandwichelementen überprüft. Hierzu wurden in einem eigens konstruierten Unterdruckprüfstand zweifeldrig gelagerte Sandwichelemente einer realitätsnahen Beanspruchung durch eine Flächenlast ausgesetzt. Die Materialeigenschaften, die anhand der Scherversuche sowie an Dehnkörperversuchen am bewehrtem Beton ermittelt wurden, dienten zudem als Eingangsparameter zur rechnerischen Untersuchung der Sandwichelemente mit der FE-Software ANSYS. Auf Grundlage der Modellierungen konnten die Versuchsergebnisse interpretiert und das Tragverhalten in Parameterstudien vertiefend analysiert werden. Darüber hinaus wurden auch die Einwirkungen aus einer Temperatur- und Schwindbeanspruchung der Elemente ermittelt.
Über Ingenieurmodelle auf Grundlage der Sandwichtheorie konnte bisher der Einfluss der Rissbildung in den Betondeckschichten nur überschlägig und gemittelt über die Länge der Elemente berücksichtigt werden. Aus diesem Grund wurde ein bestehendes Programm zur Ermittlung der Sandwichschnittgrößen um einen Ansatz zur Berücksichtigung der Steifigkeitsreduzierung infolge der Rissbildung umfangreich erweitert. Mit dem neuen Programm swe2+ können nun erstmalig die Schnittgrößen und Verformungen von Sandwichelementen mit gerissenen Betondeckschichten zielsicher und diskret über die Länge eines Sandwichelements ermittelt werden. Durch Beispielrechnungen wurde gezeigt, dass die Umlagerung der Schnittgrößen infolge der Rissbildung in den Deckschichten zu ungünstigeren Beanspruchungen führen kann und diese Umlagerungen bei der Bemessung der Elemente entsprechend zu berücksichtigen sind. Die Bemessung der hier untersuchten Sandwichelemente kann in Anlehnung an die Norm DIN EN 14509 zur Bemessung von Sandwichelementen mit metallischen Deckschichten durchgeführt werden. Durch die Nachrechnungen der Biegeversuche wurde gezeigt, dass auf diese Weise die Elemente mit ausreichender Sicherheit und sehr guter Übereinstimmung bemessen werden können. Dies wird abschließend in zwei Bemessungsbeispielen an einem Wand- sowie einem Dachelement demonstriert.
Die kürzlich entdeckte Klasse der diversitätsgenerierenden Retroelemente (DGRs) kann ihrem
Wirt einen selektiven Vorteil über eine beschleunigte Proteinevolution verschaffen. Dazu
bedient sich das DGR eines nicht proliferativen „copy and replace“ Mechanismus, der
kodierende Sequenzinformation zielgerichtet von einem Templat Repeat über ein RNAIntermediat
zu einem spezifischen Gen transferiert. Die Sequenz wird während dem Prozess
hypermutiert, was vermutlich durch eine Fehleranfälligkeit der DGR-kodierten reversen
Transkriptase (RT) geschieht. Dabei kann die mutierte Sequenz eine höhere Diversität
erreichen, als es für die Antikörper und T-Zell-Rezeptoren des Immunsystems von Vertebraten
beobachtet wurde.
In dieser Arbeit wurde die Verteilung von DGRs in einer Stammsammlung von Cyanobakterien
untersucht. Dafür wurde ein Screening mit degenerierten Primern auf die DGR-kodierte RT
durchgeführt. Es konnten ca. 30 % (34) der analysierbaren Cyanobakterienstämme positiv auf
Präsenz eines DGRs getestet werden. Dazu gehört ein DGR aus Anabaena flos-aquae, von
dem auch die Sequenz ermittelt werden konnte. Dieses neu entdeckte DGR wurde zusammen
mit zwei weiteren DGRs aus Nostoc sp. PCC7120 und Treponema denticola auf Aktivität
untersucht, wobei die letzten beiden Elemente eine DGR-vermittelte Variation gezeigt haben.
Das demonstriert die Funktionsfähigkeit der Elemente, gibt aber zugleich einen Hinweis auf
eine starke Regulation, da die beobachtete Frequenz der Diversifizierung sehr gering war.
Eine Regulation wäre vorteilhaft für den Wirt, da vermutlich ein Großteil der Mutationen die
Funktion der variablen Proteine beeinträchtigt.
Von dem funktionsfähigen DGR aus Nostoc sp. PCC7120 wurde anschließend die Struktur
des RNA-Intermediats bioinformatisch und experimentell aufgeklärt. Dabei handelt es sich um
die erste aufgeklärte Struktur von RNA-Intermediaten aus DGRs. Basierend auf den Daten
konnte eine Konsensus-Struktur für 13 Sequenzen aus Cyanobakterien, grünen
Schwefelbakterien, Purpurbakterien, Treponema denticola und dem Bordetella-Phagen
berechnet werden, in der vier Haarnadelstrukturen konserviert zu sein scheinen. Diese
Strukturelemente könnten auf eine konservierte Funktion des RNA-Intermediats hinweisen
und eine hochaffine Bindestelle für die DGR-kodierte RT bereitstellen bzw. für eine
katalytische Aktivität als Endonuklease benötigt werden.
Damit liefert diese Arbeit einen wichtigen Beitrag für die experimentelle Identifizierung von
DGRs, sowie deren Verteilung und Regulation in Bakterien. Desweiteren bietet die Arbeit
einen Hinweis darauf, dass es sich bei dem RNA-Intermediat nicht nur um eine mobile
Komponente handelt, sondern weitere Funktionen hinzukommen könnten.
In the digital era we live in, users can access an abundance of digital resources in their daily life. These digital resources can be located on the user's devices, in traditional repositories such as intranets or digital libraries, but also in open environments such as the World Wide Web.
To be able to efficiently work with this abundance of information, users need support to get access to the resources that are relevant to them. Access to digital resources can be supported in various ways. Whether we talk about technologies for browsing, searching, filtering, ranking, or recommending resources: what they all have in common is that they depend on the available information (i.e., resources and metadata). The accessibility of digital resources that meet a user's information need, and the existence and quality of metadata is crucial for the success of any information system.
This work focuses on how social media technologies can support the access to digital resources. In contrast to closed and controlled environments where only selected users have the rights to contribute digital resources and metadata, and where this contribution involves a social process of formal agreement of the relevant stakeholders, potentially any user can easily create and provide information in social media environments. This usually leads to a larger variety of resources and metadata, and allows for dynamics that would otherwise hardly be possible.
Most information systems still mainly rely on traditional top-down approaches where only selected stakeholders can contribute information. The main idea of this thesis is an approach that allows for introducing the characteristics of social media environments in such traditional contexts. The requirements for such an approach are being examined, as well as the benefits and potentials it can provide.
The ALOE infrastructure was developed according to the identified requirements and realises a Social Resource and Metadata Hub. Case studies and evaluation results are provided to show the impact of the approach on the user's behaviours and the creation of digital resources and metadata, and to justify the presented approach.
This thesis is concerned with stochastic control problems under transaction costs. In particular, we consider a generalized menu cost problem with partially controlled regime switching, general multidimensional running cost problems and the maximization of long-term growth rates in incomplete markets. The first two problems are considered under a general cost structure that includes a fixed cost component, whereas the latter is analyzed under proportional and Morton-Pliska
transaction costs.
For the menu cost problem and the running cost problem we provide an equivalent characterization of the value function by means of a generalized version of the Ito-Dynkin formula instead of the more restrictive, traditional approach via the use of quasi-variational inequalities (QVIs). Based on the finite element method and weak solutions of QVIs in suitable Sobolev spaces, the value function is constructed iteratively. In addition to the analytical results, we study a novel application of the menu cost problem in management science. We consider a company that aims to implement an optimal investment and marketing strategy and must decide when to issue a new version of a product and when and how much
to invest into marketing.
For the long-term growth rate problem we provide a rigorous asymptotic analysis under both proportional and Morton-Pliska transaction costs in a general incomplete market that includes, for instance, the Heston stochastic volatility model and the Kim-Omberg stochastic excess return model as special cases. By means of a dynamic programming approach leading-order optimal strategies are constructed
and the leading-order coefficients in the expansions of the long-term growth rates are determined. Moreover, we analyze the asymptotic performance of Morton-Pliska strategies in settings with proportional transaction costs. Finally, pathwise optimality of the constructed strategies is established.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
Vorgestellt wird ein Verfahren zur Bestimmung der Erdschlussentfernung in hochohmig geerdeten
Netzen. Nach Abklingen der transienten Vorgänge im Fehlerfall stellt sich ein stationärer
Zustand ein, in dem das Netz zunächst weiter betrieben werden kann.
Ausgehend von diesem stationären Fehlerfall wird auf der Basis eines Π-Glieds das Leitungsmodell
des einseitig gespeisten Stichabgangs mit einer Last in der Vier-Leiter-Darstellung
entwickelt. Die Schaltungsanalyse erfolgt mit Hilfe komplexer Rechnung und der Kirchhoffschen
Gesetze. Grundlage der Betrachtungen bildet das Netz mit isoliertem Sternpunkt.
Das entstehende Gleichungssystem ist in seiner Grundform nichtlinear, lässt sich jedoch auf eine
elementar lösbare kubische Gleichung im gesuchten Fehlerentfernungsparameter zurückführen.
Eine weitere Lösungsmöglichkeit bietet das Newton-Raphson-Verfahren.
Durch Verlegen der lastseitigen Leiter-Erd-Kapazitäten an den Abgangsanfang kann das vollständige,
nichtlineare System in ein lineares System überführt werden. Hierbei sind die beiden
Ausprägungen „direkte Lösung mit unsymmetrischer Last“ oder „Ausgleichsrechnung mit
symmetrischer Last“ möglich.
Eine MATLAB®-Implementierung dieser vier Rechenalgorithmen bildet die Basis der weiteren
Analysen.
Alle messtechnischen Untersuchungen erfolgten am Netz-Kraftwerksmodell der TU Kaiserslautern.
Hier wurden verschiedene Fehlerszenarien hinsichtlich Fehlerentfernung, -widerstand und
Größe des gesunden Restnetzes hergestellt, in 480 Einzelmessungen erfasst und mit den Algorithmen
ausgewertet. Dabei wurden auch Messungen an fehlerfreien Abgängen erhoben, um das
Detektionsvermögen der Algorithmen zu testen.
Neben Grundschwingungsbetrachtungen ist die Auswertung aller Datensätze mit der 5. und der
7. Harmonischen ein zentrales Thema. Im Fokus steht die Verwendbarkeit dieser Oberschwingungen
zur Erdschlussentfernungsmessung bzw. -detektion mit den o.g. Algorithmen.
Besondere Bedeutung kommt der Fragestellung zu, inwieweit die für ein Netz mit isoliertem
Sternpunkt konzipierten Algorithmen unter Benutzung der höheren Harmonischen zur Erdschlussentfernungsmessung
in einem gelöschten Netz geeignet sind.
Schließlich wird das Verfahren auf Abgänge mit inhomogenem Leitermaterial erweitert, da auch
diese Konstellation von praktischer Bedeutung ist.
Das Arbeitspapier erörtert die Regionsdefinition im Rahmen des Verbundprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B). Da das Forschungs- und Entwicklungsprojekt darauf abzielt, auf regionale Bedarfe abgestimmte wissenschaftliche (Weiter-)Bildungsangebote zu entwickeln, ist eine Auseinandersetzung mit der Frage konstitutiv, wie eine Region für das Projekt definiert und räumlich abgrenzt werden kann. Aus den Förderrichtlinien des Wettbewerbs „Aufstieg durch Bildung: offene Hochschulen“ sowie aus den Prämissen des Projektantrags ergibt sich Bildung als das zentrale inhaltliche Kriterium, um zu bestimmen, um welche Region es sich handelt. Als Prinzip zur Herstellung eines regionalen Zusammenhangs dient die Erreichbarkeit der Hochschulen für die Bildungsinteressierten, die auf der Grundlage empirischer Daten zum bisherigen Einzugsgebiet der Technischen Universität Kaiserslautern sowie über Studien zur Mobilität auf einen maximalen Radius von 60 Minuten Anfahrtszeit festgelegt wird. Die sich aus diesen Prämissen ergebende Region des Projekts wird letztlich kartografisch dargestellt.
Context-Enabled Optimization of Energy-Autarkic Networks for Carrier-Grade Wireless Backhauling
(2015)
This work establishes the novel category of coordinated Wireless Backhaul Networks (WBNs) for energy-autarkic point-to-point radio backhauling. The networking concept is based on three major building blocks: cost-efficient radio transceiver hardware, a self-organizing network operations framework, and power supply from renewable energy sources. The aim of this novel backhauling approach is to combine carrier-grade network performance with reduced maintenance effort as well as independent and self-sufficient power supply. In order to facilitate the success prospects of this concept, the thesis comprises the following major contributions: Formal, multi-domain system model and evaluation methodology
First, adapted from the theory of cyber-physical systems, the author devises a multi-domain evaluation methodology and a system-level simulation framework for energy-autarkic coordinated WBNs, including a novel balanced scorecard concept. Second, the thesis specifically addresses the topic of Topology Control (TC) in point-to-point radio networks and how it can be exploited for network management purposes. Given a set of network nodes equipped with multiple radio transceivers and known locations, TC continuously optimizes the setup and configuration of radio links between network nodes, thus supporting initial network deployment, network operation, as well as topology re-configuration. In particular, the author shows that TC in WBNs belongs to the class of NP-hard quadratic assignment problems and that it has significant impact in operational practice, e.g., on routing efficiency, network redundancy levels, service reliability, and energy consumption. Two novel algorithms focusing on maximizing edge connectivity of network graphs are developed.
Finally, this work carries out an analytical benchmarking and a numerical performance analysis of the introduced concepts and algorithms. The author analytically derives minimum performance levels of the the developed TC algorithms. For the analyzed scenarios of remote Alpine communities and rural Tanzania, the evaluation shows that the algorithms improve energy efficiency and more evenly balance energy consumption across backhaul nodes, thus significantly increasing the number of available backhaul nodes compared to state-of-the-art TC algorithms.
The main goal of this thesis is twofold. First, the thesis aims at bridging the gap between existing Pattern Recognition (PR) methods of automatic signature verification and the requirements for their application in forensic science. This gap, attributed by various factors ranging from system definition to evaluation, prevents automatic methods from being used by Forensic Handwriting Examiners (FHEs). Second, the thesis presents novel signature verification methods developed particularly considering the implications of forensic casework, and outperforming the state-of-the-art PR methods.
The first goal of the thesis is attributed by four important factors, i.e., data, terminology, output reporting, and how evaluation of automatic systems is carried out today. It is argued that traditionally the signature data used in PR are not actual/close representative of the real world data (especially that available in forensic cases). The systems trained on such data are, therefore, not suitable for forensic environments. This situation can be tackled by providing more realistic data to PR researchers. To this end, various signature and handwriting datasets are gathered in collaboration with FHEs and are made publicly available through the course of this thesis. A special attention is given to disguised signatures--where authentic authors purposefully make their signatures look like a forgery. This genre was at large neglected in PR research previously.
The terminology used, in the two communities - PR and FHEs, differ greatly. In fact, even in PR, there is no standard terminology and people often differ in the usage of various terms particularly related to various types of forged signatures/handwriting. The thesis presents a new terminology that is equally useful for both forensic scientists and PR researchers. The proposed terminology is hoped to increase the general acceptability of automatic signature analysis systems in forensic science.
The outputs reported by general signature verification systems are not acceptable for FHEs and courts as they are either binary (yes/no) or score (raw evidence) based on similarity/difference. The thesis describes that automatic systems should rather report the probability of observing the evidence (e.g., a certain similarity/difference score) given the signature belongs to the acclaimed identity, and the probability of observing the same evidence given the signature does not belong to the acclaimed identity. This will take automatic systems from hard decisions to soft decisions, thereby enabling them to report likelihood ratios that actually represent the evidential value of the score rather than the raw score (evidence).
When automatic systems report soft decisions (as in the form of likelihood ratios), the thesis argues that there must be some methods to evaluate such systems. This thesis presents one such adaptation. The thesis argues that the state-of-the-art evaluation methods, like equal error rate and area under curve, do not address the needs of forensic science. These needs require an assessment of the evidential value of signature verification, rather than a hard/pure classification (accept/reject binary decision). The thesis demonstrates and validates a relatively simple adaptation of the current verification methods based on the Bayesian inference dependent calibration of continuous scores rather than hard classifications (binary and/or score based classification).
The second goal of this thesis is to introduce various local features based techniques which are capable of performing signature verification in forensic cases and reporting results as anticipated by FHEs and courts. This is an important contribution of the thesis because of the following two reasons. First, to the best of author's knowledge, local feature descriptors are for the first time used for development of signature verification systems for forensic environments (particularly considering disguised signatures). Previously, such methods have been heavily used for recognition tasks, rather than verification of writing behaviors, such as character and digit recognition. Second, the proposed methods not only report the more traditional decisions (like scores-usually reported in PR) but also the Bayesian inference based likelihood ratios (suitable for courts and forensic cases).
Furthermore, the thesis also provides a detailed man vs. machine comparison for signature verification tasks. The men, in this comparison, are forensic scientists serving as forensic handwriting examiners and having experience of varying number of years. The machines are the local features based methods proposed in this thesis, along with various other state-of-the-art signature verification systems. The proposed methods clearly outperform the state-of-the-art systems, and sometimes the human experts.
Finally, the thesis details various tasks that have been performed in the areas closely related to signature verification and its application in forensic casework. These include, developing novel local feature based methods for extraction of signatures/handwritten text from document images, hyper-spectral image analysis for extraction of signatures from forensic documents, and analysis of on-line signatures acquired through specialized pens equipped with Accelerometer and Gyroscope. These tasks are important as they enable the thesis to take PR systems one step further close to direct application in forensic cases.
A new solution approach for solving the 2-facility location problem in the plane with block norms
(2015)
Motivated by the time-dependent location problem over T time-periods introduced in
Maier and Hamacher (2015) we consider the special case of two time-steps, which was shown
to be equivalent to the static 2-facility location problem in the plane. Geometric optimality
conditions are stated for the median objective. When using block norms, these conditions
are used to derive a polygon grid inducing a subdivision of the plane based on normal cones,
yielding a new approach to solve the 2-facility location problem in polynomial time. Combinatorial algorithms for the 2-facility location problem based on geometric properties are
deduced and their complexities are analyzed. These methods differ from others as they are
completely working on geometric objects to derive the optimal solution set.
Das Ziel der vorliegenden Dissertation ist es, für den innerhalb der Faserkunststoffverbunde
etablierten Liquid Composite Molding (LCM) Herstellungsprozess, eine optimierte
Preformherstellung aus unidirektionalen (UD) Verstärkungsfasern zu entwickeln.
Dies beinhaltet auch das lokale Verstärken einer textilen Preform. Der ausschlaggebende
Prozess ist hierbei der Preform-Prozess, da dieser Kostentreiber innerhalb
der LCM-Prozesskette ist, in welchem die Verstärkungsfasern zu einem trockenen,
transportfähigen und meist flächigen Faserrohling verbunden werden.
Innerhalb des hier entwickelten Preformingprozesses werden Kohlenstofffasern, sogenannte
Heavy Tows mit einem pulverförmigen Bindersystem eingebracht, erhitzt
und mittels Endeffektor beim Ablegen konsolidiert. Die für den Prozess benötigten
Module und Systeme wurden vor der Online-Bebinderung zuerst an einem separaten
Offlinebebinderungsprüfstand montiert. Mittels dieses Offlinebebinderungsprüfstandes
war die Optimierung und Analyse der einzelnen Module und Systeme durch die
Herstellung eines kontinuierlich bebinderten Rovings (Halbzeug) außerhalb der diskontinuierlichen
Online-Bebinderung möglich. Zugleich wurden mit dem Offlineprüfstand
Halbzeuge mit unterschiedlichem Bindergehalt und unterschiedlichem Bindertyp
hergestellt um einen Einfluss des Bindergehaltes als auch des Bindertyps auf die
Eigenschaften der Preform und des infiltrierten Bauteiles zu analysieren. Die Analyse
der Versuche zeigte deutlich, dass die Wahl des Bindertyps bei gleichbleibender Infiltrationsmatrix
einen signifikanten Einfluss auf die Performance des Bauteils hat,
wohingegen die Bindermenge tendenziell einen untergeordneten Einfluss zeigt. Nach
der Sicherstellung der Funktionsfähigkeit der Module wurden diese an ein robotergestütztes
Ablegesystem zur Online-Bebinderung installiert. Die Applizierung der Binderpartikel
innerhalb der Online-Bebinderung erfolgt temporär während des Ablegeprozesses.
Zur Demonstration der Funktionsfähigkeit wurde eine quasiisotrope Glasfaserpreform
lokal mit den Kohlenstofffasern verstärkt. Die hergestellte ebene Preform
wurde im Anschluss erwärmt, kompaktiert und in eine 3 dimensionale Preform
umgeformt.
Den Abschluss der Arbeit bildet eine Wirtschaftlichkeitsbetrachtung des entwickelten
Prozesses im Vergleich zu zwei „State of the Art“ Preformherstellungsprozessen.
Hierbei konnte gezeigt werden dass die Kosten des gesamten Bauteiles um 3,7 %
sinken unter Anwendung des neu entwickelten Verfahrens der Online-Bebinderung.
Durch das Entstehen von neuen Infektionskrankheiten und das Auftreten von Resistenzen können bisher verwendete Medikamente ihren pharmazeutischen Nutzen verlieren. Daher ist eine konstante Weiterentwicklung von bioaktiven Pharmazeutika lebensrettend. Viele pflanzli-che und mikrobielle Sekundärmetabolite besitzen gesundheitsfördernde Wirkungen und kön-nen als Ressourcen für die Entwicklung neuer Arzneimittel herangezogen werden. Da Pflan-zen und Mikroorganismen ein sehr umfangreiches Repertoire an pharmazeutisch-interessanten Intermediaten besitzen, soll im Rahmen dieser Arbeit die Produktbildung von pflanzlichen und mikrobiellen Sekundärmetaboliten vorgestellt werden, die für weiterführende medizinische Studien von Interesse sind.
Die in dieser Arbeit präsentierten mikrobiellen Sekundärmetabolite sind β-Lactam Antibiotika der Gruppe der OA-6129 und besitzen antibakterielle Eigenschaften gegen grampositive als auch gramnegative Mikroorganismen. Durch die Kultivierung des filamentösen Actinobakteri-ums Streptomyces fulvoviridis A933 17M9 1501 können diese sehr wirksamen Antibiotika gebildet werden. Für eine erfolgreiche Produktbildung wurde im Rahmen dieser Arbeit ein zweistufiger Prozess im Bioreaktor etabliert, der sich über einen Zeitraum von neun Tagen erstreckt. Durch Optimierung und Variation des Mediums, sowie durch die Veränderung der Rührergeometrie, kann die maximale Antibiotikakonzentration um 385 % gesteigert werden.
Neben der zu optimierenden Produktbildung ist auch die Stabilität der Antibiotika im wässrigen Milieu von Interesse. Die Untersuchungen erfolgten am Produktanalogon Imipenem. Es zeig-te sich, dass durch Interaktionen der Imipenemmoleküle der Zerfall mit steigender Antibiotik-akonzentration beschleunigt wird. Ein dazugehöriger Zerfallsweg des Imipenems in deionisie-rem Wasser bei pH 7 konnte durch die Auswertung der HPLC und Massenspektrometrie-Analytik beschrieben werden. Bioaktive Zerfallsprodukte, wie das sehr aktive β-Lactam Thienamycin, können aus dieser Zerfallsreaktion resultieren. Auch im Fermenta¬tionsmedium kann ein konzentrationsabhängiger Zerfall nachgewiesen werden, was für eine wirtschaftli-che, fermentative Herstellung problematisch wäre. Durch die Verwendung von Morpholino-sulfonsäurepuffern ist eine Stabilisierung des Antibiotikums im Wasser und im Fermentati-onsmedium realisierbar. Eine Steigerung der Halbwertszeit von über dem 10fachen gegen-über einer reinen Imipenemlösung im Wasser kann durch die Verwendung dieser Puffersub-stanzen erzielt werden.
Bei den zweiten, in dieser Arbeit behandelten Sekundärmetaboliten, handelt es sich um die pflanzlichen Triterpene Oleanol- und Ursolsäure, von denen antibakterielle, antivirale, entzün-dungshemmende und Krebs vorbeugende Aktivitäten bekannt sind. Neben anderen Pflanzen bilden Spezies von Salbei und Basilikum diese interessanten Sekundärmetabolite. Da bei ei-ner Freilandkultivierung die Produktkonzentrationen jährlichen Schwankungen durch abioti-schen und biotischen Faktoren unterliegen, kann durch eine in situ Kultivierung eine reprodu-zierbare Produktbildung erzielt werden. Im Zuge der Arbeit wurden Kalluskulturen von Salvia officinalis und Ocimum basilicum in verschiedenen Reaktortypen und mit verschiedenen Pro-zessstrategien eingesetzt und betreffend ihrer Produktbildung untersucht. Eine Oleanol- und Ursolsäurebildung durch eine Kalluskultur von Ocimum basilicum konnte durch diese Arbeit zum ersten Mal präsentiert werden.
Im Vergleich zu Kultivierungen in Erlenmeyerkolben fördert eine Kultivierung im Wavebag-Reaktor das Wachstum und die Produktbildung, sodass die maximale Triterpenkonzentration um 210 % gesteigert werden kann. Durch Variation der batch-Prozessstrategie in ein repea-ted-batch-Verfahren kann eine signifikante Steigerung der Oleanolsäurebildung um das 16fache und der Ursolsäurebildung um das 35fache erzielt werden. Es wird angenommen, dass auftretende Substratlimitierung zu einer Steigerung der Produktbildung führt.
Durch eine nachfolgende Biotransformation ist es möglich, die beiden Triterpene zu modifizie-ren. Eine Derivatisierung kann neben einer Verbesserung der Wasserlöslichkeit der Triterpene auch in einer Erhöhung der pharmazeutisch-interessanten Aktivitäten resultieren. Aus diesem Grunde wurden neun Organismen betreffend ihrer biokatalytischen Aktivität untersucht. Mit-tels des Actinobakteriums Nocardia iowensis werden die Oleanol- und Ursolsäure zunächst in ihre korrespondierenden Methylester transformiert. Des Weiteren entstehen bei der Biotrans-formation von Oleanolsäure zwei weitere, bisher unbekannter Derivate, welche durch HPLC, HPLC-ESI-MS und HPLC-1H-NMR charakterisiert werden konnten. Anhand dieser Resultate kann ein neuer Biosyntheseweg für eine Oleanolsäuretransformation mittels Nocardia iowen-sis beschrieben werden.
Um die Abtrennung der Biotransformationskultur von Medium zu vereinfachen und die Wirt-schaftlichkeit zu fördern, kann N. iowensis in Natriumalginat immobilisiert werden. Während kein signifikanter Unterschied zwischen immobilisierten und freien Bakterienzellen betreffend der Substrataufnahme detektiert wird, wird durch die Immobilisierung die Produktbildung re-primiert. Dabei besitzt die Matrixdichte, die aus der Behandlung der Natriumalginatpartikel mit der Calciumchloridlösung resultiert, einen entscheidenden Einfluss auf die Biotransformati-onseffizienz.
Auch eine Zusammenführung von Pflanzenzellkultivierung und Biotransformation in einem Gesamtprozess wurde im Rahmen dieser Arbeit etabliert. Durch den direkten Einsatz der immobilisierten Biotransformationskultur im verdünnten Zelllysat umgeht man eine Aufarbei-tung der Produkttriterpene aus dem Pflanzenzelllysat, was die Wirtschaftlichkeit des Prozes-ses erheblich verbessert. Bis zu einem Mischverhältnis von 50 % Referenzmedium und Zell-lysat kann keine Inhibierung oder Reprimierung der Biotransformation durch vorhandene Pflanzenzellbestandteile, wie z. B. Phenolen, detektiert werden.
Nitrogen element is preponderant in Nature. Found in its simplest form as diatomic gas in the air, as well as in elaborated molecules such as the double helix of DNA, this element is indisputably essential for life. Indeed, nitrogen is omnipresent in all metabolic pathways.
With the advent of green chemistry, researchers attempt to functionalize arenes without pre-functionalization of the later for the establishment of C-C bond formation. Why not C-N bond formation?
We investigated new oxidative amination reactions by cross-dehydrogenative-coupling. Concerned by atom economy and green processes, our objectives were: 1) to obviate pre-activation or pre-oxidation of both C-H coupling partner and N-aminating agent. 2) to avoid the use of chelating directing group.
We achieved C-N bond formation for some classes of amines. Thus, we will describe the reactivity of cyclic secondary amines: carbazole, in presence of catalytic amount of ruthenium (II) and copper (II) to build the challenging C-N bond between two carbazoles. The initial mechanistic experiments will be present and discuss.
Then, we will describe more challenging hetero-coupling formation between diarylamines and carbazoles. The new ruthenium (II)/ copper (II) catalytic system allowed forming the ortho-N-carbazolation of diarylamines. This reaction performed under mild conditions (O2 as terminal oxidant) displays an unusual intramolecular N-H••N interaction in the novel class of compounds.
Finally, we will present a surprising metal free C-N bond formation between the ubiquitous phenols and the phenothiazines. Initially conducted in the presence of transition metals (RuII/CuII), this reaction proved to be efficient with the only effect of cumene and O2. Those components suggest a mechanism initiated by a Hock process. An initial infra-red analysis might point out a strong intramolecular O-H••N interaction in the resulting products.
These first elements of reactivity, developed within the laboratory for “modern dehydrogenative amination reactions”, will be presented and discussed.
This bachelor thesis is concerned with arrangements of hyperplanes, that
is, finite collections of hyperplanes in a finite-dimensional vector
space. Such arrangements can be studied using methods from
combinatorics, topology or algebraic geometry. Our focus lies on an
algebraic object associated to an arrangement \(\mathcal{A}\), the module \(\mathcal{D(A)}\) of
logarithmic derivations along \(\mathcal{A}\). It was introduced by K. Saito in the
context of singularity theory, and intensively studied by Terao and
others. If \(\mathcal{D(A)}\) admits a basis, the arrangement \(\mathcal{A}\) is called free.
Ziegler generalized the concept of freeness to so-called
multiarrangements, where each hyperplane carries a multiplicity. Terao
conjectured that freeness of arrangements can be decided based on the
combinatorics. We pursue the analogous question for multiarrangements in
special cases. Firstly, we give a new proof of a result of Ziegler
stating that generic multiarrangements are totally non-free, that is,
non-free for any multiplicity. Our proof relies on the new concept of
unbalanced multiplicities. Secondly, we consider freeness asymptotically
for increasing multiplicity of a fixed hyperplane. We give an explicit
bound for the multiplicity where the freeness property has stabilized.
Untersuchungen zum langzeitbeständigen Kleben von organisch bandbeschichteten
Stahlfeinblechen mittels Labormethoden stoßen immer wieder auf
die Problematik der korrosiven Unterwanderung der Beschichtung. Diese ist
für die Bestimmung der Langzeitbeständigkeit der Klebung hinderlich, da sie in
der Realität in dieser Form selten vorzufinden ist. Ein Ziel dieser Arbeit war es,
eine angepasste Klebprobengeometrie zu entwickeln, welche eine korrosive
Unterwanderung der organischen Bandbeschichtung in zeitraffenden Laboralterungstests
verhindert. Es konnte gezeigt werden, dass mittels der entwickelten
Probengeometrie eine zuverlässige Bestimmung des Alterungsverhaltens
an geklebten Verbunden mit organisch bandbeschichteten Stahlfeinblechen
möglich ist.
Hierauf aufbauend zielten die weiteren Untersuchungen mit zweikomponentigen
Polyurethan-Klebstoffen auf einen Vergleich der zeitraffenden Laboralterungsmethoden
mit nicht zeitraffenden Alterungsverfahren wie der Freibewitterung
und der Auslagerung am Feldfahrzeug. Die Auslagerung am
Feldfahrzeug erfolgte an Kühlfahrzeugen, welche im Speditionsverkehr auf
europäischen Routen verkehrten. Hauptaugenmerk bei allen Alterungsversuchen
war es neben der Bestimmung der Restfestigkeit auch die klimatischen
Expositionsbedingungen zu dokumentieren. Dies ermöglichte zum einen die
Interpretation der Zugscherergebnisse. Zum anderen konnte hieraus eine
Korrelation und letztendlich ein mathematisches Modell zur Festigkeitsvorhersage
von reversiblen Alterungseffekten abgeleitet werden. Mit diesem Modell
ist eine Vorhersage der Zugscherfestigkeit auf Basis eines bekannten Expositionsprofils
möglich.
Open distributed systems are a class of distributed systems where (i) only partial information about the environment, in which they are running, is present, (ii) new resources may become available at runtime, and (iii) a subsystem may become aware of other subsystems after some interaction. Modeling and implementing such systems correctly is a complex task due to the openness and the dynamicity aspects. One way to ensure that the resulting systems behave correctly is to utilize formal verification.
Formal verification requires an adequate semantic model of the implementation, a specification of the desired behavior, and a reasoning technique. The actor model is a semantic model that captures the challenging aspects of open distributed systems by utilizing actors as universal primitives to represent system entities and allowing them to create new actors and to communicate by sending directed messages as reply to received messages. To enable compositional reasoning, where the reasoning task is reduced to independent verification of the system parts, semantic entities at a higher level of abstraction than actors are needed.
This thesis proposes an automaton model and combines sound reasoning techniques to compositionally verify implementations of open actor systems. Based on I/O automata, the model allows automata to be created dynamically and captures dynamic changes in communication patterns. Each automaton represents either an actor or a group of actors. The specification of the desired behavior is given constructively as an automaton. As the basis for compositionality, we formalize a component notion based on the static structure of the implementation instead of the dynamic entities (the actors) occurring in the system execution. The reasoning proceeds in two stages. The first stage establishes the connection between the automata representing single actors and their implementation description by means of weakest liberal preconditions. The second stage employs this result as the basis for verifying whether a component specification is satisfied. The verification is done by building a simulation relation from the automaton representing the implementation to the component's automaton. Finally, we validate the compositional verification approach through a number of examples by proving correctness of their actor implementations with respect to system specifications.
In this thesis, we investigate several upcoming issues occurring in the context of conceiving and building a decision support system. We elaborate new algorithms for computing representative systems with special quality guarantees, provide concepts for supporting the decision makers after a representative system was computed, and consider a methodology of combining two optimization problems.
We review the original Box-Algorithm for two objectives by Hamacher et al. (2007) and discuss several extensions regarding coverage, uniformity, the enumeration of the whole nondominated set, and necessary modifications if the underlying scalarization problem cannot be solved to optimality. In a next step, the original Box-Algorithm is extended to the case of three objective functions to compute a representative system with desired coverage error. Besides the investigation of several theoretical properties, we prove the correctness of the algorithm, derive a bound on the number of iterations needed by the algorithm to meet the desired coverage error, and propose some ideas for possible extensions.
Furthermore, we investigate the problem of selecting a subset with desired cardinality from the computed representative system, the Hypervolume Subset Selection Problem (HSSP). We provide two new formulations for the bicriteria HSSP, a linear programming formulation and a \(k\)-link shortest path formulation. For the latter formulation, we propose an algorithm for which we obtain the currently best known complexity bound for solving the bicriteria HSSP. For the tricriteria HSSP, we propose an integer programming formulation with a corresponding branch-and-bound scheme.
Moreover, we address the issue of how to present the whole set of computed representative points to the decision makers. Based on common illustration methods, we elaborate an algorithm guiding the decision makers in choosing their preferred solution.
Finally, we step back and look from a meta-level on the issue of how to combine two given optimization problems and how the resulting combinations can be related to each other. We come up with several different combined formulations and give some ideas for the practical approach.
Im Rahmen dieser Arbeit konnten 4-Pyrrolidin-1,8-naphthalimidomethylphenyl-N-tert-butylnitron (PNIMPN, 11), 4-Pyrrolidin-1,8-naphthalimidophenyl-N-tert-butylnitron (PNIPN, 34), 4-Pyrrolidin-1,8-naphthalimidomethyl-N-tert-butylnitron (PNIMN, 29) und das cyclische 4-Pyrrolidin-1,8-naphthalimidoethylpiperazin-N-oxid (PNIEPO, 24) synthetisiert werden. Die Synthese des 4-Pyrrolidin-1,8-naphthalimidophenyl-α-methyl-N-tert-butylnitron (21), ein Nitron mit einer α-Methyl-Gruppe zur Stabilitätserhöhung der gebildeten Radikale, wurde nicht erreicht. Diese Verbindungen ermöglichen die Identifizierung gebildeter Radikale, mittels ESR-Untersuchungen und gleichzeitig deren Entstehungsort innerhalb der Zelle, mittels in vitro-Messungen mit einem konfokalen Laser-Scanning-Mikroskop (c-LSM). Dies beruht auf der Tatsache, dass die Nitrone fluoreszierend, aber ESR-inaktiv sind und nach der Reaktion mit Radikalen, ein persistentes Radikal bilden, welches nun keine Fluoreszenz aufweist, allerdings ESR-aktiv ist.
Die ESR spektroskopischen Untersuchungen ergaben, dass die Verbindungen 24, 29 und 34, analog zum bereits von S. Hauck untersuchten p-Nitrostilbennitron, spin trapping-Eigenschaften besitzen. Der Nachweis und die Detektion von Hydroxyl-Addukten nach Arbeiten von Mitchell konnte nicht nachgewiesen werden. Als Grund kann eine zu geringe Enzymaktivität der eingesetzten Xanthinoxidase und/oder eine geringer Stabilität der radikalischen Addukte aufgeführt werden. Spätere Untersuchungen von A. Karbach unterstützen diese Annahmen.
Messungen der Absorptionsmaxima der Verbindungen zeigten keine erwartete bathochrome Verschiebung nach Vergrößerung des π-Elektronensystems. Dies könnte durch eine mögliche sterische Hinderung der Rotation um die Imidbindung zurückzuführen sein. Kraftfeld- und ab initio-Berechnungen müssen dies noch bestätigen. Das PNIMPN (11) zeigt einen ungewöhnlichen „Pump-Effekt“ bei diesen Messungen. Dabei steigert sich die Intensität der Fluoreszenz bei einer Anregungswellenlänge von 488 nm, wenn zuvor mit 405 nm angeregt wurde. Dieser Effekt ist ebenfalls in Umgekehrter Reihenfolge zu beobachten. Genauere Untersuchungen zu dieser Beobachtung wurden nicht durchgeführt.
Bei der Zytotoxizitätsmessung mittels des SRB-Tests, wurde festgestellt, dass alle synthetisierten Verbindungen innerhalb des eingesetzten Konzentrationsbereiches atoxisch für die verwendeten Zelllinien sind. Eine Ausnahme bildet hierbei, PNIMN (29) ist in einem Konzentrationsbereich ab 25 µM sehr toxisch.
Alle getesteten Verbindungen akkumulieren vorwiegend in den Mitochondrien der Zellen, wodurch sie sich für die Untersuchung und Detektion von ROS innerhalb der Atmungskette eignen. PNIMN (29) und PNIEPO (24) akkumulieren zudem in den nucleoli im Zellkern.
Die Versuche zur in vitro Fluoreszenzlöschung mittels c-LSM, dass alle Verbindungen eine Löschung der Fluoreszenz, nach Zugabe von Atmungsketteninhibitoren (Rotenon und Antimycin A), zeigen, die deutlich rascher erfolgt im Vergleich mit den bleaching Experimenten.
The current procedures for achieving industrial process surveillance, waste reduction, and prognosis of critical process states are still insufficient in some parts of the manufacturing industry. Increasing competitive pressure, falling margins, increasing cost, just-in-time production, environmental protection requirements, and guidelines concerning energy savings pose new challenges to manufacturing companies, from the semiconductor to the pharmaceutical industry.
New, more intelligent technologies adapted to the current technical standards provide companies with improved options to tackle these situations. Here, knowledge-based approaches open up pathways that have not yet been exploited to their full extent. The Knowledge-Discovery-Process for knowledge generation describes such a concept. Based on an understanding of the problems arising during production, it derives conclusions from real data, processes these data, transfers them into evaluated models and, by this open-loop approach, reiteratively reflects the results in order to resolve the production problems. Here, the generation of data through control units, their transfer via field bus for storage in database systems, their formatting, and the immediate querying of these data, their analysis and their subsequent presentation with its ensuing benefits play a decisive role.
The aims of this work result from the lack of systematic approaches to the above-mentioned issues, such as process visualization, the generation of recommendations, the prediction of unknown sensor und production states, and statements on energy cost.
Both science and commerce offer mature statistical tools for data preprocessing, analysis and modeling, and for the final reporting step. Since their creation, the insurance business, the world of banking, market analysis, and marketing have been the application fields of these software types; they are now expanding to the production environment.
Appropriate modeling can be achieved via specific machine learning procedures, which have been established in various industrial areas, e.g., in process surveillance by optical control systems. Here, State-of-the-art classification methods are used, with multiple applications comprising sensor technology, process areas, and production site data. Manufacturing companies now intend to establish a more holistic surveillance of process data, such as, e.g., sensor failures or process deviations, to identify dependencies. The causes of quality problems must be recognized and selected in real time from about 500 attributes of a highly complex production machine. Based on these identified causes, recommendations for improvement must then be generated for the operator at the machine, in order to enable timely measures to avoid these quality deviations.
Unfortunately, the ability to meet the required increases in efficiency – with simultaneous consumption and waste minimization – still depends on data that are, for the most part, not available. There is an overrepresentation of positive examples whereas the number of definite negative examples is too low.
The acquired information can be influenced by sensor drift effects and the occurrence of quality degradation may not be adequately recognized. Sensorless diagnostic procedures with dual use of actuators can be of help here.
Moreover, in the course of a process, critical states with sometimes unexplained behavior can occur. Also in these cases, deviations could be reduced by early countermeasures.
The generation of data models using appropriate statistical methods is of advantage here.
Conventional classification methods sometimes reach their limits. Supervised learning methods are mostly used in areas of high information density with sufficient data available for the classes under examination. However, there is a growing trend (e.g., spam filtering) to apply supervised learning methods to underrepresented classes, the datasets of which are, at best, outliers or not at all existent.
The application field of One-Class Classification (OCC) deals with this issue. Standard classification procedures (e.g., k-nearest-neighbor classifier, support vector machines) can be modified in adjustment to such problems. Thereby, a control system is able to classify statements on changing process states or sensor deviations. The above-described knowledge discovery process was employed in a case study from the polymer film industry, at the Mondi Gronau GmbH, taken as an example, and accomplished by a real-data survey at the production site and subsequent data preprocessing, modeling, evaluation, and deployment as a system for the generation of recommendations. To this end, questions regarding the following topics had to be clarified: data sources, datasets and their formatting, transfer pathways, storage media, query sequences, the employed methods of classification, their adjustment to the problems at hand, evaluation of the results, construction of a dynamic cycle, and the final implementation in the production process, along with its surplus value for the company.
Pivotal options for optimization with respect to ecological and economical aspects can be found here. Capacity for improvement is given in the reduction of energy consumption, CO\(_2\) emissions, and waste at all machines. At this one site, savings of several million euros per month can be achieved.
One major difficulty so far has been hardly accessible process data which, distributed on various data sources and unconnected, in some areas led to an increased analysis effort and a lack of holistic real-time quality surveillance. Monitoring of specifications and the thus obtained support for the operator at the installation resulted in a clear disadvantage with regard to cost minimization.
The data of the case study, captured according to their purposes and in coordination with process experts, amounted to 21,900 process datasets from cast film extrusion during 2 years’ time, including sensor data from dosing facilities and 300 site-specific energy datasets from the years 2002–2014.
In the following, the investigation sequence is displayed:
1. In the first step, industrial approaches according to Industrie 4.0 and related to Big Data were investigated. The applied statistical software suites and their functions were compared with a focus on real-time data acquisition from database systems, different data formats, their sensor locations at the machines, and the data processing part. The linkage of datasets from various data sources for, e.g., labeling and downstream exploration according to the knowledge discovery process is of high importance for polymer manufacturing applications.
2. In the second step, the aims were defined according to the industrial requirements, i.e. the critical production problem called “cut-off” as the main selection, and with regard to their investigation with machine learning methods. Therefore, a system architecture corresponding to the polymer industry was developed, containing the following processing steps: data acquisition, monitoring \& recommendation, and self-configuration.
3. The novel sensor datasets, with 160–2,500 real and synthetic attributes, were acquired within 1-min intervals via PLC and field bus from an Oracle database. The 160 features were reduced to 6 dimensions with feature reduction methods. Due to underrepresentation of the critical class, the learning approaches had to be modified and optimized for one-class classification, which achieved 99% accuracy after training, testing and evaluation with real datasets.
4. In the next step, the 6-dimensional dataset was scaled into lower 1-, 2-, or 3-dimensional space with classical and non-classical mapping approaches for downstream visualization. The mapped view was separated into zones of normal and abnormal process conditions by threshold setting.
5. Afterwards, the boundary zone was investigated and an approach for trajectory extraction consisting of condition points in sequence was developed, to optimize the prediction behavior of the model. The extracted trajectories were trained, tested and evaluated by State-of-the-art classification methods, achieving a 99% recognition ratio.
6. In the last step, the best methods and processing parts were converted into a specifically developed domain-specific graphical user interface for real-time visualization of process condition changes. The requirements of such an interface were discussed with the operators with regard to intuitive handling, interactive visualization and recommendations (as e.g., messaging and traffic lights), and implemented.
The software prototype was tested at a laboratory machine. Correct recognition of abnormal process problems was achieved at a 90\% ratio. The software was afterwards transferred to a group of on-line production machines.
As demonstrated, the monthly amount of waste arising at machine M150 could be decreased from 20.96% to 12.44% during the application time. The frequency of occurrence of the specific problem was reduced by 30% related to monthly savings of 50,000 EUR.
In the approach pertaining to the energy prognosis of load profiles, monthly energy data from 2002 to 2014 (about 36 trajectories with three to eight real parameters each) were used as the basis, analyzed and modeled systematically. The prognosis quality increased with approaching target date. Thereby, the site-specific load profile for 2014 could be predicted with an accuracy of 99%.
The achievement of sustained cost reductions of several 100,000 euros, combined with additional savings of EUR 2.8 million, could be demonstrated.
The process improvements achieved while pursuing scientific targets could be successfully and permanently integrated at the case study plant. The increase in methodical and experimental knowledge was reflected by first economical results and could be verified numerically. The expectations of the company were more than fulfilled and further developments based on the new findings were initiated. Among the new finding are the transfer of the scientific findings onto more machines and even the initiation of further studies expanding into the diagnostics area.
Considering the size of the enterprise, future enhanced success should also be possible for other locations. In the course of the grid charge exemption according to EEG, the energy savings at further German locations can amount to 4–11% on a monetary basis and at least 5% based on energy. Up to 10% of materials and cost can be saved with regard to waste reduction related to specific problems. According to projections, material savings of 5–10 t per month and time savings of up to 50 person-hours are achievable. Important synergy effects can be created by the knowledge transfer.
The overall goal of the work is to simulate rarefied flows inside geometries with moving boundaries. The behavior of a rarefied flow is characterized through the Knudsen number \(Kn\), which can be very small (\(Kn < 0.01\) continuum flow) or larger (\(Kn > 1\) molecular flow). The transition region (\(0.01 < Kn < 1\)) is referred to as the transition flow regime.
Continuum flows are mainly simulated by using commercial CFD methods, which are used to solve the Euler equations. In the case of molecular flows one uses statistical methods, such as the Direct Simulation Monte Carlo (DSMC) method. In the transition region Euler equations are not adequate to model gas flows. Because of the rapid increase of particle collisions the DSMC method tends to fail, as well
Therefore, we develop a deterministic method, which is suitable to simulate problems of rarefied gases for any Knudsen number and is appropriate to simulate flows inside geometries with moving boundaries. Thus, the method we use is the Finite Pointset Method (FPM), which is a mesh-free numerical method developed at the ITWM Kaiserslautern and is mainly used to solve fluid dynamical problems.
More precisely, we develop a method in the FPM framework to solve the BGK model equation, which is a simplification of the Boltzmann equation. This equation is mainly used to describe rarefied flows.
The FPM based method is implemented for one and two dimensional physical and velocity space and different ranges of the Knudsen number. Numerical examples are shown for problems with moving boundaries. It is seen, that our method is superior to regular grid methods with respect to the implementation of boundary conditions. Furthermore, our results are comparable to reference solutions gained through CFD- and DSMC methods, respectevly.
A nonlocal stochastic model for intra- and extracellular proton dynamics in a tumor is proposed.
The intracellular dynamics is governed by an SDE coupled to a reaction-diffusion
equation for the extracellular proton concentration on the macroscale. In a more general context
the existence and uniqueness of solutions for local and nonlocal
SDE-PDE systems are established allowing, in particular, to analyze the proton dynamics model both,
in its local version and the case with nonlocal path dependence.
Numerical simulations are performed
to illustrate the behavior of solutions, providing some insights into the effects of randomness on tumor acidity.
For the prediction of digging forces from a granular material simulation, the
Nonsmooth Contact Dynamics Method is examined. First, the equations of motion
for nonsmooth mechanical systems are laid out. They are a differential
variational inequality that has the same structure as classical discrete algebraic equations. Using a Galerkin projection in time, it becomes possible to derive
nonsmooth versions of the classical SHAK and RATTLE integrators.
A matrix-free Interior Point Method is used for the complementarity
problems that need to be solved in every time step. It is shown that this method
outperforms the Projected Gauss-Jacobi method by several orders of magnitude
and produces the same digging force result as the Discrete Element Method in comparable computing time.
The heterogeneity of today's access possibilities to wireless networks imposes challenges for efficient mobility support and resource management across different Radio Access Technologies (RATs). The current situation is characterized by the coexistence of various wireless communication systems, such as GSM, HSPA, LTE, WiMAX, and WLAN. These RATs greatly differ with respect to coverage, spectrum, data rates, Quality of Service (QoS), and mobility support.
In real systems, mobility-related events, such as Handover (HO) procedures, directly affect resource efficiency and End-To-End (E2E) performance, in particular with respect to signaling efforts and users' QoS. In order to lay a basis for realistic multi-radio network evaluation, a novel evaluation methodology is introduced in this thesis.
A central hypothesis of this thesis is that the consideration and exploitation of additional information characterizing user, network, and environment context, is beneficial for enhancing Heterogeneous Access Management (HAM) and Self-Optimizing Networks (SONs). Further, Mobile Network Operator (MNO) revenues are maximized by tightly integrating bandwidth adaptation and admission control mechanisms as well as simultaneously accounting for user profiles and service characteristics. In addition, mobility robustness is optimized by enabling network nodes to tune HO parameters according to locally observed conditions.
For establishing all these facets of context awareness, various schemes and algorithms are developed and evaluated in this thesis. System-level simulation results demonstrate the potential of context information exploitation for enhancing resource utilization, mobility support, self-tuning network operations, and users' E2E performance.
In essence, the conducted research activities and presented results motivate and substantiate the consideration of context awareness as key enabler for cognitive and autonomous network management. Further, the performed investigations and aspects evaluated in the scope of this thesis are highly relevant for future 5G wireless systems and current discussions in the 5G infrastructure Public Private Partnership (PPP).
The present research combines different paradigm in the area of visual perception of letter and words. These experiments aimed to understand the deficit underlying the problem associated with the faulty visual processing of letters and words. The present work summarizes the findings from two different types of population: (1) Dyslexics (reading-disabled children) and (2) Illiterates (adults who cannot read). In order to compare the results, comparisons were made between literate and illiterate group; dyslexics and control group (normal reading children). Differences for Even related potentials (ERP’s) between dyslexics and control children were made using mental rotation task for letters. According to the ERP’s, the effect of the mental rotation task of letter perception resulted as a delayed positive component and the component becomes less positive when the task becomes more difficult (Rotation related Negativity – RRN). The component was absent for dyslexics and present for controls. Dyslexics also showed some late effects in comparison to control children and this could be interpreted as problems at the decision stage where they are confused as to the letter is normal or mirrored. Dyslexics also have problems in responding to the letters having visual or phonological similarities (e.g. b vs d, p vs q). Visually similar letters were used to compare dyslexics and controls on a symmetry generalization task in two different contrast conditions (low and high). Dyslexics showed a similar pattern of response, and were overall slower in responding to the task compared to controls. The results were interpreted within the framework of the Functional Coordination Deficit (Lachmann, 2002). Dyslexics also showed delayed response in responding to the word recognition task during motion. Using red background decreases the Magnocellular pathway (M-pathway) activity, making more difficult to identify letters and this effect was worse for dyslexics because their M-pathway is weaker. In dyslexics, the M-pathway is worse; using a red background decreases the M activity and increases the difficulty in identifying lexical task in motion. This effect generated worse response to red compared to the green background. The reaction times with red were longer than those with green background. Further, Illiterates showed an analytic approach to responding to letters as well as on shapes. The analytic approach does not result from an individual capability to read, but is a primary base of visual organization or perception.
Maintaining complex software systems tends to be a costly activity where software engineers spend a significant amount of time trying to understand the system's structure and behavior. As early as the 1980s, operation and maintenance costs were already twice as expensive as the initial development costs incurred. Since then these costs have steadily increased. The focus of this thesis is to reduce these costs through novel interactive exploratory visualization concepts and to apply these modern techniques in the context of services offered by software quality analysis.
Costs associated with the understanding of software are governed by specific features of the system in terms of different domains, including re-engineering, maintenance, and evolution. These features are reflected in software measurements or inner qualities such as extensibility, reusability, modifiability, testability, compatability, or adatability. The presence or absence of these qualities determines how easily a software system can conform or be customized to meet new requirements. Consequently, the need arises to monitor and evaluate the qualitative state of a software system in terms of these qualities. Using metrics-based analysis, production costs and quality defects of the software can be recorded objectively and analyzed.
In practice, there exist a number of free and commercial tools that analyze the inner quality of a software system through the use of software metrics. However, most of these tools focus on software data mining and metrics (computational analysis) and only a few support visual analytical reasoning. Typically, computational analysis tools generate data and software visualization tools facilitate the exploration and explanation of this data through static or interactive visual representations. Tools that combine these two approaches focus only on well-known metrics and lack the ability to examine user defined metrics. Further, they are often confined to simple visualization methods and metaphors, including charts, histograms, scatter plots, and node-link diagrams.
The goal of this thesis is to develop methodologies that combine computational analysis methods together with sophisticated visualization methods and metaphors through an interactive visual analysis approach. This approach promotes an iterative knowledge discovery process through multiple views of the data where analysts select features of interest in one of the views and inspect data items of the select subset in all of the views. On the one hand, we introduce a novel approach for the visual analysis of software measurement data that captures complete facts of the system, employs a flow-based visual paradigm for the specification of software measurement queries, and presents measurement results through integrated software visualizations. This approach facilitates the on-demand computation of desired features and supports interactive knowledge discovery - the analyst can gain more insight into the data through activities that involve: building a mental model of the system; exploring expected and unexpected features and relations; and generating, verifying, or rejecting hypothesis with visual tools. On the other hand, we have also extended existing tools with additional views of the data for the presentation and interactive exploration of system artifacts and their inter-relations.
Contributions of this thesis have been integrated into two different prototype tools. First evaluations of these tools show that they can indeed improve the understanding of large and complex software systems.
Computational Homogenization of Piezoelectric Materials using FE² Methods and Configurational Forces
(2015)
Piezoelectric materials are electro-mechanically coupled materials. In these materials it is possible to produce an electric field by applying a mechanical load. This phenomenon is known as the piezoelectric effect. These materials also exhibit a mechanical deformation in response to an external electric loading, which is known as the inverse piezoelectric effect. By using these smart properties of piezoelectric materials, applications are possible in sensors and actuators. Ferroelectric or piezoelectric materials show switching behavior of the polarization in the material under an external loading. Due to this property, these materials are used to produce random access memory (RAM) for the non-volatile storage of data in computing devices. It is essential to understand the material responses of piezoelectric materials properly in order to use them in the engineering applications in innovative manners. Due to the growing interest in determining the material responses of smart material (e.g., piezoelectric material), computational methods are becoming increasingly important.
Many engineering materials possess inhomogeneities on the micro level. These inhomogeneities in the materials cause some difficulties in the determination of the material responses computationally as well as experimentally. But on the other hand, sometimes these inhomogeneities help the materials to render some good physical properties, e.g., glass or carbon fiber reinforced composites are light weight, but show higher strength. Piezoelectric materials also exhibit intense inhomogeneities on the micro level. These inhomogeneities are originating from the presence of domains, domain walls, grains, grain boundaries, micro cracks, etc. in the material. In order to capture the effects of the underlying microstructures on the macro quantities, it is essential to homogenize material parameters and the physical responses. There are several approaches to perform the homogenization. A two-scale classical (first-order) homogenization of electro-mechanically coupled materials using a FE²-approach is discussed in this work. The main objective of this work is to investigate the influences of the underlying micro structures on the macro Eshelby stress tensor and on the macro configurational forces. The configurational forces are determined in certain defect situations. These defect situations include the crack tip of a sharp crack in the macro specimen.
A literature review shows that the macro strain tensor is used to determine the micro boundary condition for the FE²-based homogenization in a small strain setting. This approach is capable to determine the consistent homogenized physical quantities (e.g., stress, strain) and the homogenized material quantities (e.g., stiffness tensor). But the application of these type of micro boundaries for the homogenization does not generate physically consistent macro Eshelby stress tensor or the macro configurational forces. Even in the absence of the micro volume configurational forces, this approach of the homogenization of piezoelectric materials produces unphysical volume configurational forces on the macro level. After a thorough investigation of the boundary conditions on the representative volume elements (RVEs), it is found that a displacement gradient driven micro boundary conditions remedy this issue. The use of the displacement gradient driven micro boundary conditions also satisfies the Hill-Mandel condition. The macro Eshelby stress tensor of a pure mechanical problem in a small deformation setting can be determined in two possible ways: by using the homogenized mechanical quantities (displacement gradient and stress tensor), or by homogenizing the Eshelby stress tensor on the micro level by volume averaging. The first approach does not satisfy the Hill-Mandel condition incorporating the Eshelby stress tensor in the energy term, on the other hand, the Hill-Mandel condition is satisfied in the second approach. In the case of homogenized Eshelby stress tensor determined from the homogenized physical quantities, the Hill-Mandel condition gives an additional energy term. A body in a small deformation setting is deformed according to the displacement gradient. If the homogenization is done using strain driven micro boundary conditions, the micro domain is deformed according to the macro strain, but the tiny vicinity around the corresponding Gauß point is deformed according to the macro displacement gradient. This implies that some restrictions are imposed at every Gauß point on the macro level. This situation helps the macro system to produce nonphysical volume configurational forces.
A FE²-based computational homogenization technique is also considered for the homogenization of piezoelectric materials. In this technique a representative volume element, which comprises of the micro structural features in the material, is assigned to every Gauß point of the macro domain. The macro displacement gradient and the macro electric field, or the macro stress tensor and the macro electric displacement are passed to the RVEs at every macro Gauß point. After determining boundary conditions on the RVEs, the homogenization process is performed. The homogenized physical quantities and the homogenized material parameters are passed back to macro Gauß points. In this work numerical investigations are carried out for two distinct situations of the microstructures of the piezoelectric materials regarding the evolution on the micro level: a) homogenization by using stationary microstructures, and b) homogenization by using evolving microstructures.
For the first case, the domain walls remain at fixed positions through out the simulations for the homogenization of piezoelectric materials. For a considerably large external loading, the real situation is different. But to understand the effects of the underlying microstructures on the macro configurational forces, to some extent it is sufficient to do the homogenization with fixed or stationary microstructures. The homogenization process is carried out for different microstructures and for different loading conditions. If the mechanical load is applied in the direction of the polarization, a smaller crack tip configurational force is observed in comparison to the configurational force determined for a mechanical loading perpendicular to the polarization. If the polarizations in the microstructures are parallel or perpendicular to the applied electric field and the applied displacement, configurational forces parallel to the crack ligament of the macro crack are observed only. In the case of inclined polarizations in the microstructures, configurational forces inclined to the crack ligament are obtained. The simulation results also reveal that an application of an external electric field to the material reduces the value of the nodal configurational forces at the crack tip.
In the second case, the interfaces of the micro structures are allowed to move from their initial positions at every step of the applied incremental external loading. Thus, at every step of the application of the external loading, the microstructures are changed when the external loading is larger than the coercive field. The movement of the interfaces is realized through the nodal configurational forces on the micro level. At every step of the application of the external loading, the nodal configurational forces per unit length on the domain walls are determined in the post-processing of the FE-simulation on the micro domain. With the help of the domain wall kinetics, the new positions of the domain walls are determined. Numerical results show that the crack tip region is the most affected area in the macro domain. For that reason a very different distribution of the macro electric displacement is observed comparing the same produced by using fixed microstructures. Due to the movement of the domain walls, the energy is dissipated in the system. As a result, a smaller configurational force appears at the crack tip on the macro level in the case of the homogenization by using evolving microstructures. By using the homogenization technique involving the evolution of the microstructures, it is possible to produce the electric displacement vs. electric field hysteresis loop on the macro level. The shape of the hysteresis loop depends on the value of the rate of application of the external electric loading. A faster deployment of the external electric field widens the hysteresis loop.
In this thesis, an approach is presented that turns the currently unstructured process of automotive hazard analysis and risk assessments (HRA), which relies on creativity techniques, into a structured, model-based approach that makes the HRA results less dependent on experts' experience, more consistent, and gives them higher quality. The challenge can be subdivided into two steps. The first step is to improve the HRA as it is performed in current practice. The second step is to go beyond the current practice and consider not only single service failures as relevant hazards, but also multiple service failures. For the first step, the most important aspect is to formalize the operational situation of the system and to determine its likelihood. Current approaches use natural-language textual descriptions, which makes it hard to ensure consistency and increase efficiency through reuse. Furthermore, due to ambiguity in natural language, it is difficult to ensure consistent likelihood estimates for situations.
The main aspect of the second step is that considering multiple service failures as hazards implies that one needs to analyze an exponential number of hazards. Due to the fact that hazard assessments are currently done purely manually, considering multiple service failures is not possible. The only way to approach this challenge is to formalize the HRA and make extensive use of automation support.
In SAHARA we handle these challenges by first introducing a model-based representation of an HRA with GOBI. Based on this, we formalized the representation of operational situations and their likelihood assessment in OASIS and HEAT, respectively. We show that more consistent situation assessments are possible and that situations (including their likelihood) can be efficiently reused. The second aspect, coping with multiple service failures, is addressed in ARID. We show that using our tool-supported HRA approach, 100% coverage of all possible hazards (including multiple service failures) can be achieved by relying on very limited manual effort. We furthermore show that not considering multiple service failures results in insufficient safety goals.
The advances in sensor technology have introduced smart electronic products with
high integration of multi-sensor elements, sensor electronics and sophisticated signal
processing algorithms, resulting in intelligent sensor systems with a significant level
of complexity. This complexity leads to higher vulnerability in performing their
respective functions in a dynamic environment. The system dependability can be
improved via the implementation of self-x features in reconfigurable systems. The
reconfiguration capability requires capable switching elements, typically in the form
of a CMOS switch or miniaturized electromagnetic relay. The emerging DC-MEMS
switch has the potential to complement the CMOS switch in System-in-Package as
well as integrated circuits solutions. The aim of this thesis is to study the feasibility
of using DC-MEMS switches to enable the self-x functionality at system level.
The self-x implementation is also extended to the component level, in which the
ISE-DC-MEMS switch is equipped with self-monitoring and self-repairing features.
The MEMS electrical behavioural model generated by the design tool is inadequate,
so additional electrical models have been proposed, simulated and validated. The
simplification of the mechanical MEMS model has produced inaccurate simulation
results that lead to the occurrence of stiction in the actual device. A stiction conformity
test has been proposed, implemented, and successfully validated to compensate
the inaccurate mechanical model. Four different system simulations of representative
applications were carried out using the improved behavioural MEMS model, to
show the aptness and the performances of the ISE-DC-MEMS switch in sensitive
reconfiguration tasks in the application and to compare it with transmission gates.
The current design of the ISE-DC-MEMS switch needs further optimization in terms
of size, driving voltage, and the robustness of the design to guarantee high output
yield in order to match the performance of commercial DC MEMS switches.
Motivated by the results of infinite dimensional Gaussian analysis and especially white noise analysis, we construct a Mittag-Leffler analysis. This is an infinite dimensional analysis with respect to non-Gaussian measures of Mittag-Leffler type which we call Mittag-Leffler measures. Our results indicate that the Wick ordered polynomials, which play a key role in Gaussian analysis, cannot be generalized to this non-Gaussian case. We provide evidence that a system of biorthogonal polynomials, called generalized Appell system, is applicable to the Mittag-Leffler measures, instead of using Wick ordered polynomials. With the help of an Appell system, we introduce a test function and a distribution space. Furthermore we give characterizations of the distribution space and we characterize the weak integrable functions and the convergent sequences within the distribution space. We construct Donsker's delta in a non-Gaussian setting as an application.
In the second part, we develop a grey noise analysis. This is a special application of the Mittag-Leffler analysis. In this framework, we introduce generalized grey Brownian motion and prove differentiability in a distributional sense and the existence of generalized grey Brownian motion local times. Grey noise analysis is then applied to the time-fractional heat equation and the time-fractional Schrödinger equation. We prove a generalization of the fractional Feynman-Kac formula for distributional initial values. In this way, we find a Green's function for the time-fractional heat equation which coincides with the solutions given in the literature.
The Wilkie model is a stochastic asset model, developed by A.D. Wilkie in 1984 with a purpose to explore the behaviour of investment factors of insurers within the United Kingdom. Even so, there is still no analysis that studies the Wilkie model in a portfolio optimization framework thus far. Originally, the Wilkie model is considering a discrete-time horizon and we apply the concept of Wilkie model to develop a suitable ARIMA model for Malaysian data by using Box-Jenkins methodology. We obtained the estimated parameters for each sub model within the Wilkie model that suits the case of Malaysia, and permits us to analyse the result based on statistics and economics view. We then tend to review the continuous time case which was initially introduced by Terence Chan in 1998. The continuous-time Wilkie model inspired is then being employed to develop the wealth equation of a portfolio that consists of a bond and a stock. We are interested in building portfolios based on three well-known trading strategies, a self-financing strategy, a constant growth optimal strategy as well as a buy-and-hold strategy. In dealing with the portfolio optimization problems, we use the stochastic control technique consisting of the maximization problem itself, the Hamilton-Jacobi-equation, the solution to the Hamilton-Jacobi-equation and finally the verification theorem. In finding the optimal portfolio, we obtained the specific solution of the Hamilton-Jacobi-equation and proved the solution via the verification theorem. For a simple buy-and-hold strategy, we use the mean-variance analysis to solve the portfolio optimization problem.
In some processes for spinning synthetic fibers the filaments are exposed to highly turbulent air flows to achieve a high degree of stretching (elongation). The quality of the resulting filaments, namely thickness and uniformity, is thus determined essentially by the aerodynamic force coming from the turbulent flow. Up to now, there is a gap between the elongation measured in experiments and the elongation obtained by numerical simulations available in the literature.
The main focus of this thesis is the development of an efficient and sufficiently accurate simulation algorithm for the velocity of a turbulent air flow and the application in turbulent spinning processes.
In stochastic turbulence models the velocity is described by an \(\mathbb{R}^3\)-valued random field. Based on an appropriate description of the random field by Marheineke, we have developed an algorithm that fulfills our requirements of efficiency and accuracy. Applying a resulting stochastic aerodynamic drag force on the fibers then allows the simulation of the fiber dynamics modeled by a random partial differential algebraic equation system as well as a quantization of the elongation in a simplified random ordinary differential equation model for turbulent spinning. The numerical results are very promising: whereas the numerical results available in the literature can only predict elongations up to order \(10^4\) we get an order of \(10^5\), which is closer to the elongations of order \(10^6\) measured in experiments.
Mobile Partizipation
(2015)
Smartphones bringen computertechnische Anwendungen in den öffentlichen Raum. Mobiles Web, Geolokalisierung und integrierte Sensoren ermöglichen kollaborative Datenerfassung (Urban Sensing), spontane Kommunikation (Smart Mobs) sowie neue Formen der Planungskommunikation (Mobile Augmented Reality). Es lässt sich eine Partizipation unter geändertem Vorzeichen diagnostizieren: Transparentere Verfahren, früherer Einbezug der Öffentlichkeit und mehr Mitsprachemöglichkeiten werden zunehmend eingefordert. Zugleich entwickeln sich eine Vielzahl an neuen Bottom-up-Bewegungen, die das Internet als einen Ort der Teilhabe und konstruktiver Mitwirkung an Stadt(-planung) begreifen und sich auf vielfältige Weise einbringen. Crowdsourcing, Civic-Hacking und urbane Interventionen stehen beispielhaft für diesen Wandel und fördern diese neuen Formen selbstinitiierter Partizipation. Nach der Definition des Phänomens mobiler Partizipation und einer Vielzahl an Beispielen, werden neue Entwicklungen, Möglichkeiten und Chancen, aber auch Herausforderungen und Hemmnisse für die Stadtplanung beschrieben und ein Blick auf sich zukünftig entwickelnde Arbeitsfelder im Zeitalter der der Smart Cities geworfen.
This dissertation focuses on the visualization of urban microclimate data sets,
which describe the atmospheric impact of individual urban features. The application
and adaptation of visualization and analysis concepts to enhance the
insight into observational data sets used this specialized area are explored, motivated
through application problems encountered during active involvement
in urban microclimate research at the Arizona State University in Tempe, Arizona.
Besides two smaller projects dealing with the analysis of thermographs
recorded with a hand-held device and visualization techniques used for building
performance simulation results, the main focus of the work described in
this document is the development of a prototypic tool for the visualization
and analysis of mobile transect measurements. This observation technique involves
a sensor platform mounted to a vehicle, which is then used to traverse
a heterogeneous neighborhood to investigate the relationships between urban
form and microclimate. The resulting data sets are among the most complex
modes of in-situ observations due to their spatio-temporal dependence, their
multivariate nature, but also due to the various error sources associated with
moving platform observations.
The prototype enables urban climate researchers to preprocess their data,
to explore a single transect in detail, and to aggregate observations from multiple
traverses conducted over diverse routes for a visual delineation of climatic
microenvironments. Extending traditional analysis methods, the suggested visualization
tool provides techniques to relate the measured attributes to each
other and to the surrounding land cover structure. In addition to that, an
improved method for sensor lag correction is described, which shows the potential
to increase the spatial resolution of measurements conducted with slow
air temperature sensors.
In summary, the interdisciplinary approach followed in this thesis triggers
contributions to geospatial visualization and visual analytics, as well as to urban
climatology. The solutions developed in the course of this dissertation are
meant to support domain experts in their research tasks, providing means to
gain a qualitative overview over their specific data sets and to detect patterns,
which can then be further analyzed using domain-specific tools and methods.
We consider the multiscale model for glioma growth introduced in a previous work and extend it to account
for therapy effects. Thereby, three treatment strategies involving surgical resection, radio-, and
chemotherapy are compared for their efficiency. The chemotherapy relies on inhibiting the binding
of cell surface receptors to the surrounding tissue, which impairs both migration and proliferation.
Konzeptionelle Studien der letzten Jahre deuten darauf hin, dass für eine Verwurzelung von Nachhaltigkeit in modernen Unternehmen eine Veränderung der Denkweise der Unternehmensentscheidungsträger notwendig ist. Dabei werden Verantwortung und nachhaltiges Handeln nicht ausschließlich als Instrumente zur Erreichung ökonomischer Ziele eingesetzt, sondern bilden, verankert in der persönlichen Spiritualität, fundamentale Prinzipien und eigenständige Werte. Ziel der vorliegenden Arbeit ist es deshalb, die Zusammenhänge zwischen Spiritualität und unternehmerischer Nachhaltigkeit zu beleuchten. Mit Hilfe von sechs halbstrukturierten Interviews mit GründerInnen und Un-ternehmensführerInnen kleiner und mittlerer Unternehmen des Dienstleistungssektors untersuchte die Autorin, inwiefern die Spiritualität der UnternehmerInnen einen Einfluss auf nachhaltige Entscheidungen in ihren Unternehmen hat. Sie konnte herausfinden, dass Werte und Ansichten, die die individuelle Spiritualität der UnternehmerInnen ausdrücken, als Motivation für nachhaltiges unternehmerisches Handeln dienen können. Überdies identifizierte sie einzelne Werte und Ansichten, die als Treiber für einzelne Dimensionen der Nachhaltigkeit fungieren. Weiterhin entwickelte sie ein Modell, das sowohl persönliche Werte und Ansichten als Teil der Spiritualität, als auch die in der Literatur diskutierten Konzepte Spiritualität am Arbeitsplatz und spirituelle Führung integriert. Dieses Modell kann als Grundlage für weitere Forschung im Kontext von Spiritualität und unternehmerische Nachhaltigkeit dienen. Die Ergebnisse implizieren, dass in Bildung und Gesellschaft verankerte Aktivitäten zur Unterstützung von Spiritualität eine nachhaltige Entwicklung innerhalb und außerhalb von Unternehmen vorantreiben können.
We study an online flow shop scheduling problem where each job consists of several tasks that have to be completed in t different stages and the goal is to maximize the total weight of accepted jobs.
The set of tasks of a job contains one task for each stage and each stage has a dedicated set of identical parallel machines corresponding to it that can only process tasks of this stage. In order to gain the weight (profit) associated with a job j, each of its tasks has to be executed between a task-specific release date and deadline subject to the constraint that all tasks of job j from stages 1, …, i-1 have to be completed before the task of the ith stage can be started. In the online version, jobs arrive over time and all information about the tasks of a job becomes available at the release date of its first task. This model can be used to describe production processes in supply chains when customer orders arrive online.
We show that even the basic version of the offline problem with a single machine in each stage, unit weights, unit processing times, and fixed execution times for all tasks (i.e., deadline minus release date equals processing time) is APX-hard. Moreover, we show that the approximation ratio of any polynomial-time approximation algorithm for this basic version of the problem must depend on the number t of stages.
For the online version of the basic problem, we provide a (2t-1)-competitive deterministic online algorithm and a matching lower bound. Moreover, we provide several (sometimes tight) upper and lower bounds on the competitive ratio of online algorithms for several generalizations of the basic problem involving different weights, arbitrary release dates and deadlines, different processing times of tasks, and several identical machines per stage.
Annual Report 2014
(2015)
Annual Report, Jahrbuch AG Magnetismus
Kontinuierlich faserverstärkte Thermoplaste (Organobleche) bieten ein großes Potential für den Einsatz in großvolumigen Sichtanwendungen. Es existieren jedoch einige material- und prozesstechnische Hindernisse hinsichtlich der Umsetzung dieses Potentials. Mit dieser Arbeit soll dazu beigetragen werden, das nötige, tiefgehende Verständnis bei der material- und prozesstechnischen Auslegung von optisch hochwertigen Organoblechbauteilen bereitzustellen. Die Arbeit umfasst:
- Untersuchungen zu material- und prozesstechnischen Parametern
- Eine analytische sowie eine FE-Modellbildung der Oberflächenausbildung samt Verifizierung
- Die Entwicklung eines Werkzeugkonzepts zur Verbesserung des isothermen Verarbeitungsprozesses
Die Untersuchung des Einflusses der textilen Gewebeparameter Faserdurchmesser und Maschenweite auf die Oberflächenwelligkeit von Organoblechen zeigen eine zunehmende Welligkeit mit steigendem Faserdurchmesser bzw. Maschenweite. Es wurde eine Grenzwelligkeit Wz25 = 0,5 μm ermittelt, ab der subjektiv keine Welligkeit mehr wahrgenommen wird. Im Prozessvergleich zwischen isothermer und variothermer Verarbeitung besitzen variotherm verarbeitete Organobleche eine um 40 – 50 % geringere Welligkeit. Dieser Effekt wird auf die geänderte thermische Prozessführung während der Abkühlphase zurückgeführt. Die Erkenntnisse wurden in einem analytischen Prozessmodell beschrieben, welches neben den thermischen Eigenschaften auch das rheologische Matrixverhalten berücksichtigt. Auf dem entwickelten Modell aufbauend wurde eine FE-Prozesssimulation entwickelt und an experimentellen Daten verifiziert. Das Modell ermöglicht die Vorhersage der Oberflächenwelligkeiten von Organoblechen variabler Laminatkonfiguration bei variothermer Verarbeitung und beschreibt zusätzlich das Verhalten der Organobleche unter ebener Scherung.
Um die oberflächenverbessernden Eigenschaften der variothermen Verarbeitung auch im isothermen Prozess nutzbar zu machen, wurde ein neuartiges Werkzeugkonzept entwickelt, welches die Prozessfenster über angepasste thermische Werkzeugeigenschaften gezielt einstellen kann. Neben einer verbesserten Bauteiloberfläche kann durch eine optimierte Prozessauslegung die Gesamtprozesszeit verkürzt und der Energiebedarf verringert werden.
Scheduling-Location (ScheLoc) Problems integrate the separate fields of
scheduling and location problems. In ScheLoc Problems the objective is to
find locations for the machines and a schedule for each machine subject to
some production and location constraints such that some scheduling object-
ive is minimized. In this paper we consider the Discrete Parallel Machine
Makespan (DPMM) ScheLoc Problem where the set of possible machine loc-
ations is discrete and a set of n jobs has to be taken to the machines and
processed such that the makespan is minimized. Since the separate location
and scheduling problem are both NP-hard, so is the corresponding ScheLoc
Problem. Therefore, we propose an integer programming formulation and
different versions of clustering heuristics, where jobs are split into clusters
and each cluster is assigned to one of the possible machine locations. Since
the IP formulation can only be solved for small scale instances we propose
several lower bounds to measure the quality of the clustering heuristics. Ex-
tensive computational tests show the efficiency of the heuristics.
Im Rahmen dieser Diplomarbeit konnte das etablierte direkte Laserschreiben um einen zusätzlichen
abregenden Strahlengang ergänzt werden, dessen Einfluss im Hinblick auf das
Polymerisationsverhalten untersucht wurde.
Bei dem verwendeten (Negativ-) Photolack IP-L 780 konnte durch stimulierte Emission die
Generierung von Radikalen unterbunden werden, indem die an- und abregenden Laserfokusse
räumlich überlagert wurden. Dabei stellte sich heraus, dass ein relativ großer Intensitätsbereich
den erwünschten Effekt hervorruft.
Die in der Fluoreszenzmikroskopie seit langem verwendeten Abregungsmoden (doughnut und
bottleshape) konnten mithilfe von räumlichen Lichtmodulatoren und dem speziell für diesen
Zweck entwickelten Programm zur PSF-Darstellung sehr gut erzeugt werden. Dabei fanden
neben den Zernike-Polynomen auch inverse Gauß-Funktionen zur Aberrationskorrektur Anwendung.
Auch sogenannte Multifokusse (lateral und axial) konnten durch eine geeignete
Gewichtung der Zernike-Polynome zuverlässig generiert werden, wobei die dafür notwendigen
Phasen- und Amplitudenpattern mithilfe eines entsprechenden iterativen Algorithmus
(GSA3D) berechnet wurden.
Der laterale Polymerisationsdurchmesser konnte sowohl durch die doughnut-Mode, als auch
durch den lateralen Multifokus von 240 nm um ca. 50 % auf ungefähr 120 nm reduziert
werden. Der stimulierende Teil der doughnut-Mode, der entlang der Schreibrichtung dem
Polymerisationsfokus vorauseilt (oder hinterherläuft), führt zu keinerlei relevanten Unterschieden
im Vergleich zum Multifokus.
Dies konnte zudem durch ein Experiment verifiziert werden, bei dem die An- und Abregungsfokusse
entlang der Schreibrichtung um verschiedene Distanzen versetzt positioniert
wurden. Ob der stimulierende Laser den Photolack räumlich (und damit zeitlich) einige hundert
Nanometer (bzw. einige Millisekunden) vor oder nach dem anregenden beeinflusst, zeigt
dabei keinerlei Unterschiede. Je größer der Versatz, desto geringer die stimulierende Wirkung.
Demnach scheint der abregende Laser den Photoinitiator (DETC) zu stimulierter Emission
zu bringen, bevor dieser seine absorbierte Energie zur Spaltung und damit zum Polymerisationsbeginn
nutzen kann.
Der axiale Polymerisationsdurchmesser konnte sowohl mit der etablierten bottleshape-Mode,
als auch mit dem hier entwickelten axialen Multifokus von ca. 400 nm um 50% auf unge-
57
5 Zusammenfassung und Ausblick Julian Hering
fähr 200 nm reduziert werden. Bei Letzterem war der Intensitätsring in der xy-Ebene bei
z = 0 deutlich stärker ausgeprägt als bei der bottleshape-Mode, was zu einer erhöhten
lateralen Polymerisationsunterdrückung und damit zu einem schlechteren Aspektverhältnis
führte. Nichtsdestotrotz konnte dadurch im Rahmen dieser Arbeit erstmals STED-DLW mittels
räumlicher Lichtmodulatoren betrieben werden.
Die mit starren Phasenmasken bereits erreichten Linienabmessungen von bis zu 65 nm lateral
und 180 nm axial konnten somit zwar nicht erreicht werden, jedoch ist in dieser Hinsicht eine
deutliche Verbesserung gegenüber dem zuvor verwendeten normalen DLW unverkennbar. Leider
zeigt die Kombination mit STED jedoch neue Herausforderungen auf. So wurde z.B. die
Strukturqualität beim Anfahren und Abbremsen des Piezos enorm verschlechtert. Auch die
Generierung mancher Abregungsmoden erwies sich als äußerst mühsam und zeitaufwendig.
Aus diesem Grund wird in Zukunft ein automatisiertes Vorgehen bei der Aberrationskorrektur
angestrebt, sowie eine aufeinander abgestimmte Ansteuerung der jeweiligen Laserleistungen.
Der Strukturierungszeitaufwand aufgrund der verwendeten Geschwindigkeit von 100 μm/s
kann in Zukunft ebenfalls verringert werden, da das Auslenkverhalten der beiden Fokusse in
einem Radius von 50 μm mittels Galvanospiegel-System weitestgehend gleich ist. Zu diesem
Zweck müssen allerdings je nach verwendeter Geschwindigkeit die nötigen Laserleistungen
ermittelt werden. Außerdem muss die räumliche Formkonstanz der An- und Abregungsmoden
bei einer Auslenkung um bis zu 50 μm untersucht werden. Durch den Verzicht auf das
Piezo-System würde sich das Problem der schlechten Qualität an den Strukturkanten eventuell
erübrigen.
Zudem lässt sich durch die Verwendung räumlicher Lichtmodulatoren der Einsatz verwendeter
Abregungsmoden weiter ausbauen. Axiale Multifokusse mit einer Halbwertslücke von
unter 300 nm und einem Intensitätsminimum von unter 30% sind theoretisch kein Problem.
Es gilt demnach, diese Moden zu generieren und auf deren Verbesserung hinsichtlich Linienbreite
und -länge zu untersuchen. Ein Test zur Ermittlung des Signal zu Rausch Verhältnisses
der jeweiligen Moden über den gesamten möglichen Bereich der stimulierten Emission würde
beispielsweise stark zur Charakterisierung der Multifokusse beitragen.
In this paper we consider the problem of decomposing a given integer matrix A into
a positive integer linear combination of consecutive-ones matrices with a bound on the
number of columns per matrix. This problem is of relevance in the realization stage
of intensity modulated radiation therapy (IMRT) using linear accelerators and multileaf
collimators with limited width. Constrained and unconstrained versions of the problem
with the objectives of minimizing beam-on time and decomposition cardinality are considered.
We introduce a new approach which can be used to find the minimum beam-on
time for both constrained and unconstrained versions of the problem. The decomposition
cardinality problem is shown to be NP-hard and an approach is proposed to solve the
lexicographic decomposition problem of minimizing the decomposition cardinality subject
to optimal beam-on time.
Für alle Organismen ist es wichtig, sich gegen das Eindringen exogener DNA bzw. RNA wie z.B. Viren oder transposablen Elementen zur Wehr zu setzen um die Integrität ihres eigenen Genoms zu bewahren. Zudem müssen innerhalb eines Organismus oft ganze Genfamilien reguliert werden. Die RNA-Interferenz stellt ein optimales Mittel sowohl für die Abwehr exogener Nukleinsäuren, als auch für die Regulierung endogener Gene dazu bereit. Das Herzstück der RNAi stellen kleine regulatorische siRNAs dar, die Homologie-abhängig Reaktionen in einer Zelle hervorrufen können, wie z.B. das transkriptionelle oder das posttranskriptionelle Silencing. Bei dem Mechanismus der RNAi sind zudem mehrere Komponenten beteiligt um diese siRNAs zu synthetisieren, zu stabilisieren und zu ihrem Zielort zu bringen um dort das Silencing zu vermitteln. Dabei spielen die Enzyme Dicer und RNA abhängige RNA-Polymerasen eine wichtige Rolle in der Synthese. Argonauten, bzw. eine Unterklasse von ihnen, die Piwi-Proteine sind für das eigentliche Silencing des Zielgens wichtig und spielen, wie auch die 2´-O-Methyltransferase Hen1, eine Rolle in der Stabilisierung der siRNAs.
In Paramecium tetraurelia weiß man, dass endogene Genfamilien, wie z.B. die Oberflächen-Antigene RNAi-vermittelt reguliert werden. Zudem ist bekannt, dass man RNAi-Mechanismen, die diesem endogenen Mechanismus ähneln, artifiziell durch das Einbringen einer doppelsträngigen RNA induzieren kann. Dies kann entweder durch das Verfüttern von Bakterien geschehen, die zur Synthese einer dsRNA in ihrem Inneren veranlasst werden und diese anreichern, oder durch die Injektion eines Transgens in den Makronukleus, dessen Transkript ebenfalls zu einer dsRNA umgesetzt wird.
Der Fokus dieser Arbeit lag auf dem exogenen, durch ein injiziertes Transgen induzierten RNAi-Mechanismus in Paramecium tetraurelia und dessen genauere Charakterisierung. Dabei konnte gezeigt werden, dass dieser RNAi-Mechanismus eine Temperaturabhängigkeit aufweist, wie es auch für RNAi-Mechanismen in anderen Organismen beschrieben wurde. Im Rahmen dieser Arbeit konnte jedoch die Ursache diese Temperaturabhängigkeit nicht aufgeklärt werden.
Dafür konnte gezeigt werden, dass zwei Klassen an siRNAs an diesem Mechanismus beteiligt sind. Es konnten neben den schon in der Literatur beschriebenen primären siRNAs auch sekundäre siRNAs nachgewiesen werden, deren Synthese von einer RdRP abhängig ist. Im Rahmen dieser Arbeit konnte der Schluss gezogen werden, das diese RdRP, die für die Synthese der sekundären siRNAs verantwortlich ist, das Homolog Rdr2 ist. Weiter konnte gezeigt werden, dass diese sekundären siRNAs Transitivität induzieren. Dies beschreibt die Amplifikation der siRNAs über das Ausgangsmolekül hinaus. Es konnte dargestellt werden, dass die sekundären siRNAs nicht von dem ursprünglichen Transgen synthetisiert, sondern vielmehr von einem homologen endogenen Transkript, einer mRNA, entstammen und somit als transitiv angesehen werden können.
Ferner konnte gezeigt werden, dass die Nukleotidyltransferase Cid2 ebenfalls in die Akkumulation dieser sekundären siRNAs involviert ist. Es konnte der Schluss gezogen werden, dass dieses Cid2 in einem Komplex mit Rdr2 vorliegt und das Template zur Generierung der sekundären siRNAs stabilisiert und so für Rdr2 zugänglich macht.
Ein weiterer Schwerpunkt dieser Arbeit war die detailliertere Untersuchung der spezifischen Stabilisierung beider siRNA-Klassen. Dabei konnte gezeigt werden, dass mehrere Piwi-Proteine in den Transgen-induzierten Mechanismus involviert sind. Die Paramecium spezifischen Piwis Ptiwi 8, Ptiwi 13 und Ptiwi 14 spielen dabei eine Rolle. Im Rahmen der durchgeführten Analysen konnte gezeigt werden, dass die Ptiwis 8 und 14 in die Akkumulation und damit in die Stabilisierung beider siRNA-Klassen involviert sind. Allerdings scheint dieser Effekt eher auf dem Ptiwi14 zu beruhen. Für das Ptiwi 13 konnte vermutet werden, dass dieses eher in die Akkumulation und spezifischen Stabilisierung der sekundären siRNAs involviert ist. Auch konnte aufgezeigt werden, dass beide Klassen an Transgen-induzierten siRNAs eine Methylgruppe an ihrem 3´ Ende tragen, welche von der 2´-O-Methyltransferase Hen1 abhängig ist und ebenfalls der Stabilisierung der siRNAs dient. Zudem konnte vermutet werden, dass diese Methylierung bereits vor dem Binden der siRNAs an eines der Ptiwis stattfindet und davon unabhängig ist. Somit konnten Rückschlüsse auf den zeitlichen Verlauf des Transgen-induzierten RNAi-Mechanismus gezogen werden.
Über eine Lokalisation dieses Hen1-Proteins konnte ferner gezeigt werden, dass dieses Protein in bzw. an den mit der Keimbahn assoziierten Mikronuklei und dem vegetativen Makronukleus aufzufinden ist. Die Methylierung der siRNAs findet somit in den Kernen statt. Dies lässt den Schluss zu, dass der Transgen-induzierte RNAi-Mechanismus neben der posttranskriptionellen Regulation auch eine transkriptionelle Genregulation direkt am Chromatin vermitteln kann.
Die Entwicklung nachhaltiger Methoden zur C-C und C-Heteroatom Bindungsknüpfung gehört zu den Hauptzielen der modernen organischen Synthesechemie. Übergangsmetall-katalysierte Kupplungsreaktionen sind dabei besonders effiziente und vielseitige Werkzeuge zum Aufbau komplexer Molekülstrukturen. Im Rahmen dieser Dissertation wurden neue Konzepte zur regioselektiven Bindungsknüpfung entwickelt, mit denen präformierte, organometallische Reagenzien, sowie ökologisch bedenkliche Organohalogenide umgangen werden können. Als Substrate dienen Carbonsäurederivate, die in einer vorgelagerten, reversiblen (Trans-)Esterifizierung aus ubiquitären, lagerstabilen Carbonsäuren oder deren Estern zugänglich sind. Die Insertion eines Metall-Katalysators in die C-O Bindung der Esterfunktionalität führt zum Metallcarboxylat, welches irreversibel decarboxyliert und zum Produkt gekuppelt wird. Als einzige Nebenprodukte dieser Kupplungsreaktionen werden CO2 und Wasser bzw. CO2 und leichtflüchtige Alkohole freigesetzt. Der Nutzen dieses Konzepts konnte mit der Synthese zahlreicher Arylketone, Allylbenzole und Phenylessigsäureester demonstriert werden. Der Einsatz des Palladium(I)-Dimers [Pd(µ-Br)(PtBu3)]2 führte überraschend nicht zur decarboxylierenden Funktionalisierung der Substrate, sondern zur raschen Doppelbindungsisomerisierung und der damit verbundenen Synthese von Enolestern. Die Optimierung der Reaktionsbedingungen führte zu einem hochaktiven Katalysatorsystem, das selbst den besten literaturbekannten Isomerisierungskatalysatoren weit überlegen ist. In weiteren Teilprojekten erfolgte die Entwicklung Sandmeyer-analoger Trifluormethylierungen und Trifluormethylthiolierungen, mit denen leicht zugängliche Aryldiazoniumsalze mit in situ generierten Cu-CF3 Verbindungen bereits bei Raumtemperatur trifluormethyliert werden können. Im Rahmen einer Kooperation mit Umicore erfolgte außerdem die anwendungsbezogene Optimierung eines Kreuzkupplungsverfahrens zur hochselektiven Monoarylierung primärer Amine mit äquimolaren Arylbromidmengen in konzentrierter Lösung. Dabei wurden der präformierte Katalysator Pd(dippf)maleimid und die Katalysatorlösung Pd(dippf)(vs)tol entwickelt.
This work aims at including nonlinear elastic shell models in a multibody framework. We focus our attention to Kirchhoff-Love shells and explore the benefits of an isogeometric approach, the latest development in finite element methods, within a multibody system. Isogeometric analysis extends isoparametric finite elements to more general functions such as B-Splines and Non-Uniform Rational B-Splines (NURBS) and works on exact geometry representations even at the coarsest level of discretizations. Using NURBS as basis functions, high regularity requirements of the shell model, which are difficult to achieve with standard finite elements, are easily fulfilled. A particular advantage is the promise of simplifying the mesh generation step, and mesh refinement is easily performed by eliminating the need for communication with the geometry representation in a Computer-Aided Design (CAD) tool.
Quite often the domain consists of several patches where each patch is parametrized by means of NURBS, and these patches are then glued together by means of continuity conditions. Although the techniques known from domain decomposition can be carried over to this situation, the analysis of shell structures is substantially more involved as additional angle preservation constraints between the patches might arise. In this work, we address this issue in the stationary and transient case and make use of the analogy to constrained mechanical systems with joints and springs as interconnection elements. Starting point of our work is the bending strip method which is a penalty approach that adds extra stiffness to the interface between adjacent patches and which is found to lead to a so-called stiff mechanical system that might suffer from ill-conditioning and severe stepsize restrictions during time integration. As a remedy, an alternative formulation is developed that improves the condition number of the system and removes the penalty parameter dependence. Moreover, we study another alternative formulation with continuity constraints applied to triples of control points at the interface. The approach presented here to tackle stiff systems is quite general and can be applied to all penalty problems fulfilling some regularity requirements.
The numerical examples demonstrate an impressive convergence behavior of the isogeometric approach even for a coarse mesh, while offering substantial savings with respect to the number of degrees of freedom. We show a comparison between the different multipatch approaches and observe that the alternative formulations are well conditioned, independent of any penalty parameter and give the correct results. We also present a technique to couple the isogeometric shells with multibody systems using a pointwise interaction.
We consider storage loading problems where items with uncertain weights have
to be loaded into a storage area, taking into account stacking and
payload constraints. Following the robust optimization paradigm, we propose
strict and adjustable optimization models for finite and interval-based
uncertainties. To solve these problems, exact decomposition and heuristic
solution algorithms are developed.
For strict robustness, we also present a compact formulation based
on a characterization of worst-case scenarios.
Computational results show that computation times and algorithm
gaps are reasonable for practical applications.
Furthermore, we find that the robustness concepts show different
potential depending on the type of data being used.
Die hier vorgelegte Arbeit konzentrierte sich auf den vakuolären Ribonukleinsäure- (RNA) Abbau in Arabidopsis thaliana (A. thaliana) und die Integration in den Nukleotid- Metabolismus unter Berücksichtigung von Nukleosidtransportprozessen. Insbesondere die physiologische Bedeutung des Verlustes der RNS2-Aktivität auf die vakuolären RNA-Abbauprozesse sollte untersucht werden. Es konnte gezeigt werden, dass RNS2 den größten Anteil an der vakuolären Ribonuklease- (RNase-) Aktivität ausmacht, wobei die Restaktivität von circa 30 Prozent ein Hinweis auf mindestens eine weitere vakuoläre RNase ist. Die vakuolären Adenylatgehalte, Abbauprodukte der RNA, in RNS2-T-DNA-Insertionslinien zeigten, dass RNS2, ähnlich wie die intrazellulären RNasen in L. esculentum, 2‘,3‘-zyklische Nukleotidmonophosphate (2‘,3‘-cNMPs) produzieren. Ferner konnte gezeigt werden, dass in diesen Linien die vakuolären Enzyme sowohl RNA, als auch 2‘,3‘-cNMPs langsamer abbauen als vakuoläre Enzyme aus Wildtyp-Pflanzen. Die Akkumulation dieses zyklischen Intermediates des RNA-Abbaus lässt darauf schließen, dass die Transphosphorylierung schneller verläuft als die Hydrolyse (Abel & Glund, 1987; Löffler et al., 1992; Nürnberger et al., 1990). Es kann angenommen werden, dass ein weiteres Enzym, wie etwa eine zyklische Phosphodiesterase oder eine weitere Ribonuklease, an der Hydrolyse beteiligt ist. Ein weiterer Abschnitt dieser Arbeit beschäftigt sich mit der wichtigen Frage der Qualität von Vakuolenisolationen. Protoplastenkontaminationen konnten mikroskopisch ausgeschlossen werden. Die chloroplastidäre Verunreinigung war mit circa 5 Prozent gering, die cytosolische Kontamination lag jedoch je nach Isolationsmethode bei bis zu 30 Prozent im Vergleich zu Protoplasten. Es konnte darüber hinaus erstmals durch fluoreszenzmikroskopische Untersuchungen gezeigt werden, dass Vakuolen RNA besitzen. Diese Oligonukleotide sind vornehmlich kleine Fragmente im Größenbereich bis 50 nt.
Next Generation Sequencing ermöglichte eine detaillierte Analyse von cDNA- Bibliotheken, gewonnen aus vakuolärer RNA. Diese Technik wurde unter anderem angewandt, um die Reliabilität des Experimentes zu untersuchen. Es zeigte sich eine große Varianz in der Verteilung der Counts auf die verschiedenen RNA-Loci innerhalb biologischer Replikate und unterschiedlicher Vakuolenisolationsmethoden. Erstmals konnte jedoch gezeigt werden, dass circa 70 Prozent der RNA-Fragmente in der
Vakuole von mRNA stammen. Darüber hinaus gibt es Hinweise, dass der Abbau der wenigen rRNA-Transkripte in diesem Organell verstärkt abläuft.
In A. thaliana existiert mit ENT7 lediglich ein Vertreter, der einen Export von RNA- Abbauprodukten aus der Zelle ermöglicht. Da er den namensgebenden Vertretern aus dem Reich der Säugetiere strukturell und funktionell ähnelt, ist ENT7 ein geeignetes ENT-Protein für zukünftige Kristallisations- und Strukturanalysen. In dieser Arbeit konnte ENT7-eGFP in Pichia pastoris mit großer Ausbeute (2 mg Protein pro Liter Hefekultur) synthetisiert und in stabiler Form gereinigt werden. Es konnte gezeigt werden, dass ENT7 ohne eGFP ebenfalls stabil und als Dimer vorliegt. Durch Bindungsstudien erfolgte der Nachweis der erfolgreichen Bindung an bekannte Substrate. Darüber hinaus stellte sich heraus, dass neben Nukleosiden auch Nukleobasen, aber nicht ATP gebunden werden.
In this thesis, collision-induced dissociation (CID) studies serve to elucidate relative stabilities and to determine bond strengths within a given structure type of transition metal complexes. The infrared multi photon dissociation (IRMPD) spectroscopy combined with density functional theory (DFT) allow for structural analysis and provide insights into the coordination sphere of transition metal centers. The used combination of CID and IRMPD experiments is a powerful tool to obtain a detailed and comprehensive characterization and understanding of interactions between transition metals and organic ligands. The compounds’ spectrum comprises mono- or oligonuclear transition metal complexes containing iron, palladium, and ruthenium as well as lanthanide containing single molecule magnets (SMM). The presented investigations on the different transition metal complexes reveal manifold effects for each species leading to valuable results. A fundamental understanding of metal to ligand interactions is mandatory for the development of new and better organometallic complexes with catalytic, optical or magnetic properties.
In this thesis we develop a shape optimization framework for isogeometric analysis in the optimize first–discretize then setting. For the discretization we use
isogeometric analysis (iga) to solve the state equation, and search optimal designs in a space of admissible b-spline or nurbs combinations. Thus a quite
general class of functions for representing optimal shapes is available. For the
gradient-descent method, the shape derivatives indicate both stopping criteria and search directions and are determined isogeometrically. The numerical treatment requires solvers for partial differential equations and optimization methods, which introduces numerical errors. The tight connection between iga and geometry representation offers new ways of refining the geometry and analysis discretization by the same means. Therefore, our main concern is to develop the optimize first framework for isogeometric shape optimization as ground work for both implementation and an error analysis. Numerical examples show that this ansatz is practical and case studies indicate that it allows local refinement.
Im Rahmen dieser Arbeit wurden DFT Rechnungen zum mechanistischen Verständnis und zur rationalen Entwicklung homogenkatalytischer Reaktionen eingesetzt.
Im ersten Projekt konnten mit Hilfe von DFT Rechnungen effizientere Katalysatorsysteme für Protodecarboxylierungsreaktionen und decarboxylierende Kreuzkupplungen durch rationale Katalysatorentwicklung identifiziert werden. Hierzu wurde die Decarboxylierung von 2- und 4 Fluorbenzoesäure mit DFT Rechnungen untersucht. Zunächst sagten die Rechnungen keine deutlich erhöhten Reaktionsgeschwindigkeiten für Katalysatorsysteme bestehend aus Kupfer(I) und verschiedenen 4,7 disubstituierten 1,10 Phenanthrolinliganden voraus. Weitere Berechnungen prognostizierten hingegen stark erhöhte Effizienz für Silber-basierte Katalysatoren in der Decarboxylierung von ortho-substituierten Benzoesäuren. Tatsächlich konnte daraufhin für diese Carbonsäuren ein Katalysatorsystem bestehend aus AgOAc und K2CO3 in NMP entwickelt werden, welches die Protodecarboxylierung bereits bei 120 °C ermöglicht, 50 °C niedriger als die des Kupfer-basierten Systems.
Die Erkenntnisse ließen sich in der Arbeitsgruppe Gooßen weiterhin auf die decarboxylierende Kreuzkupplung übertragen. Es gelang die Entwicklung eines Ag/Pd-basierten Katalysatorsystems für die Biarylsynthese ausgehend von Benzoesäuren und Aryltriflaten bei Reaktionstemperaturen von nur 130 °C.
Im Folgenden war es möglich, durch den Einsatz von DFT Rechnungen den Reaktionsmechanismus der decarboxylierenden Kreuzkupplung aufzuklären und Voraussagen für ein effizienteres Cu/Pd-basiertes Katalysatorsystem zu treffen. Nachdem durch experimentelle Beobachtungen klar wurde, dass der Decarboxylierungsschritt nicht notwendigerweise geschwindigkeitsbestimmend sein muss, wurde der komplette Katalysezyklus der decarboxylierenden Kreuzkupplung eingehend mit Hilfe von DFT Rechnungen untersucht. In Abhängigkeit des Benzoats wurde die Decarboxylierung oder die Transmetallierung als geschwindigkeitsbestimmend identifiziert. Da in der Transmetallierung zunächst die Bildung eines bimetallischen Cu−Pd-Addukts erforderlich ist, wurde gefolgert, dass die Verwendung von verbrückenden, bidentaten Liganden die Reaktion begünstigen sollte. In der Tat konnte durch Einsatz eines P,N-Liganden eine Cu/Pd-katalysierte decarboxylierende Kreuzkupplung von aromatischen Carboxylaten mit Aryltriflaten bei nur 100 °C entwickelt werden, was einer Absenkung der Reaktionstemperatur um 50 °C entspricht.
Zukünftige Weiterentwicklungen der Cu/Pd-katalysierten decarboxylierenden Kreuzkupplung zielen auf die Überwindung der Beschränkung auf ortho-substituierte Benzoate und den Ersatz der teuren Aryltriflate durch günstigere Arylhalogenide. Arbeiten hierzu sind bereits im Gange.
Im zweiten Projekt wurde der Reaktionsmechanismus der Ruthenium-katalysierten Hydroamidierung terminaler Alkine eingehend untersucht. Nachdem durch Isotopen-markierungsexperimente, Bestimmungen von kinetischen Isotopeneffekten mittels in situ IR-Spektroskopie und verschiedene in situ NMR- sowie ESI-MS-Experimente drei von fünf potentiellen Reaktionsmechanismen ausgeschlossen werden konnten, erlaubten die experimentellen Ergebnisse die Eingrenzung auf einen der verbliebenen Katalysezyklen.
Mit Hilfe von DFT Rechnungen wurde daraufhin bestätigt, dass es sich bei den postulierten Intermediaten um stabile Minima handelt. Das Auftreten einer Ru–Hydrid–Vinylidenspezies lieferte die Erklärung, warum die Hydroamidierung auf terminale Alkine beschränkt ist. Der nukleophile Angriff des Amidliganden an das Vinylidenkohlenstoffatom erklärt die anti-Markovnikov-Selektivität der Reaktion. Nachdem Gooßen und Koley et al. in einer weiteren Untersuchung den Einfluss der Liganden auf die Stereoselektivität der Hydroamidierung aufklären konnten, ist nun der Grundstein für die zukünftige rationale Entwicklung effizienterer Hydroamidierungskatalysatoren gelegt.
Im dritten Projekt konnten Erkenntnisse zum Reaktionsmechanismus der Palladium-katalysierten Isomerisierung von Allylestern zu Enolestern und Hinweise auf die katalytisch aktive Spezies der Reaktion erlangt werden. Zunächst gelang mit dem homodinuklearen Palladiumkatalysator [Pd(μ Br)(PtBu3)]2 die Entwicklung einer effizienten Synthese zur Darstellung einer großen Bandbreite diverser Enolester. In 1 Position verzweigte Enolester dienten anschließend als Substrate für enantioselektive Hydrierungen zur Synthese enantiomerenreiner chiraler Ester.
Aufgrund experimenteller Beobachtungen, die nahelegten, dass ein Palladiumhydrid-Komplex die katalytisch aktive Spezies darstellt, wurde die Bildung verschiedener Palladiumhydrid-Spezies ausgehend vom homodinuklearen Palladiumkatalysator [Pd(μ Br)(PtBu3)]2 mit Hilfe von DFT Rechnungen untersucht. Hierbei konnte der Palladiumhydrid-Komplex [Pd(Br)(H)(PtBu3)] als die vermutlich katalytisch aktive Spezies identifiziert werden. Aufgrund seiner hohen Reaktivität konnten in in situ NMR-Experimenten lediglich ein oxidiertes Dimer und ein Abfangprodukt mit überschüssigem Tri-tert-butylphosphin nachgewiesen werden.
In zukünftigen Arbeiten soll durch kinetische Untersuchungen die Reaktionsordnung der Isomerisierung ermittelt werden. Dies soll dazu beitragen, Aufschluss darüber zu gewinnen, ob tatsächlich ein monometallischer oder ein bimetallischer Komplex die katalytisch aktive Spezies darstellt.
Als Ergänzung zum elektronischen Bibliothekssystem ALEPH wird an der UB Kaiserslautern für die Verwaltung der E-Medien das Electronic Resource Management System SemperTool eingesetzt.
Die Video-Präsentation geht auf die Vorteile dieses ERM-Systems sowie auf dessen
Anwendung an der UB Kaiserslautern ein und beschreibt kurz die genutzten
Funktionalitäten.
Seit Aufkommen der Halbleiter-Technologie existiert ein Trend zur Miniaturisierung elektronischer Systeme. Dies, steigende Anforderungen sowie die zunehmende Integration verschiedener Sensoren zur Interaktion mit der Umgebung lassen solche eingebetteten Systeme, wie sie zum Beispiel in mobilen Geräten oder Fahrzeugen vorkommen, zunehmend komplexer werden. Die Folgen sind ein Anstieg der Entwicklungszeit und ein immer höherer Bauteileaufwand, bei gleichzeitig geforderter Reduktion von Größe und Energiebedarf. Insbesondere der Entwurf von Multi-Sensor-Systemen verlangt für jeden verwendeten Sensortyp jeweils gesondert nach einer spezifischen Sensorelektronik und steht damit den Forderungen nach Miniaturisierung und geringem Leistungsverbrauch entgegen.
In dieser Forschungsarbeit wird das oben beschriebene Problem aufgegriffen und die Entwicklung eines universellen Sensor-Interfaces für eben solche Multi-Sensor-Systeme erörtert. Als ein einzelner integrierter Baustein kann dieses Interface bis zu neun verschiedenen Sensoren unterschiedlichen Typs als Sensorelektronik dienen. Die aufnehmbaren Messgrößen umfassen: Spannung, Strom, Widerstand, Kapazität, Induktivität und Impedanz.
Durch dynamische Rekonfigurierbarkeit und applikationsspezifische Programmierung wird eine variable Konfiguration entsprechend der jeweiligen Anforderungen ermöglicht. Sowohl der Entwicklungs- als auch der Bauteileaufwand können dank dieser Schnittstelle, die zudem einen Energiesparmodus beinhaltet, erheblich reduziert werden.
Die flexible Struktur ermöglicht den Aufbau intelligenter Systeme mit sogenannten Self-x Charakteristiken. Diese betreffen Fähigkeiten zur eigenständigen Systemüberwachung, Kalibrierung oder Reparatur und tragen damit zu einer erhöhten Robustheit und Fehlertoleranz bei. Als weitere Innovation enthält das universelle Interface neuartige Schaltungs- und Sensorkonzepte, beispielsweise zur Messung der Chip-Temperatur oder Kompensation thermischer Einflüsse auf die Sensorik.
Zwei unterschiedliche Anwendungen demonstrieren die Funktionalität der hergestellten Prototypen. Die realisierten Applikationen haben die Lebensmittelanalyse sowie die dreidimensionale magnetische Lokalisierung zum Gegenstand.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
Die klassischen Verfahren zur Herstellung leichter Olefine, wie Steamcracken und Fluid Catalytic Cracking sind nicht mehr in der Lage, die steigende Nachfrage an Propen zu decken. Um dem Ungleichgewicht zwischen Versorgung und Nachfrage zu begegnen wurden neue Strategien und Technologien entwickelt, die eine unabhängige Produktion von Propen ermöglichen. Eine dieser Varianten ist die katalytische Umwandlung von Ethen zu Propen, die derzeit im Labormaßstab untersucht wird. In der Literatur wurden bereits verschiedene Katalysatorsysteme vorgestellt, die unter anderem Metallträgerkatalysatoren, mesoporöse Materialien und mikroporöse Materialien beinhalten. Insbesondere mikroporöse Zeolithe, die bereits in vielen technischen Prozessen erfolgreich eingesetzt werden, zeigen aufgrund ihrer katalytischen Eigenschaften ein hohes Potential in der Ethen-zu-Propen Reaktion.
In der vorliegenden Arbeit wurden Schlüsselfaktoren untersucht, die eine selektive katalytische Umwandlung von Ethen zu Propen und Butenen an 10-Ring-Zeolithen ermöglichen. Im Fokus der Untersuchungen stand der Einfluss unterschiedlicher Porenarchitekturen, die Säurestärkeverteilung und die Kristallitgröße auf die Aktivität und Stabilität der Katalysatoren sowie die Selektivität zu Propen und den Butenen. Die hergestellten 10-Ring-Zeolithe wurden mittels Pulver-Röntgendiffraktometrie, Festkörper-NMR-Spektroskopie, Stickstoff-Physisorption, Thermogravimetrie, Partikelgrößenanalyse und Raster-elektronenmikroskopie charakterisiert. Zur Erprobung der katalytischen Eigenschaften der hergestellten Materialien wurde eine Normaldruck-Strömungsapparatur aufgebaut. Variiert wurden die Katalysatorlaufzeit, die Reaktionstemperatur, die modifizierte Verweilzeit und der Ethen-Partialdruck.
Zu Beginn wurden einige 10-Ring-Zeolithe mit unterschiedlichen Porenarchitekturen hergestellt und mit physikalisch-chemischen Methoden charakterisiert. Voraussetzung zum Vergleich der unterschiedlichen Porenarchitekturen waren dabei hohe Kristallinitäten, ähnliche Kristallitgrößen und Aluminiumgehalte. Aus den katalytischen Experimenten ging hervor, dass die sterischen Restriktionen der unterschiedlichen Porenarchitekturen einen signifikanten Einfluss auf die Selektivitäten zu den leichten Olefinen haben. Daher wurde bei den 1-dimensionalen 10-Ring-Zeolithen eine hohe Selektivität für die Bildung von Propen und den Butenen mit zusammen ca. 70 % gefunden. Die 3-dimensionalen 10-Ring-Porenstrukturen zeigen hingegen deutlich niedrigere Selektivitäten zu Propen und den Butenen mit insgesamt ca. 30 %. Als Ursache der niedrigeren Selektivitäten zu den genannten Olefinen konnten Neben- und Folgereaktionen identifiziert werden, die vermutlich an den Kreuzungspunkten im 3-dimensionalen Porensystem katalysiert werden. Die Neben- und Folgereaktionen beinhalten überwiegend Wasserstofftransferreaktionen und Zyklisierungen, die zur Bildung von Alkanen und Aromaten führen. Durch die gezielte Wahl von 1-dimensionalen Porenstrukturen konnten so die relativ großen Übergangszustände der Wasserstofftransferreaktionen und der Zyklisierungen unterdrückt werden. Daraus ergeben sich im Vergleich zu den 3-dimensionalen Porenstrukturen niedrigere Aktivitäten der 1-dimensionalen Porenstrukturen bei vergleichbarer Ausbeute an Propen und Butenen. Des Weiteren konnten neben strukturellen Einflüssen der unterschiedlichen Porenarchitekturen auch erhebliche Einflüsse der Reaktionsbedingungen auf die Bildung von Neben- und Folgereaktionen aufgezeigt werden. Dies gilt insbesondere für 3-dimensionale Porenstrukturen. Den Experimenten zufolge konkurrieren die beiden bekannten Crackmechanismen (monomolekular / bimolekular) in Abhängigkeit der Reaktionsbedingungen miteinander. Hohe Reaktionstemperaturen, kurze modifizierte Verweilzeiten und Ethen-Partialdrücke begünstigen monomolekulares Cracken und somit die Bildung von Propen und Butenen. Bimolekulares Cracken, welches gerade bei niedrigeren Reaktionstemperaturen, langen modifizierten Verweilzeiten und hohen Ethen-Partialdrücken verstärkt auftritt, fördert Wasserstofftransferreaktion. Der Einfluss der Reaktionsbedingungen ist bei 1-dimensionalen Porenstrukturen weniger stark ausgeprägt, da die formselektiven Eigenschaften bei der ETP-Reaktion dominieren.
Zusätzlich zu den bereits genannten Schlüsselfaktoren wurden auch die Auswirkungen unterschiedlicher Aluminiumgehalte der Zeolithe in der sauer katalysierten Ethen-zu-Propen-Reaktion untersucht. Als Katalysatoren wurden die Zeolithe ZSM-22 und ZSM-5 als jeweilige Vertreter einer 1-dimensionalen und 3-dimensionalen Porenstruktur verwendet. Der Vergleich der katalytischen Eigenschaften erfolgte bei gleichbleibenden Reaktionsbedingungen. In Abhängigkeit von der Dimensionalität des Porensystems (1-D vs. 3-D) wurde beobachtet, dass die Selektivitäten für die kurzkettigen Olefine in einem Fall mit dem Aluminiumgehalt abnehmen (3-D, HZSM-5) und im anderen Fall zunehmen (1-D, HZSM-22). Auch hier dominieren die formselektiven Eigenschaften der 1-dimensionalen Porenstrukturen in der Ethen-zu-Propen-Reaktion, wodurch mit steigender Anzahl saurer Zentren die Aktivität und die Selektivität zu den leichten Olefinen ebenfalls steigen. Es zeigte sich jedoch, dass hohe Aluminiumgehalte zu einer verstärkten Katalysatordesaktivierung beitragen und zusätzlich den Stofftransport der Reaktanden stark beeinflussen. Zeolith ZSM-5 zeigte zwar ebenfalls eine starke Katalysatordesaktivierung mit steigendem Aluminiumgehalt, wohingegen der Stofftransport der Reaktanden nicht beeinflusst wurde. Dies ging aus dem linearen Zusammenhang zwischen der Aktivität und dem Aluminiumgehalt in der Zeolith-Struktur hervor. Die Produktselektivitäten wurden insbesondere an Zeolith ZSM-5 deutlich durch den Aluminiumgehalt beeinflusst. Hohe Aluminiumgehalte begünstigen Wasserstofftransferreaktionen und Zyklisierungen, wohingegen niedrige Aluminiumgehalte die Selektivität zu den leichten Olefinen erhöhen. Ein Erklärungsansatz hierfür basiert auf den ablaufenden Gasphasenmechanismen an heterogenen Katalysatoren: Den Experimenten zufolge verläuft die Ethen-zu-Propen-Reaktion an Zeolith ZSM-5 vermutlich nach dem Eley-Rideal-Mechanismus, wohingegen die konkurrierenden Wasserstofftransferreaktionen nach dem Langmuir-Hinshelwood-Mechanismus ablaufen. Diese Ergebnisse stehen im Einklang mit anderen literaturbekannten Studien.
Die gezielte Variation der Kristallitgröße wurde mit Zeolith ZSM-5 durchgeführt, mit dem Ziel, detailliertere Kenntnisse über das Desaktivierungsverhalten des Katalysators und den Stofftransport der Reaktanden in den Poren zu erhalten. Die Kristallitgröße von Zeolith ZSM-5 wurde einerseits durch die Kristallistaionstemperatur gesteuert und andererseits durch die Zugabe von Triethanolamin als Inhibitor für die Keimbildung. Auf diese Weise konnten mittlere Kristallitgrößen im Bereich von 6 - 69 µm hergestellt werden. Mit zunehmender Kristallitgröße von Zeolith ZSM-5 wurde bei ähnlichen Koks-Gehalten eine schnellere Katalysatordesaktivierung beobachtet. Weiterhin waren abnehmende Aktivitäten mit zunehmender Kristallitgröße zu beobachten. Es konnte gezeigt werden, dass Stofftransportlimitierungen ab einer Kristallitgröße von ca. 27 µm auftreten. Es war ebenfalls ersichtlich, dass mit steigender Kristallitgröße auch unselektive Reaktionen auf der äußeren Oberfläche der Kristallite reduziert werden. Mit diesen waren steigende Selektivitäten zu den leichten Olefinen zu beobachten, bei gleichzeitiger Abnahme der Selektivitäten zu den C1 - C4-Alkanen und den Aromaten. Dies konnte auf eine Reduktion unselektiv ablaufender Neben- und Folgereaktionen auf der äußeren Kristallitoberfläche zurückgeführt werden.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.