Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich ARUBI (1)
We propose and study a strongly coupled PDE-ODE system with tissue-dependent degenerate diffusion and haptotaxis that can serve as a model prototype for cancer cell invasion through the
extracellular matrix. We prove the global existence of weak solutions and illustrate the model behaviour by numerical simulations for a two-dimensional setting.
On the Extended Finite Element Method for the Elasto-Plastic Deformation of Heterogeneous Materials
(2015)
This thesis is concerned with the extended finite element method (XFEM) for deformation analysis of three-dimensional heterogeneous materials. Using the "enhanced abs enrichment" the XFEM is able to reproduce kinks in the displacements and therewith jumps in the strains within elements of the underlying tetrahedral finite element mesh. A complex model for the micro structure reconstruction of aluminum matrix composite AMC225xe and the modeling of its macroscopic thermo-mechanical plastic deformation behavior is presented, using the XFEM. Additionally, a novel stabilization algorithm is introduced for the XFEM. This algorithm requires preprocessing only.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
It is well known that the structure at a microscopic point of view strongly influences the
macroscopic properties of materials. Moreover, the advancement in imaging technologies allows
to capture the complexity of the structures at always decreasing scales. Therefore, more
sophisticated image analysis techniques are needed.
This thesis provides tools to geometrically characterize different types of three-dimensional
structures with applications to industrial production and to materials science. Our goal is to
enhance methods that allow the extraction of geometric features from images and the automatic
processing of the information.
In particular, we investigate which characteristics are sufficient and necessary to infer
the desired information, such as particles classification for technical cleanliness and
fitting of stochastic models in materials science.
In the production line of automotive industry, dirt particles collect on the surface of mechanical
components. Residual dirt might reduce the performance and durability of assembled products.
Geometric characterization of these particles allows to identify their potential danger.
While the current standards are based on 2d microscopic images, we extend the characterization
to 3d.
In particular, we provide a collection of parameters that exhaustively describe size and shape
of three-dimensional objects and can be efficiently estimated from binary images. Furthermore,
we show that only a few features are sufficient to classify particles according to the standards
of technical cleanliness.
In the context of materials science, we consider two types of microstructures: fiber systems
and foams.
Stochastic geometry grants the fundamentals for versatile models able to encompass the
geometry observed in the samples. To allow automatic model fitting, we need rules stating which
parameters of the model yield the best-fitting characteristics. However, the validity of such
rules strongly depends on the properties of the structures and on the choice of the model.
For instance, isotropic orientation distribution yields the best theoretical results for Boolean
models and Poisson processes of cylinders with circular cross sections. Nevertheless, fiber
systems in composites are often anisotropic.
Starting from analytical results from the literature, we derive formulae for anisotropic
Poisson processes of cylinders with polygonal cross sections that can be directly used in
applications. We apply this procedure to a sample of medium density fiber board. Even
if image resolution does not allow to estimate reliably characteristics of the singles fibers,
we can fit Boolean models and Poisson cylinder processes. In particular, we show the complete
model fitting and validation procedure with cylinders with circular and squared cross sections.
Different problems arise when modeling cellular materials. Motivated by the physics of foams,
random Laguerre tessellations are a good choice to model the pore system of foams.
Considering tessellations generated by systems of non-overlapping spheres allows to control the
cell size distribution, but yields the loss of an analytical description of the model.
Nevertheless, automatic model fitting can still be obtained by approximating the characteristics
of the tessellation depending on the parameters of the model. We investigate how to improve
the choice of the model parameters. Angles between facets and between edges were never considered
so far. We show that the distributions of angles in Laguerre tessellations
depend on the model parameters. Thus, including the moments of the angles still allows automatic
model fitting. Moreover, we propose an algorithm to estimate angles from images of real foams.
We observe that angles are matched well in random Laguerre tessellations also when they are not
employed to choose the model parameters. Then, we concentrate on the edge length distribution. In
Laguerre tessellations occur many more short edges than in real foams. To deal with this problem,
we consider relaxed models. Relaxation refers to topological and structural modifications
of a tessellation in order to make it comply with Plateau's laws of mechanical equilibrium. We inspect
samples of different types of foams, closed and open cell foams, polymeric and metallic. By comparing
the geometric characteristics of the model and of the relaxed tessellations, we conclude that whether
the relaxation improves the edge length distribution strongly depends on the type of foam.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
Spin and orbital magnetic moments of isolated single molecule magnets and transition metal clusters
(2015)
In the present work, magnetic moments of isolated Single Molecule Magnets (SMMs) and transition
metal clusters were investigated. Gas phase X‐ray Magnetic Circular Dichroism (XMCD) in
combination with sum rule analysis served to separate the total magnetic moments of the
investigated species into their spin and orbital contributions. Two different mass spectrometry based
setups were used for the presented investigations on transition metal clusters (GAMBIT‐setup) and
on single molecule magnets (NanoClusterTrap). Both experiments were coupled to the UE52‐PGM
beamline at the BESSY II synchrotron facility (Helmholtz Zentrum Berlin) which provided the
necessary polarized X‐ray photons. The investigation of the given compounds as isolated molecules
in the gas phase enabled a determination of their intrinsic magnetic properties void of any influences
of e.g. a surrounding bulk or supporting surface
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
In embedded systems, there is a trend of integrating several different functionalities on a common platform. This has been enabled by increasing processing power and the arise of integrated system-on-chips.
The composition of safety-critical and non-safety-critical applications results in mixed-criticality systems. Certification Authorities (CAs) demand the certification of safety-critical applications with strong confidence in the execution time bounds. As a consequence, CAs use conservative assumptions in the worst-case execution time (WCET) analysis which result in more pessimistic WCETs than the ones used by designers. The existence of certified safety-critical and non-safety-critical applications can be represented by dual-criticality systems, i.e., systems with two criticality levels.
In this thesis, we focus on the scheduling of mixed-criticality systems which are subject to certification. Scheduling policies cognizant of the mixed-criticality nature of the systems and the certification requirements are needed for efficient and effective scheduling. Furthermore, we aim at reducing the certification costs to allow faster modification and upgrading, and less error-prone certification. Besides certification aspects, requirements of different operational modes result in challenging problems for the scheduling process. Despite the mentioned problems, schedulers require a low runtime overhead for an efficient execution at runtime.
The presented solutions are centered around time-triggered systems which feature a low runtime overhead. We present a transformation to include event-triggered activities, represented by sporadic tasks, already into the offline scheduling process. Further, this transformation can also be applied on periodic tasks to shorten the length of schedule tables which reduces certification costs. These results can be used in our method to construct schedule tables which creates two schedule tables to fulfill the requirements of dual-criticality systems using mode changes at runtime. Finally, we present a scheduler based on the slot-shifting algorithm for mixed-criticality systems. In a first version, the method schedules dual-criticality jobs without the need for mode changes. An already certified schedule table can be used and at runtime, the scheduler reacts to the actual behavior of the jobs and thus, makes effective use of the available resources. Next, we extend this method to schedule mixed-criticality job sets with different operational modes. As a result, we can schedule jobs with varying parameters in different modes.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
In this dissertation, we discuss how to price American-style options. Our aim is to study and improve the regression-based Monte Carlo methods. In order to have good benchmarks to compare with them, we also study the tree methods.
In the second chapter, we investigate the tree methods specifically. We do research firstly within the Black-Scholes model and then within the Heston model. In the Black-Scholes model, based on Müller's work, we illustrate how to price one dimensional and multidimensional American options, American Asian options, American lookback options, American barrier options and so on. In the Heston model, based on Sayer's research, we implement his algorithm to price one dimensional American options. In this way, we have good benchmarks of various American-style options and put them all in the appendix.
In the third chapter, we focus on the regression-based Monte Carlo methods theoretically and numerically. Firstly, we introduce two variations, the so called "Tsitsiklis-Roy method" and the "Longstaff-Schwartz method". Secondly, we illustrate the approximation of American option by its Bermudan counterpart. Thirdly we explain the source of low bias and high bias. Fourthly we compare these two methods using in-the-money paths and all paths. Fifthly, we examine the effect using different number and form of basis functions. Finally, we study the Andersen-Broadie method and present the lower and upper bounds.
In the fourth chapter, we study two machine learning techniques to improve the regression part of the Monte Carlo methods: Gaussian kernel method and kernel-based support vector machine. In order to choose a proper smooth parameter, we compare fixed bandwidth, global optimum and suboptimum from a finite set. We also point out that scaling the training data to [0,1] can avoid numerical difficulty. When out-of-sample paths of stock prices are simulated, the kernel method is robust and even performs better in several cases than the Tsitsiklis-Roy method and the Longstaff-Schwartz method. The support vector machine can keep on improving the kernel method and needs less representations of old stock prices during prediction of option continuation value for a new stock price.
In the fifth chapter, we switch to the hardware (FGPA) implementation of the Longstaff-Schwartz method and propose novel reversion formulas for the stock price and volatility within the Black-Scholes and Heston models. The test for this formula within the Black-Scholes model shows that the storage of data is reduced and also the corresponding energy consumption.
In seiner Entwicklungsgeschichte hat der stationäre Einzelhandel eine enorme Wandlungsfähigkeit bewiesen. Dieser hat er es zu verdanken, dass er bis heute eine zentrale Funktion der Innenstadt darstellt. Allerdings wird die Stabilität der innerstädtischen Einzelhandelslagen seit einigen Jahren zunehmend auf die Probe gestellt. Mit dem Online-Handel als sich etablierenden neuen Absatzkanal mit wachsenden Umsatz- und Nutzerzahlen, bekommen die innerstädtischen Einzelhandelslagen einerseits deutliche Konkurrenz. So eignet sich das innerstädtische Sortiment besonders gut für den Online-Vertrieb. Umsatzeinbußen in den lokalen Geschäften, Geschäftsaufgaben, Ladenverkleinerungen, Leerstände sowie eine Abwertung der innerstädtischen Einzelhandelslagen sind die Folgen. Andererseits stellen der Online-Handel sowie einkaufsunterstützende digitale Medien eine Chance dar, die innerstädtischen Einzelhandelslagen für das digitale Zeitalter zu qualifizieren und hiermit zukunftsfähig zu halten. Zentrale Bedeutung kommt in diesem Zusammenhang den Konsumenten zu. Die innerstädtischen Einzelhandelslagen müssen an die, u.a. aus den Einfluss digitaler Medien im Allgemeinen und dem Online-Handel im Besonderen, resultierenden veränderten Bedürfnisse und Anforderungen der Konsumenten angepasst werden, wenn sie keinen Attraktivitätsverlust erleiden sollen. Eine schwierige Aufgabe, zeichnet sich doch das Kauf- und Konsumverhalten der ‚Neuen Konsumenten‘ durch Hybridität bzw. Multioptionalität aus. Diese macht ständige Neuausrichtungen und Anpassungen der Einzelhandelsbetriebe und Unternehmen erforderlich, welche durch die gestiegene Informiertheit, die höhere Anspruchshaltung, die Sprunghaftigkeit und Spontanität der Konsumenten sowie ihre abnehmende Loyalität mit den Anbietern erschwert werden.
Insgesamt ist davon auszugehen, dass zukünftig – abhängig von ihrer Lokalisierung in räumlich und strukturell begünstigten oder benachteiligten Städten – unterschiedliche Herausforderungen auf die innerstädtischen Einzelhandelslagen zukommen werden. Unter benachteiligte Städte werden strukturschwache Kommunen mit negativer Bevölkerungsentwicklung, geringer Zentralität und geringer wirtschaftlicher Anziehungskraft für das Umland gefasst, während sich begünstigte Städte durch wirtschaftliche Prosperität, Zentralität und Bevölkerungswachstum auszeichnen. Während innerstädtische Einzelhandelslagen in benachteiligten Städten vor allem negative Folgen zu erwarten haben und folglich akuter Handlungsbedarf besteht, können innerstädtische Einzelhandelslagen in räumlich-strukturell begünstigten Städten i.d.R. von der Digitalisierung und dem veränderten Kauf- und Konsumverhalten der Konsumenten profitieren. Zentrale Bedeutung kommt in diesem Zusammenhang den charakteristischen Merkmalen einer Innenstadt zu. Sie zeichnet sich im Idealfall durch Zentralität, Bedeutungsüberschuss, Dichte und Nutzungsmischung, eine hohe Besucherfrequenz sowie einen hohen Identifikationsgrad bzw. Authentizität aus. Diese Standortvorteile verhelfen innerstädtischen Einzelhandelslagen in begünstigten Städten zu einem Alleinstellungsmerkmal gegenüber konkurrierenden lokalen Einzelhandelsstandorten sowie gegenüber dem Online-Handel. So gewinnen Atmosphäre und zentrales Erleben bei Konsumenten, die das Internet nutzen, an Bedeutung. Qualitativ hochwertige innerstädtische Einzelhandelslagen erlangen somit eine neue Anziehungskraft.
Handlungsbedarf besteht folglich vor allem in den räumlich-strukturell benachteiligten Städten. Aber auch die begünstigen Städte brauchen Unterstützung, um die innerstädtischen Einzelhandelslagen den Bedürfnissen der Konsumenten nach Erlebnis, Bequemlichkeit, Individualität, Flexibilität, Schnelligkeit etc. entsprechend zu gestalten sowie die Voraussetzungen für den Einsatz einkaufsunterstützender digitaler Medien zu schaffen.
Als Modellansatz sind drei Strategieansätze im Rahmen eines integrierten Gesamtkonzepts umzusetzen:
1. Befähigende Ansätze: Hierzu zählt einerseits die Schaffung der technischen Rahmenbedingungen hinsichtlich Verfügbarkeit und Leistungsfähigkeit, funktioneller Zuverlässigkeit, Sicherheit und Nutzerfreundlichkeit der technischen Infrastruktur und der digitalen Medien. Konkret sind der Ausbau flächendeckender Breitbandverbindungen und eines frei zugänglichen WLAN-Netzes in den Innenstädten sowie der Einsatz von elektronischer Authentisierung und biometrischen Verifikationssystemen anzuraten. Andererseits gilt es, die Medienkompetenz der Einzelhändler und der Konsumenten für den Umgang und die Nutzung digitaler Medien zu schulen. Die Nutzerfreundlichkeit muss durch eine qualitätvolle HCI (Human Computer Interaction) sowie den Einsatz von Feature based visualization verbessert werden. Weiterhin ist die Nutzung von Multi-Channel-Retailing, der Verknüpfung des stationären Handels mit dem Online-Handel, zu unterstützen.
2. Steuernde Ansätze: Vor dem Hintergrund des engen finanziellen Gestaltungsspielraums der Mehrheit der Kommunen sollten die Städtebauförderprogramme und die Förderprogramme zur Breitbandförderung gezielt genutzt und weiterentwickelt werden. Weiterhin gilt es die Effektivität der Steuerung über die Stärkung gemeinschaftlichen Handelns zu verbessern. Es sind hierbei sowohl Kooperationen zwischen Kommunen, Handel und Eigentümern zu unterstützen als auch die Bevölkerung verstärkt in bedeutsame Umgestaltungsprozesse in der Innenstadt einzubinden.
3. Stärkende Ansätze: Unter dem Ansatz der Stärkung werden die Verbesserung der Aufenthaltsqualität sowie die Schaffung von Strukturen für eine zukunftsfähige Mobilität verstanden. Um die Aufenthaltsqualität und damit die Attraktivität der innerstädtischen Einzelhandelslagen zu erhöhen, muss frühzeitig ein angepasstes Leerstandsmanagement initiiert, Einkaufsbereiche konzentriert, eine attraktive Gestaltung und Möblierung unterstützt sowie die Innenstadt entsprechend ihrer besonderen Merkmale inszeniert werden. Eine zukunftsfähige Mobilität innerhalb der Innenstadt ist durch Maßnahmen zur Verbesserung der Erreichbarkeit der innerstädtischen Einzelhandelslagen sowie der Förderung zukunftsfähiger Mobilitätsformen zu unterstützen.
Insgesamt sollen besagte Strategieansätze dazu beitragen, die Voraussetzungen für die Digitalisierung des innerstädtischen Einzelhandels zu schaffen, die analysierten Restriktionen der Innenstadt abzumildern sowie die besonderen Potenziale der innerstädtischen Einzelhandelslagen im Sinne von Alleinstellungsmerkmalen hervorzuheben, um die innerstädtischen Einzelhan-delslagen für das digitale Zeitalter zu qualifizieren.
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
An efficient multiscale approach is established in order to compute the macroscopic response of nonlinear composites. The micro problem is rewritten in an integral form of the Lippmann-Schwinger type and solved efficiently by Fast Fourier Transforms. Using realistic microstructure models complex nonlinear effects are reproduced and validated with measured data of fiber reinforced plastics. The micro problem is integrated in a Finite Element framework which is used to solve the macroscale. The scale coupling technique and a consistent numerical algorithm is established. The method provides an efficient way to determine the macroscopic response considering arbitrary microstructures, constitutive behaviors and loading conditions.
To write about the history of a subject is a challenge that grows with the number of pages as the original goal of completeness is turning more and more into an impossibility. With this in mind, the present article takes a very narrow approach and uses personal side trips and memories on conferences,
workshops, and summer schools as the stage for some of the most important protagonists and their contributions to the field of Differential-Algebraic Equations (DAEs).
We present a numerical scheme to simulate a moving rigid body with arbitrary shape suspended in a rarefied gas micro flows, in view of applications to complex computations of moving structures in micro or vacuum systems. The rarefied gas is simulated by solving the Boltzmann equation using a DSMC particle method. The motion of the rigid body is governed by the Newton-Euler equations, where the force and the torque on the rigid body is computed from the momentum transfer of the gas molecules colliding with the body. The resulting motion of the rigid body affects in turn again the gas flow in the surroundings. This means that a two-way coupling has been modeled. We validate the scheme by performing various numerical experiments in 1-, 2- and 3-dimensional computational domains. We have presented 1-dimensional actuator problem, 2-dimensional cavity driven flow problem, Brownian diffusion of a spherical particle both with translational and rotational motions, and finally thermophoresis on a spherical particles. We compare the numerical results obtained from the numerical simulations with the existing theories in each test examples.
The work consists of two parts.
In the first part an optimization problem of structures of linear elastic material with contact modeled by Robin-type boundary conditions is considered. The structures model textile-like materials and possess certain quasiperiodicity properties. The homogenization method is used to represent the structures by homogeneous elastic bodies and is essential for formulations of the effective stress and Poisson's ratio optimization problems. At the micro-level, the classical one-dimensional Euler-Bernoulli beam model extended with jump conditions at contact interfaces is used. The stress optimization problem is of a PDE-constrained optimization type, and the adjoint approach is exploited. Several numerical results are provided.
In the second part a non-linear model for simulation of textiles is proposed. The yarns are modeled by hyperelastic law and have no bending stiffness. The friction is modeled by the Capstan equation. The model is formulated as a problem with the rate-independent dissipation, and the basic continuity and convexity properties are investigated. The part ends with numerical experiments and a comparison of the results to a real measurement.
The Event Segmentation Theory (Kurby & Zacks, 2008; Zacks, Speer, Swallow, Braver, & Reynolds, 2007) explains the perceptual organization of an ongoing activity into meaningful events. The classical event segmentation task (Newtson, 1973) involves watching an online video and indicating with key presses the event boundaries, i.e., when one event ends and the next one begins. The resulting hierarchical organization of object-based coarse events and action-based fine events gives insight into various cognitive processes. I used the Event Segmentation Theory to develop assistance and training systems for assembly workers in industrial settings at various levels - experts, new hires, and intellectually disabled people. Therefore, the first scientific question I asked was whether online and offline event segmentation result in the same event boundaries. This is important because assembly work requires not only watching activities online but processing the information offline, e.g., while performing the assembly task. By developing a special software tool that enables assessment of offline event boundaries, I established that online perception and offline elaboration lead to similar event boundaries. This study supports prior work suggesting that instructions should be structured around event boundaries.
Secondly, I investigated the importance of fine versus coarse event boundaries when learning the sequence of steps in virtual training, both for novices and experts in car door assembly. I found memory, tested by ability to predict the next frame, to be enhanced for object-based coarse events from the nearest fine event boundary. However, virtual training did not improve memory for action-based fine events from the nearest coarse event boundary. I conjecture that trainees primarily acquire the sequence of object-based coarse events in an initial training. Based on differences found in memory performance between experts and novices, I conclude that memory for action-based fine events is dependent on expertise.
Thirdly, I used the Event Segmentation Theory to investigate whether the simple and repetitive assembly tasks offered at workshops for intellectually disabled persons utilize their full cognitive potential. I analyzed event segmentation performance of 32 intellectually disabled persons compared to 30 controls using a variety of event segmentation measures. I found specific deficits in event boundary detection and hierarchical organization of events for the intellectually disabled group. However, results suggest that hierarchical organization is task-dependent. Because the event segmentation task accounted for differences in general cognitive ability, I propose the event segmentation task as diagnostic method for the need for support in executing assembly tasks.
Based on these three studies, I argue that the Event Segmentation Theory offers a framework for assessment and assistance of important attentional, perceptual, and memory processes related to assembly tasks. I demonstrate how practical applications can make use of this framework for the development of new computer-based assistance and training systems that are tailored to the users’ need for support and improve their quality of life.
Die vorliegende Arbeit behandelt das Thema der pneumatischen Abstandsmessung. Diese Technologie ist neben der taktilen und optischen Messtechnik eine der drei Ansätze, um Messaufgaben in der Fertigungsmesstechnik zu lösen. Der große Vorteil pneumatischer Sensoren ist ihr Selbstreinigungseffekt, wodurch in rauen Umgebungen sicher gemessen werden kann. Momentan fehlende Grundlagenkenntnisse führen jedoch zu einer ineffizienten Nutzung der Technik. Im Rahmen dieser Arbeit wurde neues Wissen erarbeitet, so dass eine optimierte Anwendung dieser Sensorklasse möglich ist. Für das laterale und dynamische Verhalten der Sensoren sind Modelle zur Vorhersage von Messergebnissen vorgestellt. Weiterhin finden sich ausführliche Auslegestrategien für systemkritische Bauteile in dieser Arbeit. Auf Basis der Grundlagenuntersuchungen sind die wichtigsten Einflussgrößen der Messunsicherheit erläutert. Zur effizienten Wissensübertragung ist abschließend eine moderne Software präsentiert, welche eine Auslegung pneumatischer Sensoren für eine gegebene Messaufgabe ermöglicht und so das gesamte Wissen der Arbeit für den Anwender in der Industrie zusammenfasst.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) greift die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern auf. Ein zentraler Aspekt im Projekt ist die Analyse von (neuen) Zielgruppen wissenschaftlicher Weiterbildungsangebote, um daraus Konsequenzen für die Angebotsentwicklung ziehen zu können. Die bisher praktizierte Verfahrensweise der Angebotsplanung und -entwicklung ist angebotsorientiert und bezieht sich vor allem auf die Antizipation potenzieller Teilnehmerinnen und Teilnehmer. Demgegenüber impliziert die evidenzbasierte Herangehensweise des Projektes E-hoch-B einen Ansatz, der eine Angebotsentwicklung nicht allein auf antizipierte und verallgemeinerte, sondern auf empirisch fundierte Erkenntnisse zu Bedarfen der Zielgruppen stützt. Das Arbeitspapier erarbeitet basierend auf den Planungsschritten bei Schlutz (2006) Kriterien, die Rückschlüsse für die Entwicklung von Studienangeboten zulassen sowie die Identifikation und Beschreibung (neuer) Zielgruppen ermöglichen.
In der vorliegenden Arbeit wurde die Reaktivität und Selektivität anellierter, verbrückter und tertiärer O-Radikale, in drei Teilprojekten, untersucht. Die zur Erzeugung primärer und sekundärer O-Radikale benötigten Thiohydroxamsäure-O-ester stammen aus Reaktionen von Cyclopentenyltosylaten mit 3-Hydroxy-4-methylthiazol-2(3H)-thion-Tetraethylammoniumsalz (Salz-Methode). Für tertiäre Thiohydroxamsäure-O-ester hat sich die Umsetzung tertiärer O-Alkylisoharnstoffe mit 3-Hydroxy-4-methylthiazol-2(3H)-thionen bewährt (Isoharnstoff-Methode). Die anschließende Freisetzung der O-Radikale, aus den O-Alkylthiohydroxamaten, erfolgte photochemisch oder thermisch unter pH-neutralen und nicht oxidativen Bedingungen in Gegenwart von Bromtrichlormethan. Relative Reaktivitäten der O-Radikale in Sauerstoff-Elementarreaktionen beruhen auf Abschätzungen mit Hilfe unimolekularer Vergleichsreaktionen (Radikaluhr Konzept). Beobachtete Selektivitäten und Stabilitäten wurden anhand theoretischer Analyseverfahren (Twist-Modell, Dichtefunktional-Rechnungen und Møller-Plesset-Störungsrechnung 2. Ordnung), in Kooperation mit Jens Hartung, interpretiert und quantifiziert. Die synthetisierten \({\beta}\)-bromierten, bicyclischen, tricyclischen sowie tertiären Tetrahydrofurane erweitern die bis dato auf primäre und sekundäre Monocyclen beschränkte Vielfalt der 5-Ring-Strukturen über Sauerstoff-Radikalreaktionen. Beispiele für Synthesen mittels intermolekularer O-Radikaladditionen liefern funktionalisierte Bromalkoxybicyclo[2.2.1]heptane und tert-Butoxybromalkane.
Durch Variation (1,2-Cyclopentyl und 1,2-Cyclohexyl) und Permutation (Kohlenstoff-Atome C1 und C2 / C2 und C3 / C3 und C4) der Anellierung, sowie durch verbrückte Reste (C2 und C5 / C3 und C5) am 4-Penten-1-oxyl-Gerüst gelang es, im ersten Teilprojekt, diastereomerenreine primäre und sekundäre O-Radikalvorläufer für eine systematische Untersuchung der Stereoselektivität in 5-exo-trig-Reaktionen zu synthetisieren. Umsetzungen der O-Radikalvorläufer zeigten Regelmäßigkeiten im Produktbild, die in Form von Richtlinien für zukünftige Syntheseplanungen zusammengefasst wurden: (I) Für sterisch und elektronisch vergleichbare Substituenten in direkter Nachbarschaft (zum Beispiel C1 und C2) ist der stereochemische Einfluss des Substituenten größer, der der Doppelbindung näher ist (hier Substituent an C2). Die relative Konfiguration der beiden anellierten Substituenten zueinander wirkt sich auf den Stereoselektivitätsgrad aus, wobei trans-anellierte 4-Penten-1-oxyl-Radikale stereoselektiver cyclisieren als cis-konfigurierte Isomere. Hauptprodukte der 1,2- und 2,3-cyclohexyl-anellierten 4-Penten-1-oxyl-Radikale sind 2,4-cis- und 2,3-trans-substituierte Tetrahydrofurane. (II) Ist die Flexibilität der Sauerstoffatom-tragenden Seitenkette konformell eingeschränkt, cyclisieren anellierte (C3 und C4) sowie verbrückte (C2 und C5 / C3 und C5) 4-Penten-1-oxyl-Radikale 2,3- und 2,4-cis-spezifisch an endo- und exo-cyclische \({\pi}\)-Bindungen. Theoretische Berechnungen diesbezüglich haben gezeigt, dass der 2,3-trans-Ringschluss des Modell-Radikals 1-(Cyclohexen-3-yl)-2-ethoxylradikal aufgrund sterischer Effekte eine deutlich höhere Barriere besitzt (89.5 kJ/mol) als der 2,3-cis-Ringschluss (35.4 kJ/mol).
Die Herstellung tertiärer 3-Alkyloxy- und 3-Cumyloxy-5-(4-methoxyphenyl)thiazol-2(3H)-thione und die Untersuchung der Reaktivitäten daraus erzeugter tertiärer O-Radikale in Elementarreaktionen waren Schwerpunkte des zweiten Themengebiets. Experimentell bestimmte relative Geschwindigkeitskonstanten für die \({\delta}\)-H-Abstraktion (\({k^{Subst} = 10^7-10^8 s^{-1}}\)), die 5-exo-trig-Cyclisierung (\({k^{5-exo} = 10^8-10^9 s^{-1}}\)) und die intermolekulare Addition (\({k^{Add} = 10^7 M^{-1}s^{-1}}\)) demonstrieren, dass tertiäre O-Radikale trotz größerer sterischer Hinderung eine ähnliche (Substitution) oder höhere Reaktivität (5-exo-Reaktion) als vergleichbare primäre und sekundäre Analoga aufweisen. Der 5-exo-Rinschluss des 2-Phenyl-5-hexen-2-oxyl-Radikals erfolgt 2,5-cis-selektiv. Intermolekulare Additionen der tert-Butoxyl-, Cumyloxyl- oder p-Chlorcumyloxyl-Radikale an Norbornen verlaufen exo-spezifisch. Dichtefunktional Berechnungen zufolge sind Torsionsspannungen im 2,5-trans-Übergangszustand der 5-exo-trig-Cyclisierung und im endo-Übergangszustand der intermolekularen Addition für die beobachtete Selektivität verantwortlich.
Im dritten Projekt wurden O-(tert-Butyl)thiohydroxamate aus O-(tert-Butyl)-N,N-diisopropylisoharnstoff und dem 3-Hydroxy-4-methylthiazol-2(3H)-thion sowie dem 3-Hydroxy-4-methyl-5-(4-nitrophenyl)thiazol-2(3H)-thion hergestellt. Die gleiche Reaktion zeigt bei Verwendung des 1-Hydroxypyridin-2(1H)-thions eine spontane Umlagerung des O-(tert-Butyl)thiohydroxamats zum O-(tert-Butyl)pyridin-2-sulfenat. Stabilitätsunterschiede der tertiären Thiohydroxamat-Klassen lassen sich der Molekülorbital-Theorie folgend auf drei unterschiedliche, \({\pi}\)-artige Wechselwirkungen der N,O-Bindung mit dem Thiohydroxamat-Kern und dem O-Alkyl-Rest im Grundzustand zurückführen, die die N,O-Bindung insgesamt stärken. Tertiäre 3-Alkoxythiazolthione erfahren dabei eine größere Stabilisierung als vergleichbare Pyridinthione. Photochemische Umsetzungen der tert-Butoxythiazolthione liefern tert-Butoxyl-Radikale, die durch Addition an 5,5-Dimethylpyrrolidin N-Oxid (DMPO) und Styrol nachgewiesen wurden.
The central topic of this thesis is Alperin's weight conjecture, a problem concerning the representation theory of finite groups.
This conjecture, which was first proposed by J. L. Alperin in 1986, asserts that for any finite group the number of its irreducible Brauer characters coincides with the number of conjugacy classes of its weights. The blockwise version of Alperin's conjecture partitions this problem into a question concerning the number of irreducible Brauer characters and weights belonging to the blocks of finite groups.
A proof for this conjecture has not (yet) been found. However, the problem has been reduced to a question on non-abelian finite (quasi-) simple groups in the sense that there is a set of conditions, the so-called inductive blockwise Alperin weight condition, whose verification for all non-abelian finite simple groups implies the blockwise Alperin weight conjecture. Now the objective is to prove this condition for all non-abelian finite simple groups, all of which are known via the classification of finite simple groups.
In this thesis we establish the inductive blockwise Alperin weight condition for three infinite series of finite groups of Lie type: the special linear groups \(SL_3(q)\) in the case \(q>2\) and \(q \not\equiv 1 \bmod 3\), the Chevalley groups \(G_2(q)\) for \(q \geqslant 5\), and Steinberg's triality groups \(^3D_4(q)\).
Real-time systems are systems that have to react correctly to stimuli from the environment within given timing constraints.
Today, real-time systems are employed everywhere in industry, not only in safety-critical systems but also in, e.g., communication, entertainment, and multimedia systems.
With the advent of multicore platforms, new challenges on the efficient exploitation of real-time systems have arisen:
First, there is the need for effective scheduling algorithms that feature low overheads to improve the use of the computational resources of real-time systems.
The goal of these algorithms is to ensure timely execution of tasks, i.e., to provide runtime guarantees.
Additionally, many systems require their scheduling algorithm to flexibly react to unforeseen events.
Second, the inherent parallelism of multicore systems leads to contention for shared hardware resources and complicates system analysis.
At any time, multiple applications run with varying resource requirements and compete for the scarce resources of the system.
As a result, there is a need for an adaptive resource management.
Achieving and implementing an effective and efficient resource management is a challenging task.
The main goal of resource management is to guarantee a minimum resource availability to real-time applications.
A further goal is to fulfill global optimization objectives, e.g., maximization of the global system performance, or the user perceived quality of service.
In this thesis, we derive methods based on the slot shifting algorithm.
Slot shifting provides flexible scheduling of time-constrained applications and can react to unforeseen events in time-triggered systems.
For this reason, we aim at designing slot shifting based algorithms targeted for multicore systems to tackle the aforementioned challenges.
The main contribution of this thesis is to present two global slot shifting algorithms targeted for multicore systems.
Additionally, we extend slot shifting algorithms to improve their runtime behavior, or to handle non-preemptive firm aperiodic tasks.
In a variety of experiments, the effectiveness and efficiency of the algorithms are evaluated and confirmed.
Finally, the thesis presents an implementation of a slot-shifting-based logic into a resource management framework for multicore systems.
Thus, the thesis closes the circle and successfully bridges the gap between real-time scheduling theory and real-world implementations.
We prove applicability of the slot shifting algorithm to effectively and efficiently perform adaptive resource management on multicore systems.
Der Energiebedarf von Mobilbaggern während des Betriebs hängt neben dem kundenspezifischen Einsatz unter anderem stark vom verwendeten hydraulischen Systemkonzept ab. Durch die sukzessive Weiterentwicklung der Komponenten und hydraulischen Systeme existiert dazu mittlerweile eine Vielzahl an verschiedenen Konzepten und Teillösungen, mit denen die Energieeffizienz der Maschine gesteigert werden kann. Jedoch handelt es sich oftmals um eine komplexe Aufgabe, aus den vorhandenen Einzellösungen ein für den Kunden verbrauchsoptimales Gesamtsystemkonzept zu erstellen. Um dies zu erleichtern, ist eine Unterstützung des Konzeptauswahlprozesses mittels hydraulischer Systemsimulationen möglich, sodass der Energieverbrauch verschiedener Konzepte und Konzeptkombinationen im Gesamtsystemzusammenhang schon frühzeitig im Produktentwicklungsprozess abgeschätzt werden kann.
Um dies effizient durchzuführen, wird in dieser Arbeit ein methodischer Ansatz entwickelt, mit dem ein Vergleich verschiedener hydraulischer Konzepte modellgestützt durchgeführt werden kann. Im Fokus stehen dabei die Entwicklung eines modular aufgebauten Simulationsmodells für eine vereinfachte Implementierung von Konzepten in ein Gesamtsystemmodell sowie die Einbindung eines variablen, kundenspezifischen Nutzungsprofils in den Bewertungsprozess.
Dazu wird zunächst auf die Modellerstellung und Modularisierung eingegangen und die Validierung und Verifikation des Modells beschrieben. Im Anschluss werden exemplarische Konzepte vorgestellt, die durch eine Bewertung unter Berücksichtigung des realen Einsatzes beim Kunden hinsichtlich ihres Energieverbrauchs miteinander verglichen werden.
A Consistent Large Eddy Approach for Lattice Boltzmann Methods and its Application to Complex Flows
(2015)
Lattice Boltzmann Methods have shown to be promising tools for solving fluid flow problems. This is related to the advantages of these methods, which are among others, the simplicity in handling complex geometries and the high efficiency in calculating transient flows. Lattice Boltzmann Methods are mesoscopic methods, based on discrete particle dynamics. This is in contrast to conventional Computational Fluid Dynamics methods, which are based on the solution of the continuum equations. Calculations of turbulent flows in engineering depend in general on modeling, since resolving of all turbulent scales is and will be in near future far beyond the computational possibilities. One of the most auspicious modeling approaches is the large eddy simulation, in which the large, inhomogeneous turbulence structures are directly computed and the smaller, more homogeneous structures are modeled.
In this thesis, a consistent large eddy approach for the Lattice Boltzmann Method is introduced. This large eddy model includes, besides a subgrid scale model, appropriate boundary conditions for wall resolved and wall modeled calculations. It also provides conditions for turbulent domain inlets. For the case of wall modeled simulations, a two layer wall model is derived in the Lattice Boltzmann context. Turbulent inlet conditions are achieved by means of a synthetic turbulence technique within the Lattice Boltzmann Method.
The proposed approach is implemented in the Lattice Boltzmann based CFD package SAM-Lattice, which has been created in the course of this work. SAM-Lattice is feasible of the calculation of incompressible or weakly compressible, isothermal flows of engineering interest in complex three dimensional domains. Special design targets of SAM-Lattice are high automatization and high performance.
Validation of the suggested large eddy Lattice Boltzmann scheme is performed for pump intake flows, which have not yet been treated by LBM. Even though, this numerical method is very suitable for this kind of vortical flows in complicated domains. In general, applications of LBM to hydrodynamic engineering problems are rare. The results of the pump intake validation cases reveal that the proposed numerical approach is able to represent qualitatively and quantitatively the very complex flows in the intakes. The findings provided in this thesis can serve as the basis for a broader application of LBM in hydrodynamic engineering problems.
Im Rahmen der vorliegenden Arbeit konnten sowohl konzeptionelle Beiträge zur Berechnung
der magnetischen Anisotropie von mehrkernigen Übergangsmetallkomplexen mittels
DFT-Methoden geleistet, sowie zwei Molekülsysteme eingehend untersucht werden.
Auf der Ebene der Methodenweiterentwicklung konnten die Matrixelemente des Spin-Bahn
mean-field-Operators als effektivem Einteilchenoperator implementiert werden. Diese wurden
sowohl mit SMP als auch mit MPI parallelisiert, so dass eine sehr effektive Berechnung
auch bei großen Systemen möglich ist. Bei Verwendung von Hybridfunktionalen erhöht sich
die Rechenzeit einer sopt-Rechnung durch die Berechnung dieser Integrale um etwa
einen Faktor drei. Die restliche Rechenzeit wird durch das Lösen des CHF-Systems
dominiert.
Bei Verwendung reiner Dichtefunktionale dauern die Rechnungen sehr viel kürzer, da hier
kein CHF-System zu lösen ist. Dadurch verteuert die Berechnung der SOMF-Matrixelemente
diese Rechnungen prozentual deutlich mehr, aber dennoch sind Rechnungen mit reinen
Dichtefunktionalen sehr viel schneller fertig als mit Hybridfunktionalen.
Weiterhin konnte eine neue Methode zur Berechnung von Einzelionentensoren entworfen und
implementiert werden, die mit lokalisierten Orbitalen arbeitet. Diese Methode konnte mit
der bereits bestehenden Methode, bei der die SOC an einzelnen Zentren "ausgeschaltet" wird,
verglichen werden. Die Ergebnisse besitzen in etwa dieselbe
Qualität.
Für die Zuordnung einzelner, lokalisierter Orbitale gibt es keine physikalisch eindeutige
Lösung. Es konnte jedoch ein Zuordnungsschema auf der Basis von Abständen und Winkeln
entwickelt werden, das in den meisten Fällen der chemischen Intuition entspricht, so dass
einem oktaedrisch koordinierten Metallzentrum sechs Bindungselektronenpaare zugeordnet
werden.
Die so entwickelte Methode liefert eine bequeme und einfache Möglichkeit zur Berechnung
aller benötigter Einzelionentensoren im Zuge einer einzigen Rechnung ohne nennenswerten
Mehraufwand. So wurde sie bei den weiteren Untersuchungen der beiden Molekülsysteme ausgiebig
genutzt.
Schließlich wurden zwei Komplexsysteme eingehend analysiert und mit verschiedenen
Übergangsmetallkombinationen untersucht. Es wurde hierbei ein breites Spektrum an
Analysewerkzeugen eingesetzt, sodass die erhaltenen Ergebnisse nicht nur nähere Einsichten
zu den konkret untersuchten Komplexen liefern, sondern auch allgemein wertvolle
Erfahrungen zur Untersuchung der magnetischen Anisotropie an mehrkernigen
Übergangsmetallkomplexen mit DFT-Methoden liefern.
Zuerst wurden Komplexe mit Tripelsalenliganden untersucht, wie sie in der Arbeitsgruppe
von Thorsten Glaser synthetisiert und charakterisiert werden. Der Einfachheit halber
wurden zunächst Komplexe mit nur einer Tripelsaleneinheit untersucht, wobei als
Metallionen in der Tripelsaleneinheit Mn(III)-Ionen verwendet wurden. Hierbei zeigte sich,
dass durch die Substitution von Chrom(III) als Zentralion durch Wolfram(III) bzw.
Rhenium(IV) eine deutliche Steigerung der magnetischen Anisotropie erreicht werden kann.
In einem nächsten Schritt wurden diese Komplexe durch eine weitere Tripelsaleneinheit
erweitert. Diese Komplexe sind also von der Struktur, wie sie auch in der Arbeitsgruppe
Glaser synthetisiert werden. Es zeigt sich, dass die Mn6M-Komplexe eine sehr viel
geringere Anisotropie aufweisen. Dies liegt daran, dass bei den Mn3M-Komplexen die
oktaedrische Koordinationsumgebung um das Zentralion verzerrt ist, da nur 3 der 6
Cyanoliganden an der Koordination der Tripelsaleneinheit beteiligt sind. Durch diese
starke Verzerrung erreicht man bei Verwendung von 5d-Elementen hohe Anisotropien. Bei den
Mn6M-Komplexen ergibt sich die Anisotropie hauptsächlich aus den Beiträgen der
Manganionen.
Schließlich wurden Komplexe mit nur einer Tripelsaleneinheit untersucht, bei denen jedoch
in der Tripelsaleneinheit Mo(III)-Ionen koordiniert sind. Hier konnte gezeigt werden, dass
durch die Molybdänionen eine höhere Anisotropie erhalten werden kann als bei den
entsprechenden Mn3M-Komplexen. Bei den leichten Zentralionen (Chrom und Molybdän)
jedoch war die Anisotropie geringer als bei den Mn6M-Komplexen. Dies liegt daran,
dass bei diesen Komplexen der Beitrag der Ionen der Tripelsaleneinheit überwiegt und somit
macht sich bemerkbar, dass bei den Mn6M-Komplexen 6 Ionen in der Tripelsaleneinheit
koordiniert sind und bei den Mo3M-Komplexen lediglich 3.
Bei der Untersuchung der Tripelsalenkomplexe konnte ein Verfahren vorgestellt werden, wie
man sich die Symmetrie von Komplexen bei der Berechnung des anisotropen Austauschs zu
Nutze machen kann, um die Anzahl zu berechnender Konfigurationen zu minimieren.
Als zweites Komplexsystem wurde ein von Habib et al. vorgestellter Oximligand gewählt, der
als Chelatligand fungiert. Der ursprünglich synthetisierte Komplex enthielt zwei
Mn(IV)-Ionen außen und in der Mitte ein Mn(III)-Ion. Auch hier wurde die Kombination
verschiedener Metallzentren analysiert.
Für den Ursprungskomplex konnte ein axialer MAE-Parameter nachgewiesen, der im normalen
Rahmen für Mn(III)-Komplexe liegt. Die Substitution des zentralen Manganzentrums durch
schwerere Metallzentren führt hier jedoch nicht zum gewünschten Ergebnis. Der
Molybdänkomplex liefert eine sehr geringe Anisotropie und der Rheniumkomplex weist einen
positiven axialen MAE-Parameter auf. Für den Wolframkomplex hingegen erhält man
unplausible Ergebnisse.
Im nächsten Schritt wurden die äußeren Manganzentren durch Mo(III) ersetzt. Bei Molybdän,
Wolfram und Rhenium ergeben sich genau dieselben Probleme wie bei den Mn2M-Komplexen.
Der Mo2Mn-Komplex hingegen weist eine deutlich höhere Anisotropie auf als der
Mn2Mn-Komplex.
Holzleichtbaukonstruktionen weisen eine besondere Anfälligkeit für Perforationen der raumseitigen Schichten auf. Diese können bei Verwendung permeabler Dämmstoffe und einem regelkonformen, luftdurchlässigen Aufbau der nach außen anschließenden Schichten zu Leckageströmen führen. Die vorliegende Arbeit behandelt den konvektiven Feuchteeintrag durch Einzelleckagen im Gefach von Holzleichbaukonstruktionen infolge derartiger Leckageströme.
Das Potential der Durchströmung von Leckagen wird durch die anliegende Druckdifferenz zwischen Innenraum und Umgebung bestimmt. Im ersten Teil der Arbeit werden daher die über 5 Heizperioden, an verschiedenen Gebäuden, in unterschiedlichen Regionen Deutschlands durchgeführten Differenzdruckuntersuchungen analysiert und bewertet. Es wird gezeigt, dass die Häufigkeiten der anliegenden Druckdifferenzen schiefsymmetrisch verteilt ist. Sowohl der Auftrieb als auch die Windanströmung beeinflussen
die Druckdifferenz an der Gebäudehülle. Die Richtung der Windanströmung auf die Gebäudehülle, die regionale Lage, der Umbauungsgrad, die Luftdichtigkeit des Gesamtgebäudes und die Leckageverteilung in diesem sind zudem einflussnehmend.
Im zweiten Teil wird das mittels eines patentierten Messsystems und -verfahrens untersuchte Durchströmungsverhalten von Einzelleckagen in Holzleichtbaukonstruktionen dargestellt. Die Analysen zeigen, dass der Volumenstrom und Ausflussfaktor durch raumseitige Schichten u. a. von der Form, Randbeschaffenheit und Größe der Leckage beeinflusst werden. Weiterhin wird nachgewiesen, dass die Eigenschaften der Perforation(en) in den von der Dämmung nach außen angeordneten Schichten eine untergeordnete Rolle spielen. Außerdem wird verdeutlicht, dass sich der Luftstrom nach der raumseitigen Leckage konisch im mineralischen Faserdämmstoff öffnet. Dieses Ausbreitungsverhalten, kann mittels dem kleinsten durchströmbaren Dämmstoffvolumen berechnet werden. Eine entscheidende Einflussgröße dafür ist die Permeabilität des Dämmstoffs unter realistischen Druckdifferenzen.
Das entwickelte praxisnahe, analytische Berechnungsmodell zum konvektiven Feuchteeintrag stellt den abschließenden Teil der Arbeit dar. Der Volumenstrom durch eine Leckage im Gefach einer Holzleichtbaukonstruktion kann anhand dieses Modells mit einer durchschnittlichen Genauigkeit von ±12 % berechnet werden. Mittels eines quasi-stationären Berechnungsverfahrens wird anschließend die hygrische Hüllflächeninfiltration durch eine Einzelleckage, für eine Heizperiode, unter realistisch an einer Gebäudehüllfläche anliegenden Druckdifferenzen berechnet. Die Plausibilität der Ergebnisse wird an einem untersuchten Schadensfall nachgewiesen. Mit den Berechnungsergebnissen ist eine Bewertung des Schadenspotentials durch konvektiven Feuchteeintrag möglich.
Regionalparks werden als informelles projekt-, kommunikations- und kooperationsorientiertes
Planungsinstrument der Regionalentwicklung seit Ende der 1980er Jahre in
Deutschland umgesetzt. Seit einigen Jahren werden Regionalparks auch in anderen
europäischen Ländern, vor allem in Metropolregionen, entwickelt.
In Deutschland wurde der erste Regionalpark, der Emscher Landschaftspark, bereits
1989 gegründet. Mit dem Regionalpark Rhein-Main folgte 1994 ein weiterer Regionalpark.
Seitdem sind in vielen Bundesländern Deutschlands Regionalparks entwickelt
worden, so z. B. im Saarland, in Hamburg, in Berlin und Brandenburg oder in Baden-
Württemberg. Die Tendenz ist, auch aufgrund von EU-Fördermitteln, steigend.
Ein Schwerpunkt von Regionalparks liegt auf dem Landschafts- und Freiraumschutz.
Als informelles Instrument der Landschafts- und Freiraumentwicklung bieten Regionalparks
somit Strategien für eine nachhaltige und qualifizierte Sicherung von Freiräumen.
Regionalparks dienen im weiteren Bereich aber auch der lokalen und regionalen
Wirtschaft, verfolgen touristische, kulturelle und soziale Ziele. Sie gelten weiterhin als
Instrument zur Stärkung der weichen Standortfaktoren in z. B. strukturschwachen Regionen.
Im Kontext der raumordnungspolitischen Debatte um die territoriale Kohäsion
in Europa bieten Regionalparks somit Argumente für die Akquirierung von EU-Fördermitteln.
Im Rahmen wachsender internationaler Standortkonkurrenzen spielen Faktoren wie
das Image einer Region, eine hohe Umwelt- und Freiraumqualität, ein attraktives Wohnumfeld
und ein vielseitiges Kultur- und Naherholungsangebot in den Stadtregionen
Europas eine immer wichtigere Rolle für die Ansiedlung von Unternehmen und für den
Zuzug hochqualifizierter Arbeitnehmer. Durch die Folgeeffekte der Projekte in Regionalparks
können die Chancen im internationalen Wettbewerb verbessert werden.
Was in der Fachwelt bisher fehlt, ist ein empirischer Vergleich der deutschen Regionalparks
mit vergleichbaren Ansätzen im europäischen Ausland. Es wird in dieser Arbeit
daher der Frage nachgegangen, wie das Instrument Regionalpark in anderen Ländern
Europas interpretiert und umgesetzt wird, welchen Einfluss die Belange des Freiraum-
und Naturschutzes auf die Projekte in Regionalparks haben und wie detailliert
die Projekte der Regionalparks zu Themen wie Freiraum- und Naturschutz umgesetzt
werden. Dies wird anhand von vier Fallbeispielen – zwei Regionalparks in Deutschland
und zwei Regionalparks in Europa – beschrieben und bewertet und stellt den Schwerpunkt
der Arbeit dar.
Ein weiterer sich anschließender Untersuchungsaspekt ist die Bewertung und Analyse
der in den letzten Jahren neu in Europa entstandenen Regionalparks, die noch nicht
näher wissenschaftlich erforscht worden sind. Dazu zählen z. B. als Regionalparks
benannte Gebiete in Großbritannien, der Schweiz oder in Slowenien. Nicht immer gleichen
die Regionalparks im europäischen Ausland dabei den deutschen Konzepten,
sondern erweisen sich bei näherer Betrachtung als Natur-, Freizeit oder Ferienparks.
Durch eine kritische Bewertung nach verschiedenen vorher definierten Kriterien werden
die ausgewählten Regionalparks hinsichtlich des Schwerpunktes auf Natur- und
Freiraumschutz beleuchtet und bewertet. Aus den gewonnenen Erkenntnissen werden
Handlungsempfehlungen für Politik und Praxis abgeleitet.
Mit dieser Arbeit sollen Impulse für eine moderne, informelle, nachhaltige und ökologisch
orientierte Stadt -und Regionalentwicklung in Europa gegeben werden. Die Arbeit
soll darüber hinaus Handlungsempfehlungen für die Vernetzung von und den Informationsaustausch
zwischen Regionalparks geben und damit einen Beitrag zur Regionalparkentwicklung
in Europa leisten, um so ein geeintes Europa auch hinsichtlich
der Natur-, Regional- und Freiraumentwicklung zu stärken.
Die Gewichtsreduktion im Strukturbereich stellt einen zentralen Optimierungsansatz in der Luftfahrtindustrie dar, der vor allem durch adäquate Fügetechnologien genutzt werden kann. Ausgehend vom aktuellen Stand der Technik im Helikopterbau, dem Nieten, gilt es durch die Verwendung einer innovativen Fügetechnologie das volle technologische Leistungsvermögen hinsichtlich Performance, Qualität und Kosten zu nutzen. Dazu wurde das Induktionsschweißen als die potentialreichste Fügetechno-logie für den Helikopterbau bewertet. Um dieses identifizierte Potential für eine Luftfahrtfertigungstechnologie nutzbar zu machen, ist es unerlässlich, das Indukti-onsschweißen an die Luftfahrtanforderungen anzupassen. Vor allem in den Berei-chen Nachweisbarkeit, Leistungsfähigkeit und Kosten wurden daher Fragestellungen identifiziert deren Beantwortung den Kern dieser Arbeit darstellt.
Beim Induktionsschweißen werden faserverstärkte Thermoplaste durch ein Auf-schmelzen der Matrix und ein anschließendes Abkühlen unter Druck gefügt. Die Erwärmung des sich in einem alternierenden elektromagnetischen Feld (EMF) befindlichen Laminats erfolgt dabei durch die Einkopplung eines elektrischen Stroms in die Fasern.
Das zentrale Element zur Erreichung der geforderten Leistungsfähigkeit stellt die interlaminare Temperaturverteilung dar, welche es nachzuweisen gilt. Dieser Nach-weis wurde durch ein umfassendes analytisches Modell realisiert, das eine höchst-präzise interlaminare Temperaturberechnung ermöglicht. Die Kernaussagen, welche aus dem Modell abgeleitet werden, sind die dickenabhängige Erwärmung des Laminats, die EMF-Semipermeabilität der Laminatoberflächen und der nicht expo-nentielle Abfall sowie der nicht lineare Verlauf der Temperatur in Dickenrichtung. Die Validierung der analytischen Modellierung gelang nur durch die Identifikation einer EMF-toleranten, hochdynamischen Temperaturmesstechnologie, welche mit hoher Auflösung interlaminar eingesetzt werden kann.
Auf Grundlage der Modellergebnisse wurden die optimalen Schweißparameter definiert, auf deren Basis die Leistungsfähigkeit der Induktionsschweißtechnologie mit circa 36 MPa Scherfestigkeit bestätigt wurde. Durch eine Sensibilitätsanalyse konnte weiterhin der Einfluss der Parameter Generatorleistung, Kühlvolumen, Anpressdruck, Induktorabstand, Fehlereinschlüsse und Geschwindigkeit bestimmt werden. Aufgrund der im aktuellen Anlagenaufbau nicht vorhanden Parameterüber-wachung und aufgrund des hohen Prozesseinflusses erwies sich dabei der Induktor-abstand als der kritischste Faktor.
Etwaige dadurch auftretende qualitative Mängel können durch den schlanken, maßgeschneiderten Einsatz einer Kombination aus der Ultraschalluntersuchung, einer in der Luftfahrt standardmäßig eingesetzten Qualitätssicherungsmethode und eines progressiven Inline-Prozesskontrollansatzes detektiert werden.
Parallel zur mechanischen Leistungsfähigkeit der Technologie stand der Einfluss der Temperaturverteilung auf die Oberflächenqualität im Fokus. Durch die umfangreiche theoretische und experimentelle Analyse bereits bekannter und neu entwickelter Temperaturoptimierungsmethoden konnte mit der Kühlung der Oberfläche mit temperatur- und volumenvariablen Druckluftströmen eine effiziente Methode zur zielführenden Lösung der bestehenden Problemstellung ermittelt werden.
Die Anwendbarkeit der Induktionsschweißtechnologie konnte auch durch eine Kostenrechnung am Beispiel eines helikopterspezifischen Musterbauteils bestätigt werden.
Es gibt vielfache Ansätze, die mechanischen Eigenschaften von Werkstoffen zu verbessern, wobei in den meisten Fällen mit einer Erhöhung der quasistatischen Festigkeit eine Verringerung der Duktilität einhergeht. Bei ultrafeinkörnigen Werkstoffen ist diese Verringerung des Verformungsvermögens, aufgrund des dominierenden Verfestigungsmechanismus der Korngrenzenverfestigung, nicht zwangsläufig die Folge. Bei der Forschung mit Werkstoffen, die eine sehr kleine Korngröße aufweisen, stellt dieser Aspekt die Hauptmotivation dar.
Im Rahmen der aktuellen Arbeit wurden mehrere ultrafeinkörnige Modifikationen des Vergütungsstahles C45 mikrostrukturell, mit Hilfe von Raster- sowie Transmissionselektronenmikroskopie, aber auch Nanoindentation charakterisiert. Es konnten verbreitet Korngrößen unter 1 µm festgestellt werden, was der Definition ultrafeinkörnig entspricht. Anschließend folgte eine Korrelation der zyklischen Eigenschaften, welche mittels 4-Punkt-Mikrobiegeversuchen untersucht wurden und der Mikrostruktur. Da die hochfesten Ausprägungen der ultrafeinkörnigen Modifikationen in großen Teilen Rissinitiierung an nichtmetallischen Einschlüssen zeigten, erfolgte eine bruchmechanische Betrachtung mittels Spannungsintensitätsfaktoren. Als Quintessenz der vorliegenden Arbeit steht ein Modell, welches die Ermüdungseigenschaften von ultrafeinkörnigen Werkstoffen zusammenfasst. Mehrere Eigenschaften, wie das Auftreten von innerer Rissinitiierung, sowie insgesamt die extrem hohen Härten und Ermüdungsfestigkeiten (vergleichbar mit bainitisiertem 100Cr6), wurden im Rahmen der Arbeit erstmals bei diesen Modifikationen nachgewiesen und gehörten zuvor nicht zum Stand der Technik.
Bei Asthma handelt es sich um eine chronische Entzündung der Atemwege, die durch bronchiale
Hyperreagibilität, reversible Atemwegsobstruktion und airway remodeling gekennzeichnet
ist. Letzteres bezieht sich dabei auf die permanenten strukturellen Veränderungen in den
Atemwegen, die zur Verdickung der Bronchialwand beitragen und für die bei Asthmatikern
auftretende progressive und irreversible Abnahme der Lungenfunktion verantwortlich sind. Die
epithelial zu mesenchymale Transition (EMT), ein physiologischer Prozess bei dem epitheliale
Zellen den motilen und invasiven Phänotyp von Fibroblasten übernehmen, ist dabei eng mit
der Zerstörung der epithelialen Barriere, subepithelialer Fibrose und der Akkumulation von
Myofibroblasten assoziiert, die bei airway remodeling auftreten. Obwohl Wachstumsfaktoren wie der transforming growth factor β (TGF-β) als wichtige Induktoren von EMT gelten, weisen jüngste Ergebnisse auf eine EMT-modifizierende Wirkung von inflammatorischen Mediatoren
hin. Ein Ziel dieser Arbeit war es deshalb, den Effekt der inflammatorischen Zytokine IL-4, IL-
17 und IL-22, die in der Pathogenese von allergischem (IL-4) bzw. nicht-allergischem (IL-17/
-22) Asthma involviert sind, auf die TGF-β induzierte EMT in vitro zu untersuchen. Keines der Zytokine war dabei in der Lage, selbstständig EMT induzieren, allerdings verstärkten und beschleunigten sie den EMT-Prozess in Kombination mit TGF-β, wobei die kombinierte
Stimulation mit allen 3 Zytokinen einen additiven Effekt zeigte. Obwohl die Zytokine allein kurzzeitig die Transkription von EMT-essentiellen Transkriptionsfaktoren förderten, nahm deren Transkriptmenge sowie Proteinabundanz rasch wieder ab. Dieser Effekt wurde durch die zusätzliche Stimulation mit TGF-β jedoch stark verringert, was auf eine essentielle Rolle
des mRNA-stabilisierenden Effektes von TGF-β bei der Induktion von EMT hindeutet.
Obwohl inhalierte Kortikosteroide als goldene Standardtherapie in der Asthmabehandlung gelten, verbleiben 5-10% der Asthmatiker therapieresistent. Desweiteren wird airway
remodeling durch die Langzeit-Behandlung mit Kortikosteroiden nicht unterdrückt, weswegen
neue therapeutische Ansätze entwickelt werden müssen. Naturstoffe mit ihrer strukturellen
Komplexität sowie ihrem breiten Spektrum an biologischen Aktivitäten können dabei als
potentielle Leitstrukturen dienen. In dieser Arbeit wurde das therapeutische Potenzial der Naturstoffe Cyclonerodiol und Oxacyclododecindion bezüglich Asthma-relevanter
Pathomechanismen in vitro untersucht. Cyclonerodiol, das zuvor bereits als Inhibitor des IL-4 Signalweges charakterisiert wurde, hemmte auch den IL-13 Signalweg, der ebenfalls mit
allergischem Asthma assoziiert ist. Auf mRNA- und Proteinebene reduzierte der Naturstoff die Expression inflammatorischer Zytokine und Chemokine, die an der Pathogenese von
allergischem Asthma beteiligt sind. Untersuchungen zum Wirkmechanismus zeigten, dass Cyclonerodiol die Interaktion des Transkriptionsfaktors STAT6 mit den MAP-Kinasen p38
und ERK1/2 und somit die Serin-Phosphorylierung von STAT6 reduziert, wodurch auch die Interaktion mit dem transkriptionellen Coaktivator p300 verringert wird. Oxacyclododecindion,
das bereits als potenter Inhibitor der Expression von inflammatorischen sowie fibrotischen Genen identifiziert wurde, hemmte charakteristische Merkmale von schwerem, Glukokortikoidresistentem
Asthma wie die durch IL-17 induzierte Expression inflammatorischer Gene.
Die Substanz inhibierte zudem die durch TGF-β induzierte EMT wesentlich stärker als das potente Glukokortikoid Dexamethason. Studien zum Wirkmechanismus weisen darauf hin,dass es sich bei Oxacyclododecindion um einen Kinaseinhibitor mit TAK1 als potentieller Zielstruktur handeln könnte.
There are a number of designs for an online advertising system that allow for behavioral targeting without revealing user online behavior or user interest profiles to the ad network. Although these designs purport to be practical solutions, none of them adequately consider the role of ad auctions, which today are central to the operation of online advertising systems. Moreover, none of the proposed designs have been deployed in real-life settings. In this thesis, we present an effort to fill this gap. First, we address the challenge of running ad auctions that leverage user profiles while keeping the profile information private. We define the problem, broadly explore the solution space, and discuss the pros and cons of these solutions. We analyze the performance of our solutions using data from Microsoft Bing advertising auctions. We conclude that, while none of our auctions are ideal in all respects, they are adequate and practical solutions. Second, we build and evaluate a fully functional prototype of a practical privacy-preserving ad system at a reasonably large scale. With more than 13K opted-in users, our system was in operation for over two months serving an average of 4800 active users daily. During the last month alone, we registered 790K ad views, 417 clicks, and even a small number of product purchases. Our system obtained click-through rates comparable with those for Google display ads. In addition, our prototype is equipped with a differentially private analytics mechanism, which we used as the primary means for gathering experimental data. In this thesis, we describe our first-hand experience and lessons learned in running the world's first fully operational “private-by-design” behavioral advertising and analytics system.
Das Ziel dieser Dissertation ist die Entwicklung und Implementation eines Algorithmus zur Berechnung von tropischen Varietäten über allgemeine bewertete Körper. Die Berechnung von tropischen Varietäten über Körper mit trivialer Bewertung ist ein hinreichend gelöstes Problem. Hierfür kombinieren die Autoren Bogart, Jensen, Speyer, Sturmfels und Thomas eindrucksvoll klassische Techniken der Computeralgebra mit konstruktiven Methoden der konvexer Geometrie.
Haben wir allerdings einen Grundkörper mit nicht-trivialer Bewertung, wie zum Beispiel den Körper der \(p\)-adischen Zahlen \(\mathbb{Q}_p\), dann stößt die konventionelle Gröbnerbasentheorie scheinbar an ihre Grenzen. Die zugrundeliegenden Monomordnungen sind nicht geeignet um Problemstellungen zu untersuchen, die von einer nicht-trivialen Bewertung auf den Koeffizienten abhängig sind. Dies führte zu einer Reihe von Arbeiten, welche die gängige Gröbnerbasentheorie modifizieren um die Bewertung des Grundkörpers einzubeziehen.\[\phantom{newline}\]
In dieser Arbeit präsentieren wir einen alternativen Ansatz und zeigen, wie sich die Bewertung mittels einer speziell eingeführten Variable emulieren lässt, so dass eine Modifikation der klassischen Werkzeuge nicht notwendig ist.
Im Rahmen dessen wird Theorie der Standardbasen auf Potenzreihen über einen Koeffizientenring verallgemeinert. Hierbei wird besonders Wert darauf gelegt, dass alle Algorithmen bei polynomialen Eingabedaten mit ihren klassischen Pendants übereinstimmen, sodass für praktische Zwecke auf bereits etablierte Softwaresysteme zurückgegriffen werden kann. Darüber hinaus wird die Konstruktion des Gröbnerfächers sowie die Technik des Gröbnerwalks für leicht inhomogene Ideale eingeführt. Dies ist notwendig, da bei der Einführung der neuen Variable die Homogenität des Ausgangsideal gebrochen wird.\[\phantom{newline}\]
Alle Algorithmen wurden in Singular implementiert und sind als Teil der offiziellen Distribution erhältlich. Es ist die erste Implementation, welches in der Lage ist tropische Varietäten mit \(p\)-adischer Bewertung auszurechnen. Im Rahmen der Arbeit entstand ebenfalls ein Singular Paket für konvexe Geometrie, sowie eine Schnittstelle zu Polymake.
In this work we focus on the regression models with asymmetrical error distribution,
more precisely, with extreme value error distributions. This thesis arises in the framework
of the project "Robust Risk Estimation". Starting from July 2011, this project won
three years funding by the Volkswagen foundation in the call "Extreme Events: Modelling,
Analysis, and Prediction" within the initiative "New Conceptual Approaches to
Modelling and Simulation of Complex Systems". The project involves applications in
Financial Mathematics (Operational and Liquidity Risk), Medicine (length of stay and
cost), and Hydrology (river discharge data). These applications are bridged by the
common use of robustness and extreme value statistics.
Within the project, in each of these applications arise issues, which can be dealt with by
means of Extreme Value Theory adding extra information in the form of the regression
models. The particular challenge in this context concerns asymmetric error distributions,
which significantly complicate the computations and make desired robustification
extremely difficult. To this end, this thesis makes a contribution.
This work consists of three main parts. The first part is focused on the basic notions
and it gives an overview of the existing results in the Robust Statistics and Extreme
Value Theory. We also provide some diagnostics, which is an important achievement of
our project work. The second part of the thesis presents deeper analysis of the basic
models and tools, used to achieve the main results of the research.
The second part is the most important part of the thesis, which contains our personal
contributions. First, in Chapter 5, we develop robust procedures for the risk management
of complex systems in the presence of extreme events. Mentioned applications use time
structure (e.g. hydrology), therefore we provide extreme value theory methods with time
dynamics. To this end, in the framework of the project we considered two strategies. In
the first one, we capture dynamic with the state-space model and apply extreme value
theory to the residuals, and in the second one, we integrate the dynamics by means of
autoregressive models, where the regressors are described by generalized linear models.
More precisely, since the classical procedures are not appropriate to the case of outlier
presence, for the first strategy we rework classical Kalman smoother and extended
Kalman procedures in a robust way for different types of outliers and illustrate the performance
of the new procedures in a GPS application and a stylized outlier situation.
To apply approach to shrinking neighborhoods we need some smoothness, therefore for
the second strategy, we derive smoothness of the generalized linear model in terms of
L2 differentiability and create sufficient conditions for it in the cases of stochastic and
deterministic regressors. Moreover, we set the time dependence in these models by
linking the distribution parameters to the own past observations. The advantage of
our approach is its applicability to the error distributions with the higher dimensional
parameter and case of regressors of possibly different length for each parameter. Further,
we apply our results to the models with generalized Pareto and generalized extreme value
error distributions.
Finally, we create the exemplary implementation of the fixed point iteration algorithm
for the computation of the optimally robust in
uence curve in R. Here we do not aim to
provide the most
exible implementation, but rather sketch how it should be done and
retain points of particular importance. In the third part of the thesis we discuss three applications,
operational risk, hospitalization times and hydrological river discharge data,
and apply our code to the real data set taken from Jena university hospital ICU and
provide reader with the various illustrations and detailed conclusions.
This thesis treats the application of configurational forces for the evaluation of fracture processes in Antarctic ice shelves. FE simulations are used to analyze the influence of geometric scales, material parameters and boundary conditions on single surface cracks. A break-up event at the Wilkins Ice Shelf that coincided with a major temperature drop motivates the consideration of frost wedging as a mechanism for ice shelf disintegration. An algorithm for the evaluation of the crack propagation direction is used to analyze the horizontal growth of rifts. Using equilibrium considerations for a viscoelastic fluid, a method is introduced to compute viscous volume forces from measured velocity fields as loads for a linear elastic fracture mechanical analysis.
In 2003, a dictionary data structure called jumplist has been introduced by Brönnimann, Cazals and Durand. It is based on a circularly closed (singly) linked list, but additional jump-pointers are added to provide shortcuts to parts further ahead in the list.
The original jump-and-walk data structure by Brönnimann, Cazals and Durand only introduces one jump-pointer per node. In this thesis, I add one more-jump pointer to each node and present algorithms for generation, insertion and search for the resulting data structure.
Furthermore, I try to evaluate the effects on the expected search costs and the complexity of the generation and insertion.
It turns out that the two-jump-pointer variant of the jumplist has a slightly better prefactor (1.2 vs. 2) in the leading term of the expected internal path length than the original version and despite the more complex structure of the two-jump-pointer variant compared to the regular jumplist, the complexity of generation and insertion remains linearithmic.
Ausgehend von Andrew Moravcsiks liberaler Außenpolitiktheorie, nach
der gesellschaftliche Akteure rationale und risikoaverse bzw. kostensensitive
Präferenzen verfolgen, die konstitutiv für die Außen- und Sicherheitspolitik
von Staaten sind, untersucht die vorliegende Studie entlang
der Fallbeispiele Afghanistankrieg, Politik der gezielten Tötungen und
Schließung Guantánamos, inwiefern diese Präferenzen des amerikanischen
Demos die Politik der Terrorismusbekämpfung der Obama-
Administration maßgeblich beeinflussen, ob sich das politische System
gegenüber dem Präferenzmuster des Demos responsiv verhält und
unter welchen Kontextbedingungen gesellschaftliche Präferenzen von
Kongress und Präsident repräsentiert werden. Gestützt auf der Analyse
von Einstellungsmustern der amerikanischen Öffentlichkeit und dem
Kongruenzabgleich zwischen gesellschaftlichen Präferenzen und dem
Handeln von Kongress und Präsident ergibt sich ein widersprüchliches
Bild mit Blick auf die Grundannahmen der liberalen Außenpolitiktheorie.
Der amerikanische Demos favorisierte die gezielte Tötung von
Terroristen, lehnte aber die Schließung Guantánamos und die Intensivierung
des militärischen Einsatzes in Afghanistan ab. Der Kongress als
zentraler Transmissionsriemen gesellschaftlicher Präferenzen unterstützte
einerseits den Präsidenten seit 9/11 bei seiner Terrorismusbekämpfungsstrategie,
scheiterte aber trotz seiner verfassungsrechtlichen
Kompetenzen daran den exekutiven Dominanzanspruch beim Einsatz
militärischer Mittel in Frage zu stellen. Andererseits verweigerte der
Kongress fortlaufend die Schließung Guantánamos. Ziel dieser qualitativen
Studie ist es deshalb durch Verwendung von wirkmächtigen
intervenierenden Variablen wie Schwellenwertbedingung, Parteipolitische
Polarisierung und Politikfeldspezifizität - die argumentative und modelltheoretische
Erweiterung der liberalen Außenpolitiktheorie voranzutreiben
Sandwichelemente mit Deckschichten aus Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol
(2015)
Sandwichelemente vereinen aufgrund des gezielten Einsatzes verschiedener Materialien und deren schichtartigen Aufbaus sehr gute Dämmeigenschaften und ein geringes Eigengewicht mit hoher Tragfähigkeit und Biegesteifigkeit. Sie werden daher seit Beginn der 1960er-Jahre sowohl im Metallleichtbau als auch im Stahlbetonmassivbau vielfältig eingesetzt. Im Rahmen der vorliegenden Arbeit wurden Sandwichelemente mit Deckschichten aus einem mikro- oder auch textilbewehrtem Hochleistungsbeton und einem Kern aus extrudiertem Polystyrol-Hartschaum umfangreich experimentell und rechnerisch untersucht. Ziel war es, den Verbund zwischen dem Kern und den Deckschichten ohne mechanische Verbundmittel, sondern rein über die Adhäsion des profilierten Dämmkerns und den Deckschichten zu erzielen.
Das Sandwichtragverhalten wurde durch eine Vielzahl von Biege- und Scherversuchen experimentell untersucht. Die Dauerhaftigkeit des Verbunds zwischen dem Kern und den Deckschichten wurde durch eine Frost-Tau-Wechselbeanspruchung der Scherprobekörper sowie durch eine zyklische Ermüdungsbeanspruchung der Biegeprobekörper bestimmt. Anhand der Versuchsergebnisse konnte gezeigt werden, dass die Sandwichelemente bei der Verwendung als Wand- oder Dachelement den praxisüblichen Beanspruchungen standhalten und nicht vorzeitig versagen. Das Tragverhalten wurde weiterhin in Bauteilversuchen an großformatigen Sandwichelementen überprüft. Hierzu wurden in einem eigens konstruierten Unterdruckprüfstand zweifeldrig gelagerte Sandwichelemente einer realitätsnahen Beanspruchung durch eine Flächenlast ausgesetzt. Die Materialeigenschaften, die anhand der Scherversuche sowie an Dehnkörperversuchen am bewehrtem Beton ermittelt wurden, dienten zudem als Eingangsparameter zur rechnerischen Untersuchung der Sandwichelemente mit der FE-Software ANSYS. Auf Grundlage der Modellierungen konnten die Versuchsergebnisse interpretiert und das Tragverhalten in Parameterstudien vertiefend analysiert werden. Darüber hinaus wurden auch die Einwirkungen aus einer Temperatur- und Schwindbeanspruchung der Elemente ermittelt.
Über Ingenieurmodelle auf Grundlage der Sandwichtheorie konnte bisher der Einfluss der Rissbildung in den Betondeckschichten nur überschlägig und gemittelt über die Länge der Elemente berücksichtigt werden. Aus diesem Grund wurde ein bestehendes Programm zur Ermittlung der Sandwichschnittgrößen um einen Ansatz zur Berücksichtigung der Steifigkeitsreduzierung infolge der Rissbildung umfangreich erweitert. Mit dem neuen Programm swe2+ können nun erstmalig die Schnittgrößen und Verformungen von Sandwichelementen mit gerissenen Betondeckschichten zielsicher und diskret über die Länge eines Sandwichelements ermittelt werden. Durch Beispielrechnungen wurde gezeigt, dass die Umlagerung der Schnittgrößen infolge der Rissbildung in den Deckschichten zu ungünstigeren Beanspruchungen führen kann und diese Umlagerungen bei der Bemessung der Elemente entsprechend zu berücksichtigen sind. Die Bemessung der hier untersuchten Sandwichelemente kann in Anlehnung an die Norm DIN EN 14509 zur Bemessung von Sandwichelementen mit metallischen Deckschichten durchgeführt werden. Durch die Nachrechnungen der Biegeversuche wurde gezeigt, dass auf diese Weise die Elemente mit ausreichender Sicherheit und sehr guter Übereinstimmung bemessen werden können. Dies wird abschließend in zwei Bemessungsbeispielen an einem Wand- sowie einem Dachelement demonstriert.
Die kürzlich entdeckte Klasse der diversitätsgenerierenden Retroelemente (DGRs) kann ihrem
Wirt einen selektiven Vorteil über eine beschleunigte Proteinevolution verschaffen. Dazu
bedient sich das DGR eines nicht proliferativen „copy and replace“ Mechanismus, der
kodierende Sequenzinformation zielgerichtet von einem Templat Repeat über ein RNAIntermediat
zu einem spezifischen Gen transferiert. Die Sequenz wird während dem Prozess
hypermutiert, was vermutlich durch eine Fehleranfälligkeit der DGR-kodierten reversen
Transkriptase (RT) geschieht. Dabei kann die mutierte Sequenz eine höhere Diversität
erreichen, als es für die Antikörper und T-Zell-Rezeptoren des Immunsystems von Vertebraten
beobachtet wurde.
In dieser Arbeit wurde die Verteilung von DGRs in einer Stammsammlung von Cyanobakterien
untersucht. Dafür wurde ein Screening mit degenerierten Primern auf die DGR-kodierte RT
durchgeführt. Es konnten ca. 30 % (34) der analysierbaren Cyanobakterienstämme positiv auf
Präsenz eines DGRs getestet werden. Dazu gehört ein DGR aus Anabaena flos-aquae, von
dem auch die Sequenz ermittelt werden konnte. Dieses neu entdeckte DGR wurde zusammen
mit zwei weiteren DGRs aus Nostoc sp. PCC7120 und Treponema denticola auf Aktivität
untersucht, wobei die letzten beiden Elemente eine DGR-vermittelte Variation gezeigt haben.
Das demonstriert die Funktionsfähigkeit der Elemente, gibt aber zugleich einen Hinweis auf
eine starke Regulation, da die beobachtete Frequenz der Diversifizierung sehr gering war.
Eine Regulation wäre vorteilhaft für den Wirt, da vermutlich ein Großteil der Mutationen die
Funktion der variablen Proteine beeinträchtigt.
Von dem funktionsfähigen DGR aus Nostoc sp. PCC7120 wurde anschließend die Struktur
des RNA-Intermediats bioinformatisch und experimentell aufgeklärt. Dabei handelt es sich um
die erste aufgeklärte Struktur von RNA-Intermediaten aus DGRs. Basierend auf den Daten
konnte eine Konsensus-Struktur für 13 Sequenzen aus Cyanobakterien, grünen
Schwefelbakterien, Purpurbakterien, Treponema denticola und dem Bordetella-Phagen
berechnet werden, in der vier Haarnadelstrukturen konserviert zu sein scheinen. Diese
Strukturelemente könnten auf eine konservierte Funktion des RNA-Intermediats hinweisen
und eine hochaffine Bindestelle für die DGR-kodierte RT bereitstellen bzw. für eine
katalytische Aktivität als Endonuklease benötigt werden.
Damit liefert diese Arbeit einen wichtigen Beitrag für die experimentelle Identifizierung von
DGRs, sowie deren Verteilung und Regulation in Bakterien. Desweiteren bietet die Arbeit
einen Hinweis darauf, dass es sich bei dem RNA-Intermediat nicht nur um eine mobile
Komponente handelt, sondern weitere Funktionen hinzukommen könnten.
In the digital era we live in, users can access an abundance of digital resources in their daily life. These digital resources can be located on the user's devices, in traditional repositories such as intranets or digital libraries, but also in open environments such as the World Wide Web.
To be able to efficiently work with this abundance of information, users need support to get access to the resources that are relevant to them. Access to digital resources can be supported in various ways. Whether we talk about technologies for browsing, searching, filtering, ranking, or recommending resources: what they all have in common is that they depend on the available information (i.e., resources and metadata). The accessibility of digital resources that meet a user's information need, and the existence and quality of metadata is crucial for the success of any information system.
This work focuses on how social media technologies can support the access to digital resources. In contrast to closed and controlled environments where only selected users have the rights to contribute digital resources and metadata, and where this contribution involves a social process of formal agreement of the relevant stakeholders, potentially any user can easily create and provide information in social media environments. This usually leads to a larger variety of resources and metadata, and allows for dynamics that would otherwise hardly be possible.
Most information systems still mainly rely on traditional top-down approaches where only selected stakeholders can contribute information. The main idea of this thesis is an approach that allows for introducing the characteristics of social media environments in such traditional contexts. The requirements for such an approach are being examined, as well as the benefits and potentials it can provide.
The ALOE infrastructure was developed according to the identified requirements and realises a Social Resource and Metadata Hub. Case studies and evaluation results are provided to show the impact of the approach on the user's behaviours and the creation of digital resources and metadata, and to justify the presented approach.
This thesis is concerned with stochastic control problems under transaction costs. In particular, we consider a generalized menu cost problem with partially controlled regime switching, general multidimensional running cost problems and the maximization of long-term growth rates in incomplete markets. The first two problems are considered under a general cost structure that includes a fixed cost component, whereas the latter is analyzed under proportional and Morton-Pliska
transaction costs.
For the menu cost problem and the running cost problem we provide an equivalent characterization of the value function by means of a generalized version of the Ito-Dynkin formula instead of the more restrictive, traditional approach via the use of quasi-variational inequalities (QVIs). Based on the finite element method and weak solutions of QVIs in suitable Sobolev spaces, the value function is constructed iteratively. In addition to the analytical results, we study a novel application of the menu cost problem in management science. We consider a company that aims to implement an optimal investment and marketing strategy and must decide when to issue a new version of a product and when and how much
to invest into marketing.
For the long-term growth rate problem we provide a rigorous asymptotic analysis under both proportional and Morton-Pliska transaction costs in a general incomplete market that includes, for instance, the Heston stochastic volatility model and the Kim-Omberg stochastic excess return model as special cases. By means of a dynamic programming approach leading-order optimal strategies are constructed
and the leading-order coefficients in the expansions of the long-term growth rates are determined. Moreover, we analyze the asymptotic performance of Morton-Pliska strategies in settings with proportional transaction costs. Finally, pathwise optimality of the constructed strategies is established.
Der rasante Anstieg an ß-lactamresistenten Bakterienstämmen stellt ein weltweites medizinisches Problem dar. Für die Bekämpfung von resistenten Stämmen ist es wichtig, den Mechanismus der Resistenzentstehung zu verstehen. Die im Mittelpunkt der vorliegenden Arbeit stehenden S. pneumoniae-Isolate entstammen zwei unterschiedlichen Strategien zur Untersuchung der Entstehung und Verbreitung ß-lactamresistenter Pneumokokken. Die im Fokus des ersten Teils der vorliegenden Arbeit stehende Glycosyltransferase CpoA wurde von Grebe et al. (1997) als Resistenzdeterminante in zwei spontan-resistenten Labormutanten, P104 und P106, entdeckt. Beide wurden ausgehend von dem sensitiven S. pneumoniae R6 auf einer erhöhten Piperacillinkonzentration selektioniert. Berg et al. und Edman et al., beschrieben CpoA biochemisch als a-Galactosyl-Glycosyl-Diacylglycerin-Synthase, die einen Galactosylrest von UDP-Galaktose auf Glycosyldiacylglycerin (GlcDAG) überträgt (Berg et al., 2001; Edman et al., 2003) und so Galactosyl-Glycosyldiacylglycerin (GalGlcDAG), das Hauptglycolipid der Cytoplasmamembran von S. pneumoniae bildet. Durch Detektion der Glycolipide in R6, P104, P106 und R6ΔcpoA konnten diese in vitro Daten in vivo bestätigt werden. Keine der cpoA-Mutanten wies eine detektiertbare Menge an GalGlcDAG auf. Neben der Veränderung des Glycolipidverhältnisses offenbarte die Darstellung der Membranlipide auch eine Änderung des Phospholipidverhältnisses. Die phänotypische Charakterisierung der cpoA-Mutanten zeigte eine pleiotropen Phänotyp, der mit einer verlangsamten Generationszeit, einer verminderten Säuretoleranz, einem erhöhten Bedarf an zweiwertigen Magnesiumionen, dem Verlust der natürlichen Transformierbarkeit, einer verzögerten Triton-induzierte Zelllyse, sowie eine reduzierte Bacitracinresistenz einher ging. Durch eine Microarray-basierte, globale Transkriptomanalyse konnte gezeigt werden, dass vor allem Membranproteine, wie PTS-Systeme und ABC-Transporter, eine unterschiedliche Expressionsstärke im Vergleich zum Parentalstamm R6 aufwiesen. Als Grundlage für den zweiten Teil der vorliegenden Arbeit diente ein von Todorava (2010) durchgeführtes Transformationsexperiment, indem der sensitive S. pneumoniae R6 mit chromosomaler DNA des hochresistenten S. oralis Uo5 transformiert wurde. In sechs Transformationsschritten mit sukzessiv ansteigender Antibiotikakonzentration, konnten sechs Transformanten mit einer stufenweise erhöhten ß-Lactamresistenz generiert werden. Durch die Arbeiten von Todorova et al. (2015), konnte bereits gezeigt werden, dass drei niederaffine PBPs, sowie die Aminosäureligase MurE den Resistenzanstieg der ersten drei Selektionsschritte vermitteln. In dieser Arbeit wurde sich mit den Transformanten der Selektionsschritte vier, fünf und sechs beschäftigt. Durch Genomsequenzierung und anschließende Überprüfung bestimmter Sequenzbereiche konnten die Grenzen des horizontalen Gentransfers aufgewiesen werden. Der Resistenzanstieg in den letzten drei Selektionsschritten wurde nicht durch die Übertragung resistenter Uo5-Gene, sondern einzig durch Punktmutationen vermittelt. Die Charakterisierung, sowie die phänotypischen Auswirkungen der Veränderungen standen nach ihrer Identifizierung im Mittelpunkt der vorliegenden Arbeit. In der Transformante des vierten Selektionsschrittes, PCPC, konnten zwei Punktmutationen identifiziert werden. Eine Punktmutation innerhalb des Histidinkinasegens ciaH des Zweikomponentensystems CiaRH und eine weitere in spr1992, welches für ein hypothetisches Protein codiert. Bei CiaH handelt es sich um die erste nicht-PBP-Resistenzdeterminante, die in S. pneumoniae entdeckt wurde (Guenzi et al., 1994). Es zeigte sich, dass das neu entdeckte ciaH-Allel (ciaH773) eine Hyperaktivität des CiaRH-Systems bewirkt und zur Instabilität neigt. Um das Risiko von sekundären Mutationen zu mindern, wurde die Expression von ciaH773 unter die Kontrolle eines Tetracyclin-induzierbaren Promotors gestellt. Es konnte gezeigt werden, dass ciaH773 einen 11-fachen Anstieg der CiaR-vermittelten Genregulation, sowie eine Erhöhung der ß-Lactamresistenz bewirkt und zum Verlust der natürlichen Transformierbarkeit führt. Neben der Punktmutation in ciaH, konnte im vierten Selektionsschritt noch eine weitere Veränderung in spr1992 identifiziert werden. Beim Genprodukt von spr1992 handelt es sich um hypothetisches Protein. Blastanalysen lassen auf eine regulatorische Funktion von Spr1992 schließen. Die innerhalb dieser Arbeit erzielten Ergebnisse deuten stark auf einen Beitrag der Punktmutation in spr1992 zur CiaR-vermittelten Genregulation, sowie zur Cefotaximresistenz in PCPC hin. Zukünftige Untersuchungen könnten den Zusammenhang von spr1992 mit dem CiaRH-System weiter spezifizieren.Innerhalb des fünften Selektionsschrittes konnte eine 10 bp Deletion in der Serinprotease HtrA detektiert werden, die aufgrund der Lokalisation im ersten Drittel der Serinprotease mit einem Knockout von HtrA vergleichbar ist. Es konnte gezeigt werden, dass die HtrA-Deletion zu einer weiteren Steigerung der CiaRH-vermittelten Genregulation, sowie zu einer Erhöhung der ß-Lactamresistenz führt. Durch Einbringen des ciaH773-Allels in S. pneumoniae R6 und anschließender htrA-Deletion konnte dieser regulatorische Effekt auch im Wildtyp-Hintergrund nachgewiesen werden. Durch anschließend durchgeführte globalen Transkriptomanalysen konnten weitere Einblicke in die regulatorische Funktion von HtrA im Hintergrund eines hyperaktiven CiaRH-Systems gewonnen werden. In PCPCCO, der Transformante des sechsten Selektionsschrittes, konnte eine Punktmutation im Penicillin-bindenden Protein 2b innerhalb des bereits im dritten Selektionsschritt ausgetauschten Uo5-Sequenzbereiches als Resistenzdeterminante identifiziert werden. Durch Einbringen von Q406P in S. pneumoniae R6 konnte das Resistenz vermittelnde Potential dieser Veränderung auch im Wildtyphintergrund nachgewiesen werden. Somit konnte gezeigt werden, dass eine Resistenzdeterminante, die über horizontalen Gentransfer auf S. pneumoniae übertragen wurde, durch eine sekundäre Mutation, das Resistenzniveau ihres Rezipienten weiter steigern kann.
Vorgestellt wird ein Verfahren zur Bestimmung der Erdschlussentfernung in hochohmig geerdeten
Netzen. Nach Abklingen der transienten Vorgänge im Fehlerfall stellt sich ein stationärer
Zustand ein, in dem das Netz zunächst weiter betrieben werden kann.
Ausgehend von diesem stationären Fehlerfall wird auf der Basis eines Π-Glieds das Leitungsmodell
des einseitig gespeisten Stichabgangs mit einer Last in der Vier-Leiter-Darstellung
entwickelt. Die Schaltungsanalyse erfolgt mit Hilfe komplexer Rechnung und der Kirchhoffschen
Gesetze. Grundlage der Betrachtungen bildet das Netz mit isoliertem Sternpunkt.
Das entstehende Gleichungssystem ist in seiner Grundform nichtlinear, lässt sich jedoch auf eine
elementar lösbare kubische Gleichung im gesuchten Fehlerentfernungsparameter zurückführen.
Eine weitere Lösungsmöglichkeit bietet das Newton-Raphson-Verfahren.
Durch Verlegen der lastseitigen Leiter-Erd-Kapazitäten an den Abgangsanfang kann das vollständige,
nichtlineare System in ein lineares System überführt werden. Hierbei sind die beiden
Ausprägungen „direkte Lösung mit unsymmetrischer Last“ oder „Ausgleichsrechnung mit
symmetrischer Last“ möglich.
Eine MATLAB®-Implementierung dieser vier Rechenalgorithmen bildet die Basis der weiteren
Analysen.
Alle messtechnischen Untersuchungen erfolgten am Netz-Kraftwerksmodell der TU Kaiserslautern.
Hier wurden verschiedene Fehlerszenarien hinsichtlich Fehlerentfernung, -widerstand und
Größe des gesunden Restnetzes hergestellt, in 480 Einzelmessungen erfasst und mit den Algorithmen
ausgewertet. Dabei wurden auch Messungen an fehlerfreien Abgängen erhoben, um das
Detektionsvermögen der Algorithmen zu testen.
Neben Grundschwingungsbetrachtungen ist die Auswertung aller Datensätze mit der 5. und der
7. Harmonischen ein zentrales Thema. Im Fokus steht die Verwendbarkeit dieser Oberschwingungen
zur Erdschlussentfernungsmessung bzw. -detektion mit den o.g. Algorithmen.
Besondere Bedeutung kommt der Fragestellung zu, inwieweit die für ein Netz mit isoliertem
Sternpunkt konzipierten Algorithmen unter Benutzung der höheren Harmonischen zur Erdschlussentfernungsmessung
in einem gelöschten Netz geeignet sind.
Schließlich wird das Verfahren auf Abgänge mit inhomogenem Leitermaterial erweitert, da auch
diese Konstellation von praktischer Bedeutung ist.