Refine
Year of publication
- 2015 (146) (remove)
Document Type
- Doctoral Thesis (100)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Bachelor Thesis (2)
- Conference Proceeding (2)
- Article (1)
- Lecture (1)
- Moving Images (1)
Has Fulltext
- yes (146)
Keywords
- Beam-on time (2)
- Decomposition cardinality (2)
- Field splitting (2)
- Hochschulforschung (2)
- Intensity modulated radiation therapy (2)
- Multileaf collimator sequencing (2)
- NURBS (2)
- Regionalentwicklung (2)
- Stadtplanung (2)
- finite element method (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Kaiserslautern - Fachbereich Informatik (22)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (22)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (9)
- Universität (7)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich ARUBI (1)
We propose and study a strongly coupled PDE-ODE system with tissue-dependent degenerate diffusion and haptotaxis that can serve as a model prototype for cancer cell invasion through the
extracellular matrix. We prove the global existence of weak solutions and illustrate the model behaviour by numerical simulations for a two-dimensional setting.
On the Extended Finite Element Method for the Elasto-Plastic Deformation of Heterogeneous Materials
(2015)
This thesis is concerned with the extended finite element method (XFEM) for deformation analysis of three-dimensional heterogeneous materials. Using the "enhanced abs enrichment" the XFEM is able to reproduce kinks in the displacements and therewith jumps in the strains within elements of the underlying tetrahedral finite element mesh. A complex model for the micro structure reconstruction of aluminum matrix composite AMC225xe and the modeling of its macroscopic thermo-mechanical plastic deformation behavior is presented, using the XFEM. Additionally, a novel stabilization algorithm is introduced for the XFEM. This algorithm requires preprocessing only.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
In this thesis we present a new method for nonlinear frequency response analysis of mechanical vibrations.
For an efficient spatial discretization of nonlinear partial differential equations of continuum mechanics we employ the concept of isogeometric analysis. Isogeometric finite element methods have already been shown to possess advantages over classical finite element discretizations in terms of exact geometry representation and higher accuracy of numerical approximations using spline functions.
For computing nonlinear frequency response to periodic external excitations, we rely on the well-established harmonic balance method. It expands the solution of the nonlinear ordinary differential equation system resulting from spatial discretization as a truncated Fourier series in the frequency domain.
A fundamental aspect for enabling large-scale and industrial application of the method is model order reduction of the spatial discretization of the equation of motion. Therefore we propose the utilization of a modal projection method enhanced with modal derivatives, providing second-order information. We investigate the concept of modal derivatives theoretically and using computational examples we demonstrate the applicability and accuracy of the reduction method for nonlinear static computations and vibration analysis.
Furthermore, we extend nonlinear vibration analysis to incompressible elasticity using isogeometric mixed finite element methods.
Die Arbeiten im Rahmen des vorliegenden Projektes beschäftigen sich im Wesentlichen mit der Synthese neuartiger Liganden auf Pyrimidinbasis. Der Abstand zwischen dem aromatischen Grundgerüst und weiterer Donorzentren – hier Phosphane – wird dabei so angepasst, dass für die zu insertierenden Zentralmetalle kooperative Effekte erwartet werden können. Mögliche Anwendungen werden erprobt.
Das Arbeits- und Forschungspapier erörtert den Zugang zur Hochschulbildung für Geflüchtete in Deutschland und wird im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) publiziert. Das Forschungs- und Entwicklungsprojekt hat zum Ziel, bedarfsorientierte (Weiter-)Bildungsangebote für neue Zielgruppen in der Region Westpfalz zu entwickeln. Geflüchtete mit Aufenthaltserlaubnis sowie Geflüchtete im Asylbewerbungsverfahren stellen eine solche neue Zielgruppe dar, da für sie eine Öffnung der Hochschulbildung bis Dato noch nicht rechtlich festgelegt ist (Stand: August 2015). Im Rahmen des Arbeits- und Forschungspapiers werden zunächst unterschiedliche Hürden im Zugang zu Hochschulbildung aufgezeigt, die in der Problematik des Aufenthaltsstatus, in den Zugangsvoraussetzungen, aber auch in der Studienfinanzierung sowie der Anerkennung von Kompetenzen begründet liegen. Zudem werden hochschulinterne Barrieren in Bezug auf die Programmlogiken der Studiengänge sowie den Beratungs- und Unterstützungsangeboten angesprochen. Daran anschließend werden mögliche Lösungsansätze für diese Hürden skizziert.
It is well known that the structure at a microscopic point of view strongly influences the
macroscopic properties of materials. Moreover, the advancement in imaging technologies allows
to capture the complexity of the structures at always decreasing scales. Therefore, more
sophisticated image analysis techniques are needed.
This thesis provides tools to geometrically characterize different types of three-dimensional
structures with applications to industrial production and to materials science. Our goal is to
enhance methods that allow the extraction of geometric features from images and the automatic
processing of the information.
In particular, we investigate which characteristics are sufficient and necessary to infer
the desired information, such as particles classification for technical cleanliness and
fitting of stochastic models in materials science.
In the production line of automotive industry, dirt particles collect on the surface of mechanical
components. Residual dirt might reduce the performance and durability of assembled products.
Geometric characterization of these particles allows to identify their potential danger.
While the current standards are based on 2d microscopic images, we extend the characterization
to 3d.
In particular, we provide a collection of parameters that exhaustively describe size and shape
of three-dimensional objects and can be efficiently estimated from binary images. Furthermore,
we show that only a few features are sufficient to classify particles according to the standards
of technical cleanliness.
In the context of materials science, we consider two types of microstructures: fiber systems
and foams.
Stochastic geometry grants the fundamentals for versatile models able to encompass the
geometry observed in the samples. To allow automatic model fitting, we need rules stating which
parameters of the model yield the best-fitting characteristics. However, the validity of such
rules strongly depends on the properties of the structures and on the choice of the model.
For instance, isotropic orientation distribution yields the best theoretical results for Boolean
models and Poisson processes of cylinders with circular cross sections. Nevertheless, fiber
systems in composites are often anisotropic.
Starting from analytical results from the literature, we derive formulae for anisotropic
Poisson processes of cylinders with polygonal cross sections that can be directly used in
applications. We apply this procedure to a sample of medium density fiber board. Even
if image resolution does not allow to estimate reliably characteristics of the singles fibers,
we can fit Boolean models and Poisson cylinder processes. In particular, we show the complete
model fitting and validation procedure with cylinders with circular and squared cross sections.
Different problems arise when modeling cellular materials. Motivated by the physics of foams,
random Laguerre tessellations are a good choice to model the pore system of foams.
Considering tessellations generated by systems of non-overlapping spheres allows to control the
cell size distribution, but yields the loss of an analytical description of the model.
Nevertheless, automatic model fitting can still be obtained by approximating the characteristics
of the tessellation depending on the parameters of the model. We investigate how to improve
the choice of the model parameters. Angles between facets and between edges were never considered
so far. We show that the distributions of angles in Laguerre tessellations
depend on the model parameters. Thus, including the moments of the angles still allows automatic
model fitting. Moreover, we propose an algorithm to estimate angles from images of real foams.
We observe that angles are matched well in random Laguerre tessellations also when they are not
employed to choose the model parameters. Then, we concentrate on the edge length distribution. In
Laguerre tessellations occur many more short edges than in real foams. To deal with this problem,
we consider relaxed models. Relaxation refers to topological and structural modifications
of a tessellation in order to make it comply with Plateau's laws of mechanical equilibrium. We inspect
samples of different types of foams, closed and open cell foams, polymeric and metallic. By comparing
the geometric characteristics of the model and of the relaxed tessellations, we conclude that whether
the relaxation improves the edge length distribution strongly depends on the type of foam.
Attention-awareness is a key topic for the upcoming generation of computer-human interaction. A human moves his or her eyes to visually attends to a particular region in a scene. Consequently, he or she can process visual information rapidly and efficiently without being overwhelmed by vast amount of information from the environment. Such a physiological function called visual attention provides a computer system with valuable information of the user to infer his or her activity and the surrounding environment. For example, a computer can infer whether the user is reading text or not by analyzing his or her eye movements. Furthermore, it can infer with which object he or she is interacting by recognizing the object the user is looking at. Recent developments of mobile eye tracking technologies enable us
to capture human visual attention in ubiquitous everyday environments. There are various types of applications where attention-aware systems may be effectively incorporated. Typical examples are augmented reality (AR) applications such as Wikitude which overlay virtual information onto physical objects. This type of AR application presents augmentative information of recognized objects to the user. However, if it presents information of all recognized objects at once, the over
ow of information could be obtrusive to the user. As a solution for such a problem, attention-awareness can be integrated into a system. If a
system knows to which object the user is attending, it can present only the information of
relevant objects to the user.
Towards attention-aware systems in everyday environments, this thesis presents approaches
for analysis of user attention to visual content. Using a state-of-the-art wearable eye tracking device, one can measure the user's eye movements in a mobile scenario. By capturing the user's eye gaze position in a scene and analyzing the image where the eyes focus, a computer can recognize the visual content the user is currently attending to. I propose several image analysis methods to recognize the user-attended visual content in a scene image. For example, I present an application called Museum Guide 2.0. In Museum Guide 2.0, image-based object recognition and eye gaze analysis are combined together to recognize user-attended objects in a museum scenario. Similarly, optical character recognition
(OCR), face recognition, and document image retrieval are also combined with eye gaze analysis to identify the user-attended visual content in respective scenarios. In addition to Museum Guide 2.0, I present other applications in which these combined frameworks are effectively used. The proposed applications show that the user can benefit from active information presentation which augments the attended content in a virtual environment with
a see-through head-mounted display (HMD).
In addition to the individual attention-aware applications mentioned above, this thesis
presents a comprehensive framework that combines all recognition modules to recognize the user-attended visual content when various types of visual information resources such as text, objects, and human faces are present in one scene. In particular, two processing strategies are proposed. The first one selects an appropriate image analysis module according to the user's current cognitive state. The second one runs all image analysis modules simultaneously and merges the analytic results later. I compare these two processing strategies in terms of user-attended visual content recognition when multiple visual information resources are present in the same scene.
Furthermore, I present novel interaction methodologies for a see-through HMD using eye gaze input. A see-through HMD is a suitable device for a wearable attention-aware system for everyday environments because the user can also view his or her physical environment
through the display. I propose methods for the user's attention engagement estimation with the display, eye gaze-driven proactive user assistance functions, and a method for interacting
with a multi-focal see-through display.
Contributions of this thesis include:
• An overview of the state-of-the-art in attention-aware computer-human interaction
and attention-integrated image analysis.
• Methods for the analysis of user-attended visual content in various scenarios.
• Demonstration of the feasibilities and the benefits of the proposed user-attended visual content analysis methods with practical user-supportive applications.
• Methods for interaction with a see-through HMD using eye gaze.
• A comprehensive framework for recognition of user-attended visual content in a complex
scene where multiple visual information resources are present.
This thesis opens a novel field of wearable computer systems where computers can understand the user attention in everyday environments and provide with what the user wants. I will show the potential of such wearable attention-aware systems for everyday
environments for the next generation of pervasive computer-human interaction.
Spin and orbital magnetic moments of isolated single molecule magnets and transition metal clusters
(2015)
In the present work, magnetic moments of isolated Single Molecule Magnets (SMMs) and transition
metal clusters were investigated. Gas phase X‐ray Magnetic Circular Dichroism (XMCD) in
combination with sum rule analysis served to separate the total magnetic moments of the
investigated species into their spin and orbital contributions. Two different mass spectrometry based
setups were used for the presented investigations on transition metal clusters (GAMBIT‐setup) and
on single molecule magnets (NanoClusterTrap). Both experiments were coupled to the UE52‐PGM
beamline at the BESSY II synchrotron facility (Helmholtz Zentrum Berlin) which provided the
necessary polarized X‐ray photons. The investigation of the given compounds as isolated molecules
in the gas phase enabled a determination of their intrinsic magnetic properties void of any influences
of e.g. a surrounding bulk or supporting surface
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
(2015)
Versuche zur Antibiotikawirkung von Daptomycin und der Immunsuppression bei Myasthenia gravis
Daptomycin ist ein cyclisches Lipopeptidantibiotikum, das zur Behandlung schwerer gram-positiver Infektionen entwickelt wurde. Daptomycin weißt in vitro eine schnelle Aktivität gegen klinisch signifikante Stämme gram-positiver Pathogene auf. Außerdem ist die Aktivität von Daptomycin abhängig von der physiologischen Calciumkonzentration. Es wird postuliert, dass in einem ersten Schritt die Calciumionen mit dem Antibiotikum interagieren und dieser Komplex dadurch positiv geladen ist. Somit kann es an negativ geladene Membranen, die Phosphatidylglycerol enthalten, binden. In einem nächsten Schritt interagiert der hydrophobe Schwanz des Daptomycins als Anker, da dieser in wässriger Lösung einen hohen \(\Delta\)G-Wert besitzt und dieser dadurch erniedrigt wird. Schließlich nimmt die Fluidität der Membran ab und durch den Kollaps des Membranpotentials findet ein Zusammenbruch verschiedener Zellfunktionen statt.
Die Versuche wurden zum größten Teil an Liposomen als Modelmembranen durchgeführt. Dabei wurden zwei Liposomensysteme genutzt. Einerseits Liposomen die aus Avanti Polar Lipid Mix bestanden und durch Behandlung mit Ultraschall hergestellt wurden. Andererseits wurden Liposomen aus Bakterien hergestellt. Zudem wurden kompette Bakterienzellen untersucht.
Der bakterielle Wachstum wurde durch UV/VIS-Spekroskopie gemessen. Veränderungen in der Fluidität der Membran wurden mittels ESR-Spektroskopie festgestellt. Die Morphologie wurde mittels Elektronenmikroskopie und Rasterkraftmikroskopie aufgenommen. Zusätzlich wurde ein Leakage Assay durchgeführt.
Zusammenfassend lässt sich sagen, dass bei den ESR-Untersuchungen eine Änderung der Fluidität gemessen wurde. Aufgrund der Ergebnisse verschiedener Spinlabel lag allerdings die Vermutung nahe, dass sich bei Daptomycin keine diskrete Pore ausbildet, sondern es zur Krümmung der Membran kommt was schließlich zum Aufplatzen der Zelle führt. Deshalb wurden im weiteren Messungen am Elektronenmikroskop sowie am Rasterkraftmikroskop durchgeführt, um Rückschlüsse auf die Morphologie machen zu können. Diese Messungen bestätigten die obige These, dass sich keine Pore ausbildet sondern es zur Krümmung der Membranoberfläche kommt.
Bei Autoimmunerkrankungen richtet der Körper Autoantikörper gegen körpereigene Strukturen. Bei Myasthenia gravis sind es Antikörper, die gegen Strukturen der postsynaptischen Membran im Bereich der neuromuskulären Endplatte gerichtet sind. Hierbei richten sich diese gegen Acetylcholinrezeptoren, die als Transmembrankanäle bei der Signalweiterleitung fungieren.
In früheren Arbeiten konnte unter anderem Hossann gentechnisch die \(\alpha\)-Untereinheit des Acetylcholinrezeptors mit dem Ribosomeninaktivierenden Protein Gelonin koppeln, es lag hier allerdings eine niedrige Löslichkeit vor und das Fusionsprotein lies sich nur schwer zurückfalten.
In diesem Teil der Arbeit wurde die Cytotoxizität von Gelonin mittels Zellkuturexperimenten untersucht, ein von Li zur Verfügung gestelltes Plasmid mit der \(\alpha\)-Untereinheit des Acetylcholinrezeptors, fusioniert an den der Löslichkeitstag MBP, überprüft. Außerdem sollte ein Plasmid kloniert werden, das für ein Fusionsprotein aus MBP-Gelonin-Achetylcholinrezeptor codiert. Hierbei versprach man sich durch den zusätzlichen MBP-Tag eine höhere Löslichkeit.
Der Cytotoxizitätstest wurde durchgeführt, da in der Literatur teils widersprüchliche Ergebnisse veröffentlicht wurden, bestätigte aber, dass Gelonin als ein Typ I RIP ohne Membrandomäne keine Cytotoxizität aufweißt.
Das Plasmid MBP-Achetylcholinrezeptor wurde in E. coli Zelllen transformiert, das Protein exprimiert und mittels Amylosesäule und HiTrap-Säule isoliert. Es besahs eine hohe Löslichkeit und lag in gefalteter Form in Lösung vor.
Die zur Synthese des MBP-Gelonin-Acetylcholinrezeptors-Konjugats notwendigen Plasmide waren im Arbeitskreis vorhanden. Das Plasmid pET-gel codierte für Gelonin und die DNA-Sequenz für die \(\alpha\)-Untereinheit des Acetylcholinrezeptors war bereits in den pAChRex-Vektor einkloniert. Der Löslichkeitstag MBP war im Plasmid pmal-c5x enthalten.
Auf Basis dieser Plasmide wurde eine Klonierungsstrategie entwickelt und in Teilen durchgeführt.
In embedded systems, there is a trend of integrating several different functionalities on a common platform. This has been enabled by increasing processing power and the arise of integrated system-on-chips.
The composition of safety-critical and non-safety-critical applications results in mixed-criticality systems. Certification Authorities (CAs) demand the certification of safety-critical applications with strong confidence in the execution time bounds. As a consequence, CAs use conservative assumptions in the worst-case execution time (WCET) analysis which result in more pessimistic WCETs than the ones used by designers. The existence of certified safety-critical and non-safety-critical applications can be represented by dual-criticality systems, i.e., systems with two criticality levels.
In this thesis, we focus on the scheduling of mixed-criticality systems which are subject to certification. Scheduling policies cognizant of the mixed-criticality nature of the systems and the certification requirements are needed for efficient and effective scheduling. Furthermore, we aim at reducing the certification costs to allow faster modification and upgrading, and less error-prone certification. Besides certification aspects, requirements of different operational modes result in challenging problems for the scheduling process. Despite the mentioned problems, schedulers require a low runtime overhead for an efficient execution at runtime.
The presented solutions are centered around time-triggered systems which feature a low runtime overhead. We present a transformation to include event-triggered activities, represented by sporadic tasks, already into the offline scheduling process. Further, this transformation can also be applied on periodic tasks to shorten the length of schedule tables which reduces certification costs. These results can be used in our method to construct schedule tables which creates two schedule tables to fulfill the requirements of dual-criticality systems using mode changes at runtime. Finally, we present a scheduler based on the slot-shifting algorithm for mixed-criticality systems. In a first version, the method schedules dual-criticality jobs without the need for mode changes. An already certified schedule table can be used and at runtime, the scheduler reacts to the actual behavior of the jobs and thus, makes effective use of the available resources. Next, we extend this method to schedule mixed-criticality job sets with different operational modes. As a result, we can schedule jobs with varying parameters in different modes.
Lithium-ion batteries are broadly used nowadays in all kinds of portable electronics, such as laptops, cell phones, tablets, e-book readers, digital cameras, etc. They are preferred to other types of rechargeable batteries due to their superior characteristics, such as light weight and high energy density, no memory effect, and a big number of charge/discharge cycles. The high demand and applicability of Li-ion batteries naturally give rise to the unceasing necessity of developing better batteries in terms of performance and lifetime. The aim of the mathematical modelling of Li-ion batteries is to help engineers test different battery configurations and electrode materials faster and cheaper. Lithium-ion batteries are multiscale systems. A typical Li-ion battery consists of multiple connected electrochemical battery cells. Each cell has two electrodes - anode and cathode, as well as a separator between them that prevents a short circuit.
Both electrodes have porous structure composed of two phases - solid and electrolyte. We call macroscale the lengthscale of the whole electrode and microscale - the lengthscale at which we can distinguish the complex porous structure of the electrodes. We start from a Li-ion battery model derived on the microscale. The model is based on nonlinear diffusion type of equations for the transport of Lithium ions and charges in the electrolyte and in the active material. Electrochemical reactions on the solid-electrolyte interface couple the two phases. The interface kinetics is modelled by the highly nonlinear Butler-Volmer interface conditions. Direct numerical simulations with standard methods, such as the Finite Element Method or Finite Volume Method, lead to ill-conditioned problems with a huge number of degrees of freedom which are difficult to solve. Therefore, the aim of this work is to derive upscaled models on the lengthscale of the whole electrode so that we do not have to resolve all the small-scale features of the porous microstructure thus reducing the computational time and cost. We do this by applying two different upscaling techniques - the Asymptotic Homogenization Method and the Multiscale Finite Element Method (MsFEM). We consider the electrolyte and the solid as two self-complementary perforated domains and we exploit this idea with both upscaling methods. The first method is restricted only to periodic media and periodically oscillating solutions while the second method can be applied to randomly oscillating solutions and is based on the Finite Element Method framework. We apply the Asymptotic Homogenization Method to derive a coupled macro-micro upscaled model under the assumption of periodic electrode microstructure. A crucial step in the homogenization procedure is the upscaling of the Butler-Volmer interface conditions. We rigorously determine the asymptotic order of the interface exchange current densities and we perform a comprehensive numerical study in order to validate the derived homogenized Li-ion battery model. In order to upscale the microscale battery problem in the case of random electrode microstructure we apply the MsFEM, extended to problems in perforated domains with Neumann boundary conditions on the holes. We conduct a detailed numerical investigation of the proposed algorithm and we show numerical convergence of the method that we design. We also apply the developed technique to a simplified two-dimensional Li-ion battery problem and we show numerical convergence of the solution obtained with the MsFEM to the reference microscale one.
Lithium-ion batteries are increasingly becoming an ubiquitous part of our everyday life - they are present in mobile phones, laptops, tools, cars, etc. However, there are still many concerns about their longevity and their safety. In this work we focus on the simulation of several degradation mechanisms on the microscopic scale, where one can resolve the active materials inside the electrodes of the lithium-ion batteries as porous structures. We mainly study two aspects - heat generation and mechanical stress. For the former we consider an electrochemical non-isothermal model on the spatially resolved porous scale to observe the temperature increase inside a battery cell, as well as to observe the individual heat sources to assess their contributions to the total heat generation. As a result from our experiments, we determined that the temperature has very small spatial variance for our test cases and thus allows for an ODE formulation of the heat equation.
The second aspect that we consider is the generation of mechanical stress as a result of the insertion of lithium ions in the electrode materials. We study two approaches - using small strain models and finite strain models. For the small strain models, the initial geometry and the current geometry coincide. The model considers a diffusion equation for the lithium ions and equilibrium equation for the mechanical stress. First, we test a single perforated cylindrical particle using different boundary conditions for the displacement and with Neumann boundary conditions for the diffusion equation. We also test for cylindrical particles, but with boundary conditions for the diffusion equation in the electrodes coming from an isothermal electrochemical model for the whole battery cell. For the finite strain models we take in consideration the deformation of the initial geometry as a result of the intercalation and the mechanical stress. We compare two elastic models to study the sensitivity of the predicted elastic behavior on the specific model used. We also consider a softening of the active material dependent on the concentration of the lithium ions and using data for silicon electrodes. We recover the general behavior of the stress from known physical experiments.
Some models, like the mechanical models we use, depend on the local values of the concentration to predict the mechanical stress. In that sense we perform a short comparative study between the Finite Element Method with tetrahedral elements and the Finite Volume Method with voxel volumes for an isothermal electrochemical model.
The spatial discretizations of the PDEs are done using the Finite Element Method. For some models we have discontinuous quantities where we adapt the FEM accordingly. The time derivatives are discretized using the implicit Backward Euler method. The nonlinear systems are linearized using the Newton method. All of the discretized models are implemented in a C++ framework developed during the thesis.
In this dissertation, we discuss how to price American-style options. Our aim is to study and improve the regression-based Monte Carlo methods. In order to have good benchmarks to compare with them, we also study the tree methods.
In the second chapter, we investigate the tree methods specifically. We do research firstly within the Black-Scholes model and then within the Heston model. In the Black-Scholes model, based on Müller's work, we illustrate how to price one dimensional and multidimensional American options, American Asian options, American lookback options, American barrier options and so on. In the Heston model, based on Sayer's research, we implement his algorithm to price one dimensional American options. In this way, we have good benchmarks of various American-style options and put them all in the appendix.
In the third chapter, we focus on the regression-based Monte Carlo methods theoretically and numerically. Firstly, we introduce two variations, the so called "Tsitsiklis-Roy method" and the "Longstaff-Schwartz method". Secondly, we illustrate the approximation of American option by its Bermudan counterpart. Thirdly we explain the source of low bias and high bias. Fourthly we compare these two methods using in-the-money paths and all paths. Fifthly, we examine the effect using different number and form of basis functions. Finally, we study the Andersen-Broadie method and present the lower and upper bounds.
In the fourth chapter, we study two machine learning techniques to improve the regression part of the Monte Carlo methods: Gaussian kernel method and kernel-based support vector machine. In order to choose a proper smooth parameter, we compare fixed bandwidth, global optimum and suboptimum from a finite set. We also point out that scaling the training data to [0,1] can avoid numerical difficulty. When out-of-sample paths of stock prices are simulated, the kernel method is robust and even performs better in several cases than the Tsitsiklis-Roy method and the Longstaff-Schwartz method. The support vector machine can keep on improving the kernel method and needs less representations of old stock prices during prediction of option continuation value for a new stock price.
In the fifth chapter, we switch to the hardware (FGPA) implementation of the Longstaff-Schwartz method and propose novel reversion formulas for the stock price and volatility within the Black-Scholes and Heston models. The test for this formula within the Black-Scholes model shows that the storage of data is reduced and also the corresponding energy consumption.
In seiner Entwicklungsgeschichte hat der stationäre Einzelhandel eine enorme Wandlungsfähigkeit bewiesen. Dieser hat er es zu verdanken, dass er bis heute eine zentrale Funktion der Innenstadt darstellt. Allerdings wird die Stabilität der innerstädtischen Einzelhandelslagen seit einigen Jahren zunehmend auf die Probe gestellt. Mit dem Online-Handel als sich etablierenden neuen Absatzkanal mit wachsenden Umsatz- und Nutzerzahlen, bekommen die innerstädtischen Einzelhandelslagen einerseits deutliche Konkurrenz. So eignet sich das innerstädtische Sortiment besonders gut für den Online-Vertrieb. Umsatzeinbußen in den lokalen Geschäften, Geschäftsaufgaben, Ladenverkleinerungen, Leerstände sowie eine Abwertung der innerstädtischen Einzelhandelslagen sind die Folgen. Andererseits stellen der Online-Handel sowie einkaufsunterstützende digitale Medien eine Chance dar, die innerstädtischen Einzelhandelslagen für das digitale Zeitalter zu qualifizieren und hiermit zukunftsfähig zu halten. Zentrale Bedeutung kommt in diesem Zusammenhang den Konsumenten zu. Die innerstädtischen Einzelhandelslagen müssen an die, u.a. aus den Einfluss digitaler Medien im Allgemeinen und dem Online-Handel im Besonderen, resultierenden veränderten Bedürfnisse und Anforderungen der Konsumenten angepasst werden, wenn sie keinen Attraktivitätsverlust erleiden sollen. Eine schwierige Aufgabe, zeichnet sich doch das Kauf- und Konsumverhalten der ‚Neuen Konsumenten‘ durch Hybridität bzw. Multioptionalität aus. Diese macht ständige Neuausrichtungen und Anpassungen der Einzelhandelsbetriebe und Unternehmen erforderlich, welche durch die gestiegene Informiertheit, die höhere Anspruchshaltung, die Sprunghaftigkeit und Spontanität der Konsumenten sowie ihre abnehmende Loyalität mit den Anbietern erschwert werden.
Insgesamt ist davon auszugehen, dass zukünftig – abhängig von ihrer Lokalisierung in räumlich und strukturell begünstigten oder benachteiligten Städten – unterschiedliche Herausforderungen auf die innerstädtischen Einzelhandelslagen zukommen werden. Unter benachteiligte Städte werden strukturschwache Kommunen mit negativer Bevölkerungsentwicklung, geringer Zentralität und geringer wirtschaftlicher Anziehungskraft für das Umland gefasst, während sich begünstigte Städte durch wirtschaftliche Prosperität, Zentralität und Bevölkerungswachstum auszeichnen. Während innerstädtische Einzelhandelslagen in benachteiligten Städten vor allem negative Folgen zu erwarten haben und folglich akuter Handlungsbedarf besteht, können innerstädtische Einzelhandelslagen in räumlich-strukturell begünstigten Städten i.d.R. von der Digitalisierung und dem veränderten Kauf- und Konsumverhalten der Konsumenten profitieren. Zentrale Bedeutung kommt in diesem Zusammenhang den charakteristischen Merkmalen einer Innenstadt zu. Sie zeichnet sich im Idealfall durch Zentralität, Bedeutungsüberschuss, Dichte und Nutzungsmischung, eine hohe Besucherfrequenz sowie einen hohen Identifikationsgrad bzw. Authentizität aus. Diese Standortvorteile verhelfen innerstädtischen Einzelhandelslagen in begünstigten Städten zu einem Alleinstellungsmerkmal gegenüber konkurrierenden lokalen Einzelhandelsstandorten sowie gegenüber dem Online-Handel. So gewinnen Atmosphäre und zentrales Erleben bei Konsumenten, die das Internet nutzen, an Bedeutung. Qualitativ hochwertige innerstädtische Einzelhandelslagen erlangen somit eine neue Anziehungskraft.
Handlungsbedarf besteht folglich vor allem in den räumlich-strukturell benachteiligten Städten. Aber auch die begünstigen Städte brauchen Unterstützung, um die innerstädtischen Einzelhandelslagen den Bedürfnissen der Konsumenten nach Erlebnis, Bequemlichkeit, Individualität, Flexibilität, Schnelligkeit etc. entsprechend zu gestalten sowie die Voraussetzungen für den Einsatz einkaufsunterstützender digitaler Medien zu schaffen.
Als Modellansatz sind drei Strategieansätze im Rahmen eines integrierten Gesamtkonzepts umzusetzen:
1. Befähigende Ansätze: Hierzu zählt einerseits die Schaffung der technischen Rahmenbedingungen hinsichtlich Verfügbarkeit und Leistungsfähigkeit, funktioneller Zuverlässigkeit, Sicherheit und Nutzerfreundlichkeit der technischen Infrastruktur und der digitalen Medien. Konkret sind der Ausbau flächendeckender Breitbandverbindungen und eines frei zugänglichen WLAN-Netzes in den Innenstädten sowie der Einsatz von elektronischer Authentisierung und biometrischen Verifikationssystemen anzuraten. Andererseits gilt es, die Medienkompetenz der Einzelhändler und der Konsumenten für den Umgang und die Nutzung digitaler Medien zu schulen. Die Nutzerfreundlichkeit muss durch eine qualitätvolle HCI (Human Computer Interaction) sowie den Einsatz von Feature based visualization verbessert werden. Weiterhin ist die Nutzung von Multi-Channel-Retailing, der Verknüpfung des stationären Handels mit dem Online-Handel, zu unterstützen.
2. Steuernde Ansätze: Vor dem Hintergrund des engen finanziellen Gestaltungsspielraums der Mehrheit der Kommunen sollten die Städtebauförderprogramme und die Förderprogramme zur Breitbandförderung gezielt genutzt und weiterentwickelt werden. Weiterhin gilt es die Effektivität der Steuerung über die Stärkung gemeinschaftlichen Handelns zu verbessern. Es sind hierbei sowohl Kooperationen zwischen Kommunen, Handel und Eigentümern zu unterstützen als auch die Bevölkerung verstärkt in bedeutsame Umgestaltungsprozesse in der Innenstadt einzubinden.
3. Stärkende Ansätze: Unter dem Ansatz der Stärkung werden die Verbesserung der Aufenthaltsqualität sowie die Schaffung von Strukturen für eine zukunftsfähige Mobilität verstanden. Um die Aufenthaltsqualität und damit die Attraktivität der innerstädtischen Einzelhandelslagen zu erhöhen, muss frühzeitig ein angepasstes Leerstandsmanagement initiiert, Einkaufsbereiche konzentriert, eine attraktive Gestaltung und Möblierung unterstützt sowie die Innenstadt entsprechend ihrer besonderen Merkmale inszeniert werden. Eine zukunftsfähige Mobilität innerhalb der Innenstadt ist durch Maßnahmen zur Verbesserung der Erreichbarkeit der innerstädtischen Einzelhandelslagen sowie der Förderung zukunftsfähiger Mobilitätsformen zu unterstützen.
Insgesamt sollen besagte Strategieansätze dazu beitragen, die Voraussetzungen für die Digitalisierung des innerstädtischen Einzelhandels zu schaffen, die analysierten Restriktionen der Innenstadt abzumildern sowie die besonderen Potenziale der innerstädtischen Einzelhandelslagen im Sinne von Alleinstellungsmerkmalen hervorzuheben, um die innerstädtischen Einzelhan-delslagen für das digitale Zeitalter zu qualifizieren.
Component fault trees that contain safety basic events as well as security basic events cannot be analyzed like normal CFTs. Safety basic events are rated with probabilities in an interval [0,1], for security basic events simpler scales such as \{low, medium, high\} make more sense. In this paper an approach is described how to handle a quantitative safety analysis with different rating schemes for safety and security basic events. By doing so, it is possible to take security causes for safety failures into account and to rate their effect on system safety.
An efficient multiscale approach is established in order to compute the macroscopic response of nonlinear composites. The micro problem is rewritten in an integral form of the Lippmann-Schwinger type and solved efficiently by Fast Fourier Transforms. Using realistic microstructure models complex nonlinear effects are reproduced and validated with measured data of fiber reinforced plastics. The micro problem is integrated in a Finite Element framework which is used to solve the macroscale. The scale coupling technique and a consistent numerical algorithm is established. The method provides an efficient way to determine the macroscopic response considering arbitrary microstructures, constitutive behaviors and loading conditions.