Refine
Year of publication
- 2006 (69) (remove)
Document Type
- Doctoral Thesis (69) (remove)
Keywords
- Apfelsaft (2)
- Apoptosis (2)
- IMRT (2)
- Kontinuumsmechanik (2)
- Mischwasserbehandlung (2)
- Optimization (2)
- Oxidativer Stress (2)
- Polyphenole (2)
- Raumordnung (2)
- ammonia (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich ARUBI (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Informatik (2)
- Kaiserslautern - Fachbereich Physik (2)
Mechanische Eigenschaften von Nanoverbundwerkstoffen aus Epoxydharz und keramischen Nanoparktikeln
(2006)
Diese Arbeit zielt auf die Entwicklung duroplastischer Nanoverbundwerkstoffe mit hoher
mechanischer und tribologischer Leistungsfähigkeit. Die Basismaterialien sind
Epoxydharz als Matrix sowie keramische Nanopartikel aus Aluminiumoxid und Titandioxid
als Verstärkungsmaterial. Die systematische Variation von Partikelvolumengehalten
und die Herstellung von Nanoverbundwerkstoffen in Serien führen zum Ziel.
Aus diesen Serien lassen sich die für ein gewünschtes Eigenschaftsprofil optimalen
Partikelgehalte ableiten.
Die praxisorientierte Herstellung von Nanoverbundwerkstoffen erfordert die Anwendung
industrienaher und skalierbarer Methoden zur Einarbeitung der pulverförmigen,
agglomerierten Nanopartikel in das flüssige Harz, gefolgt von deren Dispergierung. Dazu
wurden mechanische Dispergiertechnologien ausgewählt und eingesetzt, welche
die Agglomerate durch Einwirkung hoher Kräfte zerkleinern. Dissolver und Tauchmühlen
erwiesen sich als geeignete Maschinen, denn sie erlauben die Dispergierung unter
exakt kontrollierbaren Prozessbedingungen und bewirken eine homogene Verteilung
kleiner Teilchen im flüssigen Epoxydharz, ein Zustand, der auch im ausgehärteten
Material erhalten bleibt. Diese Arbeit stellt geeignete Dispergierprozesse für Dissolver
und Tauchmühle zur Verfügung.
Die so hergestellten Serien an Nanoverbundwerkstoffen wurden umfangreich materialwissenschaftlich
charakterisiert und nach Ursachen für die Wirkung der eingebrachten
Nanopartikel gesucht. Es ergeben sich bei guter Dispergierung deutliche Verbesserungen
der mechanischen Eigenschaften, wobei geringe Nanopartikelgehalte (<5 Vol.%)
bereits ausreichen, um diese zu erzielen. Abhängig vom Partikelgehalt demonstrieren
die Materialien Steigerungen des Elastizitätsmoduls und der Festigkeit bei sehr geringen
Einbußen an Duktilität. Die eingehende Untersuchung der bruchmechanischen
Eigenschaften mittels LEBM liefert Zähigkeitsanstiege (KIc, GIc, CTOD), die mit einer
üblichen Kautschuk-Modifizierung durchaus vergleichbar sind, ohne jedoch deren
Nachteile in Form eines Modulabfalles in Kauf nehmen zu müssen. Keramische Nanopartikel
leisten damit die Auflösung des Steifigkeit-/Zähigkeits-Paradigmas, wodurch
nun Werkstoffe entwickelbar sind, die sich durch verbesserte Bruchzähigkeit bei gleichzeitiger
Steifigkeits- und Festigkeitserhöhung auszeichnen. Mit diesen Charakteristiken
geht auch die Erhöhung der Glasübergangstemperatur und Temperaturstabilität einher.
Unter dynamischer Belastung behindern Nanopartikel sogar die Ausbreitung von
Rissen im Kunststoff und heben damit den Widerstand gegen Ermüdungsrissausbreitung
auf ein höheres Niveau. Weiterhin verbessern geringe Nanopartikelgehalte (0,5-2
Vol%) den Verschleißwiderstand von Epoxydharz unter Gleitverschleißbedingungen.
Fraktographische Untersuchungen ergaben Hinweise auf die verantwortlichen Verstärkungsmechanismen.
Die Nanopartikel bewirken eine Superposition verschiedener
energiedissipativer Mechanismen im Epoxydharz, z.B. Crack pinning, Debonding,
plastische Deformation der Matrix, Mikrorissbildung, Rissablenkung und Ausrundung
der Riss-Spitze. Diese stehen in engem Zusammenhang zur Mikrostruktur der Materialien.
Den Fingerabdruck dieser Mikrostruktur lieferten mikroskopische Methoden
(REM, TEM, AFM). Sie beweisen, dass bereits das Epoxydharz eine komplexe Struktur
aufweist, die sich freilich durch den Einfluss der Nanopartikel und die resultierenden
Grenzflächenwechselwirkungen stark ändert. Um Zusammenhänge zu verdeutlichen,
wurden mikrostrukturelle und mechanische Eigenschaften korreliert, und teilweise
analytisch modelliert (Young’scher Modul). Als hilfreich erwiesen sich hier ergänzende
Untersuchungen der mikromechanischen Eigenschaften in kleinsten Bereichen der
Werkstoffe mittels Nanoindentation.
Im Hinblick auf traditionelle und seit langem bewährte Verbundwerkstoff-Rezepturen
hat sich gezeigt, dass Nanopartikeln ihre Verstärkungswirkung auch in Kombination
mit Mikropartikel (Glaskugeln, CaSiO3) bewahren, sodass bei vergleichbarem oder
erhöhtem Nutzen der Mikropartikelanteil reduziert werden kann.
Aufgrund der überzeugenden Eigenschaften bieten duroplastische Nanoverbundwerkstoffe
ein großes Anwendungspotenzial. Sie sind als tribologisch und mechanisch widerstandsfähige
Beschichtungen, als Matrizes in faserverstärkten Kompositen oder per
se einsetzbar.
This work focuses on the development of thermosetting nanocomposites with high
mechanical and tribological performance. The materials were chosen to be epoxy
resin as a matrix and ceramic nanoparticles (aluminium oxide and titanium dioxide)
as modifiers. The method of choice for reaching the aim is the systematic variation of
particle volume amounts and the manufacturing of series of nanocomposites, which
allow deducing the wished formulations.
The application oriented manufacturing of nanocomposites necessitates the use of
scalable industrial Methods for working the powdery nanoparticle agglomerates into
the liquid resin, followed by dispersion processes. For this purpose, mechanical dispersion
technologies have been chosen and applied, which break the agglomerates
under high shear forces. The Dissolver and the Torus Mill turned out to be suitable
devices allowing to disperse the particles under controlled processing conditions. This
results in a homogeneous distribution of particles in the liquid epoxy. In fact, the state
of well distributed the particles is preserved also in the cured resin. This work provides
suitable dispersion processes for both the Dissolver and the Torus Mill.
The newly developed nanocomposites were extensively characterized with respect to
their mechanical performance, and also with special attention to the reinforcing effects.
Provided that nanoparticles are well dispersed within the polymer, the mechanical
properties have proved to be strongly enhanced by the particles. Low filler amounts
(< 5 Vol.%) are already sufficient to gain the wished effects. Depending on the filler
volume fraction, the materials demonstrate improvements in modulus and strength
without reducing ductility. The detailed examination of fracture mechanical properties
by means of LEFM revealed toughness increases (KIc, GIc, CTOD) which are comparable
to that of rubber tougheners in epoxy. However, the traditional loss in modulus
in the latter systems is avoided by the use of nanoparticles. Accordingly, the ceramic
nanofillers are able to overcome the stiffness-toughness paradigm, so that materials
feature improved fracture toughness, stiffness and strength simultaneously can now be
developed. These characteristics are accompanied at the same time by an increase in
the glass transition temperature and the temperature stability. Besides, the nanoparticles hinder the propagation of small cracks within the matrix and increase the resistance
to fatigue crack propagation. As a matter of fact, one finds also the wear resistance
being improved under sliding wear conditions.
Examinations on fractured specimen surfaces provided information about the mechanisms
responsible for reinforcement. The nanoparticles generate a superposition of several energy dissipating mechanisms in the epoxy, e.g. crack pinning, debonding,
plastic deformation of the matrix, microcracking, crack deflection and crack tip blunting.
These are closely related to the microstructure of the materials. The characteristic
finger prints of the microstructure could be verified by microscopy methods (SEM,
TEM, AFM). It was proved true, that even in neat epoxy resin a complex microstructure
exists, which is, however, strongly influenced by the nanoparticles and the resulting
interfacial interactions. In order to clarify the relevant relationships, the microstructural
and mechanical properties were correlated. On the basis of the latter, the Young’s
modulus was modelled analytically. It proved to be helpful to supplementary conduct
micromechanical properties examinations by nanoindentation in small areas of the
material.
With respect to traditional and approved composite formulations, it was shown that the
nanoparticles preserve their reinforcing capabilities if combined with micro-fillers (glass
spheres, CaSiO3). Therefore, the absolute amount of micro-fillers might now be reduced
at comparable or even improved level of the material’s mechanical performance.
The persuasive properties of epoxy nanocomposites offer a great potential to be applied
in parts and components. They serve well as coatings with high wear resistance,
as matrices in fibre reinforced composites, and as bulk materials.
Long fiber reinforced plastics with thermoplastic resin were steadily growing with an
ongoing success over many industries mainly automotive. Even during economically
difficult periods, they increased their output and their market share.
In addition to flow compression molding, semi-finished LFRT in form of granules were
introduced to new processes like injection molding.
This work covers two major topics to enlarge the performance of LFRTs. Firstly, it
shows a material development, which leads to flame retarded LFRT. Secondly, it
presents a new process method to improve especially dynamic mechanical properties
by laminating two compression molded sheets with no additional equipment.
One major restriction for further applications is represented by flammability of thermoplastics.
This thesis gains for a new potential. Encountering future legislative restrictions
a combination of halogen-free flame retardant and LFRT based on polypropylene
has been developed. Test results match the requirements in accordance to
flammability test UL 94 V0 (2.6 mm). Furthermore the mechanical properties
achieved a similar performance as standard-LFRTs. The polymer flow in compression
molding provokes a fiber orientation parallel to the direction of the flow front development.
A x-ray analysis in combination with a fiber orientation analysis show, that
rheology has a strong influence on the flow front development, fiber orientation and
compression work needed.
One advantage of flow compression molding is the free option in placing the polymer
melts in the cavity. The common mold design with male and female mold without slides
allows changing part thickness by different polymer melt volumes charged in the
cavity. This allows to proceed the compression molding process twice without demolding the first part. On a flat panel, the process of laminating two sheets by compression
molding is demonstrated. A first panel gets over molded by a second polymer
melt. This laminate provides a better performance than a singular molded panel
of the same thickness.
The higher substrate’s temperature the better is the adhesion of the first to the second
layer. Additionally, the best adhesion is achieved in the area of the second polymer
melt cavity placement. Furthermore an optimum in mechanical properties can be
obtained utilizing the same resin for the first and the second layer. A more advanced
material is shown with the combination of a standard-LFRT layer and a flame retarded
layer.
Calculations show, that the flame retardancy of LFRT on polypropylene can be economically
advantageous in comparison to the utilization of higher flame resistant polymer
for large parts. Nevertheless for each specific geometry as well as for certain
mechanical demands an evaluation on the best material to fit has to be carried out.
This work shows economically reasonable options either to improve the mechanical
performance and to enlarge materials properties by flame retardancy or to combine
both.
Adaptive Strukturoptimierung von Faserkunststoffverbunden unter Berücksichtigung bionischer Aspekte
(2006)
Es finden immer häufiger Faserverbundmaterialien in Strukturbauteilen Anwendung,
da bei konventionellen Materialien die Zielkriterien, wie definierte Festigkeit, Steifigkeit,
etc. nicht mehr bzw. nicht mit hinreichend geringem Bauteilgewicht erreicht werden
können. Angesichts der hohen Kosten ist es verständlich, dass Faserkunststoffverbunde
(FKV) vorzugsweise in den Bereichen eingesetzt werden, wo die eingangs
erwähnten Optimierungsziele hohe Priorität haben. Besonders hervorzuheben ist
hierbei die Luft- und Raumfahrt. Zunehmende Bedeutung gewinnt der Einsatz von
Faserverbundwerkstoffen aber auch in der Automobil- bzw. Maschinenbauindustrie.
Mit fortschreitender Verbesserung der Optimierungsmethoden sowie der Fertigungstechnologien
und der damit verbundenen Kostenreduktion, werden heute bereits
komplexe Module hergestellt. Das zieht wiederum eine lastgerechte und werkstoffspezifische
Konstruktion nach sich. Gegenstand der Arbeit ist die Entwicklung eines
Topologieoptimierungswerkzeuges zur werkstoffgerechten Auslegung von FKVStrukturen.
Ziel ist, FKV - eine Klasse von Hochleistungswerkstoffen, deren Potenzial
sich nur mit geeigneten Modellen zur Nutzung ihrer anisotropen Eigenschaften ausschöpfen
lässt - unter Berücksichtigung der technischen Realisierbarkeit zu optimieren.
Dabei werden natürliche Wachstumsprinzipien in einen iterativen Prozess überführt.
Als Ziel dieses Algorithmus kann entweder eine gezielte Steifigkeit oder eine
gewichtsoptimale Lösung bei hinreichender Festigkeit mit möglichst gleichmäßiger
Spannungsverteilung im Bauteil definiert werden. Erreicht wird dies durch eine effektive
Lastverteilung von hoch belasteten auf geringer belastete Bereiche und somit
auch die Optimierung der Materialverteilung. In diesem Designvorschlag wird die
Grundorientierung der Basisschicht, die kraftflussgerechte Orientierung der Laminateinzellagen
sowie die Topologie von Zulagenschichten bzw. des Gesamtlaminates
optimiert. Besonders interessant ist die adaptive Strukturoptimierung von FKVStrukturen
bei lokalen Zulagen an hoch belasteten Krafteinleitungsstellen bzw. allgemein
in Bereichen hoher Spannungen. Wie weiterhin gezeigt wird, ist die entwickelte
adaptive Topologie- und Faserwinkeloptimierung in Kombination aus technologischer,werkstoffmechanischer sowie wirtschaftlicher Sicht vorteilhaft und kann
problemlos in der Praxis angewandt werden.
More and more fibre-reinforced composite materials are being used in structural building
components because with conventional materials, the target criteria, such as
defined strength, rigidity etc. can no longer be achieved with a sufficiently low weight
of the structural components, if at all. In view of the high costs, it is understandable
that fibre-reinforced plastic composites tend to be used in technical areas where the
optimization goals mentioned above have a high priority. The aviation and aerospace
industry deserves special mention here. The use of fibre composite materials is also
gaining significance in the automotive and mechanical engineering industry. Thanks
to increasing improvements in optimization methods and manufacturing technologies
and the reduction in costs that this brings with it, complex modules are being produced
even today. This in turn ensures specific-material construction with the necessary
load-bearing properties. The objective of the presentation is the development of
a topology optimization tool for designing Fibre-plastic-composite (FPC)-structures
which is appropriate for each material involved. The objective is to optimize FPC – a
class of high-performance materials the potential of which can only be exploited with
suitable models for the utilization of their anisotropic properties – under consideration
of their capability for technical realization. In doing so, natural growth principles are
implemented into an iterative process, thereby enabling computer simulation. The
main goal of this algorithm is maximum rigidity with as even a distribution of tension
as possible throughout the component, which is achieved by distributing the load
from high-load to lower load bearing areas, thereby optimizing the material distribution.
The weight optimization of specific components is possible in this way. The basic
orientation of the base layer, the orientation of the individual laminate layers in a
manner appropriate to the power flux, as well as the topology of bonding layers
and/or the entire laminate are optimized in this design recommendation. Of particular
interest here is the adaptive structural optimization of FPC structures with localized
bonding to high-load bearing load introduction points or generally, in areas with high
stresses. As continues to be shown, the developed adaptive topology and fibre angle optimization is beneficial from a technological, material-mechanical and economical
point of view, and can be applied in everyday practice without any problems.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
The popularity of composite materials is constantly growing, which can be verified by
the rising number of composite parts in our everyday life. Examples of composite
parts can be found in the Airbus A 380 or the constantly increasing number of wind
turbines which contain composite rotor blades of over 50m length. Because of the
main features of composites, which are light weight combined with high strength and
the possibility of tailoring the strength and the stiffness of the composite according to
the requirements, their application is highly efficient and economic.
In order to manufacture a composite part by employing a Liquid Composite Molding
Process (LCM), it is first necessary to select an appropriate manufacturing process
such as the Resin Transfer Molding Process (RTM) and to design a mold which corresponds
to the requirements of the selected process. Then the stacking sequence of
the individual fibrous reinforcements is designed to withstand the loads on the final
part. To achieve an efficient composite manufacturing process, pre-shaped, handable,
dry reinforcing structures, so called preforms, need to be applied. Such preforms
can be assembled either by using conventional binder technologies or by the
recently developed “cut and sew approach”. A variety of available software simulation
tools support the design engineer in this task. These tools are, on the one hand, a
fast way of gaining information about the expected loads the mold has to endure during
the injection process. On the other hand, they provide the possibility to optimize
the injection process and its process parameters and to identify critical points of incomplete
saturation. With this information at hand, the design of the mold can be adjusted
in order to obtain optimal processing conditions for a slim and efficient production
cycle.
A prerequisite for employing these powerful simulation tools is to obtain thorough
knowledge of the required input parameters concerning the fibrous reinforcement to
be used. The most important input parameters are the compaction behavior and the
permeability of the fibrous stacking sequence. Because of the absence of modelbased
tools to provide this input information experimental determination methods
have to be employed.
This work introduces two semi-automated measurement cells which determine the inplane
permeability of fibrous reinforcements in an efficient manner, i.e. the dielectrical permeability work cell and the optical compaction and permeability work cell. The
latter of which can determine both the required compaction and the permeability information
in one single experiment. The design and manner of operating of the optical
compaction and permeability work cell is described and its functionality is validated
by a comparison of experimental results.
Ökonomische Prozessanalyse und Modellintegration zur Kostenberechnung von Faser-Kunststoff-Verbunden
(2006)
The introduction to the topic is a description of the techno-economic evolution of
composites. Apart from this, today’s market state of the art of composites is also explained.
As a conclusion, the principal trend towards the higher quality by the increased
application of carbon fibers is ascertained. In particular, it is pointed out that
the restraints of the market growth are mainly caused by the high price, most notably,
of the fiber materials. This situation, in connection with the maturation of the composite
manufacturing processes, demands the need of a cost calculation tool.
In the second step, former composite cost models and their implementations into
software – if available – are described and benchmarked. As a result it is proposed to
combine, different approaches because of their fundamental potential as well as the
deficits. It is suggested to use a resource-based methodology combined with the
PBKM (prozessbasierte Kostenmodellierung = process-based cost modelling) and to
implement the models in a cost calculation software.
The first aim is an economic process analysis which is carried out to receive an abstract
and modular system. Thereby, it is possible to describe the production processes
by successive refinement more and more detailed. The process is divided in
multiple steps which are itself subdivided in technical activities or handlings. The
relevant cost objects with the identifiable cost positions are assigned to those handlings.
This approach assures modularity and offers the possibility of an easy software
implementation. In addition, the functionality of this methodology is demonstrated
considering the two examples “thermoplastic tape placement” and “continuous
pressing”. For that reason these composite manufacturing techniques are analyzed
and the structure is mapped within the use of suggested methodology.
The next topic deals with the modelling of the cycle time for the thermoplastic tape
placement with the use of the PBKM. Within this methodology the derivation of the
cycle time depends only on physical process parameters, which results in a geometrical
complexity based model. The developed model is verified by comparing of the
theoretically derived values with practical experiments. Along with this, the assumptions
for this model are revised and verified. As a technical enhancement of the tape
placement process, different designs of a geometry-adaptive consolidation role are introduced. This technical extension of the process technology is necessary for the
final verification of the model. The new consolidation unit enables to move all geometrical
degrees of freedom and complexities with the same laminate quality. Finally,
a possibility to transfer the methodology of the PBKM to other technologies is proved.
Therefore, it is offered a modus operandi how the continuous pressing technique can
be modelled with the help of the PBKM.
The last chapter deals with the cost calculation tool concerning the structural configuration,
design, and functionality of the software. It is the consequential synthesis of
the results of the economic process analysis and the cycle time models. The practicability
of the modularity is proved by its application in the design phase of the software
and by the integration of the modelling into the tool. The developed cost calculation
software for composite manufacturing processes offers a standardization of the
inputs and calculation algorithms by the use of introduced process analysis, the subdivision
into smallest units. The cycle time calculation models are process specific
know-how which can easily be used unlike an expert's system. The separation of the
single functional entities assures a stringent data management, possibilities for the
advancement, and furthermore, the variableness of representation and reuse of the
derived data. The functionality of the cost tool concerning evaluations and comparisons
are pointed out with two case studies. Plus, the postulated transferability of the
methodology on other composite technologies is demonstrated. The main advantage
of this system is that the modelling offers economical statements of different process
variations without experimentation. Besides, the values ascertained by the PBKM are
more precise compared to other existing models. Therefore, the PBKM can be the
basis for investment decisions like technology change or modifications and helps to
identify techno-economic limitations and potentials.
This version of the cost calculation software offers only the standard repertoire of
cost evaluations and comparisons which turn out to be upgradeable. Thus, there exists
potential to enhance the functionality concerning sensitivity analyses, the integration
of cycle time models for other composite processing technologies, and further
possibilities for the graphic processing. As a conclusion the software with the combination
of different attempts offers a good starting position with respect to the current
evolution status and should be extended.
Das Recycling von Automobilen leistet einen wesentlichen Beitrag zur Schonung der natürlichen Ressourcen und Reduzierung der entstehenden Abfallmengen. Dabei kommt dem Automobilhersteller eine zentrale Rolle zu, da nur durch die frühzeitige Berücksichtigung der Recyclinganforderungen bei der Entwicklung der Produkte sichergestellt werden kann, dass diese zukünftig auch in umweltgerechter und wirtschaftlicher Weise einer erneuten Nutzung zugeführt werden können.
Im Rahmen dieser Arbeit wird ein Konzept vorgestellt, welches die Recycling-anforderungen systematisch in die Ablauf- und Aufbauorganisation von Fahrzeug-entwicklungsprojekten integriert. Die Grundlage bildet ein Prozessmodell, welches in den frühen Phasen der Entwicklung die Ableitung von Recyclingzielen mit Hilfe der Szenario-Technik ermöglicht und in den nachfolgenden Phasen der Entwicklung die Zielerreichung durch einen formalisierten Recycling-Problemlösezyklus sicherstellt. Das zentrale Element stellt ein Planungsinstrument dar, welches mögliche Demontage- und Recyclingprozesse bereits innerhalb der Produktentwicklung simuliert und dadurch eine ganzheitliche Optimierung des Fahrzeuges unterstützt.
Die Auswertung verschiedener Recyclingszenarien am Beispiel eines Mittelklasse- PKW hat gezeigt, dass mit der heutigen Prozesskette der Altfahrzeugverwertung eine Reduzierung der Abfallmengen nicht kostendeckend erreichbar ist. Erst unter Berücksichtigung neuer Verwertungstechnologien für die heute zu entsorgenden Restmengen kann die wirtschaftliche Situation verbessert werden. Gleichzeitig konnte durch die Bewertung unterschiedlicher Rohbaukonzepte nachgewiesen werden, dass der Ersatz konventioneller Materialsysteme durch innovative Leichtbauwerkstoffe das Recycling am Lebensende des Fahrzeuges zunehmend erschwert.
Um bereits innerhalb der Produktentwicklung die Voraussetzung für ein hochwertiges Fahrzeugrecycling zu schaffen ist somit das Zusammenführen und Ausbalancieren von produkt- und prozessbezogenen Maßnahmen unabdingbar. Die organisa-torische Umsetzung erfolgt dabei durch ein Recyclingteam, welches es ermöglicht das Recyclingwissen in die komplexen Entwicklungsabläufe zu integrieren und mit allen Prozessbeteiligten zeitlich und inhaltlich abzustimmen.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Die Computerisierung der Gesellschaft bedingt ein ständiges Zunehmen der Geschwindigkeit, mit der neue Daten erzeugt werden. Parallel zu dieser Entwicklung steigt der Bedarf an geeigneten Analyseverfahren, die in diesen großen und oftmals heterogenen Datenmengen Muster finden, Zusammenhänge entdecken und damit Wissen erzeugen. Das in dieser Arbeit entwickelte Verfahren findet die passende Struktur in einer ungeordneten, abstrakten Datenmenge, ordnet die zugrunde liegenden Informationen und bündelt diese somit für eine gezielte Anwendung. Dieser Prozess des Information Clustering ist zweistufig, es erfolgt zuerst ein generelles Clustering, an das sich eine interpretierende Visualisierung anschliesst. Für das Clustering wird das Verfahren der Voronoidiagramme erweitert. Durch den Einsatz einer generellen Distanzfunktion wird die Modellierung der durch die großen Datenmengen entstehenden multidimensionalen Parameter sowie weiterer Gewichte ermöglicht. Eine anschließende Visualisierung aus dem Bereich der Informationsvisualisierung unterstützt die Interpretation der neu gewonnenen Informationen. Für die praktische Anwendung wird die Stadtplanung betrachtet. In der Stadtplanung wird das Modell des Planungsablaufes eingesetzt, mit dem verschiedene Planungsalternativen erzeugt werden. Dieses Modell ist jedoch zu starr, um den dynamischen Anforderungen in der Realität gerecht zu werden. Das Information Clustering erweitert den klassischen Planungsablauf, die Flexibilität des Modells wird dadurch erhöht und die Komplexität reduziert. Das Ergebnis der Berechnung ist genau eine Planungsalternative, die sämtliche Eingabeparameter kanalisiert.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
This thesis introduces so-called cone scalarising functions. They are by construction compatible with a partial order for the outcome space given by a cone. The quality of the parametrisations of the efficient set given by the cone scalarising functions are then investigated. Here, the focus lies on the (weak) efficiency of the generated solutions, the reachability of effiecient points and continuity of the solution set. Based on cone scalarising functions Pareto Navigation a novel, interactive, multiobjective optimisation method is proposed. It changes the ordering cone to realise bounds on partial tradeoffs. Besides, its use of an equality constraint for the changing component of the reference point is a new feature. The efficiency of its solutions, the reachability of efficient solutions and continuity is then analysed. Potential problems are demonstrated using a critical example. Furthermore, the use of Pareto Navigation in a two-phase approach and for nonconvex problems is discussed. Finally, its application for intensity-modulated radiotherapy planning is described. Thereby, its realisation in a graphical user interface is shown.
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.
Zusammenfassung Im Rahmen dieser Arbeit wurde ein Konzept für ein kapazitives Messsystem entwickelt und als Prototyp realisiert. Um realistische Rahmenbedingungen zu schaffen wurde der Prototyp auf einer Ultrapräzisionsmaschine des Lehrstuhls für Feinwerktechnik montiert und getestet. Für die Auswertung eines kapazitiven Sensors wurde das Trägerfrequenzmessverfahren gewählt. Um die gestellten Anforderungen erfüllen zu können musste das TF-Verfahren zunächst entscheidend modifiziert werden. Die klassischen Verfahren zur Demodulation, wie z.B. wie die synchrone Demodulation oder die Hüllkurvendemodulation sind ungeeignet, da sie zunächst das analoge modulierte Signal ins Basisband verschieben und dann erst für weitere Verarbeitung das Ausgangssignal zur Verfügung stellen. Dieser Zwischenschritt ist besonders anfällig für Signalverzerrungen und Phasenfehlern zwischen Trägerschwingung und moduliertem Signal. Um nun diese Nachteile zu umgehen erfolgt die Demodulation direkt durch die Abtastung des modulierten Signals mittels eines sehr schnellen AD-Wandlers. Das modulierte Signal wird so direkt ins Basisband zurückgefaltet. Da es sich bei dem modulierten Signal um ein bandbegrenztes Signal handelt kann die Abtastrate des AD-Wandlers an die Bandbreite des modulierten Signals angepasst werden, es findet eine Unterabtastung statt. Nachteilig ist hierbei, dass die hochfrequenten Anteile des thermischen Rauschens durch die Unterabtastung in das Basisband zurückgefaltet werden und so den Signal/Rauschabstand verschlechtern. Durch den Einsatz einer rauscharmen Sensorelektronik und der Optimierung der Messbrückenparameter konnte dieser Nachteil streckenweise wieder kompensiert werden. Aufgrund der geringen Kapazitäten von kapazitiven Sensoren spielt der Einfluss von parasitären Effekten eine besonders große Rolle und muss daher vermieden werden. Als Gegenmaßnahmen wurde neben einem kapazitätsarmen Aufbau der Schaltung die Guardtechnik zur Unterdrückung parasitärerer Kapazitäten eingesetzt. Die aktive Abschirmung der empfindlichen signalführenden Leitungen auf Leiterplatte, Sensor und Anschlusskabel bietet einen wirksamen Schutz gegen den negativen Einfluss parasitäre Kapazitäten. Der Einfluss dieser aktiven Schaltung hinsichtlich des Rauschen und des Verstärkungsfehlers auf die Performance des Messsystems wurde bewertet. Anhand von Modellen wurden der Verstärkungsfehler und die Rauschspannung quantifiziert. Neben diesen zentralen Störgrößen wurde weiter der Einfluss der Temperatur untersucht und quantifiziert Das verstärkte Messsignal wird durch einen schnellen AD-Wandler in einen digitalen Datenstrom umgesetzt. Obwohl die Datenrate des Messsystems durch Unterabtastung deutlich gesenkt werden konnte, fällt dennoch eine recht große weiterzuverarbeitende Datenmenge von einigen Megabyte pro Sekunde an, die auf einen PC gespeichert wird. Damit eine fehlerfreie Datenübertragung an den PC erfolgen kann ist eine Zwischenspeicherung der gewonnenen Daten in einem Puffer notwendig. Die Zwischenspeicherung erfolgt mit einem insgesamt 12k-Byte großen und 16 Bit breiten Fifo-Speicher, der zusammen mit der AD-Wandlerelektronik auf einer Platine untergebracht werden konnte. Diese Elektronik ist neben der Sensorelektronik und der Signalerzeugung für die Trägerfrequenz ein zentraler Bestandteil des Prototyps. Der Prototyp wird durch einen handels-üblichen PC angesteuert. Der Aufbau des gesamten Messsystems und die abschließenden Untersuchungen erfolgten auf einer Ultrapräzisionsdrehmaschine. Diese Maschine bot aufgrund ihrer bekannten mechanischen Eigenschaften eine präzise Grundlage für die Untersuchungen am Messsystem. Hierbei zeigte sich, dass neben den deterministischen Störgrößen eine Vielzahl von weiteren unvorhersehbaren Störungen negativen Einfluss auf die Gesamtperformance des Messsystems nehmen kann. Diese Störgrößen wie z.B. Netzstörungen konnten durch verschiedene Abschirmmaßnahmen deutlich verbessert werden. So enthielten die ersten Messungen deutliche Zeichen dieser Störanteile die nur unzureichend durch eine softwareseitige digitale Filterung unterdrückt werden konnten. Mit weiteren Messungen konnte dann die deutliche Abnahme des Störpegels verifiziert werden.
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
In this thesis, we have dealt with two modeling approaches of the credit risk, namely the structural (firm value) and the reduced form. In the former one, the firm value is modeled by a stochastic process and the first hitting time of this stochastic process to a given boundary defines the default time of the firm. In the existing literature, the stochastic process, triggering the firm value, has been generally chosen as a diffusion process. Therefore, on one hand it is possible to obtain closed form solutions for the pricing problems of credit derivatives and on the other hand the optimal capital structure of a firm can be analysed by obtaining closed form solutions of firm's corporate securities such as; equity value, debt value and total firm value, see Leland(1994). We have extended this approach by modeling the firm value as a jump-diffusion process. The choice of the jump-diffusion process was a crucial step to obtain closed form solutions for corporate securities. As a result, we have chosen a jump-diffusion process with double exponentially distributed jump heights, which enabled us to analyse the effects of jump on the optimal capital structure of a firm. In the second part of the thesis, by following the reduced form models, we have assumed that the default is triggered by the first jump of a Cox process. Further, by following Schönbucher(2005), we have modeled the forward default intensity of a firm as a geometric Brownian motion and derived pricing formulas for credit default swap options in a more general setup than the ones in Schönbucher(2005).
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
Retentionsbodenfilter dienen der weitergehenden Behandlung von Entlastungsabflüssen konventioneller Regenüberlaufbecken. Sie kommen zum Einsatz, wenn der Schutz des betroffenen Gewässers eine Reduzierung der Belastung durch Mischwassereinleitungen erfordert. Verschiedene Untersuchungen an Pilotanlagen belegen zwar grundsätzlich eine hohe Reinigungsleistung der Filterpassage, eine gesicherte Prognose der Wirksamkeit und eine Optimierung des Verfahrens erfordern jedoch eine Weiterentwicklung des vorhandenen Kenntnisstandes. Die vorliegende Arbeit soll einen Beitrag zu einem besseren Verständnis der bei der Filterpassage in RBF ablaufenden Reinigungsprozesse liefern. Im Vordergrund stehen dabei Rückhalt und Umsatz organischer Kohlenstoffverbindungen und Stickstoffverbindungen. An einer großtechnischen Anlage wurden über zwei mehrmonatige Messphasen zu- und abfließende Stoffströme erfasst. Durch die gezielte Beeinflussung des Beschickungsverhaltens wurde ein breites Spektrum unterschiedlicher Belastungszustände realisiert. Ergänzend hierzu wurden bodenkundliche Versuche durchgeführt, die der Untersuchung des Stoffumsatzes während der Trockenphasen zwischen den Beschickungsereignissen dienten. In Laborversuchen wurden darüber hinaus einzelne Teilprozesse des Stoffrückhaltes isoliert und unter definierten Randbedingungen betrachtet. Die Ergebnisse belegen, dass die Reinigungswirkung von Retentionsbodenfiltern in Bezug auf NH4 überwiegend auf einem zweistufigen Prozess beruht. Während der Durchströmung wird NH4 im Filterkörper sorbiert, um in der anschließenden Trockenphase nitrifiziert zu werden. Dauerhafte Beschickungen, wie sie unter starkem Fremdwassereinfluss auftreten, können zu einem Durchbruch der NH4-Konzentration führen. Unmittelbar nach dem Ende der Durchströmung setzt mit der Wiederbelüftung des Filterkörpers eine intensive Nitrifikation ein. Das Sorptionsvermögen regeneriert sich innerhalb weniger Tage annähernd vollständig. Bei der Prognose der Wirksamkeit von Retentionsbodenfilter mit Hilfe von Simulationsmodellen kann der NH4-Rückhaltes vereinfacht als Speicher dargestellt werden. Organische Kohlenstoffverbindungen – repräsentiert durch den CSB – weisen ein weniger eindeutiges Verhalten auf. Die partikuläre Fraktion wird während des Betriebs weitgehend an der Filteroberfläche zurückgehalten und in den Trockenphasen mineralisiert. Diese Wirkung kann als unbegrenzter Speicher modelliert werden. Hinsichtlich der gelösten Anteile konnte nicht eindeutig ermittelt werden, ob der unmittelbare Abbau während der Durchströmung dominiert oder ob auch diese Anteile wie das NH4 zunächst sorbiert werden. Die Wirkung der Filterpassage auf die gelösten und feindispersen Anteile des CSB kann annähernd durch einen konstanten Wirkungsgrad beschrieben werden.