Refine
Year of publication
- 2004 (55) (remove)
Document Type
- Doctoral Thesis (55) (remove)
Has Fulltext
- yes (55)
Keywords
- Flüssig-Flüssig-Extraktion (3)
- Simulation (3)
- Harnstoff (2)
- Hydrodynamik (2)
- Polymere (2)
- SOC (2)
- auditory brainstem (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Biologie (10)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Mathematik (7)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Informatik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Physik (1)
Die vorliegende Arbeit beschäftigt sich mit der Chemorheologie von Duromeren mit
hybrider und interpenetrierender Struktur. Als Duromere werden fünf verschiedene
Harze untersucht: ein Vinylester-Harz (VE-Harz), ein Vinylester-Urethan-Hybridharz
(VEUH-Harz), ein schlagzähmodifiziertes VEUH-Harz (VEUH/ETBN-Harz), ein Vinylester-
Epoxid-Harz (VE/EP-Harz) und das reine aminhärtende Epoxid (EP-Harz), das
kommerziell als Reinstoff nicht eingesetzt wird, sondern als Verdünnungsmittel dient.
Das Ziel dieser Arbeit besteht darin, die Chemorheologie der genannten Harze zu messen
und zu modellieren.
Einige der untersuchten Harze sind bekannt, aber ihre Kombination, besonders in der
Form des VE/EP-Harzes sind völlig neu, so dass die Harze im Rahmen dieser Arbeit
zunächst untersucht und charakterisiert werden. Im experimentellen Teil der Arbeit
werden zur in situ Messung der Vernetzung die Thermogravimetrie, die Differenz-
Kalorimetrie, die Infrarot-Spektroskopie, die Rheometrie und die Dielektrometrie angewendet.
Es wird nachgewiesen, dass das VE-Harz radikalisch polymerisiert, das
VEUH-Harz und auch das schlagzähmodifizierte VEUH/ETBN-Harz in einer Kombination
aus Polyaddition und radikalischer Polymerisation vernetzen, das VE/EP-Harz in
einer Polyaddition mit überlagerten geringen Anteilen der radikalischen Polymerisation
und das EP-Harz in einer Polyaddition mit einer autokatalytischen Komponente zu Beginn
der Reaktion vernetzt. Anschließend werden die Netzwerke mit Hilfe von Wasseraufnahme,
Dynamisch-Mechanischer Thermoanalyse (DMTA) und Dichtebestimmungen
charakterisiert. Die Wasseraufnahme gibt einen ersten Hinweis auf die Netzwerkstruktur
und zeigt, dass das VE-, das VEUH- und das VEUH/ETBN-Harz sehr ähnliche
Netzwerke zu haben scheinen. Aus den Ergebnissen kann man weiterhin schließen,
dass das VE/EP-Harz ein deutlich weitmaschigeres Netzwerk im Vergleich zu den anderen
untersuchten Harzen hat. Da das EP-Harz während des Versuchs hydrolytisch
degradiert, kann keine Aussage über das Netzwerk getroffen werden. Aus den DMTAMessungen
erkennt man, dass die Glasübergangstemperatur des VE/EP-Harzes wie
erwartet zwischen denen der beiden reinen Komponenten liegt. Der Peak des Verlusttangens
ist deutlich breiter als die Peaks der anderen Harze. Die Dichtemessungen
zeigen, dass die Dichte sowohl des flüssigen als auch des festen VE/EP-Harzes am geringsten ist, die prozentuale Dichtezunahme vom flüssigen zum festen Harz jedoch
am größten ist.
Da die Schrumpfmessung von Harzen während der Vernetzung eine für die Praxis
sehr interessante Größe darstellt, jedoch kein kommerzielles Messgerät zur Verfügung
steht, wird diese Messgröße gesondert behandelt und mit einem in dieser Arbeit entwickelten
Gerät bestimmt. Es wird erfolgreich die Änderung des chemischen Schrumpfes
der Harzproben wie auch ihre thermische Volumenausdehnung gemessen. Abschließend wird ein mathematisches Modell aufgestellt, das die Chemorheologie
des VE-, EP-, und VE/EP-Harzes erfolgreich vorhersagt. Die Entwicklung der Modellgleichungen
beruht auf einer einheitlichen, systematischen Strategie und setzt ausschließlich
bekannte Komponenten ein. Der systematische Einsatz der einzelnen Komponenten
ist neu. Insgesamt ist das Modell in der Lage, die Viskositätsänderung der
Harze, die sie während ihrer Härtung erfahren, sowohl unter isothermen als auch dynamischen
Temperaturbedingungen zu berechenen.
The thesis at hand deals with chemorheology of duromeric materials having hybrid and
interpenetrating structures. Five different resins are investigated: a vinylester resin (VEresin),
a vinylester-urethane resin (VEUH-resin), a toughness modified VEUH-resin
(VEUH/ETBN-resin), a vinylester-epoxy resin (VE/EP-resin) and the pure amin-curing
epoxy (EP-resin). Commercially, the latter is not used on its own but only as solvent.
The aim of this work is to measure the crosslinking behaviour of these resins experimentally
and to simulate it mathematically.
Some of the resins named above are known but their combination, especially in the
form of VE/EP-resin, is completely new. Therefore the resins have to be characterised
first. Thermogravimetry, differential calorimetry, infrared spectroscopy, rheometry and
dielectrometry are used in the experimental part for in situ measurements of the crosslinking.
It is seen that the VE-resin crosslinks by radical polymerisation, the VEUH-resin
and the toughness modified VEUH/ETBN-resin by a combination of polyaddition and
radical polymerisation, the VE/EP-resin by polyaddition with small overlapping effects
caused by radical polymerisation whereas the EP-resin crosslinks by polyaddition with
autocatalytic components in the beginning of the reaction. Thereafter the crosslinked
resins are characterised with the help of water penetration, dynamic mechanical thermoanalysis
(DMTA) and density measurements. Water penetration gives first information
about the network structure; the VE-, the VEUH- and the VEUH/ETBN-resin seem to
have very similar networks. Moreover, it can be concluded from these experiments that
the network of the VE/EP-resin is wider compared to the other resins. Since the EPresin
degradates hydrolytically during the experiment its network cannot be analysed
by this method. The DMTA-experiments show that the glass transition temperature of
the VE/EP-resin is inbetween the glass transition temperatures of its pure components.
The peak of the loss modulus tanδ is clearly wider compared to the other resins. Density
measurements show, that the density of the liquid as well as of the solid VE/EP-resin
is the lowest, whereas the percentage of the density increase during solidification is
highest.
Since shrinkage measurements during crosslinking are very interesting from the industrial
point of view and there is no commercially available instrument at hand, an
instrument is developed within this thesis and shrinkage measurements are discussed
separately. The chemical shrinkage of the resins is successfully measured with this
new method. Also their thermal volume expansion is measured.
Finally, a mathematical modell is presented that simulates the chemorheology of the
VE-, EP-, and VE/EP-resin. The modell for the chemorheology is based on a unified
and systematical approach and uses well known components only. The combination
of the components is new. The modell is able to predict the resins’ viscosity during isothermal and dynamic experiments at the same time. The target of modelling the viscosity
of a resin independent from the time-temperature-profile is still discussed in the
open literature and the results of this thesis provide a contribution to this discussion.
Furthermore the mathematical approach of the chemorheological modell is simple and
only a small number of isothermal experiments is needed to determine the modell’s
parameters. Thus its handling is easy, even in a commercial environment.
Liquid composite moulding (LCM) is an efficient process for manufacturing polymer
composite structures. During LCM a liquid thermoset resin is injected into the mould
cavity containing a pre-placed dry fabric preform. In the last step of the process the
resin cures and afterwards the part can be removed from the mould. Due to relative
low injection pressure applied in processing this technique is expected to offer
potential for cost reduction in the fabrication of large parts of complex shape.
However, in practice, much time is spent for optimising processing parameters and
properly designing the mould in order to avoid problems such as void formation and
dry spots. The common trial and error tactic to determine optimised parameters
increases time and costs for an optimal process configuration. Thus simulation will
help to speed up the development process saving cost and time.
When producing double curved parts the angles between warp and weft fibres of the
fabrics change and influence the permeability of the fabric as well as the preferred
direction of flow through the fabric during the injection phase. Further on these
shearing effects increase the fibre volume fractions and therefore less resin is
available in the correspondent areas. This leads to different results of the curing
process in the sheared areas compared to the curing process in the unsheared
areas.
Opposite to the current LCM simulation technique where only the injection process is simulated, this work presents the simulation of the three single processes and
combines them in an appropriate way to improve the simulation results.
First draping simulations are performed. Therefore, the shear behaviour is
investigated. These results are used in the draping simulation in order to obtain the
fibre orientations of the warp and weft fibres. The draping results are verified by
comparing them with the corresponding parameters of parts formed.
In order to use the results of the draping simulation in the flow simulation an interface
is developed that transforms the result files obtained from the draping simulation into
a file format suitable for the flow simulation. The mode of operation of this interface is
illustrated. First a standard file format is generated to combine the shearing angles
and the node locations delivered by PamForm™. A programme is developed that reads the node locations, the shear angles and the fibre orientations at the end of the
draping simulation and creates a new file usable for the flow simulations. Further on
several features are implemented in the new model as for example the automatic
generation of a circular inlet with a defined diameter and the adjustment of the
draping model to the model for the flow simulation concerning the fitting of the
geometry model. In order to consider the changes of permeability and fibre volume
fraction in sheared areas, zones are defined which represent areas of the same fibre
volume fractions and the same permeability. Flow experiments on sheared fabrics
are performed to get information about the flow behaviour. The permeability values of
the sheared fabric are calculated by observing the position of the flow front over time
and the application of Darcy’s law. This material behaviour is implemented into a
commercially available LCM-simulation software which is verified first using a simple
plate with a sheared fabric, then using a double curved structure (hemisphere) with
draped fabric. After the verification based on the hemisphere another part is chosen
to show the ability of the interface to deal with more complicated geometries.
To obtain the input parameters for the cure kinetic model of Kamal-Sourour an epoxy
resin is characterised using DSC. The validity of this model is verified by comparing
the cure process of a flat sheet with a rib with the corresponding simulation results.
To determine the influence of the fibre volume fraction on the maximum temperature,
a cure simulation of the hemisphere with the zone distribution is performed. Cure
Simulation on a flat plate are done to quantify the influence of the thickness of the
part on the maximum temperature in the part.
In der vorliegenden Arbeit wird eine Simulation der Prozesskette der
Harzinjektionsverfahren vorgestellt. Dazu wird der Gesamtprozess in drei
unterschiedliche Einzelprozesse unterteilt: Drapierung, Injektion und Aushärtung.
Die für die gesamte Prozesskette grundlegende Simulation stellt die
Drapiersimulation dar. Diese liefert die Faserorientierungen des drapierten Bauteils,
die für die im Anschluss durchzuführende Injektionssimulation entscheidend sind.
Um die Ergebnisse der Drapiersimulation zur Simulation der Fließvorgänge zu
nutzen, wird eine Schnittstelle entwickelt. Diese wandelt die Ergebnisse der
Drapiersimulation in ein für die Injektionssimulation nutzbares Format um und
berücksichtigt deren spezielle Anforderungen an das Simulationsmodell.
Zur möglichst effizienten Durchführung der Harzinjektionssimulation wird das Modell
in einzelne Zonen mit gleichen Permeabilitätswerten und Faservolumengehalten
unterteilt. Um den Einfluss der Gewebescherung auf das Fließverhalten von Fluiden
zu ermitteln, werden Fließversuche mit gescherten Geweben durchgeführt und
verifiziert.
Die Funktionsweise der Schnittstelle und die Anwendbarkeit der gemessenen
Materialkennwerte werden an einer Kugelhalbschale demonstriert und durch
Versuche verifiziert. Anhand einer Armaturentafel wird der Nutzen der Schnittstelle
für die Fließsimulation komplexer Bauteile gezeigt.
Die Prozesskette wird mit der Simulation der Aushärtevorgänge abgeschlossen.
Dazu wird ein reaktionskinetisches Modell nach Kamal-Sourour für ein ausgewähltes
Epoxidharz erstellt. Anhand einer Rippenstruktur wird die Aushärtesimulation
verifiziert. Durch die Aushärtesimulationen kann der Einfluss des Faservolumengehalts
sowie der Bauteildicke auf die während des Aushärtevorgangs erreichbaren
Maximaltemperaturen ermittelt werden.
Liquid Composite Moulding (LCM) has become an economic technique for the manufacture
of advanced composite lightweight structures in many cases. Meanwhile the
acronym LCM represents more than a dozen of varying process types, which all have
the principle in common that a liquid monomer is firstly injected into a cavity filled with
a reinforcing fibre preform and secondly it forms the part by chemically reacting to a
solid polymer network. A distinctive feature of the LCM process variations is their
applicability to the fabrication of a variety of different part sizes and shapes. Within
this development numerical process simulation has become an important engineering
tool for mould design and process control. Thereby the research focuses on the
simulation of resin flow through a fibrous reinforcement, because this turned out to be
the most critical process within the manufacture of composites by applying LCMTechnologies.
With the software commercially available the mould-filling pattern can
be simulated depending on the locations and number of inlet and outlet gates, resin
rheology, injection rate and pressure, thermal effects and the physics of liquid flow
through fibre preforms. Hereby the standard flow modelling bases on a proportional
relationship between the flow rate and the applied pressure gradient, which is known
as D´Arcy’s law. The describing proportional factor is called the permeability. Its
value depends on the considered flow direction because of a non-isotropic structural
arrangement of the fibre reinforcement. It becomes clear that the permeability affects
the injection process crucially and so the knowledge about it is indispensable for the
realistic prediction of a filling pattern by flow simulation.
Due to the complexity of the inner structure of a textile reinforcement the resulting
multiphase flow cannot be described adequately by an analytical model at the current
stage of research, so that the permeabilities of planar textile reinforcements like woven or non-crimped fabrics is usually obtained from flow measurements. A variety
of experimental set-ups were developed, which allow the tracking of the fluid flow
through the textile reinforcement. The permeability is derived from the flow data by
applying D´Arcy´s law. Most of these test-rigs allow the determination of the in-plane
flow characteristics only, because they are dominant in the most classical processing
techniques. But the simulation of these processes produces still significant errors,
which result from neglecting the out-of-plane flow. Since new liquid composite moulding
processes like SCRIMP™ or resin film infusion were developed, the knowledge of
the permeability in thickness direction becomes as important as the in-plane charac teristics so that researchers started to measure flow in thickness direction and developed
flow models which include the principle permeability in thickness direction. The
main arising difficulties are the measuring and the modelling for the calculation of the
permeability from flow front data. The objective of this work is to overcome these
problems by the development of a test-rig for the measure of the flow in thickness
direction and by determining a transformation rule, which addresses the unsolved
geometric boundary condition at the injection port.
After investigating the existing instrumentation for measuring flow in thickness direction
a new sensor concept is developed on the basis of ultrasound transmission,
which enables a steady collection of the actual position of a flow front. The applicability
of this test-rig was tested within the measure of the flow through different woven
and non-crimped fabrics. The permeability values, which were obtained from the flow
data with the aid of the improved analytic model, were validated by two-dimensional
radial flow experiments.
The fact that long fibre reinforced thermoplastic composites (LFT) have higher tensile
strength, modulus and even toughness, compared to short fibre reinforced
thermoplastics with the same fibre loading has been well documented in literature.
These are the underlying factors that have made LFT materials one of the most
rapidly growing sectors of plastics industry. New developments in manufacturing of
LFT composites have led to improvements in mechanical properties and price
reduction, which has made these materials an attractive choice as a replacement for
metals in automobile parts and other similar applications. However, there are still
several open scientific questions concerning the material selection leading to the
optimal property combinations. The present work is an attempt to clarify some of
these questions. The target was to develop tools that can be used to modify, or to
“tailor”, the properties of LFT composite materials, according to the requirements of
automobile and other applications.
The present study consisted of three separate case studies, focusing on the current
scientific issues on LFT material systems. The first part of this work was focused on
LGF reinforced thermoplastic styrenic resins. The target was to find suitable maleic
acid anhydride (MAH) based coupling agents in order to improve the fibre-matrix
interfacial strength, and, in this way, to develop an LGF concentrate suitable for
thermoplastic styrenic resins. It was shown that the mechanical properties of LGF
reinforced “styrenics” were considerably improved when a small amount of MAH
functionalised polymer was added to the matrix. This could be explained by the better fibre-matrix adhesion, revealed by scanning electron microscopy of fracture surfaces.
A novel LGF concentrate concept showed that one particular base material can be
used to produce parts with different mechanical and thermal properties by diluting the
fibre content with different types of thermoplastic styrenic resins. Therefore, this
concept allows a flexible production of parts, and it can be used in the manufacturing
of interior parts for automobile components.The second material system dealt with so called hybrid composites, consisting of
long glass fibre reinforced polypropylene (LGF-PP) and mineral fillers like calcium
carbonate and talcum. The aim was to get more information about the fracture
behaviour of such hybrid composites under tensile and impact loading, and to
observe the influence of the fillers on properties. It was found that, in general, the
addition of fillers in LGF-PP, increased stiffness but the strength and fracture
toughness were decreased. However, calcium carbonate and talcum fillers resulted
in different mechanical properties, when added to LGF-PP: better mechanical
properties were achieved by using talcum, compared to calcium carbonate. This
phenomenon could be explained by the different nucleation effect of these fillers,
which resulted in a different crystalline morphology of polypropylene, and by the
particle orientation during the processing when talc was used. Furthermore, the
acoustic emission study revealed that the fracture mode of LGF-PP changed when
calcium carbonate was added. The characteristic acoustic signals revealed that the
addition of filler led to the fibre debonding at an earlier stage of fracture sequence
when compared to unfilled LGF-PP.
In the third material system, the target was to develop a novel long glass fibre
reinforced composite material based on the blend of polyamide with thermoset
resins. In this study a blend of polyamide-66 (PA66) and phenol formaldehyde resin
(PFR) was used. The chemical structure of the PA66-PFR resin was analysed by
using small molecular weight analogues corresponding to PA66 and PFR
components, as well as by carrying out experiments using the macromolecular
system. Theoretical calculations and experiments showed that there exists a strong
hydrogen bonding between the carboxylic groups of PA66 and the hydroxylic groups
of PFR, exceeding even the strength of amide-water hydrogen bonds. This was
shown to lead to the miscible blends, when PFR was not crosslinked. It was also
found that the morphology of such thermoplastic-thermoset blends can be controlled
by altering ratio of blend components (PA66, PFR and crosslinking agent). In the
next phase, PA66-PFR blends were reinforced by long glass fibres. The studies
showed that the water absorption of the blend samples was considerably decreased,
which was also reflected in higher mechanical properties at equilibrium state.
Wie man aus zahlreichen Untersuchungen und Anwendungsbeispielen entnehmen
kann, besitzen langfaserverstärkte Thermoplaste (LFT) eine bessere Zugfestigkeit,
Biege- und Schlagzähigkeit im Vergleich zu kurzfaserverstärkten Thermoplasten. Die
Vorteile in den mechanischen Eigenschaften haben die LFT zu einem
schnellwachsenden Bereich in der Kunststoffindustrie gemacht. Neue Entwicklungen
in Bereich der Herstellung von LFT haben für zusätzliche Verbesserungen der
mechanischen Eigenschaften sowie eine Preisreduzierung der Materialien in den
vergangenen Jahren gesorgt, was die LFT zu einer attraktiven Wahl u.a. als Ersatz
von Metallen in Automobilteilen macht. Es stellen sich allerdings immer noch einige
offene wissenschaftliche Fragen in Bezug auf z.B. die Materialbeschaffenheit, um
optimale Eigenschaftskombinationen zu erreichen. Die vorliegende Arbeit versucht,
einige dieser Fragen zu beantworten. Ziel war es, Vorgehensweisen zu entwickeln,
mit denen man die Eigenschaften von LFT gezielt beeinflussen und so den
Anforderungen von Automobilen oder anderen Anwendungen anpassen oder
„maßschneidern“ kann.
Die vorliegende Arbeit besteht aus drei Teilen, welche sich auf unterschiedliche
Materialsysteme, angepasst an den aktuellen Bedarf und das Interesse der Industrie,
konzentrieren.
Der erste Teil der Arbeit richtet sich auf die Eigenschaftsoptimierung von
langglasfaserverstärkten (LGF) thermoplastischen Styrolcopolymeren und von
Blends aus diesen Materialien. Es wurden passende, auf Maleinsäureanhydride
(MAH) basierende Kopplungsmittel gefunden, um die Faser-Matrix-Haftung zu
optimieren. Weiterhin wurde ein LGF Konzentrat entwickelt, welches mit
verschiedenen thermoplastischen Styrolcopolymeren kompatibel ist und somit als
„Verstärkungsadditiv“ eingesetzt werden kann.Das Konzept für ein neues LGF-Konzentrat auf Basis des kompatiblen
Materialsystems konzentriert sich insbesondere darauf, dass ein Basismaterial für
die Herstellung von Bauteilen bereit gestellt werden kann, mit dessen Hilfe gezielt
verschiedene mechanische und thermomechanischen Eigenschaften durch das
Zumischen von verschiedenen Styrolcopoylmeren und Blends verbessert werden
können. Dieses Konzept ermöglicht eine sehr flexible Produktion von Bauteilen und
wird seine Anwendung bei der Herstellung von Bauteilen u.a. im Interieur von Autos
finden.
Das zweite Materialsystem basiert auf sogenannten hybriden Verbundwerkstoffen,
welche aus Langglasfasern und mineralischen Füllstoffen wie Kalziumkarbonat und
Talkum in einer Polypropylen (PP) - Matrix zusammengesetzt sind. Ziel war es, durch
detaillierte bruchmechanische Analysen genaue Informationen über das
Bruchverhalten dieser hybriden Verbundwerkstoffe bei Zug- und Schlagbelastung zu
bekommen, um dann die Unterschiede zwischen den verschiedenen Füllstoffen in
Bezug auf ihre Eigenschaften zu dokumentieren. Es konnte beobachtet werden, dass
bei Zugabe der Füllstoffe zum LGF-PP normalerweise die Steifigkeit weiter
verbessert wurde, jedoch die Festigkeit und Schlagzähigkeit abnahmen. Weiterhin
zeigten die verschiedenen Füllstoffe wie Kalziumkarbonat und Talkum
unterschiedliche mechanische Eigenschaften auf, wenn sie zusammen mit LGF
Verstärkung eingesetzt wurden: Bei der Zugabe von Talkum wurde u.a. eine deutlich
bessere Schlagzähigkeit als bei der Zugabe von Kalziumkarbonat festgestellt. Dieses
Phänomen konnte durch das unterschiedliche Nukleierungsverhalten des PPs erklärt
werden, welches in einer unterschiedlichen Kristallmorphologie von Polypropylen
resultierte. Weiterhin konnte man durch Messungen der akustischen Emmissionen
während der Zugbelastung eines bruchmechanischen Versuchskörpers aufzeigen,
dass die höhere Bruchzähigkeit von LGF-PP ohne Füllstoffe daraus resultiert, dass
Faser-Pullout schon bei geringeren Kräften vorhanden war.
Materials in general can be divided into insulators, semiconductors and conductors,
depending on their degree of electrical conductivity. Polymers are classified as
electrically insulating materials, having electrical conductivity values lower than 10-12
S/cm. Due to their favourable characteristics, e.g. their good physical characteristics,
their low density, which results in weight reduction, etc., polymers are also
considered for applications where a certain degree of conductivity is required. The
main aim of this study was to develop electrically conductive composite materials
based on epoxy (EP) matrix, and to study their thermal, electrical, and mechanical
properties. The target values of electrical conductivity were mainly in the range of
electrostatic discharge protection (ESD, 10-9-10-6 S/cm).
Carbon fibres (CF) were the first type of conductive filler used. It was established that
there is a significant influence of the fibre aspect ratio on the electrical properties of
the fabricated composite materials. With longer CF the percolation threshold value
could be achieved at lower concentrations. Additional to the homogeneous CF/EP
composites, graded samples were also developed. By the use of a centrifugation
method, the CF created a graded distribution along one dimension of the samples.
The effect of the different processing parameters on the resulting graded structures
and consequently on their gradients in the electrical and mechanical properties were
systematically studied.
An intrinsically conductive polyaniline (PANI) salt was also used for enhancing the
electrical properties of the EP. In this case, a much lower percolation threshold was
observed compared to that of CF. PANI was found out to have, up to a particular
concentration, a minimal influence on the thermal and mechanical properties of the
EP system.
Furthermore, the two above-mentioned conductive fillers were jointly added to the EP
matrix. Improved electrical and mechanical properties were observed by this
incorporation. A synergy effect between the two fillers took place regarding the
electrical conductivity of the composites.
The last part of this work was engaged in the application of existing theoretical
models for the prediction of the electrical conductivity of the developed polymer composites. A good correlation between the simulation and the experiments was
observed.
Allgemein werden Materialien in Bezug auf ihre elektrische Leitfähigkeit in Isolatoren,
Halbleiter oder Leiter unterteilt. Polymere gehören mit einer elektrischen Leitfähigkeit
niedriger als 10-12 S/cm in die Gruppe der Isolatoren. Aufgrund vorteilhafter
Eigenschaften der Polymere, wie z.B. ihren guten physikalischen Eigenschaften,
ihrer geringen Dichte, welche zur Gewichtsreduktion beiträgt, usw., werden Polymere
auch für Anwendungen in Betracht gezogen, bei denen ein gewisser Grad an
Leitfähigkeit gefordert wird. Das Hauptziel dieser Studie war, elektrisch leitende
Verbundwerkstoffe auf der Basis von Epoxidharz (EP) zu entwickeln und deren
elektrische, mechanische und thermische Eigenschaften zu studieren. Die Zielwerte
der elektrischen Leitfähigkeit lagen hauptsächlich im Bereich der Vermeidung
elektrostatischer Aufladungen (ESD, 10-9-10-6 S/cm).
Bei der Herstellung elektrisch leitender Kunststoffen wurden als erstes
Kohlenstofffasern (CF) als leitfähige Füllstoffe benutzt. Bei den durchgeführten
Experimenten konnte man beobachten, dass das Faserlängenverhältnis einen
bedeutenden Einfluss auf die elektrischen Eigenschaften der fabrizierten
Verbundwerkstoffe hat. Mit längeren CF wurde die Perkolationsschwelle bereits bei
einer niedrigeren Konzentration erreicht. Zusätzlich zu den homogenen CF/EP
Verbundwerkstoffen, wurden auch Gradientenwerkstoffe entwickelt. Mit Hilfe einer
Zentrifugation konnte eine gradierte Verteilung der CF entlang der Probenlängeachse
erreicht werden. Die Effekte der unterschiedlichen Zentrifugationsparameter
auf die resultierenden Gradientenwerkstoffe und die daraus
resultierenden, gradierten elektrischen und mechanischen Eigenschaften wurden
systematisch studiert.
Ein intrinsisch leitendes Polyanilin-Salz (PANI) wurde auch für das Erhöhen der
elektrischen Eigenschaften des EP benutzt. In diesem Fall wurde eine viel niedrigere
Perkolationsschwelle verglichen mit der von CF beobachtet. Der Einsatz von PANI hat bis zu einer bestimmten Konzentration nur einen minimalen Einfluß auf die
thermischen und mechanischen Eigenschaften des EP Systems.
In einem dritte Schritt wurden die zwei oben erwähnten, leitenden Füllstoffe
gemeinsam der EP Matrix hinzugefügt. Erhöhte elektrische und mechanische
Eigenschaften wurden in diesem Fall beobachtet, wobei sich ein Synergie-Effekt
zwischen den zwei Füllstoffen bezogen auf die elektrische Leitfähigkeit der
Verbundwerkstoffe ergab.
Im letzten Teil dieser Arbeit fand die Anwendung von theoretischen Modelle zur
Vorhersage der elektrischen Leitfähigkeit der entwickelten Verbundwerkstoffe statt.
Dabei konnte eine gute Übereinstimmung mit den experimentellen Ergebnissen
festgestellt werden .
Entwurf und Optimierung neuer Versuchsanordnungen zur Charakterisierung der Haftung an Grenzflächen
(2004)
Die Beurteilung der mechanischen Haftungsqualität an Grenzflächen ist eine entscheidende Voraussetzung zur aktiven Gestaltung von heterogenen Werkstoffen. Die vorliegende Arbeit zeigt neue Wege für den Entwurf und die Optimierung der dazu nötigen Testverfahren auf. Ausgehend von der zu messenden Größe muß eine Versuchsanordnung
oder eine Probengeometrie entworfen werden, die aufgrund ihrer Konzeption die zu einer verläßlichen Messung notwendigen Voraussetzungen schafft. Mit Hilfe von numerischen Verfahren können auch komplizierte Probengeometrien analysiert und optimiert und die Anwendbarkeit von einfachen Auswerteverfahren überprüft werden.
Ziel ist eine einfache Formel zur Auswertung, die die komplizierte Geometrie nur in Form von einmalig zu bestimmenden Formfaktoren enthält.
Diese Grundidee wird in der vorliegenden Arbeit anhand von drei verschiedenen Versuchsanordnungen ausgeführt, jede wird umfassend analysiert und auch experimentell auf ihre Durchführbarkeit überprüft.
Ausgehend vom BROUTMAN-Versuch (Faser-Matrix-Grenzfläche) beschreibt Kapitel 2 eine Probengeometrie, die eine homogene Grenzflächenbelastung durch eine geeignete Kerbung der Probe aus der äußeren Zugbelastung erzeugt. Die gleichförmige Zugbelastung ist die Voraussetzung für die Anwendbarkeit des Festigkeitskonzeptes.
Zur Berechnung der Festigkeit aus den experimentellen Daten wird eine Näherungsformel abgeleitet, die die Probengeometrie nur als Formfaktoren enthält. Die optimale Probengeometrie und die zugehörigen Formfaktoren folgen aus einer Parameterstudie mit Hilfe der Methode der Finiten Elemente.
Ein experimenteller Vergleich des ursprünglichen BROUTMAN-Versuchs mit dem vorgeschlagenen Zugversuch zeigt die prinzipielle Anwendbarkeit der Versuchsanordungen und des Festigkeitskonzeptes. Der Vergleich stützt weiterhin das Gesamtkonzept, denn die Herstellung der Probenkörper beider Versuchstypen erfolgt sehr ähnlich,während die Grenzflächenbelastung auf sehr unterschiedliche Weise erzeugt wird. Sie stellen deshalb zwei verschiedene Methoden zur Messung derselben Größe dar. In einer zweiseitig gekerbten Zugprobe entsteht durch die Kerbe eine Zugspannung quer zur Hauptbelastungsrichtung. Besteht der Probenkörper aus zwei einseitig gekerbten, beispielsweise durch Kleben zusammengefügten Hälften, so entsteht ebenfalls eine gleichförmige Zugbelastung eines ausgedehnten Bereiches der Grenzfläche.
Diese Idee wird im Kapitel 3 anhand einer Meßreihe aus gleichen Hälften untersucht.
Ein Finite-Elemente-Modell dient außerdem dazu, die optimale Geometrie für einen Probenkörper aus zwei einseitig gekerbten Teilen verschiedenen Materials zu ermitteln.
Es zeigt auch einen weiteren Vorteil dieser Probenform, denn plastische Deformationen beginnen stets im Kerbgrund, nicht an der Grenzfläche. Plastizität beeinflußt die Ergebnisse deshalb weniger, sie bleiben vergleichbar, auch wenn bei einigen Materialsystemen
teilweise plastische Deformationen auftreten.
Treten dagegen vor dem Grenzflächenversagen ausgedehnte plastische Deformationen in der Umgebung der Grenzfläche auf, so entsteht dadurch ein komplexer Spannungszustand, dem das Festigkeitskonzept kaum Rechnung tragen kann. Weiterhin erfolgt Versagen dann zumeist als fortschreitender Riß, so daß ein bruchmechanisches Konzept unumgänglich ist. In dieser Situation wird bei Proben aus homogenem Material mit Anfangsriß das Konzept der realen Brucharbeit bereits erfolgreich angewendet.
Dieses Konzept beschreibt aber auch zufriedenstellend das Versagen von Grenzflächen zwischen unterschiedlichen Materialien, wie anhand einer Versuchsreihe und umfangreichen numerischen Rechnungen im Kapitel 4 gezeigt wird. Das numerische Modell umfaßt ein elastisch-plastisches Materialgesetz mit Verfestigung, Rißausbreitung unter Belastung und ein an die Energiefreisetzungsrate angelehntes Energie-Kriterium
zur Simulation des Rißwachstums. Es geht damit weit über die meisten aus der Literatur bekannten Simulationen hinaus.
The work presented here supports the industrial use of natural fibre reinforced composite
materials under mass production circumstances. Potentials for optimising the
materials’ properties are offered and evaluated with regard to their effect on the
process chain material – coupling agent – processing. The possibility to use these
materials in mass production applications are improved by optimising each partial
stage.
Throughout the world there exists a great variety of suitable applications for this
group of composites affecting the raw materials choice. The Europe’s market is
stamped by the requirements of the automotive industry, the important markets of
Japan and the USA are dominated by civil engineering and landscaping applications.
A yearly increase of 18 % in Europe, 25 % in Japan and 14 % in the US is expected.
The US market offers the largest market volume of more than 480000 t exceeding
the European Market for nearly five times.
To enhance the fields of application for natural fibre reinforced thermoplastics the
common techniques of the film-stacking and the compression moulding process are
used to manufacture optimised composites based on polypropylene and bast (hemp,
flax) as well as leaf (sisal) and wood (spruce) fibres. Therefore new semi finished
parts for the compression moulding process had to be developed.
Within the manufacturing of natural fibre reinforced polypropylene using the filmstacking
process material and process parameters were identified to transfer the
gathered knowledge to the compression moulding process. It has been seen that
most problems are caused by the organic origin of the fibres. Especially the addiction
of the fibres to decompose when treated with higher temperatures under pressure
hampers their use in thermoplastic composites.
By investigating wood fibres as reinforcements, which differ from bast fibres in their
chemical composition the influence of the process parameters temperature and pressure
on the composite properties were evaluated and verified for hemp fibre reinforced
polypropylene. The minimum process time was observed and in order to enhance
the fibre-matrix-adhesion by using coupling agents the diffusion of the coupling
agent molecules was determined theoretically. Therefore a model was evaluated dealing with the maximum mass flow of coupling agent being transferred in the
fibre-matrix-interface because of mass transfer mechanisms.
In order to optimise the wetting of the fibres with the matrix different possibilities to
modify the fibres were investigated. Drying the fibres prior to the manufacturing of the
composite is an easy and effective way to improve the fibre-matrix-adhesion. The
tensile strength of all composites rose conspicuously. The removal of dust and water
soluble substances by washing led to a higher tensile strength only with the sisal fibre
reinforced composite. Washing the other fibres led to decreasing fibre wetting.
Fibre substances like lignin and pectin were removed using the mercerisation technique.
Composites made from these chemically retted fibres show the more disintegrated
fibre structure and a worse wet ability of the fibre surface with the polypropylene.
Hence the tensile and bending strength was not enhanced. The Charpy impact
strength of the composite raised distinctly.
The use of coupling agents based on maleic acid crafted polypropylene led to an increasing
tensile strength up to 58 % compared to the composite manufactured with
pre-dried fibres. The bending strength raised about 109 %. The Charpy decreased
about 60 to 80 %. Flax fibre reinforced composites showed the highest tensile
strength, sisal fibre reinforced composites offered the highest Charpy. No differences
between copolymeric and homopolymeric polypropylene when using PP-MAH as
coupling agents were determined.
The kind of application of the coupling agent in the compound has an major effect on
the amount of coupling agent to be added. The closer the coupling agent is brought
to the fibres surface at the beginning of the impregnation step the less amount has to
be used. If using an aqueous suspension the least amount had to be added as the
coupling agent remains directly on the fibre surface after drying. Mixing the coupling
agent with the polypropylene hinders the well dispersed PP-MAH to act in the fibrematrix-
interface effectively, so the amount of coupling agent has to be increased.
The comparison of coupling agent containing compounds which differ in the amount
of coupling agent and the molar mass distribution showed the amount of coupling
agent related to the mass of fibres to be the important parameter to dose the PPMAH.
The mean molar mass distribution had no effect on the compounds’ properties.Transferring the knowledge gained from the film-stacked composites to the compression
moulding process offered the possibility to use jute long fibre reinforced granules
(LFT) under optimised processing conditions. The composites gained from the molten
and pressed granules showed the highly dependency of the mechanical properties
to the fibre direction in the part. If the fibres are able to flow along the cavity and
direct themselves into parallelism the tensile and bending strength increases in the
main flow direction and decreases perpendicular to this direction. The impact
strength decreases with raising orientation of the fibres. The jute fibre surface presents
a better adhesion to the polypropylene as the surfaces of the hemp, flax and
sisal fibres, which could be improved by adding PP-MAH as coupling agent.
A newly developed pelletised semi finished part with sisal fibre reinforcement and the
development of a direct impregnation process using solely a horizontal plasticating
unit completes the work. Using an established plasticating extruder offers the possibility
for the compression moulding industry to process natural fibre reinforced polypropylene
with less investment. The compression moulded sisal fibre reinforced polypropylene showed varying fibre directions and disproportionate fibre-matrixadhesion.
As a result of the plasticating process in some parts bended fibres are still
visible after compression moulding. Hence the used single-screw plasticator is not
able to equalize the molten material. Increasing the compaction pressure was not
possible as some parts showed beginning fibre degradation. Adding PP-MAH improved
the fibre-matrix-adhesion but the positive effect of the materials’ strength was
not as clear as found for the film-stacked composites. Regarding the additional expenditures
for compounding and the coupling agent costs the use of PP-MAH in
compression moulded parts seems not to be useful.
Compared to the compression moulded glass fibre reinforced polypropylene from
GMT and LFT-materials the natural fibre reinforced composites cannot reach the
high level of material properties. Optimising the fibre-matrix-interface increases the
properties but they are still lower than the properties of the glass fibre reinforced composites. Therefore the natural fibre reinforced materials are not able to substitute
the traditional GMT and LFT, they rather should be used in new applications with
lower demands.
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
In my doctoral thesis, I present new information about the developmental expression pattern of the potassium chloride cotransporter KCC2 in the rat auditory brain stem and the morphometrical effects caused by KCC2 gene silencing in mice. The thesis is divided into 3 Chapters. Chapter 1 is a general introduction which gives a brief outline of the primary ascending auditory pathway in mammals. Also, it provides information about the presence of a large number of inhibitory inputs in the auditory system and how these inputs develop; the involvement of inhibition in the acoustic processing is mentioned. In addition, the role of the KCC2 cotransporter in the shift of GABA/glycine transmission, and thus, in maintaining the normal level of inhibition in the mature brain, is described. The focus of Chapter 2 was to investigate the KCC2 immunofluorescent signal from postnatal day (P) 0 to P60 in four major nuclei of the rats superior olivary complex (SOC), namely the medial nucleus of the trapezoid body (MNTB), the medial superior olive (MSO), the lateral superior olive (LSO), and the superior paraolivary nucleus (SPN). The lack of a correlation between the continuous presence of KCC2 mRNA/protein in the postnatal rat brain stem on one side, and the shift in GABA/glycinergic polarity (i.e. KCC2 functionality) on the other side, prompted me to search for a specific cellular expression pattern of the KCC2 protein that might correlate with the switch in GABA/glycine signalling. To do so, the KCC2 immunoreactivity was analysed using high-resolution confocal microscopy in three cellular regions of interest: the soma surface, the soma interior, and the neuropil. In the soma surface, I observed an increase of the KCC2 immunofluorescent signal intensity, yet with a moderate magnitude (1.1 to 1.6-fold). Therefore, I conclude that the change in the soma surface signal is only of minor importance and does not explain the change in KCC2 functionality. The KCC2 signal intensity in the soma interior decreased in all nuclei (1.4 to 2-fold) with the exception of the MNTB where no statistically significant change was found. The decrease in the soma interior was probably related to the increase in the soma surface immunoreactivity and the proposed (weak) intracellular trafficking process of the KCC2 protein. The main developmental reorganization (in qualitative as well as in quantitative aspects) of the KCC2 immunofluorescence in the SOC nuclei was observed in the neuropil. The signal changed its pattern from a diffusely stained neuropil early in development (P0-P4) to a crisp and membrane-confined signal later on (P8-P60), with single dendrites becoming apparent. The exception was found in the MNTB, where the neuropil became almost unlabeled. Quantification revealed a statistically significant decrease (2.2 to 3.8-fold) in the neuropil immunoreactivity in all four nuclei, although the remaining KCC2-stained dendrites became thicker and the signal became stronger. I suppose that, at least in part, the neuropil reorganization can be explained by an age-related reduction of dendritic branches via a pruning mechanism and with the absence of an abnormal Cl- load via extrasynaptic GABAA receptors. This is consistent with the proposed additional role of KCC2, namely to maintain the cellular ionic homeostasis and to prevent dendritic swelling (Gulyás et al., 2001). In conclusion, neither the increase in the KCC2 soma surface signal intensity, nor the reorganization in the neuropil can be strictly related to the developmental switch in the GABA/glycine polarity and the onset of KCC2 function, although some correlation (the appearance of a specific membrane-confined dendritic pattern) between structure and function was found. Further implication of different molecular methods, regarding the proposed posttranslational modification of KCC2, will shed light upon the question of what leads to the functional activation of the cotransporter. In Chapter 3, the advantage of loss-of-function KCC2 mice made it possible, via manipulating the duration of the depolarizing phase of GABA/glycine transmission, to analyse the effect of disturbed Cl- regulation and, thus, the effect of disrupted GABA/glycine neurotransmission (lack of inhibition). I asked the following question: how important is the Cl- homeostasis to maintain general aspects (brain weight) and specific aspects (nucleus volume, neuron number, and soma cross-sectional area) of brain development? Brain stem slices from KCC2 knock-out animals (-/-), with a trace amount of transporter (~5%), as well as from wild type animals (+/+) at P3 and P12 were stained for Nissl substance and the analyses were performed with the help of basic morphometrical and stereological methods. In KCC2 (-/-) animals, body growth impairment was observed, in part related to the seizure activity preventing normal feeding (Woo et al., 2002). However, their brains, in terms of brain weight, were less affected. Therefore, I conclude that Cl- homeostasis is not essential per se to maintain the brain weight. Four auditory nuclei (MNTB, MSO, LSO, and ventral cochlear nucleus (VCN)), were compared with respect to the KCC2 null mutation. The SOC nuclei were not influenced by the lack of KCC2 at P3 considering the morphometric parameters. A difference in the number of neurons occurred in the VCN at P3. I suggest to perform additional immunohistochemical studies of glial presence related to its involvement in the structural and functional support of the neurons and their survival. At P12, the volume of the auditory nuclei in KCC2 (-/-) animals was smaller than in (+/+) animals. However, this is likely to be an epiphenomenon since the brain weight increase was also impaired with the same magnitude. Therefore, I suppose that the Cl- homeostasis is not crucial for the nucleus volume increase in the VCN, the MNTB and the MSO during development. An exception was found for the LSO. Regarding the other morphometric parameters at P12, the four nuclei behaved in a different way: (1) in the VCN, after P3, no parameter underwent a disproportional change due to impaired Cl- homeostasis; (2) the MNTB and the LSO showed less pronounced neuropil in mutants in comparison to age-matched controls and two reasons were proposed: first, the depolarizing GABA/glycine transmission in mutants may contribute to excessive Ca2+ load, excitotoxicity and dendrite damage; second, a decrease of some trophic factors may prevent dendrite development in addition to impaired normal body growth; (3) the MSO neurons in P12 (-/-) animals had smaller soma cross-sectional area than in P12 (+/+) animals. I conclude that the normal Cl- homeostasis is required in the MSO at older ages (P12) to achieve and maintain a proper soma size; (4) the lack of KCC2 did not prevent the process of neuronal differentiation in the VCN and the MNTB during development in both mutant and control animals. In conclusion, the various auditory nuclei have to be discussed independently regarding the influence of Cl- homeostasis on some morphometric parameters. Presumably, this is related to the different time of the shift in the GABA/glycine polarity i.e., the onset of KCC2 function (Srinivasan et al., 2004a). Taken together, my thesis accumulated data about the immunohistological expression pattern of KCC2 in various auditory brain stem nuclei and the influence of impaired Cl- homeostasis on some morphometric features in these nuclei. This information will be helpful for further investigations involved to discover the mechanisms and the events that govern the inhibition and the inhibitory pathway in the central auditory system.
Die Arbeit beschäftigt sich im wesentlichen mit den aktuell zur Verfügung stehenden Werkzeugen der Behandlung von Unsicherheiten in den Ergebnissen von Grundwassermodellen im Zusammenhang mit der Anwendung der Modelle bei der Planung von hydraulischen Sanierungen des Untergrundes. Untersucht wird die Eignung verschiedener Verfahren für eine praxisbezogene Anwendung. Als Ergebnis werden Empfehlungen zur Verwendung der Methoden in Abhängigkeit der hydrogeologischen Gegebenheiten und Hinweise zur Weiterentwicklung der Verfahren formuliert. Die Resultate von Grundwassermodellen werden zu Prognosezwecken in unterschiedlichen Zusammenhängen eingesetzt. Dazu gehören u.a. die Konzipierung von hydraulischen Sanierungsmaßnahmen. Für eine effiziente Ausführung einer Sanierung sollten Überdimensionierungen der notwendigen Einrichtungen (Brunnen, Pumpen, Aufbereitung) vermieden werden. Die hier untersuchten Methoden können dabei vorteilhaft eingesetzt werden, da sie es prinzipiell erlauben, die notwendigen Sicherheitszuschläge zu verringern und Erfolgswahrscheinlichkeiten für unterschiedliche Auslegungsvarianten anzugeben. Erfolgswahrscheinlichkeit bedeutet z.B. mit welcher Wahrscheinlichkeit ein einzuhaltender Grenzwert an einem bestimmten Punkt unterschritten wird. Die aktuell in der Praxis eingesetzten deterministischen Modelle können stattdessen nur einen Wert liefern, der eine nicht bekannte Eintretenswahrscheinlichkeit besitzt. In dieser Arbeit wird gezeigt, dass Methoden der stochastischen Simulation, zusammen mit einer Grundwassermodellierung einen wesentlichen Beitrag zur Verbesserung der oben dargestellten Situation leisten können. Hierzu wird das SUFIX-Verfahren eingesetzt, das es erlaubt neben den Verfahren der Geostatistik (z.B. stochastische Simulation) auch den Sachverstand des Hydrogeologen, der sich meist nicht in ’harten’ Zahlenwerten ausdrücken lässt, zwanglos zu integrieren. Beispiele hierfür sind Kenntnisse über großskalige Strukturen, wie Paläorinnen, die mit den Voraussetzungen für den Einsatz von stochastischen Simulationen nicht vereinbar sind Auch sind vorhandene Informationen, die mit einer relative hohen Unsicherheit behaftet sind (soft data) in diesem Konzept verwertbar. Die Eingangsdaten eines Grundwassermodells liegen i.d. Regel nur als sporadische Punktmessungen vor und müssen durch Interpolation oder stochastische Simulation generiert werden, um ein lückenloses Abbild des Untergrundes bzw. der Eigenschaften des Untergrundes zu erhalten. Liegt ein vollständiges interpoliertes Abbild (hydrogeologisches Modell) vor, muss wiederum eine Vereinfachung vorgenommen werden, da ein numerisches Modell nur punkt- bzw. flächengemittelte Eingabedaten verwenden kann. Der hierdurch bedingte Verlust an Information über die Variabilität der Modellparameter unterhalb der räumlichen Modelldiskretisierung wirkt sich vor allem bei der Stofftransportmodellierung aus, da hier die Ausbreitung entlang bevorzugter Fließwege eine entscheidende Rolle spielen kann. Eine zusätzliche Quelle der Unsicherheit entsteht dadurch, dass die Lage dieser Strukturen und ihr räumlicher Zusammenhang (Topologie) nicht hinreichend bekannt sind. Anhand zweier Fallbeispiele aus der praktischen Anwendung von numerischen Modellen wird nachgewiesen, dass sich das SUFIX-Verfahren generell als geeignet zur Quantifizierung von Prognoseunsicherheiten darstellt. Vorteile des Verfahrens sind die Kombinationsmöglichkeiten mit beliebigen Methoden zur Abbildung der Untergrundheterogenität. Es können z.B. stochastische Simulationen oder auch eine konstante manuelle Zonierung verwendet werden. Ein weiterer gewichtiger Vorteil ist der, dass die Berechnungsmethodik der Grundwasserströmung und des Stofftransportes keinen Einschränkungen, wie Linearisierung der Gleichungen u.ä. unterworfen ist. Ebenso sind beliebige Randbedingungen verwendbar, wobei auch der Typ der Bedingungen als unsicherer Parameter eingesetzt werden kann. Sollen die Parameter optimiert werden, ist in praktischen Anwendungsfällen die Kopplung von stochastischer Simulation und z.B. einem Bayes'schen Updating-Verfahren eine einfach zu implementierende Lösung. Hiermit ist dann auch die Kalibrierung beliebiger Randbedingungen möglich, die z.B. als Parameter mit einer nominalen Kodierung berücksichtigt werden können. Die Untersuchungsergebnisse zeigen, dass das Verfahren zur Abbildung der Heterogenität dem Aquifer angepasst gewählt werden muss. Gauss-basierte Verfahren, wie Turning-Bands, sind demnach am ehesten für die Simulation von relativ homogenen Aquiferen geeignet, während bei sehr heterogenen Strukturen, d.h. großer Variabilität der Parameterwerte, am ehesten Indikator-basierte Verfahren in Frage kommen. Noch besser schneidet in diesem Fall die manuelle Zonierung ab, was vor allem damit zu erklären ist, dass bei sehr heterogenen Untergrundverhältnissen v.a. die Struktur mit eventuell nur deterministisch erfassbaren übergeordneten Elementen von ausschlaggebender Bedeutung ist. Als Simulationsverfahren mit dem größten Entwicklungspotential kann man generell diejenigen Verfahren ansehen, die auch nicht Gauss-verteilte Daten verwenden, wie z.B. die hier verwendeten Indikatorbasierten Verfahren. Als ebenfalls sehr gut geeignete Verfahren stellten sich Simulated Annealing in der Variante als Postprozessor zusammen mit einem frei definierbaren ’Trainingsbild’ dar. Die Untersuchungsergebnisse zeigten aber auch, dass neben der Wahl der geeigneten mathematischen Methoden eine weitere grundlegende Bedingung erfüllt sein muss, nämlich ein widerspruchsfreies und stimmiges, an den Einsatzzweck angepasstes konzeptionelles hydrogeologisches Modell. Zu dessen Konzeption muss der Anwender bzw. Modellierer über Kenntnisse der großräumigen Strukturen verfügen, die sich aus der Genese des Untergrundes ergeben und nur durch eine fachliche Interpretation erreichbar sind. Hierzu gehören Schichtungen, Paläorinnen, anisotrope Bodeneigenschaften durch Terrassierung, usw.. Die Einbeziehung dieser Expertenkenntnisse, sowie die Sicherstellung eines geeigneten hydrogeologischen Modells für die numerische Modellierung sind Themenbereiche, die im Zusammenhang mit einer Unsicherheitsanalyse noch erheblichen Forschungsbedarf aufweisen.
In dieser Arbeit wird gezeigt, wie durch eine Automatisierung von Software-Entwicklungsaktivitäten sowohl Effizienz- als auch Qualitätsgewinne erzielt und komplexe Aktivitäten beherrschbar gemacht werden können. Dazu wird zunächst eine solide Basis für eine modellbasierte Software-Entwicklung geschaffen. Nach der Identifikation der Probleme der bisher üblicherweise eingesetzten Metamodellierung wird eine verbesserte Multiebenenmodellierung vorgeschlagen, welche die explizite Angabe der Instanziierbarkeit (Tiefe und Automatismus der Instanziierung) der Modellelemente erlaubt und damit eine deutliche Vereinfachung und bessere Verständlichkeit der Metamodelle ermöglicht. Zur operationalen Beschreibung von Modelltransformationen im Kontext dieser Multiebenenmodellierung wird sodann die Aktionssprache AL++ konzipiert. Insbesondere durch die Einführung von Sprachelementen für die Handhabung von Relationen und Attributen und die Aufnahme von Reflexionskonstrukten in die Sprache AL++ werden Transformationen kompakt und generisch beschreibbar. Anwendung finden diese Ansätze in der modellbasierten Entwicklung reaktiver Systeme. Dazu wird eine existierende Entwicklungsmethode erweitert, um eine durchgängige Automatisierung realisieren zu können. Die wichtigste Erweiterung ist dabei die modifizierte Automatenmodellierung, bei welcher erweiterte Endliche Automaten durch die Komposition getrennt modellierter Zustandsübergänge spezifiziert werden, was eine eindeutige Verfolgbarkeit zu den Anforderungen erlaubt. Eingesetzt werden obige Techniken für die statische Analyse von Spezifikationen, wobei insbesondere die automatische Detektion von Feature-Interaktionen (also die Feststellung kritischer Wechselwirkungen zwischen Produktmerkmalen) in dieser Form erstmalig für den Bereich der reaktiven Systeme durchgeführt wird. Daneben werden automatisierte dynamische Analysen auf der Basis generierter Prototypen betrachtet. Die Analyseergebnisse können automatisiert für die Modifikation und Neukonstruktion der Prototypen genutzt werden, womit Software-Entwicklungsexperimente vollständig in einem „virtuellen Labor“ durchgeführt werden können. Wichtigstes experimentelles Ergebnis ist, dass eine statische Parametrisierung einer „intelligenten“ Temperaturregelung möglich ist und daher eine Reduktion der notwendigen Produktmerkmale (und damit der Komplexität) erreicht werden kann. In Fallstudien wird am Ende der Arbeit nachgewiesen, dass alleine durch die automatische Erzeugung von Entwicklungsdokumenten und die konsistente Änderung vorhergehender Dokumente durch die in dieser Arbeit implementierten Werkzeuge ein Effizienzgewinn von 54 % erreicht werden kann. Die Erstellung der eingesetzten Werkzeuge hätte sich dabei bereits nach zwei ähnlichen Projekten bezahlt gemacht.
Im Hinblick auf die Gewichtsreduktion am Gesamtfahrzeug zur Verbesserung der Fahrdy-namik und zur Reduktion des Kraftstoffverbrauchs wurde ein Vierzylinder-Kurbelgehäuse auf Basis des leichten Konstruktionswerkstoffs Magnesium konzipiert und konstruiert. Unter der Zielvorgabe einer spezifischen Leistung von mindestens 65 kW/l lag der Fokus auf einer zum Serienmotor mindestens gleichwertigen Belastbarkeit und Akustik und auf der Behebung der Kriech- und Korrosionsproblematik von Magnesium. Durch die Kombination verschiedener Leichtbauprinzipien wie Konzept-, Gestalt- und Ver-bundleichtbau, ist es mittels lokalem Werkstoffengineering gelungen, die Nachteile des Mag-nesiums zu kompensieren und seine Vorteile bestmöglich zu nutzen. Das Ergebnis ist ein zur Aluminiumbasis um ca. 6,5kg und zur Graugussbasis um ca. 23kg leichteres Magnesi-um-Hybrid-Zylinderkurbelgehäuse. Die short-skirt Bauweise in Verbindung mit einem zur Ölwanne nahezu komplett geschlossenen Bedplate ergibt ein hochsteifes Kurbelgehäuse mit einer im Vergleich zum Serien-Aluminium-ZKG höheren Belastbarkeit. Das flexible Kurbel-gehäusekonzept ermöglicht es ausserdem, auf Basis des für Magnesium sehr wirtschaftli-chen Druckgussverfahrens, Zylinderkurbelgehäuse sowohl in open-deck als auch in closed-deck-Bauweise herzustellen. Kernstück des neuen Motorblocks ist ein multifunktionaler, 3,8kg leichter Zylindereinsatz aus Aluminium, der die Funktion der Zylinderlaufbahn, der Zylinderkopf- und Hauptlagerver-schraubung sowie der Kühlwasserführung übernimmt. Zur Verbesserung der Verbundeigen-schaften zwischen dem Zylindereinsatz und dem umgebenden Magnesium wurden umfang-reiche Gießversuche und metallographische Untersuchungen durchgeführt. Eine durch Plasmaspritzen aufgebrachte AlSi12-Beschichtung erzielte schließlich die besten Ergebnisse in Bezug auf ertragbare Zug- und Schubbelastungen in der Verbundzone. Zur Absicherung des Herstellungsprozesses wurden mit der Finite Elemente Methode ver-schiedene Abstützvarianten des closed-deck-Zylindereinsatzes für das prozesssichere Ein-gießen im Druckguss untersucht. Die Befüllung des Einsatzes mit Sand erwies sich dabei als die robusteste Lösung und wurde später in den Gießversuchen umgesetzt. Der Festigkeitsnachweis für das Magnesium-Hybrid-Zylinderkurbelgehäuse wurde mit Hilfe der Finite Elemente Methode unter Einbeziehung der Ergebnisse der metallographischen Untersuchungen sowie unter Berücksichtigung nichtlinearer Werkstoffkennwerte und der Kriechproblematik von Magnesium erbracht. Ausgangspunkt für den Festigkeitsnachweis waren Eigenspannungsberechnungen, die das Abkühlen der Gussteile aus der Gießhitze, eine Warmauslagerung und die Bearbeitung der wichtigsten Funktionsflächen beinhaltete. Der Nachweis für die Dauerhaltbarkeit der Lagerstühle des Kurbelgehäuses wurde erbracht. Parameterstudien zeigten dabei einen positiven Einfluss der Eigenspannungen und eine geringe Sensitivität der Konstruktion in Bezug auf Reibungsvariationen zwischen Umguss und Eingussteilen. Kriechdehnungen im Bereich der Hauptlagerverschraubungen führten allerdings bei Verwendung der Standard Magnesiumlegierung AZ91 nach 500 Stunden bei 150°C zu einem Abfall der Schraubenvorspannkräfte um bis zu 75%. Es konnte gezeigt wer-den, dass dieses Problem bei Verwendung von kriechfesteren Legierungen (z.B. MRI 153M) mit ca. 10-20fach besserer Kriechfestigkeit bzw. Relaxationsbeständigkeit behoben werden kann. Der rechnerisch erbrachte Nachweis für die Dauerhaltbarkeit des Zylinderkurbelgehäuses konnte kurz vor Fertigstellung dieser Arbeit in einem Motorversuch (Polyzyklischer Dauer-lauf, 100h) bestätigt werden. Der Motor zeigte nach Ende der Laufzeit keine Auffälligkeiten und konnte weiter betrieben werden.
Es wurde ein fahrzeugtaugliches SCR-Gesamtsystem auf der Basis von trockenem Harnstoff dargestellt, bei dem die Reduktionsmittelaufbereitung in einem elektrisch beheizten Reaktor erfolgt. Trockener Harnstoff bietet gegenüber der wässrigen Harnstofflösung eine Gewichtsersparnis von 67,5% und eine uneingeschränkte Wintertauglichkeit. Im externen Reaktor wird der Harnstoff unter stets optimalen Reaktionsbedingungen zersetzt. Der Harnstoff wird in Form von runden Pellets in einem Größenspektrum von 1,8-2,0 mm eingesetzt. Die Dosierung erfolgt durch Vereinzeln der Pellets mit einem Zellenraddosierer. Der Harnstoffmengenstrom wird durch Veränderung der Pausenzeit zwischen zwei Einzelportionen angepasst. Mit dem Dosiersystem ist die Reduktionsmittelversorgung im gesamten Motorkennfeld gewährleistet. Der Transport der Pellets vom Dosierer zum Reaktor erfolgt sequenziell durch eine Leitung nach dem Blasrohrprinzip mittels Druckluft. Die Druckluft wird durch einen Kompressor bereitgestellt. Das Förderprinzip ermöglicht einen Pellettransport über mehrere Meter, wobei Krümmungsradien bis 40 mm und vertikale Förderung entgegen der Schwerkraft unproblematisch sind. Der Reaktor besteht aus einer Thermolysekammer mit elektrisch auf 400°C beheizten Wänden und einem nachgeschalteten Hydrolysekatalysator. Die Harnstoffpellets werden in die Kammer eingebracht und thermisch zersetzt. Das für die Hydrolyse benötigte Wasser wird durch einen Abgasteilstrom bereitgestellt, der in die Thermolysekammer eingekoppelt und dort ebenfalls aufgeheizt wird. Die Zersetzungsprodukte Ammoniak und Kohlendioxid werden in den Abgashauptstrom eingebracht. Mit dem Gesamtsystem werden unter optimalen Randbedingungen NOx-Konvertierungsraten über 99% erreicht. Die NOx - und NH3-Bilanz zeigt allerdings, dass der Reduktionsmittelnutzungsgrad lediglich bei etwa 85% liegt. Im Hydrolysekatalysator wird ein Anteil des Ammoniaks oxidiert. Ein weiterer Teil wird durch Nebenreaktionen am SCR-Katalysator verbraucht. Das Verhalten des SCR-Katalysators unter dynamischen Betriebsbedingungen wurde mit Hilfe eines mathematischen Modells diskutiert. Das NH3-Adsorptionsvermögen des SCR-Katalysators nimmt mit steigender Temperatur stark ab. Gleichzeitig wird bei niedrigen Temperaturen bis etwa 250°C ein vergleichsweise hohes NH3-Beladungsniveau benötigt, um maximale NOx-Konvertierung zu erzielen. Bei höheren Temperaturen verläuft die SCR-Reaktion hingegen spontan in einer kurzen Reaktionszone am Katalysatoreintritt. Bei einem Wechsel des Motorbetriebspunktes von niedriger auf hohe Last steigt die Katalysatortemperatur schnell an. Das Adsorptionsvermögen des Katalysators nimmt ab. Wenn die eingespeicherte Reduktionsmittelmenge nicht in der SCR-Reaktion verbraucht wird, kommt es zu NH3-Schlupf. Bei niedrigeren Temperaturen muss daher die NH3-Beladung begrenzt werden. Dies hat allerdings eine verminderte NOx-Konvertierung zur Folge. Der Einfluss verschiedener Parameter auf den NOx-Umsatz und den Reduktionsmittelverbrauch wurde anhand des MVEG-Zyklus diskutiert. Durch kurzzeitige Hochdosierung und anschließende Anpassung der Reduktionsmittelmenge an den momentanen Umsatz wird die beste Ausnutzung des eingebrachten Reduktionsmittels erzielt. Ein optimierter NO2-Anteil bewirkt insbesondere in der Startphase eine höhere NOx-Konvertierungsrate. Ein größerer SCR-Katalysator vermindert die NH3-Schlupfgefahr. Die Reduktionsmittelausnutzung nimmt jedoch ab, so dass ein größerer Reduktionsmittelanteil im Katalysator verbleibt. Durch motornahe Positionierung erfährt der SCR-Katalysator ein höheres Temperaturkollektiv. Der NOx-Umsatz steigt dadurch deutlich. Gleichzeitig ist die im Katalysator verbleibende Reduktionsmittelmenge geringer. Dies erlaubt eine einfache Dosierstrategie, bei der sich die Reduktionsmitteldosierung an der momentanen Stickoxidkonvertierung orientiert. Für das Gesamtsystem wurde eine Betriebsstrategie erarbeitet, die gezielt auf die funktionalen Grenzen der Systemkomponenten abgestimmt ist. Die zugrunde liegende Emissionsminderungsstrategie sieht eine konstante fahrstreckenbezogene NOx-Minderung in allen Betriebszuständen vor. Hierdurch ist es möglich, sowohl alle für die Zertifizierung erforderlichen Abgasgrenzwerte zu unterschreiten, als auch eine deutliche Emissionsminderung außerhalb der prüfrelevanten Fahrzyklen zu erzielen. Gleichzeitig kann für eine definierte Fahrstrecke die mitzuführende Reduktionsmittelmenge genau vorhergesagt werden. Das Gesamtsystem wurde in einem EURO III-Versuchsfahrzeug auf dem Rollenprüfstand sowie im Straßenverkehr betrieben. Im Rahmen der bisherigen Tests konnte die Systemfunktion nachgewiesen werden. Im MVEG-Zyklus wird der EURO IV-NOx-Grenzwert mit vorkonditioniertem SCR-Katalysator knapp unterschritten. Durch eine gezielte Abstimmung des Motors auf die Erfordernisse des Abgasnachbehandlungssystems und eine Optimierung des NO2-Anteils ist eine weitere Absenkung des Emissionsniveaus möglich.
Untersuchung des Stoffübergangs bei der Trennung von Kobalt und Nickel durch Reaktivextraktion
(2004)
Die Trennung von Kobalt und Nickel in reine Komponenten ist schwierig auf Grund ihres ähnlichen physiko-chemischen Verhaltens. Die Reaktivextraktion bietet hierfür eine geeignete Prozessvariante. Im Rahmen dieser Arbeit wurde der Stoffübergang bei der Trennung von Kobalt und Nickel aus wässrigen Lösungen mit Hilfe der Reaktivextraktion untersucht. Die bei der Auslegung von Extraktoren wichtigen Kinetikdaten wurden in gängigen Standardapparaturen ermittelt. Neben den Gleichgewichten ? dem treibenden thermodynamischen Gefälle für den Stofftransport ? wurden in Tropfensäulen und Rührzellen kinetische Parameter ermittelt. Die Modellierung der experimentell ermittelten Gleichgewichtsdaten basiert auf einem thermodynamischen Modell, welches den Pitzer Ansatz, für Elektrolytlösungen, und den Ansatz von Hildebrand-Scott für organische Phasen berücksichtigt. Diese Modelle geben die Gleichgewichtsdaten zufriedenstellend wieder. Das Extraktionsverhalten wurde bis zu technisch relevanten Konzentrationen untersucht, der Maximalbeladung des organischen Ionentauschers. Auf Grund dieser eingesetzten Konzentrationen und der damit einhergehenden Vorkontaktierung des Ionentauschers mit Lauge, um einen pH-Wert Abfall bei der Extraktion abzupuffern, kam es zu Stabilitäts-phänomenen, die die Verwendung der Standardapparaturen nur eingeschränkt zulassen. Der Ionentauscher verhält sich bei hohen Vorkontaktierungsstärken als Tensid, bildet unterschiedliche Mizellformen in wässrigen und organischen Phasen, und zeigt einen Phasenzerfall, wie es von Winsor-Systemen bekannt ist. Daher wurde das Phasenverhalten in Abhängigkeit der Tensidkonzentration untersucht, es wurden vier Gebiete identifiziert, in denen das Stoffsystem 1 bis 4 phasig vorliegt. Eine Screening Apparatur wurde entworfen, mit der, bei technisch relevanten Vorkontaktierungen, unabhängig vom Phasenverhalten kinetische Aufschlüsse des Systems gewonnen werden können. Die Kontaktzeit zum Erreichen von 80 % des Gleichgewichtswertes schwankt je nach Konzentration von 20-60 s für Kobalt und Nickel. Über eine Einstellung der Verweilzeit ist es nicht möglich, eine zusätzliche Selektivität über das Gleichgewicht hinaus einzustellen, da bei niedrigen Kontaktzeiten ein Überschwingen der Nickelkonzentration über den Gleichgewichtswert hinaus in der organischen Phase auf Grund von Mizellbildung zu beobachten ist. Für die Kolonnenauslegung eines Reaktivextraktionsprozesses mit Phosphinsäuren ist der auftretende Phasenzerfall bei hohen Vorkontaktierungen unbedingt zu berücksichtigen, um Ablagerungen von Ionentauschersalz an Kolonneneinbauten zu vermeiden.
Der `aryl hydrocarbon´-Rezeptor (AhR) ist ein Ligand aktivierter Transkriptionsfaktor, der durch Bindung an spezifische DNA-Elemente (`xenobiotic responsive elements´ (XREs)) Einfluss auf die Expression einer Vielzahl von Genen u.a. Cytochrom P450 (CYP) 1A hat. Liganden des AhR sind unter anderem aromatische halogenierte Kohlenwasserstoffe (z.B: 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD)), polyzyklische aromatische Kohlenwasserstoffe und Pharmazeutika. Natürliche Liganden wie Indolderivate sind ebenfalls bekannte AhR-Liganden. In dieser Arbeit sollte im ersten Teil geklärt werden, inwieweit die in pflanzlichen Lebensmitteln vorkommende Furocumarine Angelicin, Bergamottin, Isopimpinellin und 8-Methoxypsoralen (8-MOP) den AhR-Signaltransduktionsweg und das CYP1A Enzym in Abhänigkeit von den Lichtverhältnissen beeinflussen. Hierbei zeigen alle untersuchten Furocumarine einen Licht- und konzentrationsabhängigen inhibitorischen Effekt auf die CYP1A-vermittelte EROD-Aktivität sowohl in mit TCDD koinkubierten Rattenhepatozyten in Primarkultur als auch in Mikrosomen aus mit TCDD inkubierten primären Rattenhepatozyten, die mit dem Furocumarin präinkubiert wurden. Bergamottin ist der potenteste Inhibitor mit einem IC50-Wert von 0,01 µM in Mikrosomen bei Licht. Angelicin, Isopimpinellin und 8-MOP sind unter Lichtausschluss im XRE-gesteuerten Reportergen-Assay in der Lage, den AhR zu aktivieren. Western Blot Analysen zeigen eine Induktion der CYP1A1 Proteinexpression unter den gleichen Bedingungen. Bergamottin ist in keinem untersuchten System in der Lage, den AhR zu aktivieren, steigert aber die CYP1A1 Proteinexpression, was für einen unterschiedlichen mechanistischen Verlauf im Vergleich mit den anderen untersuchten Furocumarinen spricht. Die CYP1A1 mRNA korreliert nur teilweise mit diesen Daten, was unter anderem mit der Zeitabhängigkeit der durchgeführten Untersuchungen begründet werden kann. Die hier verwendeten Substanzen sind somit unter Lichtausschluss `Suizid´Inaktivatoren des CYP1A1, indem sie ihren eigenen Metabolimus durch Aktivierung des AhR-Signalweges katalysieren. Im zweiten Teil dieser Arbeit wurden Tryptophan-Metabolite durch Fermentation von Rattenfeces mit Tryptophan generiert und die Methodik zur Anreicherung und Charakterisierung optimiert. Trotz der Optimierung der einzelnen Verfahrensschritte konnte aufgrund der geringen zur Verfügung stehenden Menge und der starken Matrix-bedingten Verunreinigungen der EROD-aktiven Substanzen keine Charakterisierung vorgenommen werden. Die optimierte HPLC-Analyse ermöglicht die Abtrennung anteilsmäßig großer Verunreinigungen. Außerdem kann durch die hier entwickelte Selektion von Bakterienkulturen aus Rattenfeces auf den Einsatz frischer Feces verzichtet werden. Des Weiteren lässt sich die Ausbeute an dem gewünschten Produkten erhöhen, indem Kulturen eingesetzt werden, die zu einer Steigerung an gebildeten EROD-aktiven Verbindungen führte, was eine Charakterisierung vereinfachen könnte.
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
Bei den "traditionellen" Reduktionsmittelaufbereitungssystemen, die die Abgaswärme zur Zersetzung des Harnstoffs ausnutzen, wird der Harnstoff entweder in Form einer wässrigen Lösung oder in Pulverform direkt vor dem SCR-Katalysator in das Abgassystem eingebracht. Der zudosierte Harnstoff wird im Abgas in zwei Reaktionsschritten (Thermolyse, Hydrolyse) thermisch zersetzt, wobei die Abgastemperatur einen entscheidenden Einfluss auf die Harnstoffzersetzungskinetik besitzt. Bei der Thermolyse entstehen aus dem Harnstoff die Produkte Ammoniak und Isocyansäure, wobei die Isocyansäure mit Wasser bei der Hydrolyse zu Ammoniak und Kohlendioxid reagiert. Wie Versuchsergebnisse demonstrieren, kann die Gesamtperformance von SCR-Katalysatorsystemen verbessert werden, wenn statt Harnstoff gasförmiges Ammoniak in das Abgassystem eingebracht wird, da so der komplette Harnstoffzersetzungsmechanismus entfällt. Dem in dieser Arbeit untersuchten Verfahren zur thermischen Trockenharnstoffzersetzung lag deshalb die Überlegung zu Grunde, den Harnstoffzersetzungsprozess vom Abgassystem zu entkoppeln und in einem externen elektrisch beheizten Reaktor zu realisieren. Ein solches System besitzt den entscheidenden Vorteil, dass die Zersetzungstemperatur und die Verweilzeit für die Reaktion so eingestellt werden können, dass unabhängig vom aktuellen Motorbetriebspunkt immer eine optimale Harnstoffzersetzung gewährleistet wird. Aus den Bruttoumsatzgleichungen für die beiden Reaktionen geht hervor, dass ohne eine Zufuhr von Wasser in den Reaktor nur die Thermolyse ablaufen kann, d.h. es entsteht ein Gemisch aus Ammoniak und Isocyansäure. Aus diesem Grund wird Wasser, das aus dem Verbrennungsprozess des Motors stammt, mit Hilfe eines Abgasteilstroms in den Reaktor eingeleitet. Eine Abschätzung zeigt, dass zu diesem Zweck ein Teilstrom in der Größenordnung von 1 % erforderlich ist. Da die Geschwindigkeit der Hydrolysereaktion in der Gasphase sehr gering ist, wurde der elektrisch beheizten Thermolysezone ein Hydrolysekatalysator nachgeschaltet. Die selektive Reaktion der Isocyansäure zu den Produktstoffen Ammoniak und Kohlendioxid ist für die Funktion des Harnstoffaufbereitungssystems von entscheidender Bedeutung, da ansonsten aus der sehr reaktiven Isocyansäure Polymerisationsprodukte gebildet werden, die zu festen Ablagerungen im System führen. Darüber hinaus hat sich im Rahmen des Entwicklungsprozesses gezeigt, dass die Thermolysezone so gestaltet sein muss, dass der Harnstoff in keinem Fall mit unbeheizten Flächen in Berührung kommen kann. Auf der Grundlage der Ergebnisse von thermogravimetrischen Versuchen wurde eine Heizflächentemperatur von 400 °C gewählt. Bei diesem System entstehen dann idealerweise ausschließlich die Produkte Ammoniak und Kohlendioxid, die mit Hilfe des Abgasteilstroms, der unter anderem auch als Trägergasstrom fungiert, in das Abgassystem eingeleitet werden. Von daher ist es mit einem System vergleichbar, bei dem gasförmiges Ammoniak dosiert wird. Der Harnstoff wird dem Reaktor in Form von Pellets in einem Größenspektrum von 1,8-2 mm zugeführt. Die Dosierung der Pellets erfolgt mit Hilfe eines Zellenraddosierers. Der Transport vom Dosierer zum Reaktor wird mittels Förderluft durch eine Leitung realisiert. Trockener Harnstoff bietet bezüglich der Masse und des Volumens Vorteile gegenüber der wässrigen Harnstofflösung. Darüber hinaus ist eine uneingeschränkte Wintertauglichkeit gewährleistet. Die Betriebsbereitschaft des Reaktors, die durch eine Heizflächentemperatur von 400 °C und eine Temperatur vor dem Hydrolysekatalysator oberhalb von 200 °C gekennzeichnet ist, wird nach 60-80 s erzielt. Im MVEG-Test liegt die mittlere gemessene Heizleistung im Bereich von 180 W. Anhand einer NOx-Umsatz- und NH3-Bilanz konnte gezeigt werden, dass der Harnstoff im Reaktor in die gewünschten Produkte NH3 und CO2 überführt wird. Mit dem Gesamtsystem werden sowohl bei kleinen als auch bei großen Dosiermengen gute Konvertierungsergebnisse erzielt. Unter optimalen Randbedingungen sind im Bereich der NH3-Schlupfgrenze NOx-Umsätze >95 % realisierbar. Insbesondere bei niedrigen Abgastemperaturen werden die Vorteile gegenüber der "klassischen" Flüssigdosierung deutlich. Die Betriebssicherheit des Gesamtsystems konnte durch einen 100 h-Dauertest nachgewiesen werden. Das Gesamtsystem wurde an einem Versuchsfahrzeug (Audi A8) appliziert. Im Rahmen des bisherigen Testprogramms konnte die Systemfunktion nachgewiesen werden. Der EURO IV Grenzwert wird erreicht. Zur Aktivitätssteigerung müssen vor allem die Abgastemperatur angehoben und der NO2-Verlauf im Zyklus optimiert werden. Zusätzlich muss die Dosierstrategie so optimiert werden, dass am Umsatz und Schlupfrisiko orientiert immer ein optimaler NH3-Füllstand im Katalysator vorliegt.
In traditional portfolio optimization under the threat of a crash the investment horizon or time to maturity is neglected. Developing the so-called crash hedging strategies (which are portfolio strategies which make an investor indifferent to the occurrence of an uncertain (down) jumps of the price of the risky asset) the time to maturity turns out to be essential. The crash hedging strategies are derived as solutions of non-linear differential equations which itself are consequences of an equilibrium strategy. Hereby the situation of changing market coefficients after a possible crash is considered for the case of logarithmic utility as well as for the case of general utility functions. A benefit-cost analysis of the crash hedging strategy is done as well as a comparison of the crash hedging strategy with the optimal portfolio strategies given in traditional crash models. Moreover, it will be shown that the crash hedging strategies optimize the worst-case bound for the expected utility from final wealth subject to some restrictions. Another application is to model crash hedging strategies in situations where both the number and the height of the crash are uncertain but bounded. Taking the additional information of the probability of a possible crash happening into account leads to the development of the q-quantile crash hedging strategy.
Aufgrund der in der Extraktion vorkommenden physikalischen Vorgänge, wie Benetzung oder Koaleszenz, wird die Auslegung von Extraktionsprozessen auch in absehbarer Zukunft nicht ohne Laborversuche und Pilotierung in den entsprechenden Extraktionsapparaten auskommen. Eine Möglichkeit, die Anzahl an zeit- und kostenintensiven Versuchen in Technikumskolonnen zu verringern, bzw. ganz darauf zu verzichten, stellt der Einsatz von Miniplantextraktoren dar, die mit deutlich reduzierten Volumenströmen betrieben werden können. In dieser Arbeit wurde ein gerührter Miniplantextraktor der Bauart Kühni, mit einem Innendurchmesser von 32 mm, bezüglich Hydrodynamik und Stofftransport untersucht. Bei den Untersuchungen kam das für mittlere Grenzflächenspannungen von der EFCE empfohlene Teststoffsystem n-Butylacetat(d)–Wasser mit Aceton als Übergangskomponent zum Einsatz. Die sich in der Kolonne einstellende Hydrodynamik ist maßgeblich vom Koaleszenzverhalten dieses Stoffsystems abhängig. Beim Einsatz von undestilliertem Butylacetat wirkt sich die verschlechterte Koaleszenzneigung des Stoffsystems in der Ausbildung einer extremen, höhenabhängigen Zunahme des Dispersphasenanteils aus. Aufgrund der hohen Anzahl an einzelnen gerührten Compartments, kommt es schon bei moderaten Rührerdrehzahlen im oberen Teil der Kolonne zu Holdup-Werten nahe am Flutpunkt, während im unteren Teil der Kolonne die Tropfendispergierung unzureichend ist. Bei besser koaleszierenden Systemen ist die Holdup- Problematik in dieser Form nicht zu beobachten. Die Erhöhung der Compartmenthöhe erbrachte eine Steigerung der Belastbarkeit. Wird die freie Querschnittsfläche größer als 30% gewählt, so ist die Kolonne ähnlich belastbar wie eine Pilotkolonne mit Nenndurchmesser 150 mm. Bei den Untersuchungen zum Trennverhalten der Kolonne konnten, wie auch schon in den Arbeiten anderer Autoren, mit steigender Belastung Maxima im Verlauf der Trennwirkung beobachtet werden. Dieses atypische Verhalten der Trennleistung wird bei anderen Testgemischen nicht festgestellt. Eine Reduzierung der Compartmenhöhe wirkt sich im untersuchten Fall förderlich auf die Trennleistung aus. Bei optimalen Betriebsbedingungen liegt die Trennleistung des Miniplantextraktors bei ca. 8,5 Ntheo/m, also deutlich über der Trennleistung der Technikumskolonne. Zur Erklärung dieser erhöhten Trennleistung wurden einphasige Tracerexperimente zur Bestimmung des axialen Dispersionskoeffizienten der kontinuierlichen Phase durchgeführt. Es zeigt sich, dass die gemessenen Dispersionskoeffizienten im Schnitt ca. 3 mal kleiner sind, als in einer Technikumskolonne mit einem Nenndurchmesser von 150 mm. Basierend auf diesen Untersuchungen gelingt es, mit dem eindimensionalen Dispersionsmodell, die in der Kolonne gemessenen Konzentrationsverläufe zu beschreiben. Eine Möglichkeit, den dreidimensionalen Charakter der Strömung in einer Extraktionskolonne zu untersuchen, stellen die durchgeführten CFD-Simulationen dar. Sowohl in der Technikumskolonne, als auch im Miniplantextraktor induziert der Rührer eine torusförmige Strömung in einem Compartment. Ein Vergleich simulierter Axialgeschwindigkeiten mit PIV-Messungen, erbrachte eine zufrieden stellende Übereinstimmung. Die Analyse dieser Axialgeschwindigkeiten auf Stauscheibenhöhe in der Technikumskolonne, zeigt in bestimmten Bereichen deutliche Geschwindigkeitsüberhöhungen und Richtungsumkehr. In der Miniplantkolonne tritt dieser Effekt deutlich abgeschwächt auf, wodurch anzunehmen ist, dass diese "Nichtidealität" die Ursache für größere Dispersionskoeffizienten in Technikumskolonnen ist. Die Kombination aus Gittergröße im Miniplantextraktor und die in der Extraktion üblicherweise zu erwartenden Partikelgröße, beschränkt die Zweiphasensimulation auf die Berechnung des axialen Dispersionskoeffizienten der kontinuierlichen Phase. Die Simulation des Dispersionskoeffizienten der kontinuierlichen Phase, erbrachte mit dem Euler-Lagrange-Modell gute Ergebnisse. Analoge Simulationen mit einem vergrößerten Maßstab (Technikumskolonne mit Nennweite 150 mm) führten dagegen mit beiden Modellen zu deutlichen Abweichungen zu realen Dispersionskoeffizienten. Der für die Bestimmung der Umlaufzahl notwendige radiale Durchsatz des vom Rührer geförderten Volumenstroms, konnte mit CFD gut wiedergegeben werden. Die von Fischer experimentell bestimmten NEWTON-Zahlen werden in den Simulationen etwa 20-30% zu groß wiedergegeben.
Im Rahmen dieser Arbeit wurde versucht verschiedene Aspekte der Wirkung von "nicht-dioxinartigen" PCBs in Hepatozyten in vitro aufzuklären und mit einer in vivo-Studie einen Beitrag zur Aufklärung der tumorpromovierenden Wirkung von zwei "nicht-dioxinartigen" PCB-Kongeneren zu leisten. Zur Untersuchung der Beeinflussung der intrazellulären Calcium-Homöostase wurden isolierte Membranfraktionen einer Rattenleber nach dem Einbau von spinmarkierten Fettsäuren mit zwei PCB-Kongeneren unterschiedlicher räumlicher Struktur behandelt und mit Hilfe der Elektronen Spin Resonanz vermessen. Weder das "dioxinartige" PCB 126 noch das "nicht-dioxinartige" PCB 153 zeigten einen direkte Störung der Membranintegrität. Die Bestimmung der intrazellulären Ca2+-Konzentration von Rattenhepatozyten in Primärkultur erfolgte mikrofluorimetrisch nach Beladung der Zellen mit einem Ca2+-sensitiven Farbstoff. Auch hier ergab sich keine Störung der Ca2+-Homöostase nach einer Behandlung mit PCB 153. Die Beeinflussung eines apoptotischen Signalweges, die Signaltransduktion über PI3K/PKB, wurde anhand der Phosphorylierung des proapoptotischen Proteins Bad in Rattenhepatozyten in Primärkultur überprüft. PCB 153 zeigte in niedrigen Konzentrationen eine Phosphorylierung von Bad an Serin 136. Der Gesamtproteinlevel war nach Behandlung mit PCB 153 in einigen Versuchen sehr stark reduziert. Diese Befunde stellen einen wichtigen Ansatzpunkt für eingehendere mechanistische Untersuchungen der tumorpromovierenden Wirkung dieser Substanzen dar, der im Rahmen dieser Arbeit nicht mehr verfolgt werden konnte. Mit einem Caspase-3-Assay konnte in vorliegender Arbeit ein biochemischer Apoptose-Nachweis in primären Hepatozyten etabliert werden. Die Topoisomerase-Inhibitoren Etoposid und Camptothecin zeigten sich zur Aktivierung der Caspase-3 als weniger gut geeignet. Der Einsatz von MNNG als apoptogenem Agens verlief erfolgreich, was durch fluoreszenzmikroskopische Detektion apoptotischer Zellkerne bestätigt werden konnte. Im weiteren Verlauf wurde die Beeinflussung der MNNG-induzierten Caspase-3-Aktivierung durch verschiedene Tumorpromotoren untersucht. Mit Phenobarbital und dem "nicht-dioxinartigen" PCB 153 konnte eine Hemmung der MNNG-induzierten Caspase-3-Aktivität gezeigt werden. Dieser Effekt wurde bei Behandlung mit TCDD und dem "dioxinartigen" PCB 126 jedoch nicht gesehen. Die Überprüfung dieser Ergebnisse in einem weiteren biochemischen Nachweis der Apoptose, der Freisetzung von Cytochrom c aus den Mitochondrien, konnte nicht mehr in ausreichendem Maße durchgeführt werden. In einer an weiblichen Wistar-Ratten durchgeführten Initiations-Promotions-Studie zeigte sich eine schwache tumorpromovierende Wirkung der beiden "nicht-dioxinartigen" PCB-Kongenere 28 und 101. Das promovierende Wachstum wurde anhand zweier charakteristischer Parameter für Präneoplasien der Leber, einer verringerten ATPase-Aktivität und einer erhöhten Expression der GSTP, nach vorangegangener Behandlung mit DEN untersucht. Es konnte für beide Kongenere eine signifikante Zunahme des ATPase-negativen Focusvolumens, nicht aber der Zahl der ATPase-negativen Foci gezeigt werden. GSTP-positive Foci zeigten kein signifikantes promovierendes Wachstum. Nach Behandlung mit PCB 28 war eine Zunahme des relativen Lebergewichts zu verzeichnen. Eine erhöhte DNA-Synthese in GSTP-positiven Zellen konnte nicht gezeigt werden. Eine Analyse der PCB-Gehalte im hepatischen Gewebe der Versuchstiere ergab eine 5-13-fach höhere Akkumulation von PCB 28, möglicherweise resultierend aus einer schnelleren Metabolisierung von PCB 101. Entstehende Metabolite wurden im Rahmen dieses Versuchs jedoch nicht analytisch erfasst. Es zeigte sich eine Induktion der PROD durch PCB 28 und 101, auch die EROD konnte durch beide Kongenere induziert werden, wobei die Induktion durch PCB 28 hier wesentlich höher lag. Da die Induktionshöhe der EROD jedoch sehr gering ist, können die Kongenere nicht als "mixed type inducer" angesehen werden.