Refine
Year of publication
- 2008 (63) (remove)
Document Type
- Doctoral Thesis (63) (remove)
Has Fulltext
- yes (63)
Keywords
- Streptococcus pneumoniae (4)
- Cluster (3)
- Clusterion (3)
- Eisen (3)
- Finite-Elemente-Methode (3)
- Gasphase (3)
- Massenspektrometrie (3)
- Materialermüdung (3)
- Visualisierung (3)
- Adipinsäure (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Kaiserslautern - Fachbereich Mathematik (15)
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Informatik (5)
- Kaiserslautern - Fachbereich ARUBI (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
Nanotechnology is now recognized as one of the most promising areas for technological
development in the 21st century. In materials research, the development of
polymer nanocomposites is rapidly emerging as a multidisciplinary research activity
whose results could widen the applications of polymers to the benefit of many different
industries. Nanocomposites are a new class of composites that are particle-filled
polymers for which at least one dimension of the dispersed particle is in the nanometer
range. In the related area polymer/clay nanocomposites have attracted considerable
interest because they often exhibit remarkable property improvements when
compared to virgin polymer or conventional micro- and macro- composites.
The present work addresses the toughening and reinforcement of thermoplastics via
a novel method which allows us to achieve micro- and nanocomposites. In this work
two matrices are used: amorphous polystyrene (PS) and semi-crystalline polyoxymethylene
(POM). Polyurethane (PU) was selected as the toughening agent for POM
and used in its latex form. It is noteworthy that the mean size of rubber latices is
closely matched with that of conventional toughening agents, impact modifiers.
Boehmite alumina and sodium fluorohectorite (FH) were used as reinforcements.
One of the criteria for selecting these fillers was that they are water swellable/
dispersible and thus their nanoscale dispersion can be achieved also in aqueous
polymer latex. A systematic study was performed on how to adapt discontinuousand
continuous manufacturing techniques for the related nanocomposites.
The dispersion of nanofillers was characterized by transmission, scanning electron
and atomic force microcopy (TEM, SEM and AFM respectively), X-ray diffraction
(XRD) techniques, and discussed. The crystallization of POM was studied by means
of differential scanning calorimetry and polarized light optical microscopy (DSC and
PLM, respectively). The mechanical and thermomechanical properties of the composites
were determined in uniaxial tensile, dynamic-mechanical thermal analysis
(DMTA), short-time creep tests, and thermogravimetric analysis (TGA).
PS composites were produced first by a discontinuous manufacturing technique,
whereby FH or alumina was incorporated in the PS matrix by melt blending with and
without latex precompounding of PS latex with the nanofiller. It was found that direct melt mixing (DM) of the nanofillers with PS resulted in micro-, whereas the latex mediated
pre-compounding (masterbatch technique, MB) in nanocomposites. FH was
not intercalated by PS when prepared by DM. On the other hand, FH was well dispersed
(mostly intercalated) in PS via the PS latex-mediated predispersion of FH following
the MB route. The nanocomposites produced by MB outperformed the DM
compounded microcomposites in respect to properties like stiffness, strength and
ductility based on dynamic-mechanical and static tensile tests. It was found that the
resistance to creep (summarized in master curves) of the nanocomposites were improved
compared to those of the microcomposites. Master curves (creep compliance
vs. time), constructed based on isothermal creep tests performed at different temperatures,
showed that the nanofiller reinforcement affects mostly the initial creep
compliance.
Next, ternary composites composed of POM, PU and boehmite alumina were produced
by melt blending with and without latex precompounding. Latex precompounding
served for the predispersion of the alumina particles. The related MB was produced
by mixing the PU latex with water dispersible boehmite alumina. The composites
produced by the MB technique outperformed the DM compounded composites in
respect to most of the thermal and mechanical characteristics.
Toughened and/or reinforced PS- and POM-based composites have been successfully
produced by a continuous extrusion technique, too. This technique resulted in
good dispersion of both nanofillers (boehmite) and impact modifier (PU). Compared
to the microcomposites obtained by conventional DM, the nanofiller dispersion became
finer and uniform when using the water-mediated predispersion. The resulting
structure markedly affected the mechanical properties (stiffness and creep resistance)
of the corresponding composites. The impact resistance of POM was highly
enhanced by the addition of PU rubber when manufactured by the continuous extrusion
manufacturing technique. This was traced to the dispersed PU particle size being
in the range required from conventional, impact modifiers.
Kohlenstofffaserverstärkte Kunststoffe verfügen über eine hervorragende Leichtbaugüte
und weisen unter zyklischer Beanspruchung ein gegenüber metallischen
Werkstoffen günstigeres Schwingermüdungsverhalten auf. Aus diesen Gründen
erlangen derartige Konstruktionswerkstoffe zunehmend an Bedeutung für maschinenbauliche
Anwendungen, bei denen die tragenden Strukturen zeitweise hohe
Beschleunigungen erfahren und über die Einsatzdauer oftmals durch sich wiederholende
Belastungsfolgen beansprucht werden. Innerhalb des Entwicklungsprozesses
solcher Strukturen reicht eine globale strukturmechanische Auslegung meist nicht
aus. Vielmehr müssen für das Erzielen einer optimierten und wirtschaftlichen Lösung
strukturelle Details, wie insbesondere lokale Lasteinleitungen, sorgfältig betrachtet
werden. Darüber hinaus ist die Kenntnis der voraussichtlichen Einsatzdauer (Lebensdauer)
der Struktur inklusive der Anbindungspunkte sowohl aus Kostensicht als
auch aus Sicherheitsaspekten erforderlich. Für den konstruierenden Ingenieur
müssen daher robuste und zuverlässige Lasteinleitungslösungen entwickelt und
aussagefähige Berechnungswerkzeuge zur Lebensdauervorhersage von Faser-
Kunststoff-Verbunden bereitgestellt werden.
Im ersten Teil der vorliegenden Arbeit wurden für Getriebekomponenten in Kohlenstofffaser-
Verbund-Bauweise anforderungsgerechte Lösungen zur Einleitung hoher
zyklischer Kräfte erarbeitet. Dabei wurden die Integration von Zylinderrollenlagern
durch mechanisches Einpressen und das Tragverhalten von direkt in den Verbund
eingeschraubten Gewindeeinsätzen untersucht. Zur Auslegung der Lagerfügung
wurde ein analytisches Modell entwickelt, anhand dessen die erforderlichen Passungstoleranzen
ermittelt und die daraus resultierende Fugenpressung abgeschätzt
werden konnte. Weiterhin konnte mit Hilfe von Lichtmikroskopieuntersuchungen ein
schädigungsfreies Fügen des Lagers nachgewiesen werden. Anhand quasistatischer
Auszugsversuche an repräsentativen Probekörpern mit eingeschraubten
Gewindeeinsätzen wurde das charakteristische Tragverhalten der gewählten Verschraubung
beschrieben. Durch Auszugversuche nach zyklischer Vorbelastung
konnte eine Resttragfähigkeit der Verbindung abgeschätzt werden, die im Betrag
deutlich über der im Betrieb einzuleitenden Anbindungskraft liegt. Der abschließende
Tragfähigkeitsnachweis der entwickelten Lasteinleitungslösungen erfolgte an Getriebekomponenten mit mechanisch gefügten Lagern und eingeschraubten Gewindeeinsätzen
in einem Technikumsprüfstand unter realen Betriebsbedingungen.
Den zweiten Schwerpunkt der Arbeit stellte die Erweiterung der Methodik zur
rechnerischen Lebensdauervorhersage von Mehrschichtverbunden unter Schwingermüdungsbeanspruchung
durch die Berücksichtigung werkstofflicher Nichtlinearitäten
und Delaminationsschädigungen dar. Die Modellierung des nichtlinearen Werkstoffverhaltens
erfolgte dabei basierend auf einer experimentellen Charakterisierung
eines zähmodifizierten Vinylester-Urethan-Hybrid-Harzsystems mit Kohlenstofffaserverstärkung.
In der Modellierung wurde das nichtlineare Verhalten der für die Lebensdauerberechnung
relevanten Werkstoffkenngrößen erfasst. Darüber hinaus
wurde der Steifigkeitsabfall eines quasi-isotropen Laminats unter Einstufenbelastung
experimentell bestimmt und anhand einer geeigneten mathematischen Formulierung
beschrieben. Aufgrund von dabei beobachteten großflächigen und mitunter vollständigen
Schichttrennungen wurde ein Ansatz zur mechanischen Beschreibung von
Laminaten mit Delaminationsschädigungen auf Grundlage der Klassischen Laminattheorie
entwickelt. Ein vorhandenes Lebensdaueranalyseprogramm auf dem
Prinzip des „critical element“-Konzepts wurde um einen Berechnungskern zur
schichtenweisen Versagensanalyse ergänzt. Die genannten Erweiterungen umfassten
Module zur nichtlinearen Spannungsanalyse auf Basis der Sekanten-Modul-
Iterationstechnik, zur Vorhersage von Zwischenfaserbruch-Versagen nach dem
Wirkebenenkriterium von Puck und zur Degradation von Steifigkeitskomponenten
nach dem Auftreten von Zwischenfaserbrüchen.
Anhand einfacher Berechnungsbeispiele wurde nachfolgend der Einfluss der werkstofflichen
Nichtlinearitäten auf die rechnerische Lebensdauervorhersage untersucht.
Abschließend erfolgte die Nachrechnung von Versuchsergebnissen am quasiisotropen
Laminat unter quasi-stochastischer Belastung (miniTWIST), wobei im
Allgemeinen eine sehr gute Übereinstimmung der rechnerischen Vorhersage mit
Versuchsergebnissen festgestellt wurde.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up
the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix systems
with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and
tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
Faser-Kunststoff-Verbunde sind aufgrund ihrer mechanischen Eigenschaften und
Formgebungsmöglichkeiten der Trendwerkstoff im Rahmenbau von Hochleistungs-
Sportfahrrädern. Hierbei ermöglicht die zunehmende Berücksichtigung von Leichtbau-
Technologien eine Erhöhung der Leistungs-Gewichts-Relation, um den stetig
wachsenden Anforderungen an die Fahreigenschaften, die Haltbarkeit und das Gewicht
gerecht zu werden.
Ein geschichtlicher Rückblick über die letzten Jahrzehnte im Fahrradrahmenbau
zeigt eine deutliche Gewichtsreduktion bei steigender Funktionalität. Besonders der
Einsatz neuartiger Werkstoffe ermöglichte immer wieder eine wesentliche Erhöhung
der Leichtbaugüte. In den Anfängen begannen die Rahmenhersteller mit Gusseisen,
anschließend wurde Stahl verwendet und schließlich Leichtmetalle, wie Aluminium.
Die derzeit leichtesten Rahmen werden aus kohlenstofffaserverstärktem Kunststoff
gefertigt.
Die Anwendung von Faser-Kunststoff-Verbunden ist deutlich komplexer und fordert
eine integrierte Betrachtungsweise von den Werkstoffen über die Bauweise, der
Fertigungstechnologie sowie der Bauteilprüfung. Die erzielbare Leistungsfähigkeit
eines Hochleistungs-Rahmens wird hierbei wesentlich in der Konstruktions- und
Dimensionierungsphase vorgegeben. Eine Übersicht über derzeitige Bauweisen und
Fertigungstechnologien zeigt deren spezifische Eigenschaften.
Um in der Entwicklung eine möglichst gute Lösung innerhalb eines vorgegebenen
Zeitfensters zu erreichen, können praktikable und effiziente Simulationswerkzeuge
einen erheblichen Beitrag leisten. Hierzu wurde ein Werkzeug entwickelt, welches
mit Hilfe eines Gradientenverfahrens an parametrischen Geometrie FE-Modellen zur
Gestaltoptimierung und Optimierung der Laminatkonfiguration angewendet werden
kann. Dieses ist auf in Differentialbauweise gefertigte Rahmen ausgerichtet und
berücksichtigt in besonderem Maße die werkstoff- und fertigungsspezifischen Anforderungen
von Faser-Kunststoff-Verbunden.
Zur Verbesserung der Festigkeitsvorhersage dient ein Modell zur vollständigen
schichtenweisen Bruchanalyse, welches aus den Bausteinen Spannungsermittlung
mit Berücksichtigung werkstofflicher Nichtlinearitäten, Festigkeitskriterium mit Unterscheidung
der Bruchtypen Zwischenfaserbruch und Faserbruch sowie Steifigkeitsdegradation
der Einzelschicht nach Eintritt von unkritischen Matrixbrüchen besteht. Das Modell erlaubt die Vorhersage des gesamten Schädigungsprozesses unter quasistatischer
Belastung vom Erstschichtversagen bis hin zum Laminatversagen. Weiterhin
wurde das Modell in ein kommerzielles FE-Programm implementiert und erlaubt
die Analyse von komplex geformten Strukturen.
Unter Anwendung der Simulationswerkzeuge konnten drei Hochleistungs-Rahmen in
Differentialbauweise entwickelt werden, die weltweit zu den leichtesten und steifsten
gehören. Hierbei lieferte das Optimierungswerkzeug die Ausgangsgestalt sowie die
in den Rohren notwendige Laminatkonfiguration zur Erreichung höchstmöglicher
Steifigkeits-zu-Gewichtsverhältnisse. Aufbauend auf den Erkenntnissen erfolgte die
detaillierte Rahmenkonstruktion. Kritische Bereiche am Rahmen konnten durch die
abschließende Anwendung des Festigkeitsanalysewerkzeugs aufgedeckt und beseitigt
werden. Es konnte eine gute Übereinstimmung der Ergebnisse des Festigkeitsanalysewerkzeugs
mit Prüfstandsversuchen gezeigt werden. Die erzielten herausragenden
Fahreigenschaften und die Haltbarkeit der entwickelten Rahmen konnten
sowohl auf Prüfständen als auch im Alltag bereits ausgiebig unter Beweis gestellt
werden.
Der Einfluss von transversalen Stoßeinwirkungen auf Fahrradrahmen wurde an
Sturzversuchen an kompletten Rennrädern sowie an repräsentativen Ober- und
Unterrohren aus Aluminium und kohlenstofffaserverstärktem Kunststoff untersucht
und die auftretenden Schädigungen ermittelt. Hierbei zeigte sich, dass insbesondere
an Rahmen aus kohlenstofffaserverstärktem Kunststoff nicht sichtbare Schäden
bereits bei geringsten Stoßeinwirkungen auftreten, unabhängig vom verwendeten
Fasertyp. Durchgeführte zyklische Prüfungen an vorgeschädigten Rennradrahmen
unter geringer Stoßeinwirkung zeigten keinen messbaren Verlust an Steifigkeit oder
Haltbarkeit der untersuchten Rahmen. Untersuchungen zum Einfluss des Fasertyps
auf die Impakteigenschaften zeigten deutliche Unterschiede bei den aufgetretenen
visuell erkennbaren Schäden.
Sandwichstrukturen mit einem Wabenkern und Faserverbund-Deckschichten finden
aufgrund ihres hohen Leichtbaupotenzials zunehmend Verwendung in zahlreichen
Konstruktionen, in denen eine Gewichtsersparnis angestrebt wird – allen voran im
Flugzeugbau. Im gleichen Zuge werden in der Produktentwicklung aus Effizienzgründen
verstärkt numerische Simulationsrechnungen auf Basis der Finite-Elemente-
Methode verwendet, um Bauteile für statische oder kurzzeitdynamische Belastungen
wie Crash- oder Impact-Belastungen auszulegen.
Die nichtlineare Materialmodellierung derartiger inhomogener Sandwichstrukturen
stellt aufgrund einer Vielzahl möglicher Versagensarten eine komplexe Aufgabe dar.
Da gerade auch im Fall von kurzzeitdynamischen Belastungen, bei denen Dehnrateneffekte
eine Rolle spielen können, wenig Kenntnis bezüglich des Materialverhaltens
besteht, setzt die vorliegende Arbeit an dieser Stelle an, um das Schädigungsverhalten
von Sandwichstrukturen im Flugzeugbau experimentell zu erfassen und
geeignete Modellierungsmethoden in der kommerziellen expliziten Berechnungssoftware
LS-DYNA zu entwickeln.
Neben den im Luftfahrtbereich etablierten Nomex®-Honigwaben wurden auch neuartige
Faltwaben untersucht, wobei zunächst das mechanische Verhalten beider Wabentypen
unter quasi-statischen und hochdynamischen Lastraten charakterisiert
wurde. Neben der experimentellen Bestimmung der Materialeigenschaften wurden
alternativ analytische und numerische Methoden angewendet. Insbesondere die virtuellen
Werkstoffprüfungen mittels dynamischer Simulationen und Mesomodellen
zeigten dabei das Potenzial, auf effiziente Weise und mit einer hohen Ergebnisgenauigkeit
das mechanische Verhalten von Wabenkernen vorherzusagen.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung der in der Passagierkabine
verwendeten Sandwichstrukturen, welche aus Brandschutzgründen mit Deckschichten
aus glasfaserverstärkten Phenoplasten ausgeführt sind. In Versuchsreihen wurden
der Dehnrateneffekt des Deckschichtmaterials, die Festigkeit der Kern-
Deckschicht-Verklebung, der Einfluss des Herstellverfahrens auf die mechanischen
Eigenschaften sowie die Versagensarten unter ebener und transversaler Belastung
untersucht und in numerischen Modellen abgebildet. Da insbesondere Lasteinleitungs- und Verbindungsstellen potenzielle Versagensstellen
von Konstruktionen in Sandwichbauweise sein können, wurde das Schädigungsverhalten
von unterschiedlichen Kanten- und Insert-Verbindungen experimentell untersucht.
Auf Grundlage dieser Ergebnisse wurden Modellierungsmethoden entwickelt,
die eine Abbildung des Versagensverhaltens ermöglichen.
Im Rahmen der Versuchsreihen stellte sich ein transversales Kernschubversagen als
eine dominierende Schädigungsart heraus. Da unter Verwendung einer Schalenmodellierung
für die Sandwichstruktur in der Berechnungssoftware LS-DYNA kein Materialmodell
für den Wabenkern existiert, welches ein solches Versagen abbilden kann,
wurde hierfür ein benutzerdefiniertes orthotropes Werkstoffgesetz entwickelt. Neben
dem Transversalschubversagen wurden hierin auch die weiteren in dieser Arbeit ermittelten
Charakteristika von Wabenkernen wie ein nichtlineares Nachversagensverhalten
oder ein Dehnrateneffekt implementiert.
In dieser Arbeit wurden zahlreiche neue Erkenntnisse zum einen hinsichtlich des Materialverhaltens
der untersuchten Sandwichstrukturen und zum anderen hinsichtlich
der Modellierungsmethoden gewonnen. Diese Erkenntnisse lassen sich für eine Vielzahl
unterschiedlicher nichtlinearer Problemstellungen bei Sandwichstrukturen in der
Luftfahrt einsetzen und finden innerhalb dieser Arbeit in drei exemplarischen kurzzeitdynamischen
Lastfällen Anwendung: die Simulation von Kabinenkomponenten
bei einer harten Landung, die Impact-Belastung einer Faltwaben-Sandwichstruktur
sowie die Crashsimulation eines Rumpfsegments in Sandwichbauweise.
Die Herstellung duroplastischer Werkstoffe verlangt nicht nur eine präzise Kenntnis
des Materialverhaltens in Abhängigkeit der Prozessführung, sondern auch den
Einsatz geeigneter Analysemethoden zur Charakterisierung und Beurteilung des
Werkstoffes. Eine wesentliche Herausforderung bei der Vernetzung von Polymeren
stellen innere Spannungen dar, die durch chemischen Reaktionsschwund und
thermische Ausdehnung verursacht werden.
Ziel dieser Arbeit ist es, den Vernetzungsvorgang und die daraus resultierenden
Eigenschaften eines Epoxidharzes mit bestehenden materialwissenschaftlichen
Analyseverfahren zu charakterisieren und durch die Implementierung einer
neuartigen Dehnungsmesstechnik einen idealen thermischen Vernetzungsprozess
für einen spannungsminimierten Zustand zu definieren.
Den Untersuchungen liegt ein kommerzielles Epoxidharz (EP-Harz) auf der Basis
von anhydridgehärtetem Bisphenol A zugrunde. Es wurden sowohl das reine, d.h.
das ungefüllte Polymer, als auch ein mit Calciumsilikat und -carbonat gefülltes
System analysiert. Eine Materialcharakterisierung mit kalorimetrischen und
rheologischen Verfahren in Verbindung mit der Anpassung an reaktionskinetische
und chemorheologische Modelle liefert eine quantitative Beschreibung des
Vernetzungsvorganges sowohl des ungefüllten als auch des gefüllten EP-Harzes.
Die während der Vernetzung auftretenden Kräfte der beiden Harzsysteme wurden
mit Normalkraftmessungen erfasst und mathematisch erfolgreich modelliert. Das
Erweichungsverhalten sowie die (bruch)mechanischen Werte der Werkstoffe wurden
mit statischen und dynamischen mechanischen Analysen im unterschiedlich stark
vernetzten, festen Zustand geprüft. Maximale mechanische Eigenschaften werden
erst bei vollständiger Umsetzung erreicht.
Ein neuartiges Verfahren basierend auf einer faseroptischen Messsensorik wurde für
das gefüllte EP-Harz entwickelt und ermöglicht die Bestimmung reaktionsinduzierter
Dehnungen im vernetzenden Polymer. Fibre Bragg Grating (FBG)-Sensoren, die
direkt im Reaktionsharz eingebettet wurden, ermöglichen die Bestimmung von
charakteristischen Phasenübergängen während der chemischen Vernetzung, d.h.
Gelierung und Verglasung, ebenso wie die Erfassung des Ausdehnungsverhaltens
unter Temperatureinfluss. Die Ergebnisse zeigen exzellente Übereinstimmungen zu
den Daten aus etablierten Messverfahren wie Kalorimetrie, Rheologie, Volumendilatometrie
und thermisch-mechanischer Analyse. In umfangreichen Serien wurde
mithilfe der FBG-Technik der Einfluss verschiedener Phasen des thermischen Vernetzungsprozesses auf die reaktionsinduzierte Dehnungsentwicklung des EPHarzes
ermittelt.
Die erzielten Ergebnisse in Kombination mit ergänzenden Untersuchungen zum
Erweichungsverhalten sowie zur Eigenerwärmung durch exotherme Reaktion
erlauben die Definition eines idealisierten thermischen Prozesses mit dem Ziel einer
Minimierung innerer Spannungen im vernetzenden Werkstoff. Das ideal
spannungsoptimierte Härteprofil wird dadurch erzielt, dass bei zunächst moderater
Temperatur die Vernetzung in Gang gesetzt wird. Die anschließende Aufheizphase
auf Härtetemperatur startet noch im flüssigen Zustand und wird unter
Berücksichtigung von Exothermieeffekten so zügig durchgeführt, dass die Gelierung
des Materials bei möglichst hoher Temperatur stattfindet, idealerweise beim
maximalen Glasübergangspunkt Tg,∞. Erst nach einer vollständigen Vernetzung bei
entsprechend hoher Härtetemperatur tritt die Materialverglasung bei Unterschreitung
des Tg,∞ ein. Durch die gezielte Temperaturführung wird erreicht, dass die thermische
Ausdehnung gegenüber der chemischen Volumenreduktion dominiert und das
Auftreten von Zugkräften im vernetzenden Polymer unterbunden wird. Eine
frühzeitige Gelierung und besonders eine vorzeitige Verglasung während des
Vernetzungsprozesses hingegen verursachen bereits in einem niedrigen
Umsatzstadium Zugkräfte und Spannungen im Material, die sich in einem frühen
Materialversagen etwa in Form von Rissen äußern.
Die vorliegende Arbeit präsentiert durch die Implementierung des FBG-Verfahrens
nicht nur ein ausgezeichnetes Werkzeug für die Polymerentwicklung, sondern bietet
auch durch die überzeugenden faseroptischen Messergebnisse in Kombination mit
gängigen Analyseverfahren eine höchst effektive Strategie zur Erreichung eines
idealen Härteprozesses zur spannungsarmen Vernetzung von Epoxidharzen.
Die fluoridkatalysierte Phosphor-Aryl-Kupplung – Ein neuer Zugang zu funktionalisierten Phosphanen
(2008)
In der vorliegenden Arbeit wurde ein neuer Zugang zu Arylphosphanen entwickelt, über den eine Reihe neuartiger Ligandstrukturen möglich werden. Die neu gefundene fluoridkatalysierte Kupplung von Silylphosphanen und elektronenarmen Arylfluoriden stellt eine milde Alternative zur Phosphor-Aryl-Kupplung in superbasischen Medien dar. Damit ist es möglich auch Arylfluoride zu kuppeln, deren Substitutionsmuster keine stark basischen Bedingungen zuläßt. Durch Optimierung der Reaktionsbedingungen konnte sowohl die Menge des Katalysators als auch des Lösungsmittels minimiert werden, was die Kosten der Synthese stark reduziert und die Aufarbeitung der Reaktionsansätze vereinfacht. Im Gegensatz zur Kupplung im superbasischen Medium erfolgt bei dem neuen Verfahren keine Salzbildung sondern es entsteht flüchtiges Fluortrimethylsilan als Nebenprodukt, das aus dem Reaktionsgemisch entweicht. Alternativ zu verschiedenen Fluoridionenquellen können auch NaOH und NaOMe als Lewis-Basen in katalytischen Mengen verwendet werden. Versuche mit CsF ergaben, dass die Reaktivität des Katalysators stark von der Größe und Morphologie der Salzpartikel abhängt.
This thesis is devoted to the study of tropical curves with emphasis on their enumerative geometry. Major results include a conceptual proof of the fact that the number of rational tropical plane curves interpolating an appropriate number of general points is independent of the choice of points, the computation of intersection products of Psi-classes on the moduli space of rational tropical curves, a computation of the number of tropical elliptic plane curves of given degree and fixed tropical j-invariant as well as a tropical analogue of the Riemann-Roch theorem for algebraic curves. The result are obtained in joint work with Hannah Markwig and/or Andreas Gathmann.
Today’s high-resolution digital images and videos require large amounts of storage space and transmission bandwidth. To cope with this, compression methods are necessary that reduce the required space while at the same time minimize visual artifacts. We propose a compression method based on a piecewise linear color interpolation induced by a triangulation of the image domain. We present methods to speed up significantly the optimization process for finding the triangulation. Furthermore, we extend the method to digital videos. Laser scanners to capture the surface of three-dimensional objects are widely used in industry nowadays, e.g., for reverse engineering or quality measurement. Hand-held scanning devices have the advantage that the laser device can be moved to any position, permitting a scan of complex objects. But operating a hand-held laser scanner is challenging. The operator has to keep track of the scanned regions in his mind, and has no feedback of the sample density unless he starts the surface reconstruction after finishing the scan. We present a system to support the operator by computing and rendering high-quality surface meshes of the captured data online, i.e., while he is still scanning, and in real time. Furthermore, it color-codes the rendered surface to reflect the surface quality. Thereby, instant feedback is provided, resulting in better scans in less time.
Sublimation (Evaporation) is widely used in different industrial applications. The important applications are the sublimation (evaporation) of small particles (solid and liquid), e.g., spray drying and fuel droplet evaporation. Since a few decades, sublimation technology has been used widely together with aerosol technology. This combination is aiming to get various products with desired compositions and morphologies. It can be used in the fields of nanoparticles generation, particle coating through physical vapor deposition (PVD) and particle structuring. This doctoral thesis deals with the experimental and theoretical investigations of sublimation (evaporation) kinetics of fine aerosol particles (droplets). The experimental study was conducted in a test plant including on-line control of the most important paramters, such as heating temperature, gas flow and pressure. On-line and in-line particle measurements (Optical sensor, APS) were employed. Relevant parameters in sublimation (evaporation) such as heating temperature, particle concentration and aerosol residence time were investigated. Polydispersed particles (droplets) were introduced into the test plant as precursor aerosols. Two kinds of materials were used as test materials, including inorganic particles of NH4Cl and organic particles of DEHS. NH4Cl particles with smooth surface and porous structure were put into the experiments, respectively. The influence of the particle morphology on the sublimation process was studied. Basing on the experiments, different theoretical models were developed. The simulation results under different parameters were compared with experimental results. The change of concentration of particles was specially discussed. The discussion was focused on the relationship of the total particle concentration and the change of single particles with diverse initial diameters. The study of the sublimation kinetics of particles with different morphologies and different specific surface areas was carried out. The factor of increased surface area on the sublimation process was taken into the simulation and the results were compared with experimental results. A sublimation (evaporation) kinetics was investigated in this thesis. Basing on the property of a material, such as molecular weight, molecular size and vapor pressure, the sublimation (evaporation) kinetics was described. The optimum sublimation (evaporation) conditions with respect to the material properties were advanced. A Phase Transition Effect during the sublimation (evaporation) was found, which describes the increase of the large particles on the cost of small particles. A similar effect is observed in crystal suspension (called Ostwald ripening) but with another physical background. In order to meet the need of in-line particle measurement, a hot gas sensor (O.P.C.) was developed in this study, for measuring the particle size and the size distribution of an aerosol. With the newly developed measuring cell, the operating conditions of the aerosol could be increased up to 500°C.
Ein Beitrag zu Optimierung der Informationslogistik im Ersatzteilwesen der Automobilindustrie
(2008)
Die Informationslogistik als die richtige Information zur richtigen Zeit am richtigen Ort ist heutzutage im Ersatzteilwesen der Automobilindustrie nicht ideal ausgeführt. Redundante Informationen wie auch historisch gewachsene, heute nicht mehr benötigte Informationen stehen fehlenden Informationen gegenüber. Medienbrüche führen zu Fehlern und hohem Aufwand. Auf der anderen Seite stellt das Ersatzteilwesen der Automobilindustrie aus Sicht der Information ein komplexes Umfeld dar. Vor diesem Hintergrund wird in der vorliegenden Dissertation ein Vorgehensmodell entwickelt, mit dem strukturiert ein Grobkonzept für eine optimierte Informationslogistik erstellt werden kann. Die Arbeitsschritte sind an die Konstruktionsmethodik im Maschinenbau angelehnt. Das Vorgehensmodell ist dabei nicht auf spezielle Informationstechnologien wie beispielsweise die aktuell vielfach diskutierte Radiofrequenzidentifikation (RFID) festgelegt. Das Ergebnis des Vorgehensmodells ist ein Grobkonzept, welches den Informationen in ihrem Lebenszyklus optimiert Technologie und Speicherort in Bezug zu den Prozessen zuweist. Gleichzeitig werden wichtige Eigenschaften der Technologien wie z.B. die benötigte Speichergröße definiert. Das so erarbeitete Grobkonzept stellt eine fundierte Grundlage für die anschließende Feinplanung der Informationslogistik dar.
Dry Sliding and Rolling Tribotests of Carbon Black Filled EPDM Elastomers and Their FE Simulations
(2008)
Unlubricated sliding systems being economic and environmentally benign are already realized in bearings, where dry metal-plastic sliding pairs successfully replace lubricated metal-metal ones. Nowadays, a considerable part of the tribological research concentrates to realize unlubricated elastomer-metal sliding systems, and to extend the application field of lubrication-free slider elements. In this Thesis, characteristics of the dry sliding and friction are investigated for elastomer-metal sliding pairs. In this study ethylene-propylene-diene rubbers (EPDM) with and without carbon black (CB) filler were used. The filler content of the EPDMs was varied: EPDMs with 0-, 30-, 45- and 60 part per hundred rubber (phr) CB amount were investigated. Quasistatic tension and compression tests and dynamic mechanical thermal analysis (DMTA) were carried out to analyze the static a viscoelastic behavior of the EPDMs. The tribological properties of the EPDMs were investigated using dry roller (metal) – on – plate (rubber) type tests (ROP). During the ROP tests the normal load was varied. The coefficient of friction (COF) and the temperature were registered online during the tests, the loss volumes were determined after certain test durations. The worn surfaces of the rubbers and of the steel counterparts were analyzed using scanning electron microscope (SEM) to determine the wear mechanisms. Because possible chemical changes may take place during dry sliding due to the elevated contact temperature the chemical composition of the surfaces was also analyzed before and after the tribotests. For the latter investigations X-ray photoelectron spectroscopy (XPS), sessil drop tests and Raman spectroscopy were used. In addition, the dry sliding tribotests were simulated using finite element (FE) codes for the better understanding of the related wear mechanisms. Finally, as the internal damping effect of the elastomers plays a great role in the sliding wear process, their viscoelasticity has been taken into account. The effect of viscoelasticity was shown on example of rolling friction. To study the rolling COF for the EPDM with 30 phr CB (EPDM 30) an FE model was created which considered the viscoelastic behavior of the rubber during rolling. The results showed that the incorporated CB enhanced the mechanical and tribological properties (both COF and wear rate have been reduced) of the EPDMs. Further on, the CB content of the EPDM influences fundamentally the observed wear mechanisms. The wear characteristics changed also with the applied normal load. In case of the EPDM 30 a rubber tribofilm was found on the steel counterpart when tests were performed at high normal loads. Analysis of the chemical composition of the surfaces before and after the wear tests does not result in notable changes. It was demonstrated, that the FE method is powerful tool to model both, the dry sliding and rolling performances of elastomers.
This thesis shows an approach to combine the advantages of MBS tyre models and FEM models for the use in full vehicle simulations. The procedure proposed in this thesis aims to describe a nonlinear structure with a Finite Element approach combined with nonlinear model reduction methods. Unlike most model reduction methods - as the frequently used Craig-Bampton approach - the method of Proper Orthogonal Decomposition (POD) offers a projection basis suitable for nonlinear models. For the linear wave equation, the POD method is studied comparing two different choices of snapshot sets. Set 1 consists of deformation snapshots, and set 2 additionally contains velocities and accelerations. An error analysis proves no convergence guarantee for deformations only. For inclusion of derivatives it yields an error bound diminishing for small time steps. The numerical results show a better behaviour for the derivative snapshot method, as long as the sum of the left-over eigenvalues is significant. For the reduction of nonlinear systems - especially when using commercial software - it is necessary to decouple the reduced surrogate system from the full model. To achieve this, a lookup table approach is presented. It makes use of the preceding computation step with the full model necessary to set up the POD basis (training step). The nonlinear term of inner forces and the stiffness matrix are output and stored in a lookup table for the reduced system. Numerical examples include a nonlinear string in Matlab and an airspring computed in Abaqus. Both examples show that effort reductions of two orders of magnitude are possible within a reasonable error tolerance. The lookup approaches perform faster than the Trajectory Piecewise Linear (TPWL) method and produce comparable errors. Furthermore, the Abaqus example shows the influence of training excitation on the quality of the reduced model.
In recent years, formal property checking has become adopted successfully in industry and is used increasingly to solve the industrial verification tasks. This success results from property checking formulations that are well adapted to specific methodologies. In particular, assertion checking and property checking methodologies based on Bounded Model Checking or related techniques have matured tremendously during the last decade and are well supported by industrial methodologies. This is particularly true for formal property checking of computational System-on-Chip (SoC) modules. This work is based on a SAT-based formulation of property checking called Interval Property Checking (IPC). IPC originates in the Siemens company and is in industrial use since the mid 1990s. IPC handles a special type of safety properties, which specify operations in intervals between abstract starting and ending states. This paves the way for extremely efficient proving procedures. However, there are still two problems in the IPC-based verification methodology flow that reduce the productivity of the methodology and sometimes hamper adoption of IPC. First, IPC may return false counterexamples since its computational bounded circuit model only captures local reachability information, i.e., long-term dependencies may be missed. If this happens, the properties need to be strengthened with reachability invariants in order to rule out the spurious counterexamples. Identifying strong enough invariants is a laborious manual task. Second, a set of properties needs to be formulated manually for each individual design to be verified. This set, however, isn’t re-usable for different designs. This work exploits special features of communication modules in SoCs to solve these problems and to improve the productivity of the IPC methodology flow. First, the work proposes a decomposition-based reachability analysis to solve the problem of identifying reachability information automatically. Second, this work develops a generic, reusable set of properties for protocol compliance verification.
Organische Moleküle lösen zunehmend anorganische Verbindungen wegen ihrer schnelleren bzw. kostengünstigeren Herstellung sowie der leichteren Modifikation ihrer Eigenschaften als Grundlage neuer hocheffizienter Materialien mit optischen und dielektrischen Anisotropien in der technischen Anwendung ab. Zusätzlich bieten Prozesse der supramolekularen Chemie zur Selbstorganisation niedermolekularer Bausteine nach dem Vorbild der Natur neue Möglichkeiten makroskopische Systeme mit maßgeschneiderter Funktionalität zu erzeugen. Diese supramolekularen Aggregate bilden sich auf Grund unspezifischer und spezifischer Wechselwirkungen ihrer Bausteine, die sich in Veränderungen der elektronischen Struktur sowie anderer molekularer Eigenschaften widerspiegelt. Mittels elektrooptischer Absorptionsmessung (EOAM) können die Dipolmomente des Grund- und Anregungszustandes von Verbindungen in Lösung bestimmt sowie die Anisotropie der (Hyper-)Polarisierbarkeit abgeschätzt werden. Die EOA-Spektroskopie stellte die Methode der Wahl dar, organische Moleküle bzw. ihre supramolekularen Aggregate für Materialien mit gewünschter Funktionalität zu identifizieren Im Rahmen dieser Arbeit wurde ein vollautomatisiertes Spektrometer zur Bestimmung der Elektrochromie von Molekülen in Lösung erfolgreich konstruiert, aufgebaut und in Betrieb genommen. Die computergestützte Automatisierung der Apparatur ermöglichte die schnellere und bessere Charakterisierung einer Vielzahl unterschiedlichster Verbindungen. Durch die höhere spektrale Auflösung konnten überlagerte Absorptionsbanden einer bzw. verschiedener Spezies in Lösung durch neu entwickelte bzw. verfeinerte Analyseverfahren identifiziert und erstmal quantitativ ausgewertet werden. Hierdurch konnte erfolgreich demonstriert werden, dass die EOA-Spektroskopie zahlreiche Beiträge zur Analyse vielfältiger Fragestellungen liefern kann, die mittels anderer Techniken unter den experimentellen Bedingungen nicht zugänglich sind. Neben der Charakterisierung zahlreicher Verbindungen für die Anwendung in organischen Solarzellen, bei der Frequenzverdopplung und für die holographische Speicherung lag der Schwerpunkt der experimentellen Arbeiten im Nachweis und der Untersuchung der Interaktion von organischen Molekülen durch spezifische und unspezifische Wechselwirkungen. Dabei konnten Veränderungen der Konformation bei Rezeptoren durch die Komplexierung eines Gast-Moleküles nachgewiesen werden. Darüber hinaus gelang es erstmals mit Hilfe der EOA-Spektroskopie, Strukturparameter von Komplexen in flüssiger Lösung zu erhalten. Durch konkurrierende Wechselwirkung der Orientierung dipolarer Merocyanine konnten Komplexe mit sehr kleinen und den derzeit größten bekannten Dipolmomenten erzeugt werden. Die Variation der Feldstärken interner und externer elektrischer Felder bzw. die Konzepte der supramolekularen Chemie bieten in Zukunft neben den bestehenden Verfahren zur Modifikation organischer Moleküle neue Möglichkeiten, effiziente und funktionelle Materialien zu erzeugen.
Untersuchungen zu Spincrossover und Valenztautomerie an an Eisen(II)- bzw. Kobalt(II)-Komplexen
(2008)
Mit den Komplexen [Fe(L-N4H2)(NCS)2]∙MeOH (1) und [Fe(L-N2S2)(NCS)2]∙0,5 DMF (2) konnten zwei neue Spincrossover-Verbindungen synthetisiert werden, die Thiocyanat-Anionen als Liganden beinhalten. Die magnetischen Untersuchungen für Komplex 1 wurden aufgrund der verwitterungsanfälligen Kristalle mit einer lösungsmittelfreien Probe ([Fe(L-N4H2)(NCS)2]) durchgeführt. Sowohl die SQUID-Magnetometrie als auch die Mößbauer-Spektroskopie zeigen hierbei einen unvollständigen Spinübergang, bei dem bei tiefen Temperaturen ein high-spin Restanteil von 30 % verbleibt. Die Übergangstemperatur beträgt T1/2 = 141 K, für Komplex 2 wird ein Wert von T1/2 = 232 K gefunden. Der Komplex [Fe(L-N4tBu2)(CN)2]•MeCN (3) ist das erste Beispiel einer eisen(II)-haltigen low-spin Verbindung, die den makrozyklischen Pyridinophanliganden L-N4tBu2 enthält. Durch die Verwendung von Coliganden mit geringerer Ligandenfeldstärke (verglichen zum Cyanid-Anion) gelang es in der vorliegenden Arbeit erstmals, Spincrossover-Komplexe mit dem Liganden L-N4tBu2 zu synthetisieren. Dabei handelt es sich um die Eisen(II)-Komplexe [Fe(L-N4tBu2)(bipy)](BPh4)2•MeCN•Et2O (4), [Fe(L-N4tBu2)(phen)](BPh4)2•Et2O (5a), [Fe(L-N4tBu2)(phen)](BPh4)2•MeCN (5b), [Fe(L-N4tBu2)(dppz)](BPh4)2 (6) sowie [Fe(L-N4tBu2)(bpym)](BPh4)2•MeCN (7), bei denen aromatische Diimine als Coliganden eingesetzt wurden. Die Röntgenstrukturanalysen zeigen mehr oder weniger ausgeprägte Bindungslängenunterschiede, die jeweils auf einen Spincrossover schließen lassen. Die magnetischen Untersuchungen zeigen für die Komplexe 4 (T1/2 = 177 K), 5a (T1/2 = 179 K), 5b (T1/2 ≈ 347 K), 6 (T1/2 = 275 K) und 7 (T1/2 ≈ 335 K) Spinübergänge mit unterschiedlichen Verläufen und Übergangstemperaturen. Besonders hervorzuheben sind dabei die analogen Komplexe 5a und 5b, die sich zwar lediglich durch das im Kristallgitter eingebaute Lösungsmittelmolekül unterscheiden, jedoch völlig verschiedene magnetische Eigenschaften und Spinübergangsarten aufweisen. Neben den einkernigen low-spin Komplexen [Fe(L-N4Me2)(bpym)](ClO4)2 (8) und [Fe(L-N4Me2)(BiBzIm)]∙4 MeOH (9) konnten erstmals mit dem Pyridinophanliganden L-N4Me2 zweikernige Spincrossover-Komplexe hergestellt werden. Der zweikernige Komplex [{Fe(L-N4Me2)}2(BiBzIm)](ClO4)2∙2 EtCN (10) zeigt bei T = 175 K einen abrupten high-spin/high-spin→high-spin/low-spin Übergang. Nur eines der beiden Eisen(II)-Ionen geht beim Abkühlen vom high-spin in den low-spin Zustand über. In der Kristallstruktur können bei tiefen Temperaturen die beiden unterschiedlichen Eisen(II)-Zentren genau lokalisiert werden. Ein solcher high-spin/high-spin→high-spin/low-spin Übergang wird auch für [{Fe(L-N4Me2)}2(BzImCOO)](ClO4)2∙0.5 (CH3)2CO (11) beobachtet. Die Übergangstemperatur beträgt hier T = 210 K. Das high-spin und das low-spin Eisen(II)-Ion können in dieser Kristallstruktur bei tiefer Temperatur ebenfalls genau identifiziert werden. Bei dem Komplex [{Fe(L-N4Me2)}2(pndc)](ClO4)2∙H2O (12) handelt es sich ebenfalls um einen zweikernigen Spincrossover-Komplex, der einen vollständigen Spinübergang aufweist (T1/2 ≈ 260 K). Die Untersuchungen zur Valenztautomerie wurden an Kobalt-Komplexen mit dem redoxaktiven Liganden 3,5-Di-tert-butylcatecholat und den makrozyklischen Pyridinophan-liganden L-N4Me2 und L-N4tBu2 durchgeführt. Die Röntgenstrukturanalyse weist Verbindung [Co(L-N4Me2)(dbc)](BPh4) (13) als diamagnetische low-spin Kobalt(III)-Catecholat-Spezies aus. Die C-C-Bindungen und die C-O-Abstände belegen, dass der Dioxolenligand in der Catecholat-Form vorliegt. Außerdem sind die Co-N- und die Co-O-Bindungslängen sehr kurz, was auf das low-spin Kobalt(III)-Ion zurückzuführen ist. Bei Komplex [Co(L-N4tBu2)(dbsq)](B(C6H4Cl)4) (14) handelt es sich hingegen um eine paramagnetische Kobalt(II)-Semichinonat-Verbindung. In der Kristallstruktur ist im kompletten Temperaturbereich das typische Bindungsschema eines Semichinonatliganden zu erkennen. Dagegen unterscheiden sich die Co-N- und die Co-O-Abstände bei den verschiedenen Messtemperaturen deutlich voneinander. Während die kürzeren Bindungs-längen bei T = 100 K eindeutig auf ein low-spin Kobalt(II)-Ion schließen lassen, legen die bei T = 400 K deutlich elongierten Bindungslängen einen beginnenden Spinübergang in den high-spin Zustand nahe. Dieser Befund wird durch die SQUID-Messung unterstützt, bei der im Temperaturintervall von 50 K bis 200 K konstante Werte für χMT bzw. für µeff gefunden werden, während die Werte für T > 200 K deutlich ansteigen und somit auf einen Spincrossover hinweisen.
We present a new efficient and robust algorithm for topology optimization of 3D cast parts. Special constraints are fulfilled to make possible the incorporation of a simulation of the casting process into the optimization: In order to keep track of the exact position of the boundary and to provide a full finite element model of the structure in each iteration, we use a twofold approach for the structural update. A level set function technique for boundary representation is combined with a new tetrahedral mesh generator for geometries specified by implicit boundary descriptions. Boundary conditions are mapped automatically onto the updated mesh. For sensitivity analysis, we employ the concept of the topological gradient. Modification of the level set function is reduced to efficient summation of several level set functions, and the finite element mesh is adapted to the modified structure in each iteration of the optimization process. We show that the resulting meshes are of high quality. A domain decomposition technique is used to keep the computational costs of remeshing low. The capabilities of our algorithm are demonstrated by industrial-scale optimization examples.
Im Rahmen der vorliegenden Dissertation konnten wichtige Ergebnisse zur Charakterisierung des neuartigen Nukleotidtransporters AtNTT3 gewonnen werden. Die vorgeschlagenen Spleißvarianten des AtNTT3 wurden erfolgreich in Gesamtblüten-, Pollen- und Wurzelgewebe nachgewiesen. Zusätzlich konnte in diesen Geweben die stärkste AtNTT3-Promotoraktivität gezeigt werden. Die subzelluläre Expression der AtNTT3-Proteine wurde mit Hilfe von GFP-Fusionskonstrukten untersucht und untermauert eine außergewöhnliche Lokalisierung von zwei der drei untersuchten Proteinvarianten (AtNTT3-2 und AtNTT3-3) in der pflanzlichen Plasmamembran. Für AtNTT3-1 kann ein anderer Insertionsort, wie beispielsweise die Membranen des ER, nicht ausgeschlossen werden. Insgesamt ist AtNTT3 damit der erste pflanzliche Nukleotidtransporter der NTTFamilie, der nicht in den Plastiden lokalisiert ist. Die Hauptfunktion des AtNTT3 und seinen Spleißvarianten besteht in dem Transport von Nukleotiden. ATP, ADP und auch dATP konnten als favorisierte Importsubstrate identifiziert werden. Obwohl die heterolog exprimierten AtNTT3-Varianten im Vergleich mit strukturell ähnlichen Nukleotidtransportern eine geringe Transportaktivität zeigten, konnte ein spezifischer Transport der Substrate ATP und ADP verifiziert werden. Weiterhin wurde eine homozygote AtNTT3-KO-Linie identifiziert und damit eine Vielzahl von Versuchen zur physiologischen Rolle des AtNTT3 durchgeführt. Bisher konnten keine Hinweise auf einen veränderten Stoffwechsel der KO-Mutanten erhalten werden. Zusätzlich wurden AtNTT3-Überexpressionsmutanten hergestellt, um eine weiterführende detaillierte Analyse vorzubereiten. Wenngleich die physiologische Funktion des untersuchten Membranproteins im Rahmen dieser Arbeit nicht vollständig geklärt werden konnte, zeigen die Ergebnisse jedoch deutlich, dass es sich bei AtNTT3-2 und AtNTT3-3 um plasmamembranständige Nukleotidtransporter handelt. Aufgrund des vorliegenden Expressionsmusters, der subzellulären Lokalisierung und der transportierten Substrate liegt eine Beteiligung der Spleißvarianten am extrazellulären Nukleotidstoffwechsel nahe. Transportstudien indizieren für AtNTT3-1 das gleiche Substratspektrum, die Expression auf Zellebene muss aber nochmals überprüft werden, bevor hier eine konkrete Aussage möglich ist.
In this thesis, the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to porous media is investigated. For that purpose, the transmission conditions across the interfaces between the fluid regions and the porous domain are derived. A proper algorithm is formulated and numerical examples are presented. First, the transmission conditions for the coupling of various physical phenomena are reviewed. For the coupling of free flow with porous media, it has to be distinguished whether the fluid flows tangentially or perpendicularly to the porous medium. This plays an essential role for the formulation of the transmission conditions. In the thesis, the transmission conditions for the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to the porous medium in one and three dimensions are derived. With these conditions, the continuous fully coupled system of equations in one and three dimensions is formulated. In the one dimensional case the extreme cases, i.e. fluid-fluid interface and fluid impermeable solid interface, are considered. Two chapters of the thesis are devoted to the discretisation of the fully coupled Biot-Stokes system for matching and non-matching grids, respectively. Therefor, operators are introduced that map the internal and boundary variables to the respective domains via Stokes equations, Biot equations and the transmission conditions. The matrix representation of some of these operators is shown. For the non-matching case, a cell-centred grid in the fluid region and a staggered grid in the porous domain are used. Hence, the discretisation is more difficult, since an additional grid on the interface has to be introduced. Corresponding matching functions are needed to transfer the values properly from one domain to the other across the interface. In the end, the iterative solution procedure for the Biot-Stokes system on non-matching grids is presented. For this purpose, a short review of domain decomposition methods is given, which are often the methods of choice for such coupled problems. The iterative solution algorithm is presented, including details like stopping criteria, choice and computation of parameters, formulae for non-dimensionalisation, software and so on. Finally, numerical results for steady state examples, depth filtration and cake filtration examples are presented.
Rapid growth in sensors and sensor technology introduces variety of products to the market. The increasing number of available sensor concepts and implementations demands more versatile sensor electronics and signal conditioning. Nowadays signal conditioning for the available spectrum of sensors is becoming more and more challenging. Moreover, developing a sensor signal conditioning ASIC is a function of cost, area, and robustness to maintain signal integrity. Field programmable analog approaches and the recent evolvable hardware approaches offer partial solution for advanced compensation as well as for rapid prototyping. The recent research field of evolutionary concepts focuses predominantly on digital and is at its advancement stage in analog domain. Thus, the main research goal is to combine the ever increasing industrial demand for sensor signal conditioning with evolutionary concepts and dynamically reconfigurable matched analog arrays implemented in main stream Complementary Metal Oxide Semiconductors (CMOS) technologies to yield an intelligent and smart sensor system with acceptable fault tolerance and the so called self-x features, such as self-monitoring, self-repairing and self-trimming. For this aim, the work suggests and progresses towards a novel, time continuous and dynamically reconfigurable signal conditioning hardware platform suitable to support variety of sensors. The state-of-the-art has been investigated with regard to existing programmable/reconfigurable analog devices and the common industrial application scenario and circuits, in particular including resource and sizing analysis for proper motivation of design decisions. The pursued intermediate granular level approach called as Field Programmable Medium-granular mixed signal Array (FPMA) offers flexibility, trimming and rapid prototyping capabilities. The proposed approach targets at the investigation of industrial applicability of evolvable hardware concepts and to merge it with reconfigurable or programmable analog concepts, and industrial electronics standards and needs for next generation robust and flexible sensor systems. The devised programmable sensor signal conditioning test chips, namely FPMA1/FPMA2, designed in 0.35 µm (C35B4) Austriamicrosystems, can be used as a single instance, off the shelf chip at the PCB level for conditioning or in the loop with dedicated software to inherit the aspired self-x features. The use of such self–x sensor system carries the promise of improved flexibility, better accuracy and reduced vulnerability to manufacturing deviations and drift. An embedded system, namely PHYTEC miniMODUL-515C was used to program and characterize the mixed-signal test chips in various feedback arrangements to answer some of the questions raised by the research goals. Wide range of established analog circuits, ranging from single output to fully differential amplifiers, was investigated at different hierarchical levels to realize circuits like instrumentation amplifier and filters. A more extensive design issues based on low-power like for e.g., sub-threshold design were investigated and a novel soft sleep mode idea was proposed. The bandwidth limitations observed in the state of the art fine granular approaches were enhanced by the proposed intermediate granular approach. The so designed sensor signal conditioning instrumentation amplifier was then compared to the commercially available products in the market like LT 1167, INA 125 and AD 8250. In an adaptive prototype, evolutionary approaches, in particular based on particle swarm optimization with multi-objectives, were just deployed to all the test samples of FPMA1/FMPA2 (15 each) to exhibit self-x properties and to recover from manufacturing variations and drift. The variations observed in the performance of the test samples were compensated through reconfiguration for the desired specification.
Sound surrounds us all the time and in every place in our daily life, may it be pleasant music in a concert hall or disturbing noise emanating from a busy street in front of our home. The basic properties are the same for both kinds of sound, namely sound waves propagating from a source, but we perceive it in different ways depending on our current mood or if the sound is wanted or not. In this thesis both pleasant sound as well as disturbing noise is examined by means of simulating the sound and visualizing the results thereof. However, although the basic properties of music and traffic noise are the same, one is interested in different features. For example, in a concert hall, the reverberation time is an important quality measure, but if noise is considered only the resulting sound level, for example on ones balcony, is of interest. Such differences are reflected in different methods of simulation and required visualizations, therefore this thesis is divided into two parts. The first part about room acoustics deals with the simulation and novel visualizations for indoor sound and acoustic quality measures, such as definition (original "Deutlichkeit") and clarity index (original "Klarheitsmaß"). For the simulation two different methods, a geometric (phonon tracing) and a wave based (FEM) approach, are applied and compared. The visualization techniques give insight into the sound behaviour and the acoustic quality of a room from a global as well as a listener based viewpoint. Furthermore, an acoustic rendering equation is presented, which is used to render interference effects for different frequencies. Last but not least a novel visualization approach for low frequency sound is presented, which enables the topological analysis of pressure fields based on room eigenfrequencies. The second part about environmental noise is concerned with the simulation and visualization of outdoor sound with a focus on traffic noise. The simulation instruction prescribed by national regulations is discussed in detail, and an approach for the computation of noise volumes, as well as an extension to the simulation, allowing interactive noise calculation, are presented. Novel visualization and interaction techniques for the calculated noise data, incorporated in an interactive three dimensional environment, enabling the easy comprehension of noise problems, are presented. Furthermore additional information can be integrated into the framework to enhance the visualization of noise and the usability of the framework for different usages.
Der stetige Fortschritt in der Fahrzeugakustik zeigt sich besonders in dem gewonnenen Komfort-eindruck, obwohl die Ausstattungsmöglichkeiten durch Nebenaggregate (Mechatroniksystemen) an Anzahl, Funktion und Leistung deutlich zugenommen haben. Besonders Fahrzeuge der Oberklasse weisen eine Vielzahl von „mechatronischen“ Systemen mit den unterschiedlichsten Aktuatoren auf. Als Beispiele seien hier genannt: die hydraulische Wankstabilsierung und Lenkhilfe, die pneumati-sche Niveauregulierung, das elektrohydraulische Bremsregelsystem, das Hochdruckeinspritzsystem der Kraftstoffanlage oder die Vielzahl der elektrischen Stellmotoren, z.B. im Fensterheberantrieb, in Lenksäulen- oder Sitzverstellungen, usw. Die Leistungs- und Medienversorgung durch Stromkabel, Luftkanäle, Kraftstoff-, Rohr- und Schlauchleitungen stellen durch deren Verbindungen der Aggregate zur Karosserie auch Körper-schallnebenwege dar. Hierbei werden neben dem Körperschalleintrag des Verbrennungsmotors auch die Funktionsgeräusche der Hilfsaggregate selbst in den Fahrzeuginnenraum übertragen. Auf-grund der Vielzahl der Mechatroniksysteme und damit verbundenen Schallnebenwege übersteigt der Geräuschbeitrag die klassischen Schallpfade, wie Motorlagerung und Antriebsstranglagerung. Die Reduktion der Geräuschemission von Nebenaggregaten besitzt heute die gleiche Bedeutung in der Fahrzeugentwicklung wie die klassischen Themen der Strukturdynamik, Antriebs- und Strö-mungsakustik. Eine besondere Bedeutung haben hierbei die Schlauchleitungen der hydraulischen Lenkung und Wankstabilisierung, der Kraftstoffversorgung und der Klimaanlage. Sie stellen durch ihre Verbin-dung von Motoraggregat (Pumpe, Kompressor) zu Karosserieaggregat (Lenkgetriebe, Ventilblock) eine Körperschallbrücke dar. Die konstruktive Gestaltung der Schlauchleitungen und die geometri-sche Verlegung im Fahrzeugbauraum haben einen gravierenden Einfluss auf die Geräuschübertra-gung. Eine kostengünstige und gewichtsreduzierte Konstruktion mit ausreichender Einfügedäm-mung ist nur durch präzise Konstruktionsabstimmung innerhalb der frühen Phase des Produktent-wicklungsprozesses möglich. In dieser Gestaltungsphase werden die Konstruktionskonzepte der einzelnen Baugruppen festgelegt. Dies geschieht überwiegend am „virtuellen“ Gesamtfahrzeugmo-dell. Die Absicherung der Konzeptstudien durch Messungen am Gesamtfahrzeug hinsichtlich der Grenzwerteinhaltung ist deshalb nicht möglich. Auch Erfahrungswerte sind zur Beantwortung spe-zifischer Fragestellungen bei Weitem nicht ausreichend, weshalb auf Komponentenversuche oder Simulationen zurückgegriffen werden muss. Die akustische Beurteilung bedingt hierbei allerdings eine Grenzwertableitung aus dem Gesamtfahrzeug zum Mechatroniksystem, bzw. sogar ein „Run-terbrechen“ auf die Ebene der Einzelkomponenten. Die Aufgabe dieser Arbeit war es, funktionale Abhängigkeiten der Körperschallübertragung von konstruktiven Auslegungen biegeschlaffer Schlauchleitungen nachzuweisen. Hierzu mussten für die Berechung die fehlenden dynamische Steifigkeiten der Schlauchwandung und des Systems Öl-Schlauchwand der im Fahrzeug verlegten Schlauchleitungen ermittelt werden. Die Vielzahl der Schlauchmaterialien wurde durch definierte Schlauchproben repräsentiert. Zur Bestimmung der kinematischen Kenngrößen wurden zunächst neue Prüfstandskonzepte entwickelt, welche Schlauchverlegungen unter den in Fahrzeugen herrschenden Randbedingungen zulassen. Nach mehreren Konzeptverbesserungen und Wirksamkeitsprüfungen wurde ein „Akustik-Schlauchprüfstand“ konstruiert und gebaut. Mit diesem „Akustik-Schlauchprüfstand“ können nun die Körperschallübertragungseigenschaften von viskoelastischen Schlauchmaterialien und elastischen Stahl- bzw. Wellrohren auch außerhalb des Gesamtfahrzeugaufbaues fahrzeugunabhängig ermittelt werden. Eine Berücksichtigung der Fahrzeugrandbedingungen erfolgt hierbei durch die äußeren Lasten in Form eines Betriebskennfel-des. Das Betriebskennfeld, gebildet durch die äußeren Lasten des Fluiddrucks und der Umgebungs-temperatur, wird durch den wesentlichen geometrischen Lastfall der Biegeverlegung in Abhängig-keit vom Biegeradius ergänzt. Das Verhalten der kinematischen Steifigkeiten im Betriebskennfeld gibt Aufschluss über die für den Konstrukteur wichtigen Beeinflussungsmöglichkeiten der akusti-schen Übertragungseigenschaften. Aufgrund der kinematischen Verhärtung von viskoelastischen Materialien müssen die System-kenngrößen ermittelt werden. Dies bedeutet z.B. für das Elastizitätsverhalten nicht, die Steife zu bestimmen, sondern deren akustische Wirkung als kinematische Steife im für die Fahrzeugakustik relevanten Frequenzbereich 100 Hz bis 1000 Hz. Aufgrund des meist vorherrschenden linearen Amplitudenverhaltens im Betriebspunkt kann zur Dämpfungsberücksichtigung auf das lineare Kel-vin-Voigt Modell zurückgegriffen werden. Eine Vereinfachung der mathematischen Formulierun-gen der System- und Materialeigenschaften bietet hierbei die zulässige Beschränkung auf reine harmonische Schwingungen und die Berücksichtigung der Dämpfung durch die Einführung der komplexen Steife bzw. des komplexen E-Moduls. Nach einem Überblick über vorangegangene Arbeiten (Kapitel 2) werden zunächst die akustischen Grundlagen zur Beschreibung der komplexen Kenngrößen, wie kinematische Steife und E-Modul der Schlauchproben, aufgezeigt. Das Phänomen der Kontinuumschwingungen des massebehafteten Schlauches und die Ausbildung der stehenden Körperschallwellen in ihrer modalen Ausprägung als Dehn-, Torsion und Biegewelle werden erläutert (Kapitel 3). Zur Verifizierung der Messergebnisse wurden versuchsbegleitend Berechnungsmodelle der Schlauchproben entwickelt. Basierend auf der Technik der akustischen „Mehrpolmatrizen“ lassen sich mit ausreichender Genauigkeit die Verteilung der Kraft- und des Körperschallschnellepegels längs der Schlauchprobe sowie deren modale Schwingformen beschreiben (Kapitel 4). Die Mög-lichkeit, einen druckbelasteten Hydraulikschlauch mit einem simulatorisch modifizierbaren Fluid im Betriebskennfeld abzubilden, ist besonders zum Verständnis des Masseverhaltens und der hyd-raulischen Steife von Ölen hilfreich. Inspiriert durch den Zweimassenschwingeraufbau als akustischem „Tonpilz“ wurde ein Prüfstand-konzept erarbeitet (Kapitel 5.1). Hierzu wurden Versuchseinrichtungen zum Aufprägen von Flu-iddruck und homogener Wärmebelastung bei einstellbarer Biegeverlegung der Schlauchproben in einer entsprechend konstruierten Wärmekammer entwickelt. Mit Hilfe einer Aufspannvorrichtung werden selektiv die Schwingmoden des Kontinuums der technisch wichtigen stehenden Dehn-, Torsion- und Biegewellen kraftangeregt. Die sich einstellenden Eigenresonanzlagen werden mess-technisch in allen Raumrichtungen zeitgleich erfasst. Speziell konstruierte Impedanzmessköpfe für die Erfassung der statischen und kinematischen Messwerte erreichen bis zur Grenzfrequenz von 2 kHz die für eine Wellenreflexion ausreichend hohe dynamische Masse am Probenanfang und -ende. Zentrales Thema der experimentellen Untersuchungen ist das Materialverhalten im Betriebskenn-feld (Kapitel 5.2). Mit Hilfe exakter Eigenfrequenz- und Eigenmodemessungen wird der komplexe kinematische E-Modul des Schlauchs als Systemgröße bestimmbar. Die Berücksichtigung eines anisotropen Elastizitätsverhaltens der Schlauchwandung gelingt durch hierfür abgeleitete Glei-chungen: Mittels Gleichsetzen der reduzierten Kompressionsmodule, beschrieben durch die Korte-weg-Gleichung und dem zu Grunde liegenden Schlauch-Öl Federmodell, ergibt sich die Dehnwel-lensteife der Schlauchwandung. Ergänzend zum Kinematikfaktor, welcher das Verhältnis der stati-schen zur kinematischen Materialsteife beschreibt, wird der „Isotropenfaktor“ zur Beschreibung der Richtungsabhängigkeit des E-Moduls eingeführt. Alle dominanten Einflüsse und akustischen Zusammenhänge der Materialeigenschaften und ihrer geometrischen Größen werden funktional beschrieben und die Auswirkungen auf die Körperschallübertragung diskutiert. Die Betrachtungs-weise der gebogenen Schlauchleitungen und die damit verbundene Veränderung der Wellenge-schwindigkeit relativ zu geraden Schlauchproben sowie die durch Biegeverlegung mögliche Kopp-lung von Dehn- und Biegewelle werden formal mit dem Biegeradius, der Schlauchlänge und der Anregekraft mathematisch verknüpft. Für die praktische Anwendung zur kinematischen Schlauchprobenbeschreibung erfolgt eine Ap-proximation an die akustischen Kenndaten in einem Standardversuch. Nach Linearisierung ihn den Hauptbetriebspunkten kann das Schlauchsystem kinematisch durch Kennzahlen beschrieben wer-den. Hierdurch ist eine Klassifizierung in Entwicklungslastenheften möglich. Aus den Versuchen ermittelte Faktoren und Exponenten bieten die Möglichkeit, durch Gleichungen die Abhängigkeit der Körperschallübertragung von Druckbelastung, Materialtemperatur und Schlauchbiegeradius zu berücksichtigen. Mit dem „Akustik-Schlauchprüfstand“ und den in dieser Arbeit beschrieben Berechnungsverfahren können nun fahrzeugunabhängig auf einem Komponentenprüfstand die Körperschallübertragungs-eigenschaften der viskoelastischen Schlauchmaterialien im Betriebskennfeld ermittelt werden. Es erschließt sich ein weiteres Potenzial der akustischen Verbesserung der Dämmungseigenschaften von Schläuchen aufgrund ermittelbarer kinematischer Kenngrößen. Eine akustischen Kriterien folgende Schlauchmaterialauswahl und die entsprechend definierte Biegeverlegung ist nun mög-lich. Weitere Untersuchungen sollten der Kopplung von Dehn- und Biegewelle, ergänzt durch eine Tor-sionswellenüberlagerung, gelten. Auch ist die Funktion der Eingangsimpedanzen des „halbunendli-chen“ Schlauches bei der Wellenformkopplung zu ergründen. Ein Ansatz könnte das Aufstellen einer „Wellenkopplungsfunktion“ in Abhängigkeit der Biegeverlegung und der entsprechenden Implementierung in eine „Mehrpolübertagungsmatrix“ sein.
Grey-box modelling deals with models which are able to integrate the following two kinds of information: qualitative (expert) knowledge and quantitative (data) knowledge, with equal importance. The doctoral thesis has two aims: the improvement of an existing neuro-fuzzy approach (LOLIMOT algorithm), and the development of a new model class with corresponding identification algorithm, based on multiresolution analysis (wavelets) and statistical methods. The identification algorithm is able to identify both hidden differential dynamics and hysteretic components. After the presentation of some improvements of the LOLIMOT algorithm based on readily normalized weight functions derived from decision trees, we investigate several mathematical theories, i.e. the theory of nonlinear dynamical systems and hysteresis, statistical decision theory, and approximation theory, in view of their applicability for grey-box modelling. These theories show us directly the way onto a new model class and its identification algorithm. The new model class will be derived from the local model networks through the following modifications: Inclusion of non-Gaussian noise sources; allowance of internal nonlinear differential dynamics represented by multi-dimensional real functions; introduction of internal hysteresis models through two-dimensional "primitive functions"; replacement respectively approximation of the weight functions and of the mentioned multi-dimensional functions by wavelets; usage of the sparseness of the matrix of the wavelet coefficients; and identification of the wavelet coefficients with Sequential Monte Carlo methods. We also apply this modelling scheme to the identification of a shock absorber.
Colorectal cancer is the second most prevalent cancer form in both men and women in the Europe. In 2002, alimentary cancer (oesophagus, stomach, intestines) made up 26% of the annual incident cases of cancer amongst males in Europe, whereby about half of those were cancers of the colon and rectum (Eurostat 2002). Epidemiological evidence accumulating over the last decades indicates that besides a genetic disposition, diet plays a strong epigenetic role in the genesis of cancer. It is generally assumed that diet is causal for up to 80% of colorectal cancer (Bingham 2000). With the prospect of an approximated 50% rise in global cancer incidence over the first two decades of the 21st century, the World Health Organisation (WHO) has emphasized the need for an improvement in nutrition. Indeed there is increasing public health awareness with respect to nutrition. Today, living healthily is associated with less consumption of animal fats and red (processed) meat, moderate or no consumption of alcohol coupled with increased physical activity, and frequent intake of fruits, vegetables and whole grains (Bingham 1999; Johnson 2004). This idealogy partly stems from scientific epidemiological evidence supportive of an inverse correlation between the consumption of fruits and vegetables and the development cancer. Besides fibre and essential micro-nutrients like ascobate, folate, and tocopherols, the anti-carcinogenic properties of fruits and vegetables are generally thought to be rooted in the bioactivity of secondary plant components like flavonoids (Johnson 2004; Rice-Evans and Miller 1996; Rice-Evans 1995). Along with the increased public health awareness, has also come a burgeoning and lucrative dietary supplement industry, which markets products based on polyphenols and other potentially healthy compounds, sometimes with questionable promises of better health and increased longevity. These claims are based on accumulating in vitro and in vivo evidence indicating that flavonoids and polyphenols in fruits and vegetables can hinder proliferation, induce apoptosis of cancerous cells (Kern et al. 2005; Kumar et al. 2007; Thangapazham et al. 2007), act as antioxidants (Justino et al. 2006; Rice-Evans 1995) and influence cell signalling pathways (Marko et al. 2004; Joseph et al. 2007; Granado-Serrano et al. 2007), all of which are potential mechanisms proposed for their anti-carcinogenic activity. However, not only is the vast variety of supplements worrisome, but also problematic, is their easy accessibilty (just a click away on the internet) and the amount that can potentially be consumed. Such supplements are usually offered in pharmaceutical form (tablets, capsules, powder, concentrates) containing concentrations well beyond what is normally comsumable from the diet. For example, quercetin’s recommended intake is about 1g daily. However, estimates portend a possible daily increase of upto 1000 fold of the daily intake of quercetin (Hertog et al. 1995). Mindful of the concept of dose coined from the words of swiss scientist Paracelsus “What is it that is not poison? All things are poison and nothing is without poison. The right dose differentiates a poison and a remedy.” (“Alle Dinge sind Gift und nichts ist ohn’ Gift; allein die Dosis macht, dass ein Ding kein Gift ist”), it is thus conceivable that such high concentrations may not only reverse the acclaimed positive effects of flavonoids and polyphenols but also have negative effects thereby representing a health risk. The fact that direct evidence of the beneficial effects of flavonoids and polyphenols remains wanting, if not entirely lacking, coupled with the afore-mentioned marketing trend demands for a thorough examination of the possible adverse effects that may arise from increased consumption of flavonoids and polyphenols. The genesis and progression of cancer is usually accompanied by dysfunctional signalling of certain cell signalling pathways. Typical for colon carcinogenesis is the malfunctioning of the Wnt-signalling pathway, a pathway, which is crucial for the growth and development of normal colonocytes. The dysfunction of the Wnt-signalling pathway occurs in a manner that culminates in a proliferation stimulus of colonocytes, while differentiation is increasingly minimized. Hence, tumourigenesis is promoted. Interupting the proliferation stumuli by intervening in the actions of components of the Wnt-signalling pathway is one potential mechanism for the anti-carcinogenic action of flavonoids and polyphenols (Pahlke et al. 2006; Dashwood et al. 2002; Park et al. 2005). However, as previously hinted, the indulgence in the consumption of flavonoids and polyphenols based supplements could instead lead to a proliferation stimulus and provoke or promote carcinogenesis in normal cells or pre-cancerous cells respectively. The aim of this work was to
Fragmentation of habitats, especially of tropical rainforests, ranks globally among the most pervasive man-made disturbances of ecosystems. There is growing evidence for long-term effects of forest frag-mentation and the accompanying creation of artificial edges on ecosystem functioning and forest structure, which are altered in a way that generally transforms these forests into early successional systems. Edge-induced disruption of species interactions can be among the driving mechanisms governing this transformation. These species interactions can be direct (trophic interactions, competition, etc.) or indirect (modification of the resource availability for other organisms). Such indirect interactions are called ecosystem engineering. Leaf-cutting ants of the genus Atta are dominant herbivores and keystone-species in the Neotropics and have been called ecosystem engineers. In contrast to other prominent ecosystem engineers that have been substantially decimated by human activities some species of leaf-cutting ants profit from anthropogenic landscape alterations. Thus, leaf-cutting ants are a highly suitable model to investigate the potentially cascading effects caused by herbivores and ecosystem engineers in modern anthropogenic landscapes following fragmentation. The present thesis aims to describe this interplay between consequences of forest fragmentation for leaf-cutting ants and resulting impacts of leaf-cutting ants in fragmented forests. The cumulative thesis starts out with a review of 55 published articles demonstrating that herbivores, especially generalists, profoundly benefit from forest edges, often due to (1) favourable microenviron-mental conditions, (2) an edge-induced increase in food quantity/quality, and (3; less well documented) disrupted top-down regulation of herbivores (Wirth, Meyer et al. 2008; Progress in Botany 69:423-448). Field investigations in the heavily fragmented Atlantic Forest of Northeast Brazil (Coimbra forest) were subsequently carried out to evaluate patterns and hypotheses emerging from this review using leaf-cutting ants of the genus Atta as a model system. Colony densities of both Atta species occuring in the area changed similarly with distance to the edge but the magnitude of the effect was species-specific. Colony density of A. cephalotes was low in the forest interior (0.33 ± 1.11 /ha, pooling all zones >50 m into the forest) and sharply increased by a factor of about 8.5 towards the first 50 m (2.79 ± 3.3 /ha), while A. sexdens was more uniformly distributed (Wirth, Meyer et al. 2007; Journal of Tropical Ecology 23:501-505). The accumulation of Atta colonies persisted at physically stable forest edges over a four-year interval with no significant difference in densities between years despite high rates of colony turn-over (little less than 50% in 4 years). Stable hyper-abundant populations of leaf-cutting ants accord with the constantly high availability of pioneer plants (their preferred food source) as previously demonstrated at old stabilised forest edges in the region (Meyer et al. submitted; Biotropica). In addition, plants at the forest edge might be more attractive to leaf-cutting ants because of their physiological responses to the edge environment. In bioassays with laboratory colonies I demonstrated that drought-stressed plants are more attractive to leaf-cutting ants because of an increase in leaf nutrient content induced by osmoregulation (Meyer et al. 2006; Functional Ecology 20:973-981). Since plants along forest edges are more prone to experience drought stress, this mechanism might contribute to the high resource availabil-ity for leaf-cutting ants at forest edges. In light of the hyper-abundance of leaf-cutting ants within the forest edge zone (first 50 m), their po-tentially far-reaching ecological importance in anthropogenic landscapes is apparent. Based on previous colony-level estimates, we extrapolated that herbivory by A. cephalotes removes 36% of the available foliage at forest edges (compared to 6% in the forest interior). In addition, A. cephalotes acted as ecosys-tem engineers constructing large nests (on average 55 m2: 95%-CI: 22-136) that drastically altered forest structure. The ants opened gaps in the canopy and forest understory at nest sites, which allowed three times as much light to reach the nest surface as compared to the forest understory. This was accompa-nied by an increase in soil temperatures and a reduction in water availability. Modifications of microcli-mate and forest structure greatly surpassed previously published estimates. Since higher light levels were detectable up to about 4 m away from the nest edge, an area roughly four times as big as the actual nest (about 200 and 50 m2, respectively) was impacted by every colony, amounting to roughly 6% of the total area at the forest edge (Meyer et al. in preparation; Ecology). The hypothesized impacts of high cutting pressure and microclimatic alterations at nest sites on forest regeneration were directly tested using transplanted seedlings of six species of forest trees. Nests of A. cephalotes differentially impacted survival and growth of seedlings. Survival differed highly significantly between habitats and species and was generally high in the forest, yet low on nests where it correlated strongly with seed size of the species. These results indicate that the disturbance regime created by leaf-cutting ants differs from other distur-bances, since nest conditions select for plant species that profit from additional light, yet are large-seeded and have resprouting abilities, which are best suited to tolerate repeated defoliation on a nest (Meyer et al. in preparation; Journal of Tropical Ecology). On an ecosystem scale leaf-cutting ants might amplify edge-driven microclimatic alterations by very high rates of herbivory and the maintenance of canopy gaps above frequent nests. By allowing for an increased light penetration Atta may, ultimately, contribute to a dominating, self-replacing pioneer communities at forest edges, possibly creating a positive feed-back loop. Based on the persisting hyper-abundance of leaf-cutting ants at old edges of Coimbra forest and the multifarious impacts documented, we conclude that the ecological importance of leaf-cutting ants in pristine forests, where they are commonly believed to be keystone species despite very low colony densities, is greatly surpassed in anthropogenic landscapes In fragmented forests, Atta has been identified as an essential component of a disturbance regime that causes a post-fragmentation retrogressive succession. Apparently, these forests have reached a new self-replacing secondary state. I suggest additional human interference in form of thoughtful management in order to break this cycle of self-enhancing disturbance and to enable forest regeneration along the edges of threatened forest remnants. Thereby the situation of the forest as a whole can be ameliorated and the chances for a long-term retention of biodiversity in these landscapes increased.
Diese Abhandlung dokumentiert wesentliche Forschungsergebnisse der Untersuchung von transluzenten Sandwichstrukturen in ihrer Eignung und Verwendbarkeit als tragende Konstruktionselemente in baulichen Strukturen. Vor dem Hintergrund der Bestrebungen, materialsparende und energieeffiziente Produkte für ein zunehmend komplexes Anforderungsprofil zu entwickeln, steigt seit einigen Jahren der Anteil konstruktiver Bauteile in Sandwichbauweise in der Architektur und im Bauwesen stetig an. Dabei spielt der Leichtbaucharakter dieser Bauweise eine entscheidende Rolle. Sandwichstrukturen sind aufgrund ihres geschichteten flächigen Aufbaus in der Regel als Platten oder Paneele erhältlich. Sie lassen sich als biegebeanspruchte Platten, Wandscheiben oder auch als räumlich gekrümmte Flächen verwenden und kombinieren. Seit einigen Jahren werden auch mehrschichtige Plattenwerkstoffe auf dem Markt angeboten, die aus lichtdurchlässigen Kunststoffen wie Acrylglas, Polycarbonat oder Glasfaserverstärkten Kunststoffen bestehen. Sie werden in unterschiedlichsten Formen, Farben, Strukturen und Abmessungen hergestellt. Die Bandbreite der Produktpalette orientiert sich dabei vor allem an den Herstellungsmöglichkeiten und marktgängigen Fertigungstechniken der Kunststoffindustrie. Betrachtet man den überwiegenden Teil der praktischen Anwendungen dieser Plattenmaterialien, so wird deutlich, dass ein großer Anteil der Verwendung den Sandwicheffekt gar nicht oder nur eingeschränkt nutzt. In diesem Zusammenhang steht vorrangig die Frage, welche dieser Produkte den Strukturprinzipien eines Sandwichverbundes wirklich entsprechen und die statisch-konstruktiven Vorzüge des Sandwichverbundes effektiv nutzen können. Bisherige Anwendungsschwerpunkte sind Messe- und Innenausbauten sowie Fassaden bei Freizeit- und Industriebauten. Die statisch-konstruktiven Potentiale, die der mehrschichtige Aufbau der Produkte teilweise mit sich bringt, bleiben aber weitgehend ungenutzt. Die konstruktive Verwendung und Fügung unterscheidet sich bisher nicht wesentlich von der monolithischer Plattenmaterialien. Kapitel 1 beschreibt einführend die grundlegenden Prinzipien der Sandwichbauweise und dient zur Definition von Begriffen und Bezeichnungen. Bezug nehmend zu opaken Sandwichstrukturen werden wesentliche Merkmale und grundlegende Eigenschaften transluzenter Sandwichstrukturen aufgezeigt. Basierend auf einer umfangreichen Produktanalyse sowie ausgewählten Anwendungsbeispielen wird in Kapitel 2 eine strukturbasierende Typologie transluzenter Sandwichstrukturen aufgestellt. Dabei werden unterschiedliche bauliche Eigenschaften überprüft und tabellarisch gegenübergestellt. Ein spezieller Fokus liegt dabei auf der Untersuchung, in welcher Weise das jeweilige Herstellungsverfahren Einfluss auf das jeweilige Eigenschaftsprofil der Plattenprodukte besitzt. In ausgewählten Projektbeispielen werden Stärken und Schwächen des bisherigen Einsatzes mit Schwerpunkt in bau- und tragkonstruktiver Hinsicht aufgezeigt und bewertet. In Kapitel 3 erfolgt die Untersuchung der in Kapitel 2 vorgestellten transluzenten Sandwichstrukturen in Form von Versuchsreihen hinsichtlich ihrer statisch-konstruktiven Fähigkeiten. Die resultierenden Ergebnisse bilden die Grundlage zur Beurteilung der konstruktiven Eignung der untersuchten Sandwichverbunde für tragwerksrelevante Anwendungen. Basierend auf den Versuchsergebnissen aus Kapitel 3 wird in Kapitel 4 der Plattentyp mit dem größten statisch-konstruktiven Potential einer weiterführenden Optimierung unterzogen. Hierbei werden zwei Ansätze verfolgt: zum einen die Optimierung der Deckschichtlage in ihrer Materialbeschaffenheit und Verbundwirkung, zum anderen die Optimierung der Kernschichtlage in Bezug auf die geometrische Struktur. In Kapitel 5 wird neben der tragkonstruktiven Eignung des in Kapitel 4 optimierten transluzenten Sandwichverbundes die baupraktische Verwendbarkeit und Einsatzfähigkeit untersucht. Hierzu werden erweiterte Anwendungsspektren in der Architektur und dem Messebau aufgezeigt. Ziel ist dabei die Nutzung der Sandwichplatte als Konstruktionsraum für Fügetechnik. Den aufgezeigten Potentialen für selbsttragende Anwendungen wird versucht, fügetechnisch zu begegnen. Die konstruktive Fügung ist Thema praktischer Detailstudien und Modellversuche zu material- und anwendungsgerechten Methoden des Fügens, die in diesem Kapitel exemplarisch aufgezeigt und bewertet werden. Zusammenfassende Schlussfolgerungen bilden den Abschluss mit einem Ausblick auf weiterführende Anknüpfungspunkte der Forschung.
In this thesis, we investigate a statistical model for precipitation time series recorded at a single site. The sequence of observations consists of rainfall amounts aggregated over time periods of fixed duration. As the properties of this sequence depend strongly on the length of the observation intervals, we follow the approach of Rodriguez-Iturbe et. al. [1] and use an underlying model for rainfall intensity in continuous time. In this idealized representation, rainfall occurs in clusters of rectangular cells, and each observations is treated as the sum of cell contributions during a given time period. Unlike the previous work, we use a multivariate lognormal distribution for the temporal structure of the cells and clusters. After formulating the model, we develop a Markov-Chain Monte-Carlo algorithm for fitting it to a given data set. A particular problem we have to deal with is the need to estimate the unobserved intensity process alongside the parameter of interest. The performance of the algorithm is tested on artificial data sets generated from the model. [1] I. Rodriguez-Iturbe, D. R. Cox, and Valerie Isham. Some models for rainfall based on stochastic point processes. Proc. R. Soc. Lond. A, 410:269-288, 1987.
Die in dieser Dissertation durchgeführten Reaktivitätstudien an Metallclustern (Cobalt, Rhodium, Nicken und Niob) dienten dazu, einen Einblick in Elementarschritte der C-H-Aktivierung zu geben. Hierfür wurde eine Laserverdampfungsquelle an einem FT-ICR-Massenspektrometer installiert. Cobaltcluster-Kationen zeigten bei der Umsetzung mit Ethan eine größenabhängige Reaktion. Nur spezielle Cluster im mittleren Größenbereich (Con+, n = 10-16) waren in der Lage unter Abspaltung von molekularem Wasserstoff mit Ethan zu reagieren. Es ist gezeigt worden, dass Cobaltcluster durch die Umsetzung mit Distickstoffmonoxid unter Abspaltung von molekularem Stickstoff oxidierbar sind. Rhodium-Cluster wurden systematisch mit den Alkoholen Methanol, Ethanol und Isopropanol umgesetzt. Als Produkte der Reaktion von Rhodiumcluster-Kationen mit Methanol traten das intakt adsorbierte, das partiell und das vollständig dehydrierte Methanol auf. Die Clustergrößenabhängigkeit zeigte, dass nur große Cluster (Rhn+ mit n > 7) Methanol intakt adsorbierten. Die vollständige Dehydrierung wurde im gesamten Clustergrößenbereich beobachtet. Dass große Cluster entweder unter intakter Anlagerung oder unter vollständiger Dehydrierung reagierten, deutet darauf hin, dass zwei unterschiedliche Reaktionsmechanismen vorliegen, was in einem hypothetischen Modell erklärt werden soll. Die Umsetzung von größeren Alkoholen wie Ethanol und Isopropanol mit Rhodiumclustern zeigte eine unspezifische Reaktionschemie. Diese ist in der höheren Flexibilität des Alkohols durch die vergrößerte Kettenlänge begründet. Ein allgemeiner Vergleich zeigte, dass die Anionen um fast zwei Größenordnungen unreaktiver sind als die Kationen. Sowohl für die Anionen als auch für die Kationen nahm die Reaktivität von Methanol zu Ethanol und Isopropanol zu. Kleine Rhodiumcluster-Anionen waren deutlich reaktiver als größere. Eine Besonderheit der Rhodiumcluster-Kationen in der Umsetzung mit Methanol war das Auftreten von zwei Reaktionsisomeren im Clustergrößenbereich n = 8, 10, 11, 13-18. Dies wurde durch die Reaktion mit Ethanol bestätigt. Kleine Nickelcluster-Kationen stellten das untersuchte Modellsystem zur katalytischen Oxidierung von Kohlenmonoxid mittels Distickstoffmonoxid dar. Niobcluster wurden vergleichend mit Aromaten (Benzol und Naphthalin) und Heteroaroaten (Furan, Thiophen und Pyrrol) untersucht. Abschließend werden IRMPD-Spektren, die am Freie-Elektronen-Laser (CLIO, Orsay/Paris) für protonierte und deprotonierte Adipinsäure und für das protonierte Dimer von Carnosin und für einen Carnosin-Zink-Komplex vorgestellt und mit vorhandenen theoretischen Rechnungen verglichen.
In this work we study and investigate the minimum width annulus problem (MWAP), the circle center location or circle location problem (CLP) and the point center location or point location problem (PLP) on Rectilinear and Chebyshev planes as well as in networks. The relations between the problems have served as a basis for finding of elegant solution, algorithms for both new and well known problems. So, MWAP was formulated and investigated in Rectilinear space. In contrast to Euclidean metric, MWAP and PLP have at least one common optimal point. Therefore, MWAP on Rectilinear plane was solved in linear time with the help of PLP. Hence, the solution sequence was PLP-->MWAP. It was shown, that MWAP and CLP are equivalent. Thus, CLP can be also solved in linear time. The obtained results were analysed and transfered to Chebyshev metric. After that, the notions of circle, sphere and annulus in networks were introduced. It should be noted that the notion of a circle in a network is different from the notion of a cycle. An O(mn) time algorithm for solution of MWAP was constructed and implemented. The algorithm is based on the fact that the middle point of an edge represents an optimal solution of a local minimum width annulus on this edge. The resulting complexity is better than the complexity O(mn+n^2logn) in unweighted case of the fastest known algorithm for minimizing of the range function, which is mathematically equivalent to MWAP. MWAP in unweighted undirected networks was extended to the MWAP on subsets and to the restricted MWAP. Resulting problems were analysed and solved. Also the p–minimum width annulus problem was formulated and explored. This problem is NP–hard. However, the p–MWAP has been solved in polynomial O(m^2n^3p) time with a natural assumption, that each minimum width annulus covers all vertexes of a network having distances to the central point of annulus less than or equal to the radius of its outer circle. In contrast to the planar case MWAP in undirected unweighted networks have appeared to be a root problem among considered problems. During investigation of properties of circles in networks it was shown that the difference between planar and network circles is significant. This leads to the nonequivalence of CLP and MWAP in the general case. However, MWAP was effectively used in solution procedures for CLP giving the sequence MWAP-->CLP. The complexity of the developed and implemented algorithm is of order O(m^2n^2). It is important to mention that CLP in networks has been formulated for the first time in this work and differs from the well–studied location of cycles in networks. We have constructed an O(mn+n^2logn) algorithm for well–known PLP. The complexity of this algorithm is not worse than the complexity of the currently best algorithms. But the concept of the solution procedure is new – we use MWAP in order to solve PLP building the opposite to the planar case solution sequence MWAP-->PLP and this method has the following advantages: First, the lower bounds LB obtained in the solution procedure are proved to be in any case better than the strongest Halpern’s lower bound. Second, the developed algorithm is so simple that it can be easily applied to complex networks manually. Third, the empirical complexity of the algorithm is equal to O(mn). MWAP was extended to and explored in directed unweighted and weighted networks. The complexity bound O(n^2) of the developed algorithm for finding of the center of a minimum width annulus in the unweighted case does not depend on the number of edges in a network, because the problems can be solved in the order PLP-->MWAP. In the weighted case computational time is of order O(mn^2).
In many medical, financial, industrial, e.t.c. applications of statistics, the model parameters may undergo changes at unknown moment of time. In this thesis, we consider change point analysis in a regression setting for dichotomous responses, i.e. they can be modeled as Bernoulli or 0-1 variables. Applications are widespread including credit scoring in financial statistics and dose-response relations in biometry. The model parameters are estimated using neural network method. We show that the parameter estimates are identifiable up to a given family of transformations and derive the consistency and asymptotic normality of the network parameter estimates using the results in Franke and Neumann Franke Neumann (2000). We use a neural network based likelihood ratio test statistic to detect a change point in a given set of data and derive the limit distribution of the estimator using the results in Gombay and Horvath (1994,1996) under the assumption that the model is properly specified. For the misspecified case, we develop a scaled test statistic for the case of one-dimensional parameter. Through simulation, we show that the sample size, change point location and the size of change influence change point detection. In this work, the maximum likelihood estimation method is used to estimate a change point when it has been detected. Through simulation, we show that change point estimation is influenced by the sample size, change point location and the size of change. We present two methods for determining the change point confidence intervals: Profile log-likelihood ratio and Percentile bootstrap methods. Through simulation, the Percentile bootstrap method is shown to be superior to profile log-likelihood ratio method.
Within this thesis a series of molecular species has been studied, with focus on hydrogen bonded species and on (solvated) transition metal complexes. Experimental techniques such as FT-ICR-MS and IRMPD were combined with ab initio calculations for the determination of structure and reactivity of the aforementioned types of systems. On the basis of high level electronic structure calculations of neutral water clusters (H2O)n with n = 17-21 a transitional size regime has been determined, where a structural stabilization between all-surface and interior configurations alternates with the addition or removal of a single water molecule. Electronic structure calculations suggested that for n = 17 and 19 the interior configuration would be energetically more stable than the all-surface one. The gas phase infrared spectrum of the singly hydrated ammonium ion, NH4+(H2O), had previously been recorded by photodissociation spectroscopy of mass selected ions and interpreted by means of ab initio calculations. The present work provides additional information on the shape of the potential energy curves of NH4+(H2O) along the N-H distance on MP2/aug-cc-pVDZ level of theory yielding an anharmonic potential shape. Calculation of potential energy curves of the O-H mode of the intramolecular hydrogen bond of various dicarboxylic acids (oxalic to adipic acid) revealed that the shapes of the potentials directly correlate to the size of the system and the resulting ring strain The shape of the potential is also influenced by the charge of the system. Calculation of anharmonic frequencies based on the VPT2 approach lead to reasonable results in all systems with narrow potentials. IRMPD spectra of complexes in the gas phase have been recorded for a series of cationic vanadium oxide complexes when reacted with acetonitrile, methanol and ethanol. The experimental spectra are compared to calculated absorption spectra. The systematic DFT study identifies potential candidates for reductive nitrile coupling in cationic transition metal acetonitrile complexes. On the basis of the calculations, the formation of metallacyclic structures in group 3 through 7 complexes can be ruled out. Solvation of the transition metal cation by five acetonitrile ligands leads to a reductive nitrile coupling reaction in three types of complexes, namely those containing either niobium, tantalum or tungsten.
Acidic zeolites like H-Y, H-ZSM-5, H-MCM-22 and H-MOR zeolites were found to be the selective adsorbents for the removal of thiophene from toluene or n-heptane as solvent. The competitive adsorption of toluene is found to influence the adsorption capacity for thiophene and is more predominant when high-alumina zeolites are used as adsorbents. This behaviour is also reflected by the results of the adsorption of thiophene on H-ZSM-5 zeolites with varied nSi/nAl ratios (viz. 13, 19 and 36) from toluene and n-heptane as solvents, respectively. UV-Vis spectroscopic results show that the oligomerization of thiophene leads to the formation of dimers and trimers on these zeolites. The oligomerization in acid zeolites is regarded to be dependent on the geometry of the pore system of the zeolites. The sulphur-containing compounds with more than one ring viz. benzothiophene, which are also present in substantial amounts in certain hydrocarbon fractions, are not adsorbed on H-ZSM-5 zeolites. This is obvious, as the diameter of the pore aperture of zeolite H-ZSM-5 is smaller than the molecular size of benzothiophene. Metal ion-exchanged FAU-type zeolites are found to be promising adsorbents for the removal of sulphur-containing compounds from model solutions. The introduction of Cu+-, Ni2+-, Ce3+-, La3+- and Y3+- ions into zeolite Na+-Y by aqueous ion-exchange substantially improves the adsorption capacity for thiophene from toluene or n-heptane as solvent. More than the absolute content of Cu+-ions, the presence of Cu+-ions at the sites exposed to supercages is believed to influence the adsorption of thiophene on Cu+-Y zeolite. It was shown experimentally for the case of Cu+-Y and Ce3+-Y that the supercages present in the FAU zeolite allow for an access of bulkier sulphur-containing compounds (viz. benzothiophene, dibenzothiophene and dimethyl dibenzothiophene). The presence of these bulkier compounds compete with thiophene and are preferentially adsorbed on Cu+-Y zeolite. IR spectroscopic results revealed that the adsorption of thiophene on Na+-Y, Cu+-Y and Ni2+-Y is primarily a result of the interaction of thiophene via pi-complexation between C=C double bond (of thiophene) and metal ions (in the zeolite framework). A different mode of interaction of thiophene with Ce3+-, La3+- and Y3+-metal ions was observed in the IR spectra of thiophene adsorbed on Ce3+-Y, La3+-Y and Y3+-Y zeolites, respectively. On these adsorbents, thiophene is believed to interact via a lone electron pair of the sulphur atom with metal ions present in the adsorbent (M-S interaction). The experimental results show that there is a large difference in the thiophene adsorption capacities of pi-complexation adsorbents (like Cu+-Y, Ni2+-Y) between the model solution with toluene as solvent and the model solution with n-heptane as solvent. The lower capacity of these zeolites for the adsorption of thiophene from toluene than from n-heptane as solvent is the clear indication of competition of toluene in interating with adsorbent in a way similar to thiophene. The difference in thiophene adsorption capacities is very low in the case of adsorbents Ce3+-Y, La3+-Y and Y3+-Y, which are believed to interact with thiophene predominantly by direct M3+-S bond (thiophene interacting with metal ion via a lone pair of electrons). TG-DTA analysis was used to study the regeneration behaviour of the adsorbents. Acid zeolites can be regenerated by simply heating at 400 °C in a flow of nitrogen whereas thiophene is chemically adsorbed on the metal ion. By contrast, it is not possible to regenerate by heating under idle inert gas flow. The only way to regenerate these adsorbents is to burn off the adsorbate, which eventually brings about an undesired emission of SOx. The exothermic peaks appeared at different temperatures in the heat flow profiles of Cu+-Y, Ce3+-Y, La3+-Y and Y3+-Y are also indicating that two different types of interaction are present as revealed by IR spectroscopy, too. One major difficulty in reducing the sulphur content in fuels to value below 10 ppm is the inability in removing alkyl dibenzothiophenes, viz. 4,6 dimethyl dibenzothiophene, by the existing catalytic hydrodesulphurization technique. Cu+-Y and Ce3+-Y were found in the present study to adsorb this compound from toluene to a certain extent. To meet the stringent regulations on sulphur content, selective adsorption by zeolites could be a valuable post-purification method after the catalytic hydrodesulphurization unit.
Diese Arbeit beschäftigte sich mit der Modulation oxidativer Zellschäden bei Hämodialysepatienten durch Pro- und Antioxidantien. Im ersten Teil wurden die prooxidativen Auswirkungen der drei zur intravenösen Applikation bestimmten Eisenmedikamente Ferrlecit® (Glukonat) [ältestes Medikament], Venofer® (Saccharat), CosmoFer® (Dextran) in vitro sowie die Modulation des oxidativen Stress durch eine Ferrlecit®-Gabe bei HD-Patienten bestimmt. Die Bestimmungen der DNA-Schäden mittels Comet Assay und des LPO-Produkts Malondialdehyd mittels HPLC/Fluoreszenzdetektion zeigten in vitro bei U937-Zellen, isolierten humanen Lymphozyten und ex vivo bei humanem Vollblut ein im Vergleich zu Ferrlecit® und Venofer® deutlich geringeres Schädigungspotential von CosmoFer®. Der Dextran-Komplex (höchste Komplexstabilität) scheint gegenüber den Glukonat- und Saccharat-Komplexen verträglicher zu sein und sollte in Zukunft bevorzugt bei der Anämie-Behandlung eingesetzt werden. Die Ergebnisse der Untersuchungen des oxidativen Stress bei mit Ferrlecit® behandelten HD-Patienten zeigen deutliche Anstiege bei den DNA-Schäden und der LPO zu allen Messzeitpunkten nach Ende der Eisengabe und somit auch die Relevanz der erhaltenen in vitro Daten für die Belastungssituation in vivo. Die Abstufungen im Schädigungspotential, die bei den in vitro Tests erhalten wurden, decken sich auch mit den Untersuchungen von Pai et al. bei HD-Patienten, bei denen sich für das Ausmaß der Schädigung die Rangfolge Fe-Glukonat > Fe-Saccharat > Fe-Dextran ergab [Pai et al., 2007]. Im zweiten Teil dieser Arbeit wurde das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil in einer humanen Interventionsstudie mit Biomarkern der oxidativen Zellschädigung, des oxidativen Status der Zelle und der Zellantwort charakterisiert. Ergänzend wurden Untersuchungen zur antioxidativen Kapazität vergleichbarer Fruchtsäfte durchgeführt. 21 HD-Patienten nahmen nach einer dreiwöchigen Run-in-Phase über vier Wochen täglich 200 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 31,1 mmol/L Trolox) auf. Anschließend folgte eine dreiwöchige Wash-out-Phase ohne Saftaufnahme. Wöchentlich wurde Blut entnommen und zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Malondialdehyd (LPO-Produkt), Proteinoxidation (Carbonyle) Glutathionspiegel/-status, DNA-Bindungsaktivität des Transkriptionsfaktors Nuclear Factor kappa B und antioxidative Kapazität (TEAC) sowie zur Erfassung der Harnsäure-, Triglycerid- und Anthocyankonzentrationen verwendet. Die Ergebnisse zeigten eine signifikante Abnahme der oxidativen DNA-Schäden (p< 0,0001), der MDA-Konzentration (p< 0,001) und des Carbonylgehaltes (p< 0,0001), eine Zunahme des tGSH-Spiegels und des Glutathionstatus (je p< 0,0001), ein Rückgang des GSSG-Spiegels (p< 0,0001) und der DNA-Bindungsaktivität von Nuclear Factor kappa B (p< 0,0001) während der 4-wöchigen Saftaufnahme im Vergleich zur 3-wöchigen Run-in-Phase. Ein leicht signifikanter Rückgang ergab sich für den Harnsäuregehalt (p< 0,05), der TEAC und die Triglyceridkonzentrationen dagegen wurde nicht beeinflusst. In der Wash-out-Phase zeigte sich, dass manche Messwerte direkt nach Ende der Saftaufnahme (GSSG, p< 0,0001; Proteincarbonyle, p< 0,0001) oder mit einer Woche Verspätung (DNA-Gesamtschäden, p< 0,0001) wieder anstiegen bzw. absanken (Glutathionspiegel/status, jeweils p< 0,0001), was für eine kurzzeitige Wirkung (< 1 Woche) spricht. Beim Malondialdehyd-Gehalt und der DNA-Bindungsaktivität von Nuclear Factor kappa B handelt es sich offensichtlich um eine längerfristig anhaltende protektive Wirkung, die Werte verändern sich im Vergleich zur Saftafnahme-Phase nur unwesentlich. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in einer Studie mit fast polyphenolfreiem Vergleichssaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte [Weisel et al., 2006]. Zusammenfassend konnte in dieser Arbeit das antioxidative Potential eines flavonoid/polyphenolreichen roten Mischfruchtsafts zur Verringerung oxidativer Zellschädigung bei Hämodialysepatienten eindeutig nachgewiesen werden. Der Konsum von antioxidativ wirksamen Fruchtsäften ist ein vielversprechender Präventions- und Therapieansatz für Patienten, die an Niereninsuffizienz und ROS-assoziierten Krankheiten leiden. Die Aufnahme natürlicher Antioxidantien mit der Nahrung über solche Säfte scheint eine Alternative zur chronischen Anwendung von hochdosierten Supplementen zu sein.
In dieser Arbeit konnte durch ein Assay-System, das ausgehend von publizierten Methoden für S. pneumoniae adaptiert wurde, eine inter- und intraspezies Inhibierung anderer Stämme nachgewiesen werden. Dies gilt für die zwei S. pneumoniae TIGR4 und R6 in denen Bacteriocingene beschrieben waren ebenso, wie für Vertreter gobal verbreiteter Isolate verschiedener Serotypen und unterschiedlicher klonaler Zugehörigkeit. Da bei den verschiedenen Stämmen Unterschiede in der Hemmstärke und im Wirkspektrum beobachtet wurden, wurde sowohl das die Bacteriocingene enthaltene pnc-Cluster, wie auch das spi-Regulationscluster einiger Stämme sequenziert und genauer analysiert. Einige der im pnc-Cluster von S. pneumoniae identifizierten ORFs ließen sich anhand der Merkmale ihrer Genprodukte zu Bacteriocinen der Klasse IIb zu ordnen. Sie besitzen alle gut konservierte Leader-Peptide, variieren jedoch in der AS-Sequenz und im pI ihrer Propeptide. Des Weiteren befinden sich Gene für Immunitätsproteine, Membranproteine, IS-Elemente, AAXProteasen und hypothetische Proteine in den untersuchten pnc-Clustern. Das spi-Cluster zeigte bereits in vorhergehenden Versuchen Einfluss auf die Regulation der stromabwärts gelegenen Gene des pnc-Clusters (de Saizieu et al., 2000; Reichmann & Hakenbeck, 2000). Es ließen sich z.T. Unterschiede in den AS-Sequenzen der Histidinkinase SpiH, dem ABCTransporter SpiABCD und dem Peptidpheromon SpiP zwischen den untersuchten Stämmen erkennen. Damit ließ sich die Selektivität des QS-Regulationsmechanismus, wie er bereits beschrieben wurde, erklären (de Saizieu et al., 2000; Reichmann & Hakenbeck, 2000). Die Bedeutung des spi-TCS, des SpiABCD-Transporter und der CAAX-Protease für Regulation, Produktion und Immunität der Bacteriocinproduktion konnte durch Mutationsanalyse am Beispiel von S. pneumoniae 2306 nachgewiesen werden. Offensichtlich existieren im Stamm S. pneumoniae 2306 jedoch noch andere Bacteriocingene außerhalb des pnc-Clusters, die u.a. auf Grund fehlender genomischer Information nicht identifiziert werden konnten. Die biologische Bedeutung der Bacteriocinproduktion ist vermutlich im Konkurrenzkampf um ökologische Nischen, bzw. Steigerung von möglichen DNA-Rekombinationsereignissen in natürlich kompetenten Streptokokkenspezies durch erhöhte Freisetzung von DNA verwandter Arten zu sehen. Als ein besonders starker Bacteriocinproduzent mit einem breiten Wirkspektrum stellte sich S. pneumonaie 632 heraus. Dies könnte auf einen Zusammenhang mit der globalen Verbreitung hindeuten und stellt somit einen interessanten Aspekt für weitere Forschungen dar.
The main motivation of this contribution is to introduce a computational laboratory to analyse defects and fractures at the sub--micro scale. To this end, we have attempted to present a continuum--atomistic multiscale algorithm for the analysis of crystalline deformation, i.e. we have combined the above--mentioned Cauchy--Born rule within a finite element approximation (FEM) on the continuum region with a molecular dynamics (MD) resolution on the atomistic domain. The aim is twofold: on the one hand the stability, i.e. validity of the Cauchy--Born rule and its transition to non--affine deformation at the micron--scale is studied with the help of molecular dynamics approach to capture fine--scales features; on the other hand a horizontal FEM/MD, i.e. continuum atomistic coupling, is envisaged in order to study representative cases of crystalline defects. To cope with the latter we have introduced a horizontal coupling method for continuum--atomistic analysis.
The high demanded data throughput of data communication between units in the system can be covered by short-haul optical communication and high speed serial data communication. In these data communication schemes, the receiver has to extract the corresponding clock from serial data stream by a clock and data recovery circuit (CDR). Data transceiver nodes have their own local reference clocks for their data transmission and data processing units. The reference clocks are normally slightly different even if they are specified to have the same frequency. Therefore, the data communication transceivers always work in a plesiochronous condition, an operation with slightly different reference frequencies. The difference of the data rates is covered by an elastic buffer. In a data readout system in the experiment in particle physics, such as a particle detector, the data of analog-to-digital converters (ADCs) in all detector nodes are transmitted over the networks. The plesiochronous condition in these networks are non-preferable because it causes the difficulty in the time stamping, which is used to indicate the relative time between events. The separated clock distribution network is normally required to overcome this problem. If the existing data communication networks can support the clock distribution function, the system complexity can be largely reduced. The CDRs on all detector nodes have to operate without a local reference clock and provide the recovered clocks, which have sufficiently good quality, for using as the reference timing for their local data processing units. In this thesis, a low jitter clock and data recovery circuit for large synchronous networks is presented. It possesses a 2-loop topology. They are clock and data recovery loop and clock jitter filter loop. In CDR loop, the CDR with rotational frequency detector is applied to increase its frequency capture range, therefore the operation without local reference clock is possible. Its loop bandwidth can be freely adjusted to meet the specified jitter tolerance. The 1/4-rate time-interleaving architecture is used to reduce the operation frequency and optimize the power consumption. The clock-jitter-filter loop is applied to improve the jitter of the recovered clock. It uses a low jitter LC voltage controlled oscillator (VCO). The loop bandwidth of the clock-jitter-filter is minimized to suppress the jitter of the recovered clock. The 1/4-rate CDR with frequency detector and clock-jitter-filter with LC-VCO were implemented in 0.18µm CMOS Technology. Both circuits occupy an area of 1.61mm2 and consume 170mW from 1.8V supply. The CDR can cover data rate from 1 to 2Gb/s. Its loop bandwidth is configurable from 700kHz to 4MHz. Its jitter tolerance can comply to SONET standard. The clock-jitter-filter has the configurable input/output frequencies from 9.191 to 78.125MHz. Its loop bandwidth is adjustable from 100kHz to 3MHz. The high frequency clock is also available for a serial data transmitter. The CDR with clock-jitter-filter can generate clock with jitter of 4.2ps rms from the incoming serial data with inter-symbol-interference jitter of 150ps peak-to-peak.
Diese Arbeit befasste sich mit der Analyse genetischer Veränderungen in der Familie P006 von Piperacillin-resistenten Mutanten von S. pneumoniae R6. Jede der fünf Mutanten P106 bis P506 dieser Familie wurde aus dem jeweiligen Parentalstamm auf ansteigender Konzentration des lytischen ß-Lactams Piperacillin isoliert und zeichnete sich durch eine jeweils höhere minimale Hemmkonzentration (MHK) für Piperacillin aus (Laible et al., 1987). In Mutante P106 konnte mit CpoA bereits eine Resistenzdeterminante für Piperacillin identifiziert werden, welche nicht zu den klassischen Targets der ß-Lactamantibiotika, den Penicillin-Bindeproteinen (Pbp), zählt (Grebe et al., 1997). Die Mutanten P206 und P306 zeigten aufgrund von Mutationen in Pbp2b und Pbp2x eine höhere Resistenz gegen Piperacillin (Hakenbeck et al., 1994; Grebe & Hakenbeck, 1996). In dieser Arbeit standen die Identifizierung und Charakterisierung der bisher unbekannten Resistenzdeterminante für Piperacillin in Mutante P406 und die Charakterisierung der bisher nur unzulänglich untersuchten Nicht-Pbp-Resistenzdeterminante CpoA in Mutante P106 im Mittelpunkt der Analysen. Im Fall der bereits identifizierten Resistenzdeterminante in Mutante P106 handelt es sich um das für eine Glykosyltransferase kodierende Gen cpoA. Die Herstellung einer cpoA-Deletionsmutante, sowie deren Charakterisierung, sollten zur Aufklärung des zugrundeliegenden Resistenzmechanismus in P106 und der Funktion von CpoA beitragen. Durch die Herstellung der cpoA-Deletionsmutante und die Bestimmung der MHK für Piperacillin konnte gezeigt werden, daß ein Ausfall der durch CpoA katalysierten Reaktion einen Anstieg der MHK für Piperacillin in S. pneumoniae R6 bewirkt. Die eingehende phänotypische Charakterisierung zeigte, daß die cpoA-Deletionsmutante zudem eine reduzierte genetische Kompetenz, eine reduzierte Säuretoleranz, einen höheren Bedarf an zweiwertigen Mg-Ionen, eine längere Generationszeit und eine verlangsamte Autolyse im Vergleich zu S. pneumoniae R6 besitzt. Diese Beobachtungen, sowie die Ergebnisse einer Microarray-basierten, globalen Transkriptomanalyse lassen es unter Berücksichtigung der biochemischen Charakterisierung von CpoA (Edman et al., 2003) als wahrscheinlich erscheinen, daß CpoA an der Synthese von α-Galactosyl-Glucosyl-Diacylglycerin, einem der Hauptglycolipide der Cytoplasmamembran von S. pneumoniae beteiligt ist. Die Deletion von cpoA könnte demzufolge auch einen Effekt auf die Menge der Lipoteichonsäuren in der Zellwand von S. pneumoniae besitzen, da der Precursor von α-Galactosyl-Glucosyl-Diacylglycerin, das α-Monoglucosyl-Diacylglycerin vermutlich den Lipidanker der Lipoteichonsäuren darstellt. Basierend auf dieser Annahme konnte ein Modell zur Funktion von CpoA erstellt werden, welches eine Erklärung des Resistenzmechanismus für Piperacillin in Mutante P106, bzw. in der cpoA-Deletionsmutante ermöglichen würde. In Mutante P406 konnten weitere Veränderungen der Pbps bereits ausgeschlossen werden (Hakenbeck et al., 1994; Grebe & Hakenbeck, 1996). Durch eine Microarray-basierte, globale Transkriptomanalyse aller fünf Mutanten der Familie P006 konnten Gene identifiziert werden, deren Transkripte im Vergleich zu S. pneumoniae R6 nur in P406 signifikant veränderte Mengen aufwiesen: Unter diesen Genen befanden sich sechs Gene, welche aufgrund ihrer geclusterten Anordnung im Genom von S. pneumoniae als putative funktionelle Einheit (TCS11-Cluster) angesehen wurden. Diese Gene zeigten eine bis zu 22-fach erhöhte Transkriptmenge in Mutante P406. Zudem konnten nur in Mutante P406 von Genen des an der Teichonsäurebiosynthese beteiligten lic1-Operons eine bis zu 7,9-fach höhere Transkriptmenge beobachtet werden. Keines der Genprodukte des TCS11-Clusters wurde bisher charakterisiert. Aufgrund von Blast- und Domänen-Analysen konnten den Genprodukten putative Funktionen zugeschrieben werden. Die Gene smp11A und smp11B kodieren für zwei putative Membranproteine von 63 und 64 Aminosäuren. Die Gene nbp11 und msp11 kodieren für die ATPase- und die Permease-Komponente eines putativen ABC-Transporters. kin11 und reg11 kodieren für die Histidin-Kinase und den Response-Regulator des bisher uncharakterisierten Zweikomponentensystems 11 (TCS11) in S. pneumoniae. Die Gene sind in der Reihenfolge smp11A, smp11B, nbp11, msp11, kin11 und reg11 auf dem Minus-Strang im Genom von S. pneumoniae lokalisiert. Die Deletion der Gene kin11 und reg11 des TCS11 in P406 führte zum Abfall der MHK für Piperacillin auf die MHK des Parentalstamms P306. Somit konnte die Beteiligung des TCS11 in S. pneumoniae an einem unbekannten Resistenzmechanismus gegen Piperacillin nachgewiesen werden. Die Deletion von nbp11 in P406 führte ebenfalls zum Abfall der MHK für Piperacillin, womit einerseits auch für Nbp11 eine Beteiligung an dem unbekannten Resistenzmechanismus gegen Piperacillin gezeigt werden konnte und andererseits eine transkriptionelle Regulation der Gene smp11A, smp11B, nbp11 und msp11 durch das TCS11 vermutet werden konnte. Durch eine konstitutive, gemeinsame Überexpression der Gene smp11A, smp11B, nbp11 und msp11 in S. pneumoniae R6 wurde gezeigt, daß die Überexpression dieser Gene hinreichend für eine Erhöhung der Resistenz gegen Piperacillin ist. Durch 5´-RACE-Analysen konnten die beiden Transkriptionsstartpunkte P11.1 und P11.2 im Bereich des TCS11-Clusters kartiert werden. P11.1 befindet sich 20bp upstream von smp11A und P11.2 befindet sich 441bp upstream von kin11 innerhalb von msp11. Eine Northern-Analyse und die Durchführung von PCR auf cDNA zeigte, daß die Gene des TCS11-Clusters in zwei überlappenden Transkriptionseinheiten transkribiert werden. Die Gene kin11 und reg11 sind zusammen mit einer downstream von reg11 liegenden Kopie des repetetiven Elements rupA im 11-2-Operon organisiert und werden ausgehend von Promotor P11.2 inklusive des ungewöhnlich langen Leaders von 441bp transkribiert. smp11A, smp11B, nbp11 und msp11 sind im 11-1-Operon organisiert und werden ausgehend von Promotor P11.1 transkribiert. Die Zugehörigkeit von kin11 und reg11 zum 11-1-Operon konnte hingegegen bei den verwendeten Wachstumsbedingungen nicht gezeigt werden. Es konnte bereits gezeigt werden, daß phosphoryliertes Reg11 (Reg11-P) an die Promotor-Region von P11.1 bindet (Marciszewski, Diplomarbeit 2007). Die Bestimmung der Aktivität von P11.1 in S. pneumoniae R6, sowie in kin11-, reg11- und kin11reg11-Deletionsmutanten zeigte, daß P11.1 einer direkten, positiven Regulation durch das TCS11 unterliegt. Durch Sequenzvergleiche der Promotor-Region von P11.1 mit den DNA-Regionen putativer Promotoren von zum TCS11-Cluster ähnlich organisierten Clustern homologer Proteine in Genomen anderer Gram-positiver Bakterien konnten drei hoch konservierte Sequenzabschnitte identifiziert werden, von welchen gezeigt werden konnte, daß sie für die Bindung von Reg11-P in S. pneumoniae essentiell sind. Vermutlich stellt die Konsensus-Sequenz ATGACA(2)TGTCAT(8-9)GTGACA die DNA-Bindestelle von Reg11-P dar. Es konnten keine weiteren, zu 100 % konservierten Sequenzen dieser Art im Genom von S. pneumoniae gefunden werden. In EMSA-Assays mit weniger konservierten Sequenzen dieser Art konnte keine Bindung von Reg11-P beobachtet werden. Somit handelt es sich bei der Bindestelle an P11.1 vermutlich um die einzige Bindestelle von Reg11-P im Genom von S. pneumoniae. Von P11.2 konnte durch die Bestimmung der Promotor-Aktivität in Deletionsmutanten einzelner Gene des TCS11-Clusters gezeigt werden, daß auch dieser Promotor einer Regulation unterliegt, welche jedoch nicht durch die Bindung von Reg11-P, oder von unphosphoryliertem Reg11 vermittelt wird. Die Aktivität von P11.2 ist hierbei jedoch einerseits Abhängig von der Anwesenheit von Kin11 und andererseits entweder von der Funktion der Membranproteine Smp11A und Smp11B, oder von der durch Nbp11/Msp11 transportierten unbekannten Substanz. Die Bestimmung der Promotor-Aktivität von P11.2 in Deletionsmutanten einzelner Gene des TCS11-Clusters und die unterschiedlichen phänotypischen Effekte einer kin11-, reg11- und einer kin11reg11-Deletionsmutante zeigten, daß unphosphoryliertes Reg11 ebenfalls in der Lage sein muß, die Transkription von noch unbekannten Zielgenen durch Bindung an eine weitere, unbekannte DNA-Bindestelle zu regulieren. Sowohl durch die Deletion eines Großteils des 441nt langen Leaders des Transkripts des 11-2-Operons, als auch durch die Deletion zweier verschiedener Abschnitte des 3´-untranslatierten Bereichs dieses Transkripts konnte gezeigt werden, daß der 5´- und der 3´-untranslatierte Bereich an noch unbekannten regulatorischen Mechanismen beteiligt sind. Die Deletion einzelner Gene des TCS11-Clusters, sowie die gemeinsame Überexpression von Smp11A, Smp11B, Nbp11 und Msp11 bewirkten die gleichen phänotypischen Effekte wie die charakterisierte cpoA-Deletionsmutante. So konnte in Wachstumsexperimenten der gleiche Einfluß auf die Generationszeit, die maximale Zelldichte und die Autolyse, wie in der cpoA-Deletionsmutante, gezeigt werden. Die Microarray-basierte Transkriptomanalyse zweier Deletionsmutanten von Genen des TCS11-Clusters zeigte zudem, daß sich infolge dieser Deletionen größtenteils die Transkriptmengen solcher Gene ändern, welche auch auf eine Deletion von cpoA reagieren. Hierzu zählen neben zahlreichen Genen für Proteine unbekannter Funktion die Gene des Kompetenzregulons, des blp-Clusters, sowie des Cholinbindeproteins PcpA und der Subtilisin-artigen Proteinase PrtA. Die in Mutante P406 beobachteten höheren Transkriptmengen von an der Teichonsäurebiosynthese beteiligten Genen des lic1-Operons konnten durch die Deletion von kin11reg11 revidiert werden. Die konstitutive gemeinsame Überexpression von Smp11A, Smp11B, Nbp11 und Msp11, sowie die Bestimmung der Aktivität des Promotors P1spr1149 des lic1-Operons zeigte, daß die Transkription der Gene des lic1-Operons indirekt von der Menge an Smp11A, Smp11B, Nbp11 und Msp11 abhängt. Diese Ergebnisse führten zu der Hypothese, daß das TCS11-Cluster und die Glykosyltransferase CpoA an den gleichen, oder zumindest an sich beeinflussenden, Membran-assoziierten Vorgängen beteiligt sind. Folglich konnte durch die molekulargenetische Charakterisierung des in ähnlicher genetischer Organisation in Gram-positiven Bakterien weit verbreiteten TCS11-Clusters erstmals ein Hinweis auf die putative physiologische Funktion des TCS11-Clusters in S. pneumoniae erhalten werden.
This thesis covers two important fields in financial mathematics, namely the continuous time portfolio optimisation and credit risk modelling. We analyse optimisation problems of portfolios of Call and Put options on the stock and/or the zero coupon bond issued by a firm with default risk. We use the martingale approach for dynamic optimisation problems. Our findings show that the riskier the option gets, the less proportion of his wealth the investor allocates to the risky asset. Further, we analyse the Credit Default Swap (CDS) market quotes on the Eurobonds issued by Turkish sovereign for building the term structure of the sovereign credit risk. Two methods are introduced and compared for bootstrapping the risk-neutral probabilities of default (PD) in an intensity based (or reduced form) credit risk modelling approach. We compare the market-implied PDs with the actual PDs reported by credit rating agencies based on historical experience. Our results highlight the market price of the sovereign credit risk depending on the assigned rating category in the sampling period. Finally, we find an optimal leverage strategy for delivering the payments promised by a Constant Proportion Debt Obligation (CPDO). The problem is solved via the introduction and explicit solution of a stochastic control problem by transforming the related Hamilton-Jacobi-Bellman Equation into its dual. Contrary to the industry practise, the optimal leverage function we derive is a non-linear function of the CPDO asset value. The simulations show promising behaviour of the optimal leverage function compared with the one popular among practitioners.
The present thesis is concerned with the simulation of the loading behaviour of both hybrid lightweight structures and piezoelectric mesostructures, with a special focus on solid interfaces on the meso scale. Furthermore, an analytical review on bifurcation modes of continuum-interface problems is included. The inelastic interface behaviour is characterised by elastoplastic, viscous, damaging and fatigue-motivated models. For related numerical computations, the Finite Element Method is applied. In this context, so-called interface elements play an important role. The simulation results are reflected by numerous examples which are partially correlated to experimental data.
Dissertation beschäftigt sich mit der Herstellung und Charakterisierung von hetero-substituierten Diazapyridinophanliganden und deren Koordinationschemie. Liganden Im Rahmen dieser Arbeit ist es gelungen, eine Reihe von nicht trivialen Schlüsselverbindungen, in angemessener Ausbeute und Reinheit, für die Variation unterschiedlicher Aminsubstituenten am Diazapyridinophangrundkörper zu gewinnen. Als Ausgangsverbindungen für Zyklisierungsreaktionen dienten Alkyl-bis-(6-chlormethyl-2-pyridyl-methyl)amine BCA 12 und BCAd 37. Diese drei hieraus hergestellten hetero-substituierten Liganden (L-N4AdtBu 17, L-N4tBuTos 18 und L-N4tBuBz 16) dienten als Ausgangsstoffe für die saure Abspaltung der tert-Butylgruppe. So konnten L-N4AdH 41, L-N4BzH 42, L-N4HTos 19 isoliert werden. L-N4HMe 21,. Diese Substanzen ermöglichen weitere Derivatisierungsreaktionen, wie die Einführung von Alkyl- oder Arylgruppen, wie auch die Einführung weiterer funktioneller Gruppen. Hierbei konnten ein Vertreter mit sterisch anspruchsvollem Substituenten am Aminstickstoffatom (L-N4AdH 41) und einer mit wenig sterisch anspruchsvollen Methylgruppen am Aminstickstoffatom (L-N4HMe 21) hergestellt werden.Durch die Einführung eines Phenolarmes durch eine variierte Leuckart-Wallach-Reaktion können potentiell fünfzähnige Liganden synthetisiert werden. Als erster Vertreter für diese Schlüsselverbindungsgruppe (Abbildung 108) ist der Ligand H-L-N4(ttBzO)Me 45 zu sehen. Für die generelle Herstellung von arylsubstituierten Diazapyridinophanliganden nimmt der Ligand L-N4(PhNO2)2 48 eine Schlüsselposition ein, da sich aus ihm weitere arylsubstituierte Derivate hergestellt lassen. Die Makrozyklen wurden im Rahmen dieser Promotionsarbeit mit Massenspektrometrie, Kernresonanzspektroskopie und Infrarotspektroskopie charakterisiert. Des Weiteren konnten die Festkörperstrukturen der Liganden L-N4tBuTos 18, L-N4HTos 19, L-N4AdtBu 17, L-N4AdH 57 und L-N4AdMe 58 mit Hilfe der Röntgenstrukturanalyse bestimmt werden. Ein neuer Vertreter von Diazapyridinophanmolekülen konnte mit dem Liganden L-N4(PhNO2)2 52 realisiert werden. Die Synthese von arylsubstituierten Diazapyridinophan-Liganden verläuft zwar bislang mit geringen Ausbeuten, aber erlaubt einen Zugang zu weiteren arylsubstituierten Diazapyridinophanliganden (Abbildung 115). 4.1.2 Komplexe Mit den hetero-substituierten Liganden wurden Nickel-Komplexe hergestellt, um den strukturellen und elektronischen Einfluss der Substituenten auf die Komplexe zu untersuchen. Aus Reaktionen der entsprechenden Liganden mit Nickelchloridhexahydrat in Ethanol oder Methanol konnten folgende Komplexe synthetisiert werden: [Ni(L-N4BzH)Cl2] 59 (70 % Ausbeute), [Ni(L-N4AdtBu)Cl2] 55 (29 % Ausbeute), [Ni(L-N4AdH)Cl2] 57 (30 % Ausbeute), [Ni(L-N4HMe)Cl2] 54 (65 % Ausbeute). [Ni(L-N4BztBu)Cl2] 56 konnte nur in so geringer Ausbeute hergestellt werden, so dass lediglich eine Röntgenstruktur und ein Infrarotspektrum angefertigt werden konnten. Mit Hilfe von [NiBr2(PPh3)2] 52 und L-N4AdtBu 17 in Ethanol konnte [Ni(L-N4AdtBu)Br2] 60 (17 % Ausbeute) synthetisiert werden. In den Infrarotspektren lagen auch bei diesen Komplexen die charakteristischen Schwingungsbanden des Makrozyklengerüstes vor. Bei allen Komplexen dieses Ligandtyps ist der Ligand vierfach an das Nickel(II)-Ion gebunden und die Halogenidliganden sind cis-ständig angeordnet. Die Liganden koordinieren so, dass die Aminsubstituenten zu den Halogenidliganden maximalen Abstand einnehmen. Die Phenylgruppe der Benzyleinheit wird in den Komplexen [Ni(L-N4tBuBz)Cl2] • CHCl3 56 und [Ni(L-N4BzH)Cl2] 59 zur Minimierung der sterischen Hinderung von den Chloridliganden weg abgewinkelt. Aus dem gleichen Grund orientieren sich die 1-Adamantyl- beziehungsweise tert-Butylgruppen so, dass ein Methylen- bzw. Methylkohlenstoffatom oberhalb der Winkelhalbierenden des Cl-Ni-Cl-Bindungswinkels zum Liegen kommt. Bindungslängen sind den Komplexen der homo-substituierten Liganden sehr ähnlich. Die Bindungen zwischen den sekundären Aminstickstoffatomen und dem Nickel-Ion sind kürzer als die Bindungen zwischen den alkylsubstituierten Aminstickstoffatomen und dem Nickel-Ion. Die Abstände vom Nickel-Ion zu den Amin-Stickstoffatomen mit jeweilig gleichem Substituent sind in den unterschiedlichen Nickel-Komplexen der hetero-substituierten Diazapyridinophanliganden sehr ähnlich. Eine zunehmende Größe der Substituenten an den Aminstickstoffatomen bewirkt eine Zunahme der Ni-NAmin-Bindung und eine Verkleinerung des NAmin-Ni-NAmin-Bindungswinkels und des Cl-Ni-Cl- Bindungswinkels. In folgender Abbildung werden die Ergebnisse der Strukturaufklärung aufgezeigt.
In the present contribution, a general framework for the completely consistent integration of nonlinear dissipative dynamics is proposed, that essentially relies on Finite Element methods in space and time. In this context, fully flexible structures as well as hybrid systems which consist of rigid bodies and inelastic flexible parts are considered. Thereby, special emphasis is placed on the resulting algorithmic fulfilment of fundamental balance equations, and the excellent performance of the presented concepts is demonstrated by means of several representative numerical examples, involving in particular finite elasto-plastic deformations.
Layout analysis--the division of page images into text blocks, lines, and determination of their reading order--is a major performance limiting step in large scale document digitization projects. This thesis addresses this problem in several ways: it presents new performance measures to identify important classes of layout errors, evaluates the performance of state-of-the-art layout analysis algorithms, presents a number of methods to reduce the error rate and catastrophic failures occurring during layout analysis, and develops a statistically motivated, trainable layout analysis system that addresses the needs of large-scale document analysis applications. An overview of the key contributions of this thesis is as follows. First, this thesis presents an efficient local adaptive thresholding algorithm that yields the same quality of binarization as that of state-of-the-art local binarization methods, but runs in time close to that of global thresholding methods, independent of the local window size. Tests on the UW-1 dataset demonstrate a 20-fold speedup compared to traditional local thresholding techniques. Then, this thesis presents a new perspective for document image cleanup. Instead of trying to explicitly detect and remove marginal noise, the approach focuses on locating the page frame, i.e. the actual page contents area. A geometric matching algorithm is presented to extract the page frame of a structured document. It is demonstrated that incorporating page frame detection step into document processing chain results in a reduction in OCR error rates from 4.3% to 1.7% (n=4,831,618 characters) on the UW-III dataset and layout-based retrieval error rates from 7.5% to 5.3% (n=815 documents) on the MARG dataset. The performance of six widely used page segmentation algorithms (x-y cut, smearing, whitespace analysis, constrained text-line finding, docstrum, and Voronoi) on the UW-III database is evaluated in this work using a state-of-the-art evaluation methodology. It is shown that current evaluation scores are insufficient for diagnosing specific errors in page segmentation and fail to identify some classes of serious segmentation errors altogether. Thus, a vectorial score is introduced that is sensitive to, and identifies, the most important classes of segmentation errors (over-, under-, and mis-segmentation) and what page components (lines, blocks, etc.) are affected. Unlike previous schemes, this evaluation method has a canonical representation of ground truth data and guarantees pixel-accurate evaluation results for arbitrary region shapes. Based on a detailed analysis of the errors made by different page segmentation algorithms, this thesis presents a novel combination of the line-based approach by Breuel with the area-based approach of Baird which solves the over-segmentation problem in area-based approaches. This new approach achieves a mean text-line extraction error rate of 4.4% (n=878 documents) on the UW-III dataset, which is the lowest among the analyzed algorithms. This thesis also describes a simple, fast, and accurate system for document image zone classification that results from a detailed comparative analysis of performance of widely used features in document analysis and content-based image retrieval. Using a novel combination of known algorithms, an error rate of 1.46% (n=13,811 zones) is achieved on the UW-III dataset in comparison to a state-of-the-art system that reports an error rate of 1.55% (n=24,177 zones) using more complicated techniques. In addition to layout analysis of Roman script documents, this work also presents the first high-performance layout analysis method for Urdu script. For that purpose a geometric text-line model for Urdu script is presented. It is shown that the method can accurately extract Urdu text-lines from documents of different layouts like prose books, poetry books, magazines, and newspapers. Finally, this thesis presents a novel algorithm for probabilistic layout analysis that specifically addresses the needs of large-scale digitization projects. The presented approach models known page layouts as a structural mixture model. A probabilistic matching algorithm is presented that gives multiple interpretations of input layout with associated probabilities. An algorithm based on A* search is presented for finding the most likely layout of a page, given its structural layout model. For training layout models, an EM-like algorithm is presented that is capable of learning the geometric variability of layout structures from data, without the need for a page segmentation ground-truth. Evaluation of the algorithm on documents from the MARG dataset shows an accuracy of above 95% for geometric layout analysis.
In this dissertation we consider mesoscale based models for flow driven fibre orientation dynamics in suspensions. Models for fibre orientation dynamics are derived for two classes of suspensions. For concentrated suspensions of rigid fibres the Folgar-Tucker model is generalized by incorporating the excluded volume effect. For dilute semi-flexible fibre suspensions a novel moments based description of fibre orientation state is introduced and a model for the flow-driven evolution of the corresponding variables is derived together with several closure approximations. The equation system describing fibre suspension flows, consisting of the incompressible Navier-Stokes equation with an orientation state dependent non-Newtonian constitutive relation and a linear first order hyperbolic system for the fibre orientation variables, has been analyzed, allowing rather general fibre orientation evolution models and constitutive relations. The existence and uniqueness of a solution has been demonstrated locally in time for sufficiently small data. The closure relations for the semiflexible fibre suspension model are studied numerically. A finite volume based discretization of the suspension flow is given and the numerical results for several two and three dimensional domains with different parameter values are presented and discussed.
The main goal of this work is to model size effects, as they occur in materials with an intrinsic microstructure at the consideration of specimens that are not by orders larger than this microstructure. The micromorphic continuum theory as a generalized continuum theory is well suited to account for the occuring size effects. Thereby additional degrees of freedoms capture the independent deformations of these microstructures, while they provide additional balance equation. In this thesis, the deformational and configurational mechanics of the micromorphic continuum is exploited in a finite-deformation setting. A constitutive and numerical framework is developed, in which also the material-force method is advanced. Furthermore the multiscale modelling of thin material layers with a heterogeneous substructure is of interest. To this end, a computational homogenization framework is developed, which allows to obtain the constitutive relation between traction and separation based on the properties of the underlying micromorphic mesostructure numerically in a nested solution scheme. Within the context of micromorphic continuum mechanics, concepts of both gradient and micromorphic plasticity are developed by systematically varying key ingredients of the respective formulations.
Die sterischen Eigenschaften des makrozyklischen Liganden L-N4tBu2 verhindern in der Reaktion des Komplexes [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) mit molekularem Sauerstoff die Bildung einer µ-Oxo-verbrückten Dieisen(III)-Spezies. Stattdessen entsteht in der Reaktion mit Sauerstoff in wässrigen Lösungsmitteln zunächst der Eisen(III)-Komplex [Fe(L-N4tBu2)(O2CPh)(OH)](BPh4) (3). Dieser Komplex reagiert ebenfalls mit Sauerstoff. Es bildet sich in Acetonitril eine intensiv violett gefärbte Spezies mit einer starken Absorptionsbande im UV/Vis-Spektrum bei 560 nm. Leider ist es nicht gelungen, diese chromophore Verbindung zu isolieren. Allerdings gibt es Hinweise darauf, dass es sich bei dieser Verbindung um einen Eisen(III)-Phenolat-Komplex handelt. Es konnte gezeigt werden, dass der Komplex 3 mit elektronenarmen Phenolen stabile Eisen(III)-Phenolat-Komplexe bildet. Für den Fall des unsubstituierten Phenols ist es gelungen den Komplex [Fe(L-N4tBu2)(O2CPh)(OPh)](BPh4) (4) zu isolieren. Mit elektronenreichen Phenolen sind die sich bildenden Eisen(III)-Phenolat∙Komplexe nicht stabil. Es spalten sich Phenoxylradikale ab, die zu bekannten Kopplungsprodukten weiter reagieren. Am Eisenzentrum kommt es währenddessen zu einer Reduktion von Eisen(III) zu Eisen(II) und es entsteht ein Eisen(II)-Benzoat-Komplex. So konnte gezeigt werden, dass der Eisen(III)-Hydroxo-Komplex 3a die aktive Spezies in der katalytischen Umsetzung von elektronenreichen Phenolen mit dem Komplex [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) und Sauerstoff darstellt. Neben den Phenolen gelang es auch eine ganze Reihe von p-Hydrobenzochinonen erfolgreich zu oxidieren. Es ist zwar nicht gelungen durch die Verwendung von [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) als Katalysator für Oxidation des 2-Hydroxy-5-tert.-butyl-p-hydrobenzochinon zum 2-Hydroxy-5-tert.-butyl-p-benzochinon eine Erhöhung der Ausbeute oder der Reaktionsgeschwindigkeit im Rahmen des von Klinman vorgestellten Modellsystem für die Reaktion von Topachinon- abhängigen Aminoxidasen zu erzielen, aber es konnte gezeigt werden, dass durch den Einsatz von 1 auch andere Chinone in der Lage sind Benzylamin zu Benzaldehyd zu oxidieren. Hier hilft der Komplex 1 die Regeneration des Chinons durch Sauerstoff zu beschleunigen. Somit stehen weitere Modellsysteme für die Chinon-abhängigen Aminoxidasen zur Verfügung. Mit der Synthese der beiden Komplexe [Fe(L-N4Me2)(BF)(MeOH)](BPh4) (8) und [Fe(L-N4tBu2)(BF)](BPh4) (5) gelang die Herstellung und Charakterisierung zweier Eisen(II)-α-Ketocarboxylat-Komplexe mit dem Makrozyklus L-N4R2. Die Reaktion der beiden Komplexe mit molekularem Sauerstoff hat gezeigt, dass das Einführen von sperrigeren Substituenten an den Aminstickstoffen des Makrozyklus dazuführt, das im Komplex 5 die Ausbildung einer µ-Oxo-verbrückten Spezies unterbleibt, wie sie für den Komplex 8 beobachtet wird. Ein weiterer Unterschied liegt darin, dass für den Komplex 8 nach der Bildung einer µ-Oxo-Brücke in den resultierenden Verbindungen 10a und 11a keine Decarboxylierung des Benzoylformiat-Liganden beobachtet werden kann. Im Gegensatz dazu können für den Komplex 5 zwei unterschiedliche Mechanismen einer oxidativen Decarboxylierung beobachtet werden. Einmal vermittelt durch einen Elektronentransfer zwischen zwei Eisen(III)-Zentren und zum anderen durch molekularen Sauerstoff vermittelt. Für den Komplex 5 konnte eine stöchiometrische wie auch katalytische Oxidation von Phenolen beobachtet werden. Allerdings war es nicht möglich den Mechanismus dieser Reaktion eindeutig zu bestimmen. Mit großer Wahrscheinlichkeit ist die aktive Spezies in Analogie zur Reaktionsweise des Komplexes 1 eine Eisen(III)-Hydroxo-Verbindung. Bedingt durch die beobachtete oxidative Decarboxylierung mit Hilfe von molekularem Sauerstoff kann allerdings auch der Weg über eine Eisen(IV)-Spezies nicht völlig ausgeschlossen werden.
This dissertation deals with the optimization of the web formation in a spunbond process for the production of artificial fabrics. A mathematical model of the process is presented. Based on the model, two kind of attributes to be optimized are considered, those related with the quality of the fabric and those describing the stability of the production process. The problem falls in the multicriteria and decision making framework. The functions involved on the model of the process are non linear, non convex and non differentiable. A strategy in two steps; exploration and continuation, is proposed to approximate numerically the Pareto frontier and alternative methods are proposed to navigate the set and support the decision making process. The proposed strategy is applied to a particular production process and numerical results are presented.
This thesis is devoted to deal with the stochastic optimization problems in various situations with the aid of the Martingale method. Chapter 2 discusses the Martingale method and its applications to the basic optimization problems, which are well addressed in the literature (for example, [15], [23] and [24]). In Chapter 3, we study the problem of maximizing expected utility of real terminal wealth in the presence of an index bond. Chapter 4, which is a modification of the original research paper joint with Korn and Ewald [39], investigates an optimization problem faced by a DC pension fund manager under inflationary risk. Although the problem is addressed in the context of a pension fund, it presents a way of how to deal with the optimization problem, in the case there is a (positive) endowment. In Chapter 5, we turn to a situation where the additional income, other than the income from returns on investment, is gained by supplying labor. Chapter 6 concerns a situation where the market considered is incomplete. A trick of completing an incomplete market is presented there. The general theory which supports the discussion followed is summarized in the first chapter.
In der vorliegenden Arbeit wurden das quasistatische und das Ermüdungsverhalten von wirrfaserverstärktem Thermoplast mit Endlosfasern (D-LFT) und von gewebeverstärktem Thermoplast untersucht. Hierbei wurden ortsaufgelöste Verfahren der Deformationsanalyse, schwerpunktsmäßig die Ortsaufgelöste Hysteresismessung und ergänzend die Thermoelastische Spannungsanalyse, eingesetzt. Zur genauen Erfassung des Zerrüttungsvorgangs war in einer vorangegangenen Arbeit die Messgenauigkeit der Hysteresismessung deutlich verbessert worden, und es konnte auf diese sehr wichtigen Vorleistungen zurückgegriffen werden. Zur Gefügeanalyse wurden Röntgengrobstrukturuntersuchungen, Ultraschall- und REM-Untersuchungen durchgeführt. Bei der Untersuchung der quasistatischen Eigenschaften von D-LFT gibt die ortsaufgelöste Dehnungsanalyse wichtige Hinweise zum Werkstoffverhalten. Das Versagen tritt an der Stelle mit dem geringsten E-Modul auf. Die Festigkeitswerte zeigen relativ starke Streuungen aufgrund der Inhomogenität des Gefüges. Bei lokal-dehnungsorientierter Betrachtung tritt eine wesentlich geringere Streuung der Kennwerte auf. Die Bruchdehnung liegt in Abhängigkeit von Fasergehalt und Entnahmerichtung im Mittel zwischen 2,2 und 2,8 %. Dieser Befund der geringen Streuung der lokalen Bruchdehnung ist trotz der deutlichen Unterschiede der Strukturparameter und unterschiedlichen Fasergehalte bemerkenswert. Dieses interessante Charakteristikum des Werkstoffs macht das robuste Verhalten bei mechanischer Belastung von D-LFT-Bauteilen verständlich. Die starken Schwankungen der Festigkeit wirken sich auch beim Ermüdungsverhalten aus. Nur durch geeignete Voruntersuchungen, die sich auf das dehnungsorientierte Materialverhalten stützten, konnte der Prüfaufwand in einem vertretbaren Rahmen gehalten werden. Die mechanisch-dynamischen Kennwerte zeigen bei Ermüdungsbelastung eine mäßige Dämpfungszunahme und eine geringe Steifigkeitsabnahme, verbunden mit einer starken Kriechneigung. Für die Analyse der beiden letzteren Effekte ist eine dehnungsorientierte Betrachtung hilfreich. Die Steifigkeitsabnahme wird durch die Kenngröße der Ausschlagsdehnung ersetzt und kann dann unmittelbar mit dem Kriechen, das durch die Mitteldehnung beschrieben wird, verglichen werden. Wie beim Zugversuch konnte auch beim Ermüdungsversuch eine dehnungsorientierte Analyse des Ermüdungsvorgangs durchgeführt werden. Diese führt zu einem Totaldehnungswöhlerdiagramm, in dem die Wöhlerlinien für Belastung senkrecht und quer zur Faserorientierung nahezu zusammenfallen. Es kann daher von einem maximalen Totaldehnungskriterium des Versagens ausgegangen werden. Der anisotrope, gewebeverstärkte Thermoplast wird statischen und dynamischen Zug- und Druckbelastungen unterworfen. Ergänzende Gefügeuntersuchungen ergeben leider keinen Zusammenhang zwischen der lokalen Kennwerteigenschaft und dem Gefügezustand, was auf den komplexen Aufbau (Wirrfasermittelschicht, beide Randschichten gewebeverstärkt) zurückzuführen ist. Die Werkstoffcharakterisierung an gewebeverstärktem Thermoplast wird bei zwei Chargen unter Zug-, und Druckschwellbelastung untersucht. Bei quasistatischer und dynamischer Belastung tritt das Versagen zumeist an der Stelle mit der geringsten lokalen Steifigkeit auf. Das mechanische Verhalten wird durch die anisotropen Eigenschaften stark bestimmt. Bei Zugschwellbelastung werden Kriechen und Steifigkeitsabnahme beobachtet, wobei bei senkrechter Belastung das Kriechen relativ stärker und die Steifigkeitsabnahme relativ schwächer ausfällt. Die Dämpfungszunahme bei der Ermüdungsbelastung ist z. T. intensiv. Insbesondere bei Charge 1 wird aufgrund von Haftungsschwächen bzw. Lunkern ein intensiver Dämpfungsanstieg mit der Lastspielzahl beobachtet. Bei Druckschwellbelastung sind Steifigkeitsabnahme und Kriechen geringer. Als Schadensphänomen wird vielfach ein spontanes Abscheren der Probe beobachtet. Ähnlich wie bei D-LFT führt eine totaldehnungsorientierte Betrachtung zu einem vergleichbaren Verlauf der Totaldehnungswöhlerdiagramme bei paralleler und senkrechter Belastung, während die Diagramme bei spannungsorientierter Betrachtung weit auseinander liegen. Das Verhalten von Ausschlags- und Mitteldehnung quantifiziert in Kenngrößen (mit gleichen physikalischen Einheiten) das Ermüdungsgeschehen hinsichtlich Steifigkeitsabnahme und Kriechen. Allerdings zeigt der Verlauf der Kenngrößen über der Lastspielzahl keine systematische Tendenz hinsichtlich des Einflusses der Spannungsamplitude, was auf Werkstoffinhomogenitäten zurückgeführt wird. Zur weiteren Auswertung wird daher eine Relativbetrachtung angestellt und hierfür der Wert von strain max / strain middle ermittelt. Durch diese Kennwertbildung wird die Streuung bezüglich des Spannungseinflusses deutlich reduziert, und es kann ein Tendenzverlauf der Messwerte in Abhängigkeit von der Spannungsamplitude angegeben werden.
Durch Modelle werden komplexe Zusammenhänge der Realität vereinfacht beschrieben. Die Frage, wie räumliche Objekte und Beziehungen vereinfacht werden, ist Gegenstand der Geomodellierung. Teil B der vorliegenden Arbeit gibt eine Ein-führung in Modelltypen und Methoden der Geomodellierung in den beiden Anwen-dungsdisziplinen Stadtplanung und Immobilienwirtschaft. Teil C fokussiert auf ein konkretes Anwendungsfeld der Geomodellierung: Behandelt wird die Modellierung von Angebot und Nachfrage sowie von Preisen und Leerständen auf Büroflächen-märkten. Teil D zeigt die Anwendung der Geomodellierung in der Büromarktanalyse anhand einer exemplarischen Geoinformationssystem-gestützten Fallstudie in Stuttgart. Geomodellierung greift dabei sowohl auf die Modellierung geometrischer Daten unter Rückgriff auf Städtebau, Geodäsie und Computergrafik zurück, als auch auf eine in der Tradition von Stadt- und Regionalökonomie stehende quantitative Mo-dellierung von (räumlichen) Ursache-Wirkungs-Beziehungen. Eine zentrale These der Arbeit besteht darin, dass diese beiden Modellierungsansätze sich zunehmend ineinander integrieren. Geoinformationssysteme bilden ein wichtiges Werkzeug zur parallelen Bearbeitung sowohl der graphischen als auch der alphanumerischen Datengrundlagen für Anwendungsfälle. Dabei müssen jedoch aktuelle technische Entwicklungen im geometrischen Bereich (3D-Stadtmodelle, nutzergenerierte Geodaten, Web-GIS), die umfangreiche wissenschaftliche Tradition der räumlichen-quantitativen Modelle von den systemdynamischen Modellen der sechziger Jahren bis zur Stadtsimulation von heute sowie neuere Erkenntnisse im Bereich der räumlichen Ökonometrie berücksichtigt werden. Die Bedeutung dieser Methoden und Werkzeuge der Geomodeliierung wird für verschiedene Anwendungsfelder in Stadtplanung und Immobilienwirtschaft diskutiert. Die Büromarktmodellierung als Anwendungsfeld der Geomodellierung kann sowohl auf planerisch-räumlich geprägte Ansätze zur Bedarfsprognose als auch auf öko-nometrische Ansätze zur dynamischen Modellierung von Büromarktzyklen zurückgreifen. Räumlich-ökonometrisch arbeitet das hedonische Preismodell zur regressionsanalytischen Bestimmung bspw. von Mieten, welches sich auch zur Abschätzung von Leerstandswahrscheinlichkeiten verwenden lässt. Es ist allerdings rein statisch. Um räumliche und dynamische Modelle auch in der Büromarktanalyse anwendbar zu machen, greift die Arbeit nach Darstellung der genannten Ansätze auf die Modelle der Stadtsimulation zurück und überträgt diese auf den Markt für Büroflächen. Die Anwendung der Modelle wird für private und öffentliche Akteure auf dem Büroflächenmarkt diskutiert. Die Anwendung der Modelle erfolgt exemplarisch in einer Fallstudie des Büroflächenmarktes der Stadt Stuttgart. Die Vorteile Stuttgarts liegen in der Verfügbarkeit umfangreicher Mikrodaten (Gebäudebestand, Umzugsdatensample). Zudem ist Stuttgart groß genug, um ein interessanter Büroflächenmarkt zu sein, aber wieder-um angesichts der Branchenstruktur repräsentativ genug, um auch als Vorbilduntersuchung für andere Städte gelten zu können. Als beschreibende Variable für die Schätzgleichungen werden durch den Einsatz des Geoinformationssystems Arc-View Bürogebäude und umziehende Nutzer durch Gebäude-, Lage- und Umfeld-eigenschaften beschrieben. Ein Mehrgleichungs-Marktzyklen-Modell, das hedonische Preismodell, die Übertragung des hedonischen Preismodells auf die Leer-standswahrscheinlichkeit sowie die Mikrosimulation werden abschließend für Stutt-gart ökonometrisch geschätzt und die Ergebnisse diskutiert.
Die vorliegende Arbeit beschäftigt sich mit der visuellen Kontrolle raumplanerischer Entwürfe. Grundlage der Überlegungen ist das gegenwärtige Verfahren, der Planungsprozess, das zur Erstellung der Entwürfe führt. Der Entscheidungsweg hin zum endgültigen Ergebnis erfolgt zurzeit noch ohne Rechnerunterstützung. Die in den Planungsprozess Involvierten stützen ihre Entscheidungen bspw. auf Pläne, eigene Erfahrungen und Statistiken und fertigen im Verlauf von Diskussionsrunden verschiedene Entwürfe an. Dieser Ablauf ist komplex, aufgrund der eingehenden Daten und der damit zusammenhängenden Diskussionen, und langwierig da erst nach einigen Iterationsschritten ein Ergebnis vorliegt. Die Arbeit verfolgt das Ziel, die Akteure durch eine Rechnerunterstützung schneller und zielgerichtet zu einer Entscheidungsfindung zu führen. Meine Untersuchung des Anwendungsumfeldes hat ergeben, dass dies nur möglich ist, wenn zum Einen das entstehende System in der Lage ist, die großen, heterogenen Datenmengen zu verarbeiten und andererseits die Visualisierung der Ergebnisse in einer Form erfolgt, die den Akteuren vom bisherigen Planungsprozess her bekannt ist. Die Visualisierung darf dabei keine bewertende Aussage treffen, sondern muss die Informationen der Analyse neutral in einem dem Nutzer bekannten Format abbilden. Als Ansatzpunkt stellt sich der informelle Bereich der Entscheidungsfindung dar. Es werden zwei Lösungswege aus dem Bereich der Clusteringalgorithmen verfolgt, die die großen Datenmengen verarbeiten und analysieren. Als Ergebnis erhalten die Akteure durch das Voronoi-Diagramm direkt einen Entwurf, der die Einschätzungen aller Akteure widerspiegelt und durch ein Übereinanderlegen mit der Karte des Plangebietes dem klassischen Format im Rahmen des Planungsprozesses entspricht. Dadurch wird die Akzeptanz der Rechnerunterstützung bei den Beteiligten des Planungsprozesses gesteigert. Sollte dieser Entwurf noch keine direkte Zustimmung finden, kann über die entwickelte Informationsvisualisierung eine Anzeige und in der Folge eine Anpassung der Eingangsgrößen erfolgen und somit sehr schnell ein neuer Entwurf entwickelt werden. Die Visualisierung übernimmt dabei die Funktion der bisher in Papierform erstellten Pläne im Entscheidungsprozess und bietet damit auch fachfremden Beteiligten eine visuelle Kontrollmöglichkeit der Qualität des Entwurfes. Insgesamt werden mit dem Tool IKone die Akteure in Anlehnung an die standardmäßigen Abläufe und visuellen Darstellungen mittels eines rechnergestützten Systems unterstützt.
Bei dem in dieser Arbeit untersuchten Antibiotikum Vancoresmycin handelt es sich um ein neuartiges Tetramsäurederivat, das aus der Fermentationsbrühe des Aktinomyceten Amycolatopsis vancoresmycina gewonnen wurde. Da der Wirkungsmechanismus und mögliche Resistenzmechanismen unbekannt sind, soll diese Arbeit zu deren Aufklärung beitragen. Dazu wurden verschiedene Determinanten für die Resistenz gegen Vancoresmycin in Streptococcus pneumoniae R6 analysiert. Zuerst wurden acht vancoresmycinresistente Labormutanten von Streptococcus pneumoniae R6 bei einer Konzentration von 0,5 µg/ml Vancoresmycin isoliert und phänotypisch charakterisiert. Es konnte eine bakteriolytische Wirkung von Vancoresmycin auf S. pneumoniae gezeigt werden. Zur Identifizierung genetischer Resistenzdeterminanten wurden verschiedene Strategien verfolgt. Zum einen wurden Genbanken von der Mutante aR6 erstellt und nach der resistenzvermittelnden DNA-Sequenz durch Transformation des sensitiven Rezipienten S. pneumoniae R6 gesucht. Zum anderen wurden die Transkriptome der Mutanten aR6, eR6, fR6 und gR6 mit dem des Referenzstammes R6 durch mikroarraybasierte Studien verglichen, um Transkriptmengenunterschiede zu detektieren. Durch das Screening der Genbanken konnten zwei Determinanten identifiziert werden, deren Funktionen durch Insertion des IS10-R-Elementes eingeschränkt waren. Dabei handelte es sich um das Gen rpsI, das für das kleine ribosomale Protein S9 codiert, und um das Gen dexS, das für eine Dextranglucosidase codiert. Der Stamm R6-rpsI::IS10-R zeichnete sich durch ein verlangsamtes Wachstum aus, was zu der beobachteten erhöhten Vancoresmycinresistenz beitragen könnte. Für das Gen dexS konnte eine direkte Beteiligung an der Resistenz gegenüber Vancoresmycin nicht nachgewiesen werden. Durch einen Transkriptomvergleich der Mutanten aR6, eR6 und fR6 mit dem Referenzstamm R6 wurde festgestellt, dass die Transkriptmengen des Genes copY, das für einen Transkriptionsrepressor codiert, und der Gene eines Cyl-Operons, deren Genprodukte vermutlich an der Bildung, Modifikation und Sezernierung eines Cytolysins beteiligt sind, in den Mutanten aR6, eR6 und fR6 erhöht waren. Mit Hilfe ausführlicher Analysen wurde nachgewiesen, dass sowohl das Gen copY als auch die Gene des Cyl-Operons nicht direkt an einer Resistenz gegenüber Vancoresmycin beteiligt sind. Im Transkriptom der Mutante gR6 fielen zwei Gene (spr0812 = abcA und spr0813 = abcB), die für einen ABC-Transporter codieren, durch erhöhte Transkriptmengen im Vergleich zu den entsprechenden Transkriptmengen des Referenzstammes R6 auf. Die Funktion dieses ABC-Transporters bei der Resistenz gegenüber Vancoresmycin wurde detailliert analysiert, da ein Aminosäureaustausch im C-terminalen Ende der Permeaseuntereinheit AbcB in der Mutante gR6 identifiziert wurde (Gln581 ® Stop). Durch Transformation des Rezipienten R6 mit der entsprechenden DNA-Sequenz konnte für die Transformanten (gTR) eine erhöhte Vancoresmycinresistenz gezeigt werden. Außerdem konnte durch Deletion des ABC-Transporter-Operons in der Mutante gR6 eine MHK-Erniedrigung auf das Ausgangsniveau des Referenzstammes R6 herbeigeführt werden. Die im Transkriptom der Mutante gR6 detektierten erhöhten Transkriptmengen der Gene abcA und abcB wurden durch quantitative Real-Time-PCR verifiziert. In der Transformante gTR wurden ebenfalls erhöhte Transkriptmengen der Gene abcA und abcB nachgewiesen. Sowohl in der Mutante gR6 als auch in der Transformante gTR waren die Transkriptmengen der Gene abcA und abcB etwa um das Sechsfache im Vergleich zu den jeweiligen Transkriptmengen des Referenzstammes R6 erhöht. Um die Ursache der erhöhten Transkriptmengen aufzuklären, wurde die Promotoraktivität des ABC-Transporter-Operons in der Mutante gR6 und in der Transformante gTR mit Hilfe von lacZ- Reporterfusionskonstrukten analysiert. Die Promotoraktivitäten in der Mutante gR6 und in der Transformante gTR unterschieden sich nicht von der des Referenzstammes R6. Dieses Resultat lässt vermuten, dass die erhöhten Transkriptmengen der Gene abcA und abcB nicht auf eine gesteigerte Promotoraktivität zurückgeführt werden können, sondern dass die Stabilität der Transkripte durch die Nonsensemutation in der Mutante gR6 und in der Transformante gTR erhöht war. In der Literatur werden homologe ABC-Transporter aus Bacillus subtilis bzw. S. mutans beschrieben, die in eine Resistenz gegenüber Bacitracin involviert sind (Ohki et al., 2003; Tsuda et al., 2002). Aufgrund dessen wurde eine Beteiligung des hier untersuchten ABC-Transporters an einer Bacitracinresistenz überprüft. Mit Hilfe einer MHK-Bestimmung für Bacitracin wurde ein fünffach erniedrigter MHK-Wert für die Mutante gR6 und für die Transformante gTR im Vergleich zum Referenzstamm R6 festgestellt. Das bedeutet, dass der mutierte ABC-Transporter der Mutante gR6 sowohl in eine erhöhte Resistenz gegenüber Vancoresmycin als auch in eine erhöhte Sensitivität gegenüber Bacitracin involviert ist.
Das Zwei-Komponenten System CiaRH beeinflusst die genetische Kompetenz, das Lyseverhalten, die Virulenz und die Resistenz gegen Cefotaxim von S. pneumoniae. Der entscheidende Einfluss von CiaRH für S. pneumoniae zeigt sich auch darin, dass in mehreren Transkriptomstudien eine große Zahl von Genen identifiziert wurde, die in Abhängigkeit des Zwei-Komponenten Systems transkribiert werden. In dieser Arbeit konnten nun die Gene, deren Transkription direkt durch Bindung des Response Regulators CiaR in ihrem Promotorbereich reguliert wird, eindeutig definiert werden. Durch die Kombination von transkriptionellen Reportergenfusionen in dem neu konstruierten Promoter Probe Plasmid pPP2, Bandshiftassays und Mutageneseexperimenten wurde als Bindestelle von CiaR ein Direct Repeat mit der Sequenz TTTAAG-N5-TTTAAG identifiziert. Für 16 Promotoren mit dieser Bindestelle wurden eine Bindung von CiaR und eine CiaRH abhängige Expression nachgewiesen. Von den 16 Promotoren sind 15 positiv und nur einer negativ reguliert. Insgesamt besteht das CiaRH Regulon aus 30 Genen, wobei 19 Gene in 6 Operons organisiert sind. Zum CiaRH Regulon gehören ciaRH selbst, eine Vielzahl von Genen, die am Zellwandmetabolismus beteiligt sind (lic1 Operon, dlt Operon), die Gene von fünf kleinen nicht-kodierenden RNAs (ccnA-E), die Stressprotease HtrA, das Chromosomensegregationsprotein ParB, die Peptidyl-Prolyl Isomerase PpmA, die Maltoseverwertungsgene malMP, das Phosphotransferasesystem ManLMN und mehrere Gene mit unbekannter Funktion. Die eindeutige Identifizierung der Gene des Regulons des Zwei-Komponenten Systems CiaRH ermöglicht eine detaillierte Analyse der Zusammenhänge mit den cia-vermittelten Phänotypen. In einem zweiten Teil dieser Arbeit wurde darauf eingegangen, welche Rolle die Histidinkinase CiaH spielt und woher das Phosphat für die Phosphorylierung des Response Regulators CiaR stammt. Es wurde durch Einbringen der Mutation D51A in CiaR gezeigt, dass das Aspartat an dieser Stelle des Proteins entscheidend für die Aktivität von CiaR als transkriptionellen Regulator ist. CiaH ist hingegen während des exponentiellen Wachstums in C-Medium für die Aktivität von CiaR verzichtbar. Die Promotoren des CiaRH Regulons zeigten in Abwesenheit der Kinase während dieser Wachstumsphase keine veränderte Aktivität. Die Phosphorylierung von CiaR muss daher auch über einen anderen Weg, beispielsweise über Acetylphosphat, erfolgen können. Deshalb wurde auch der Einfluss der Inaktivierung von spxB, dem Gen für eine Pyruvatoxidase, welche die Synthese eines Großteils des zellulären Acetylphosphats in S. pneumoniae katalysiert, untersucht. Eine entscheidende Rolle wurde für CiaH bei Eintritt in die stationäre Wachstumsphase beobachtet. Es konnte gezeigt werden, dass zu diesem Zeitpunkt nur bei vorhandenem CiaH ein Anstieg der Aktivität der Promotoren des CiaRH Regulons stattfindet. Dies deutet darauf hin, dass die Histidinkinase beim Übergang in die stationäre Phase ein Signal erhält, das die Aktivierung des CiaRH Regulons stimuliert. Möglicherweise können daraus Ansätze zur Identifizierung des bisher unbekannten Signals von CiaH entwickelt werden.
Bromierte Flammschutzmittel (BFRs) werden zum Brandschutz in verschieden Kunststoffe eingearbeitet. Da sie auch in Alltagsgegenständen eingesetzt werden und in nahezu allen Kompartimenten der Umwelt, eingeschlossen der Nahrung, detektiert wurden, ist der Mensch täglich diesen Stoffen ausgesetzt. Die Flammschutzmittel Tetrabromobisphenol A (TBBPA), Hexabromocyclododecan (HBCD) und die aus polybromierten Biphenylethern (PBDEs) bestehenden, industriell hergestellten Gemische Pentamix und Decamix stehen aufgrund ihrer verbreiteten Anwendung oder Verteilung in der Umwelt und ihrem bioakkumulierendem Potential unter besonderem Fokus dieser Arbeit. In subakuten Studien wurden Wistar Ratten (WU-CBP) oral mit verschiedenen Dosen von TBBPA, HBCD, Pentamix oder Decamix über 28 Tage täglich behandelt. Während TBBPA mit Dosen bis zu 300 mg/kg KG/d im Futter vermengt wurde, wurden HBCD und der Pentamix mit jeweils bis zu 200 mg/kg KG/d und der Decamix mit bis zu 60 mg/kg KG/d in Maiskeimöl per Schlundsonde verabreicht. Untersucht wurden anschließend in allen vier Studien die fremdstoffmetabolisierenden Enzyme CYP1A, CYP2B und CYP3A in der Leber in der Real-Time-PCR, im Western-Blot und in Enzymaktivitätstests. Induktionseffekte in diesen Enzymfamilien wurden zusätzlich in Primärheptozyten der Ratte bei Behandlung mit HBCD und dem Pentamix ermittelt. Während für TBBPA in vivo bei keinem der drei Enzymfamilien Induktionseffekte weder bei Protein, noch RNA nachzuweisen waren, zeigte sich beim Decamix eine Erhöhung von CYP1A und CYP2B in der Leber von weiblichen und noch stärker von männlichen Ratten. Dies liess sich für RNA, sowie Protein nachweisen. Unabhängig von der Trendanalyse wurden schon signifikante Effekte ab der Dosis von 15 bzw 7,5 mg/kg KG/d für CYP1A bzw. CYP2B berechnet. Für CYP3A wurden weder in den weiblichen noch männlichen Tieren Induktionseffekte ausgemacht. Durch HBCD-Behandlung wurden in vitro CYP1A, CYP2B und CYP3A konzentrationsabhängig induziert, in vivo CYP2B und CYP3A ab Dosen von 10 mg/kg KG/d. HBCD zeigte für CYP1A in vivo keine Effekte. Der Pentamix induzierte, dosisabhängig die Enzyme CYP1A, CYP2B und CYP3A, wie auf RNA- und Protein- und teilweise auf Aktivitätsebene nachgewiesen werden konnte. Im Falle von CYP2B liegt statistisch signifikant der niedrigste Effektlevel bei 2,47 mg/kg KG/d. In vitro wurde CYP1A mit einer EC50 von etwa 1µM induziert, festgestellt in der RealTimePCR, im Western Blot-Verfahren und im EROD-Assay. Die bromierten Flammschutzmittel HBCD, Penta- und Decamix konnten somit in vivo und, teilweise in vitro, als Induktoren für fremdstoffmetabolisierende CYPs der Ratte ausgemacht werden. Implikationen davon sind vermutete endokrine Effekte durch Disbalance der über die CYPs metabolisierten Hormone, aber auch Einwirkungen auf Medikamentenwechselwirkungen. Andere Enzyme, die bei der Transkription über die gleichen Signalwege gesteuert werden wie die vorgestellten Markerenzyme, könnten ebenso durch BFRs induziert werden.
Die Arbeit beschäftigt sich mit der Bestimmung der Zwangsbeanspruchungen und mit den daraus resultierenden Verformungen auf geotechnische Bauwerke infolge Quellen von teilgesättigten, bindigen Böden. Zur Ermittlung eines Quellgesetzes zur Beschreibung dieses Volumenänderungsverhaltens wurden zwei spezielle Oedometergeräte entwickelt. Mittels eines modifizierten Oedometers können radiale und axiale Quelldrücke getrennt voneinander gemessen sowie axiale Dehnungen zugelassen werden. Die axialen Spannungen werden über eine Kraftmessdose ermittelt während die radialen über Dehnungsmessstreifen, die an der Außenfläche des Oedometerringes befestigt sind, bestimmt werden. Mit Hilfe dieser Dehnungsmessstreifen wird die Radialverformung des Ringes gemessen. Daraus wird die Ringkraft und somit der Radialdruck, der auf der Probe wirkt, ermittelt. Ein anderes Oedometergerät, welches bis auf den Oedometerring baugleich zu dem bereits erwähnten ist, wurde speziell für die vorliegende Problematik entwickelt. In der Innenseite des Oedometerringes ist eine Membran angebracht, über die kontrolliert Radialdrücke erzeugt und gemessen werden können. Der Raum zwischen dem Ring und der Membran ist mit einem Fluid gefüllt. Durch Regulierung des im Reservoir befindlichen Fluidvolumens kann die Radialdehnung gesteuert werden. Somit ist dieses modifizierte Oedometergerät mit einem triaxialen Apparat vergleichbar. Es wurden umfangreiche Untersuchungen in den o. g. Geräten an einem quellfähigen Boden durchgeführt. Dabei wurden der Anfangs- und der Endsättigungsgrad sowie die Porenzahl variiert. Aus den Versuchen ergab sich, dass das Quellverhalten als nichtlinear elastisch angesehen werden kann. Anhand dieser Ergebnisse sind Approximationen für das eindimensionale sowie das dreidimensionale Quellverhalten aufgestellt und in den FEM - Code ABAQUS mittels einer Subroutine implementiert worden. In der numerischen Simulation werden die elastischen Quelldeformationen mit den mechanischen Deformationen aus äußerer Belastung und Eigengewicht überlagert. Für die mechanische Beanspruchung ist eine linear elastische - ideal plastische Spannungsdehnungsbeziehung angenommen mit einer Grenzfunktion nach Drucker - Prager. Es ist bekannt, dass dieses Materialgesetz nur bedingt geeignet ist zur Beschreibung des Materialverhaltens teilgesättigter, bindiger Böden. Es ist jedoch relativ einfach zu handhaben und adäquat genug um zu demonstrieren, dass die implementierten Quellbeziehungen miteinem Großteil der existierenden mechanischen Spannungsdehnungsbeziehungen verwendet werden können. Zur Überprüfung der Güte der in ABAQUS eingegebenen und implementierten Beziehungen werden exemplarisch verschiedene experimentelle Ergebnisse nachgerechnet und mit den Simulationen verglichen. Die Rückrechnung der entwickelten Zusammenhänge zeigt, dass die Variation des Quellmoduls für alle variierten Parameterwerte zu einer sehr guten Übereinstimmung in den Ergebnissen führt. Abschließend wird anhand eines praxisorientierten Berechnungsbeispiels aus der Geotechnik bestehend aus einer Pfahl-Platten Einheit die Anwendungsmöglichkeit des aufgestellten und implementierten Quellmodells für die Praxis dargestellt.
Computer-based simulation and visualization of acoustics of a virtual scene can aid during the design process of concert halls, lecture rooms, theaters, or living rooms. Because, not only the visual aspect of the room is important, but also its acoustics. In factory floors noise reduction is important since noise is hazardous to health. Despite the obvious dissimilarity between our aural and visual senses, many techniques required for the visualization of photo-realistic images and for the auralization of acoustic environments are quite similar. Both applications can be served by geometric methods such as particle- and ray tracing if we neglect a number of less important effects. By means of the simulation of room acoustics we want to predict the acoustic properties of a virtual model. For auralization, a pulse response filter needs to be assembled for each pair of source and listener positions. The convolution of this filter with an anechoic source signal provides the signal received at the listener position. Hence, the pulse response filter must contain all reverberations (echos) of a unit pulse, including their frequency decompositions due to absorption at different surface materials. For the room acoustic simulation a method named phonon tracing, since it is based on particles, is developed. The approach computes the energy or pressure decomposition for each particle (phonon) sent out from a sound source and uses this in a second pass (phonon collection) to construct the response filters for different listeners. This step can be performed in different precision levels. During the tracing step particle paths and additional information are stored in a so called phonon map. Using this map several sound visualization approaches were developed. From the visualization, the effect of different materials on the spectral energy / pressure distribution can be observed. The first few reflections already show whether certain frequency bands are rapidly absorbed. The absorbing materials can be identified and replaced in the virtual model, improving the overall acoustic quality of the simulated room. Furthermore an insight into the pressure / energy received at the listener position is possible. The phonon tracing algorithm as well as several sound visualization approaches are integrated into a common system utilizing Virtual Reality technologies in order to facilitate the immersion into the virtual scene. The system is a prototype developed within a project at the University of Kaiserslautern and is still a subject of further improvements. It consists of a stereoscopic back-projection system for visual rendering as well as professional audio equipment for auralization purposes.
Zur Entwicklung von technischen Benutzungsoberflächen in der Investitionsgüterindustrie ist ein systematischer und durchgängiger Prozess essentiell, der in den einzelnen Prozessphasen besonders eine Nutzerorientierung unterstützt. Dieser Prozess bereitete bisher die Grundlage, um generell nutzerorientierte Benutzungsoberflächen zu entwickeln. Aus diesem Prozess resultiert eine Benutzungsoberfläche, welches spezielle Aufgaben unterschiedlicher Nutzer berücksichtigt. Es entsteht eine Benutzungsoberfläche für viele Nutzer. Die Unterschiedlichkeit der Nutzer findet keine explizite Umsetzung durch persönliche Präferenzen. Durch die steigende Informationsflut werden Nutzer aber in Zukunft überfordert werden. Daher kann bei Berücksichtigung dieser Präferenzen eine höhere Nutzerorientierung, eine Steigerung der Usability und eine Erhöhung der Bedieneffizienz von Nutzern erzielt werden. Zur Erreichung dieser Ziele ist eine umfassende Darstellung dieser Präferenzen notwendig. Sie unterteilen sich einerseits in Nutzereigenschaften, die zur Charakterisierung der Nutzer und Vereinfachung der nutzerspezifischen Datenerfassung dienen. Andererseits werden Präferenzen bezüglich der Entwicklung technischer Benutzungsoberflächen erhoben, um personalisierte Benutzungsoberflächen zu generieren. Diese allgemeine Darstellung muss in einzelnen Branchen konkretisiert werden. Diese Konkretisierung wird meist durch eine Untermenge der allgemeinen Darstellung umgesetzt. Für die Produktionsumgebung zeigt sich zum einen, dass sehr unterschiedliche Präferenzen hinsichtlich der Gestaltungsmerkmale existieren. Daher bestehen in dieser Branche nur vereinzelt Zusammenhänge zwischen Gestaltungsmerkmalen und weiteren Nutzereigenschaften. Zum anderen korrelieren die strukturellen Nutzerpräferenzen mit vielen verschiedenen Nutzereigenschaften. Auf Basis dieser Personalisierungsmerkmale entstehen Q-Personas nach [Coo99] für die Produktions-umgebung, die in sich homogene, aber untereinander heterogene Personalisierungsmerk-malsausprägungen aufweisen. Nutzer in der Produktionsumgebung können aufgrund der Beschreibungen der Q-Personas diesen zugeordnet werden. Eine Eigenschafts- und Präferenzmatrix dient dabei als Hilfsmittel zum Vergleich der Nutzercharakterisierung mit signifikanten Q-Personamerkmale. Die QPersonabeschreibungen bilden die Grundlage zur Entwicklung personalisierte Systeme. Diese Systeme dienen zum einen der Überprüfung der Auswirkungen der Personalisierung technischer Systeme auf die Benutzung. Zum anderen werden sie zur Überprüfung der Übertragbarkeit der entwickelten Q-Personas auf andere produktionstechnische Systeme als diejenigen, anhand derer die Q-Personas entwickelt wurden, verwendet. Die erste Untersuchung hierzu zeigt die Möglichkeit einer einfachen und schnellen Zuordnung von Nutzern zu Q-Personas. Die Ergebnisse beider Untersuchungen bestätigen deutliche Vorteile von personalisierten Systemen gegenüber neutralen, die hauptsächlich durch die Strukturierung erreicht werden. Diese zeigen sich in einer schnellen Aufgabenbearbeitung, weniger Fehlern, einer gesteigerten Zufriedenheit und einem erhöhten Wohlbefinden von Nutzern im Umgang mit ihrem personalisierten System. Die Gestaltung wirkt sich vergleichsweise gering auf die Bewertung aus. Die zweite Untersuchung berücksichtigt andere Systeminhalte. Dadurch zeigt sich die Übertragbarkeit der Personalisierung, indem eine problemlose Kompatibilität der entwickelten Q-Personas für dieses System möglich ist. Zur systematischen und effizienten Entwicklung von personalisierten technischen Benutzungsoberflächen ist eine Verbindung der Personalisierung mit dem Useware-Entwicklungsprozess unumgänglich. Alle Prozessphasen erfahren unterschiedliche Anpassungen, Erweiterungen und Änderungen. In der Analysephase ist eine Erweiterung des Anforderungskatalogs zur Erfassung der auftretenden Q-Personas notwendig. Die Auswertung in der Analysephase umfasst zusätzlich die Überprüfung, welche Q-Personas sich unter den Nutzern befinden. Als Ergebnis entstehen q-personabasierte Aufgabenmodelle. Die Strukturgestaltungsphase erfordert eine Erweiterung hinsichtlich der Attributierung der strukturierten Handlungen, Tätigkeiten und Operationen. Die generell gewünschte Strukturierungsart wird definiert. Verknüpfungen zwischen den einzelnen Objekten werden anhand der Aufgabenmodelle der Analysephase festgelegt. In der Gestaltungsphase werden aufgrund der in der Analysephase erhobenen Q-Personas unterschiedlich personalisierte Benutzungsoberflächen entwickelt, die die in der Strukturgestaltungs-phase entwickelte Struktur und ihre neue Attributierung umsetzen. Durch diese marginalen Erweiterung und Änderungen am Useware-Entwicklungsprozess entstehen auf effiziente Weise statt einer ursprünglichen nutzerorientierten Benutzungsoberfläche mehrere personalisierte Benutzungsoberflächen.
The dissertation deals with the application of Hub Location models in public transport planning. The author proposes new mathematical models along with different solution approaches to solve the instances. Moreover, a novel multi-period formulation is proposed as an extension to the general model. Due to its high complexity heuristic approaches are formulated to find a good solution within a reasonable amount of time.
Untersuchungen zur Beeinflussung humaner Topoisomerasen und der DNA-Integrität durch Beerenfrüchte
(2008)
Das Ziel dieser Arbeit war es zur Aufklärung der Beeinflussung von humanen Topoisomerasen und der DNA-Integrität durch polyphenolische Substanzen und polyphenolreiche Extrakte beizutragen. Die vorliegende Dissertation zeigt auf, dass auch die beschriebene DNA-schädigende Wirkung von Delphinidin, sowie das Ausbleiben einer antioxidativen Wirkung des Anthocyanidins unter Zellkulturbedinungen teilweise auf das gebildete H2O2 zurückzuführen ist. Insgesamt zeigen die Daten, dass alle in dieser Arbeit untersuchten Polyphenole oder polyphenolreichen Extrakte mit Ausnahme der Ellagsäure Wasserstoffperoxid im Zellkulturmedium generieren. Delphinidin moduliert die DNA-strangbrechende Wirkung der, in der Chemotherapie eingesetzten Topoisomerasegifte Camptothecin, Etoposid und Doxorubicin in HT29-Zellen. Basierend auf diesen Ergebnissen lässt sich für Delphinidin folgender Wirkmechanismus postulieren: Delphinidin wirkt als katalytischer Hemmstoff der Topoisomeraseaktivität, der die Enzyme inaktiviert bevor diese an die DNA binden und einen Strangbruch induzieren. Die in dieser Arbeit untersuchten anthocyanreichen Extrakte hemmen potent die Aktivität humaner Topoisomerasen. Des Weiteren stabilisieren sie nicht das kovalente Enzym-DNA-Intermediat in HT29-Zellen, so dass davon ausgegangen werden kann, dass die Extraktinhaltsstoffe als rein katalytische Topoisomerasehemmstoffe agieren. Eine Bindung an die DNA-Furchen wiesen die Extraktinhaltsstoffe nicht auf. Zudem induzieren die Extrakte keine DNA-Strangbrüche und bewirken keinen Zellzyklusarrest in der G2/M-Phase, so dass der Einfluss der polyphenolischen Extraktinhaltsstoffe auf die DNA-Integrität als gering einzustufen ist. Vergleichbar mit Delphinidin modulieren auch die Extrakte die DNA-strangbrechende Wirkung von Topoisomerasegiften. Weiterhin konnte im Rahmen diese Dissertation bestimmt werden, dass die getesteten Ellagtannine sowie die Ellagsäure die Aktivität humaner Topoisomerasen im zellfreien System hemmen. Dabei wirken nicht nur die Einzelsubstanzen als potente Topoisomerasehemmstoffe, sondern auch ein Eichenholzextrakt. Diese Ergebnisse legen nahe, dass die Ellagtannine keine Stabilisierung des Topoisomerase-DNA-Intermediats bewirken. Des Weiteren konnte für Castalagin eine Modulation der strangbrechenden Wirkung von Camptothecin bestimmt werden. Dieses Ergebnis legt nahe, dass Castalagin als katalytischer Hemmstoff die Topoisomerase hemmt bevor das Enzym an die DNA binden und einen Strangbruch im Zucker-Phosphat-Rückgrat induzieren kann.
Die Resistenz solider Tumoren gegenüber der Behandlung mit Medikamenten oder Bestrahlung ist ein häufig auftretendes Phänomen. Insbesondere das Auftreten von Chemoresistenzen stellt ein großes Problem bei der Behandlung von Krebs dar. Aufgrund einer Unterversorgung des Gewebes kommt es in soliden Tumoren zur Bildung des so genannten ‚hypoxischen Kern’ (hypoxic core), welcher bei der Progression und Metastasierung des Tumors eine wichtige Rolle spielt. Es wird diskutiert, inwieweit Hypoxie an der Entstehung von Resistenzen gegenüber unterschiedlichen Therapieansätzen beteiligt ist. Das Ziel der Arbeit war es, die Fragestellung zu klären, ob Hypoxie vor Apoptose, ausgelöst durch Chemotherapeutika, schützt. Wenn sich diese Vermutung bestätigen sollte, sollten die zu Grunde liegenden Mechanismen dieser Chemoresistenz aufgeklärt werden. Es konnte festgestellt werden, dass es in A549 Zellen unter Hypoxie durch ein Zusammenspiel mehrerer unabhängiger Signalwege zum Schutz vor Etoposid-induzierter Apoptose kommt. Zum einen induziert Hypoxie die Stabilisierung und Aktivierung von HIF-1. Über einen intrazellulären Mechanismus, wahrscheinlich der Expression anti-apoptotischer Zielgene, kommt es zur Desensitivierung der Zellen gegenüber der Behandlung mit Etoposid. Des Weiteren konnte festgestellt werden, dass es unter Hypoxie unabhängig von HIF-1 zur Freisetzung von Schutzfaktoren kommt. Diese vermitteln über auto- oder parakrine Wege anti-apoptotische Signale. Hypoxie führte zu einer Akkumulation der Cyclooxygenase-2 (COX-2), welche maßgeblich an der Freisetzung des Schutzfaktors beteiligt ist. In diesem Zusammenhang wurde festgestellt, dass die Stimulation mit PGE2 zu einer erhöhten Resistenz von A549 Zellen gegenüber Etoposid-induzierter Apoptose führte. Es konnte weiterhin gezeigt werden, dass die basale Aktivität der Sphingosin-Kinasen für die Vitalität von A549 Zellen essenziell ist. Unter Hypoxie wurde darüber hinaus eine Aktivierung der Sphingosin-Kinase 2 (SphK2) festgestellt, wodurch eine vermehrte Synthese und Freisetzung von Sphingosin-1-phosphat (S1P) induziert wurde. Es kommt unter Hypoxie über zwei unabhängige Signalwege zur Freisetzung von PGE2 und S1P, welche in Zielzellen einen chemoresistenten Phänotyp induzieren. Die Übertragung des anti-apoptotischen Signals erfolgte über die Aktivierung der ERK1/2-Signalkaskade. Zusammengefasst konnte gezeigt werden, dass Hypoxie über die Aktivierung von HIF-1, COX-2 und SphK2 in A549 Zellen die Resistenz gegenüber Chemotherapeutika induziert. Hierbei sind neben intrazellulären Signalen auch auto- und parakrin wirkende Mechanismen beteiligt. Als Übermittler des übertragbaren anti-apoptotischen Signals konnten S1P und PGE2 identifiziert werden, die über die Aktivierung von ERK1/2 vor Apoptose schützen.
Im Rahmen dieser Dissertation wurde eine Laserverdampfungsquelle an einem neu installierten und anschließend umgebauten FT-ICR-Massenspektrometer in Betrieb genommen. Es konnten sowohl anionische als auch kationische Metallcluster erzeugt und in die ICR-Zelle überführt werden. Größenselektierte Übergangsmetallcluster (wie Niob, Vanadium, Kobalt und Tantal) wurden unter Einzelstoßbedingungen (8x10-10 - 1x10-8 mbar) auf ihre C-H-Aktivierung hin untersucht. Gemäß einer Kinetik pseudoerster Ordnung konnten relative Geschwindigkeitskonstanten für verschiedene Reaktionen bestimmt werden. Niobcluster wurden mit diversen Heteroaromaten (Pyrrol, Furan, Thiophen) und Kohlenstoffmonoxid umgesetzt. Ebenso wie bei der Reaktion von Tantalanionenclustern mit Kohlenstoffmonoxid wurde bei den Niobanionenclustern ein dunkler Reaktionskanal (vermutlich die Eliminierung eines e-) für bestimmte Clustergrößen beobachtet. Zusätzlich zur Bestimmung der relativen Geschwindigkeitskonstanten wurde eine Ablöserate für ein e- in Abhängigkeit von der Niobclustergröße bestimmt. Vanadiumcluster Vn+ und VnO+/- wurden mit dem aromatischen System Benzol umgesetzt. Unabhängig von der Clustergröße zeigten sowohl die Cluster als auch die Oxide die vollständige Dehydrierung des Benzols als einzigen Reaktionskanal. Des Weiteren wurden die Reaktionen von Vn+, Con+/- und Tan+/- mit Acetonitril untersucht. Dabei wurden sehr komplexe Reaktionspfade beobachtet, als Hauptreaktionsweg konnte die paarweise Abspaltung von Wasserstoffatomen identifiziert werden. Tantalcluster Tan+/- wurden systematisch mit Methan, Benzol und Benzolderivaten untersucht. Der Haupttrend bei den Untersuchungen der Benzolderivate lag darin, dass je größer der Cluster wurde, desto größer wurde auch die Dehydrierung der untersuchten Systeme. Die zugeführte Energie reicht bei großen Tantalclustern aus, die Aktivierungsbarriere hin zur vollständigen Dehydrierung zu überwinden. Kleinere Cluster sind dazu nicht in der Lage. Des Weiteren werden IRMPD-Spektren an CLIO (Orsay/Paris) für protonierte und deprotonierte Adipinsäure und für das protonierte Dimer von Carnosin und für einen Carnosin-Zink-Komplex vorgestellt und mit vorhandenen theoretischen Rechnungen verglichen.
A modular level set algorithm is developed to study the interface and its movement for free moving boundary problems. The algorithm is divided into three basic modules : initialization, propagation and contouring. Initialization is the process of finding the signed distance function from closed objects. We discuss here, a methodology to find an accurate signed distance function from a closed, simply connected surface discretized by triangulation. We compute the signed distance function using the direct method and it is stored efficiently in the neighborhood of the interface by a narrow band level set method. A novel approach is employed to determine the correct sign of the distance function at convex-concave junctions of the surface. The accuracy and convergence of the method with respect to the surface resolution is studied. It is shown that the efficient organization of surface and narrow band data structures enables the solution of large industrial problems. We also compare the accuracy of the signed distance function by direct approach with Fast Marching Method (FMM). It is found that the direct approach is more accurate than FMM. Contouring is performed through a variant of the marching cube algorithm used for the isosurface construction from volumetric data sets. The algorithm is designed to keep foreground and background information consistent, contrary to the neutrality principle followed for surface rendering in computer graphics. The algorithm ensures that the isosurface triangulation is closed, non-degenerate and non-ambiguous. The constructed triangulation has desirable properties required for the generation of good volume meshes. These volume meshes are used in the boundary element method for the study of linear electrostatics. For estimating surface properties like interface position, normal and curvature accurately from a discrete level set function, a method based on higher order weighted least squares is developed. It is found that least squares approach is more accurate than finite difference approximation. Furthermore, the method of least squares requires a more compact stencil than those of finite difference schemes. The accuracy and convergence of the method depends on the surface resolution and the discrete mesh width. This approach is used in propagation for the study of mean curvature flow and bubble dynamics. The advantage of this approach is that the curvature is not discretized explicitly on the grid and is estimated on the interface. The method of constant velocity extension is employed for the propagation of the interface. With least squares approach, the mean curvature flow has considerable reduction in mass loss compared to finite difference techniques. In the bubble dynamics, the modules are used for the study of a bubble under the influence of surface tension forces to validate Young-Laplace law. It is found that the order of curvature estimation plays a crucial role for calculating accurate pressure difference between inside and outside of the bubble. Further, we study the coalescence of two bubbles under surface tension force. The application of these modules to various industrial problems is discussed.
Liquid Composite Molding (LCM) processes, like Resin Transfer Molding (RTM) and Vacuum Assisted Resin Infusion (VARI), are gaining increasing interest for the cost-efficient production of fiber reinforced polymer matrix composites, e. g. Airbus A380 rear bulkhead. Meanwhile, purpose-built thermoset resin systems with adequately low processing viscosities are available. Although showing a better fatigue resistance composites from epoxy resins (EP) tend to be expensive while vinylester resin (VE) composites are more brittle and, hence, less fatigue resistant but attract due to their lower material costs. Following research on the toughness improvement of vinylester based resin systems, one subject of this thesis was the broad experimental characterization of the static and cyclic behavior of carbon fiber reinforced composites from resin systems which were toughened by either the generation of interpenetrating networks with aliphatic (Al-EP) and cyclo-aliphatic epoxy resins (Cal-EP) or by addition of a liquid, epoxy-terminated butadiene-nitrile rubber (ETBN). While quasi-static in-plane tension, compression and shear testing of [0°]8 and [±45°]3S laminates resulted in an unclear picture with regard to the mechanical performance of the investigated resin systems, R = -1 cyclic step loading provided a definite indication of the considerably higher cyclic fatigue strength of the modified carbon fiber reinforced vinylester-urethane (CF/VEUH:ETBN) composite which, consequently, was selected for detailed mechanical testing. To provide experimental input for subsequent fatigue life simulations applying the Critical Element Concept of Reifsnider et al. [76] the study included the determination of ultimate in-plane tension, compression and shear properties as well as the characterization of the cyclic fatigue behavior under constant amplitude loading. Different descriptions of S-N curves of the [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-laminates for R = +0.1, -1 and +10 were determined to derive constant fatigue life diagrams applying methods of Goodman or Harris et al. Furthermore the residual strength degradation model for the critical element (0° ply) and the residual stiffness degradation models for the sub-critical elements have been derived by experimental determination on [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-(CF/VEUH:ETBN)-laminates. Deficiencies in current fatigue life time prediction modeling for carbon fiber reinforced materials nowadays results in large factors of safety to be adopted. As a consequence composite structures are often overdesigned and expensive proto-type testing is required for life time prediction. Therefore, in this thesis standardized random-ordered miniTWIST (minimized transport wing standard) spectrum loading was used to understand improvements in fatigue life modeling so that fatigue life prediction results in a more efficient use of these materials. In particular the influence of constant amplitude cyclic fatigue modeling as well as constant fatigue life modeling itself on the results of the fatigue life analysis of random loading sequences have been investigated. Finally the bearing of residual strength or residual stiffness degradation modeling and the effect of filtering and counting methods on the fatigue life time prediction was determined in a sensitivity analysis. The fatigue life models were validated by experimental results using the random miniTWIST-loading on [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-(CF/VEUH:ETBN)-laminates.
The desire to model in ever increasing detail geometrical and physical features has lead to a steady increase in the number of points used in field solvers. While many solvers have been ported to parallel machines, grid generators have left behind. Sequential generation of meshes of large size is extremely problematic both in terms of time and memory requirements. Therefore, the need for developing parallel mesh generation technique is well justified. In this work a novel algorithm is presented for automatic parallel generation of tetrahedral computational meshes based on geometrical domain decomposition. It has a potential to remove this bottleneck. Different domain decomposition approaches and criteria have been investigated. Questions regarding time and memory consumption, efficiency of computations and quality of generated surface and volume meshes have been considered. As a result of the work parTgen (partitioner and parallel tetrahedral mesh generator) software package based on the developed algorithm has been created. Several real-life examples of relatively complex structures involving large meshes (of order 10^7-10^8 elements) are given. It has been shown that high mesh quality is achieved. Memory and time consumption are reduced significantly, and parallel algorithm is efficient.