Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1875) (remove)
Language
- English (938)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (234)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
Composite materials are used in many modern tools and engineering applications and
consist of two or more materials that are intermixed. Features like inclusions in a matrix
material are often very small compared to the overall structure. Volume elements that
are characteristic for the microstructure can be simulated and their elastic properties are
then used as a homogeneous material on the macroscopic scale.
Moulinec and Suquet [2] solve the so-called Lippmann-Schwinger equation, a reformulation of the equations of elasticity in periodic homogenization, using truncated
trigonometric polynomials on a tensor product grid as ansatz functions.
In this thesis, we generalize their approach to anisotropic lattices and extend it to
anisotropic translation invariant spaces. We discretize the partial differential equation
on these spaces and prove the convergence rate. The speed of convergence depends on
the smoothness of the coefficients and the regularity of the ansatz space. The spaces of
translates unify the ansatz of Moulinec and Suquet with de la Vallée Poussin means and
periodic Box splines, including the constant finite element discretization of Brisard and
Dormieux [1].
For finely resolved images, sampling on a coarser lattice reduces the computational
effort. We introduce mixing rules as the means to transfer fine-grid information to the
smaller lattice.
Finally, we show the effect of the anisotropic pattern, the space of translates, and the
convergence of the method, and mixing rules on two- and three-dimensional examples.
References
[1] S. Brisard and L. Dormieux. “FFT-based methods for the mechanics of composites:
A general variational framework”. In: Computational Materials Science 49.3 (2010),
pp. 663–671. doi: 10.1016/j.commatsci.2010.06.009.
[2] H. Moulinec and P. Suquet. “A numerical method for computing the overall response
of nonlinear composites with complex microstructure”. In: Computer Methods in
Applied Mechanics and Engineering 157.1-2 (1998), pp. 69–94. doi: 10.1016/s00457825(97)00218-1.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribological
performance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online
monitoring and prediction of wear progress in practical applications.
Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte
die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungs und Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying
capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribologicalperformance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online monitoring and prediction of wear progress in practical applications.Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt
schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungsund
Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
Spätestens seit den 1990ern bildet die Lean Production den Status quo der Produktionssysteme in der diskreten Klein- und Großserienfertigung. Mittels der Umstellung auf eine nachfrageorientierte Produktion und Vermeidung jeglicher nicht-wertschöpfender Aktivitäten konnte die Lean Production bei geringen Investitionen hohe Effizienzsteigerungen erreichen. Heute stößt die Lean Production allerdings an ihre Grenzen, da sie nicht das Potenzial moderner Informations- und Kommunikationstechnologie berücksichtigt. Der Lean Production mangelt es u.a. an der notwendigen Wandelbarkeit der Fertigungslinien, um zukünftige Anforderungen wie z.B. eine kundenindividuelle Fertigung in Losgröße 1 zu ermöglichen.
Die stattfindende Digitalisierung der Produktion will diesen zukünftigen Produktionsanforde-rungen gerecht werden. Neue digitale Technologien sowie die gestiegene Leistung der Kom-ponenten ermöglichen eine intelligente Produktion, die Mitarbeiter in komplexen Produktions-prozessen unterstützt. Der gleichzeitig stattfindende Preisverfall und die Miniaturisierung in der Informations- und Kommunikationstechnologie führen auch in der Produktion zu allgegenwärtigen, vernetzten Computern. Das Potenzial dieser technologischen Entwicklung ist unumstritten, dennoch mangelt es aktuell an einer übergreifenden und ganzheitlichen Betrachtung, die eine Integration der Digitalisierung und der neuen Anwendungen in bestehende Produktionsumgebungen miteinbezieht.
Ziel der vorliegenden Arbeit ist die Erarbeitung einheitlicher informationstechnischer Schnittstellen für die Lean Production. Die erarbeitete Referenzarchitektur definiert technologieunabhängige Schnittstellen und schafft den notwendigen Rahmen für die Nutzung digitaler Technologien in bestehenden Lean-Methoden. Bestandteil der Referenzarchitektur ist eine Systemarchitektur, die Rollen und deren Verhältnisse beschreibt. Ergänzt wird sie durch ein Informationsmodell, das die je Rolle benötigten Funktionalitäten und die ausgetauschten Nachrichten spezifiziert, sowie durch eine Softwarearchitektur für die Umsetzung der Schnitt-stellen. Die Referenzarchitektur wurde auf einen bestehenden Forschungsdemonstrator der Technologie-Initiative SmartFactory KL e.V. exemplarisch übertragen.
Die konventionelle Verarbeitung naturfaserverstärkter, thermoplastischer Kunststof-fe zu Bauteilen erfolgt derzeit in einem aufwändigen, mehrstufigen Pressverfahren, welches mit hohen Investitionskosten und hohem Platzbedarf verbunden ist. Aus-gangsmaterial bilden Hybridvliese aus Naturfasern und thermoplastischen Schmelzfasern, welche eine Straße mit mindestens zwei Pressen durchlaufen müssen. In der Heizpresse wird das Vlies unter Wärmezufuhr und Druck kompak-tiert und die Naturfasern dabei imprägniert. Anschließend erfolgt die Formgebung in einer Umformpresse. Das Verfahren hat den wirtschaftlich großen Nachteil, dass die Imprägnierung und die Formgebung zeitlich wie räumlich direkt aneinander ge-koppelt sind, da es keine Alternative zur Erwärmung der Hybridvliese mit gleichzeiti-ger Imprägnierung gibt.
Im Rahmen dieser Arbeit wird ein neuartiger Aufheizprozess für naturfaserverstärkte Thermoplaste auf Basis von Infrarotstrahlung entwickelt, der diese Probleme auf-greift. Als Ausgangsmaterial hierfür werden bereits imprägnierte und vorkompaktier-te Naturfasermatten verwendet, mit denen die hocheffizienten Thermoform-Prozessketten genutzt werden sollen, wie sie beispielsweise bei glas- oder kohlen-stofffaserverstärkten Thermoplasten zum Einsatz kommen. Aufgrund der thermi-schen Restriktionen von Naturfasern bei der Verarbeitung wird eine materialselekti-ve Infrarot-Erwärmungsmethode konzipiert und untersucht, deren Ziel eine optimier-te, maximierte Absorption der Strahlung durch das Polymer darstellt. Es wird ge-währleistet, dass die Absorption durch Naturfasern auch bei der Variation der Roh-stoffqualität minimal ist. So können auch geringfügig kompaktierte Naturfaser-Halbzeuge mit hohem Porengehalt mithilfe des Aufheizprozesses auf eine ausrei-chende Umformtemperatur erwärmt werden, ohne die Verstärkungsfasern thermisch zu schädigen. Die Untersuchung des Prozesseinflusses im Hinblick auf mechani-sche Eigenschaften sowie Geruch und Emissionen validiert die Großserientaug-lichkeit des entwickelten Aufheizverfahrens.
Die Ergebnisse dieser Arbeit werden in Richtlinien für die Verarbeitung thermoplas-tischer, vorimprägnierter und kompaktierter, naturfaserverstärkter Kunststoffe zu-sammengefasst und sollen dem Verarbeiter eine gezielte Auswahl von Halbzeugen und die Minimierung der Prozesszykluszeit ermöglichen.
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum Stand
der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls weiter oder
neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
The scarcity of raw materials such as oil and natural gas has led the necessity to design
more and more energy-efficient constructions. This applies particularly to the
automotive industry and its component suppliers. There are two possibilities to meet
this obligation. On the one hand, one can develop new forms of drive concepts, e.g.
hybrid or electric motors. On the other hand, the reduction of weight can significantly
diminish the consumption of fuel. Especially in the aerospace industry every gram
less counts. To put this requirement into action traditional materials, e.g. steel and
cast iron, are replaced by new lightweight materials. This can be miscellaneous light
alloys or one of several fibre reinforced plastics. After the production of plastic devices
such as display panels in cars, more and more security-relevant plastic devices
appeared.
This report deals with one important material within the group of glass fibre reinforced
thermoplastics i.e. long-glass-fibre reinforced polypropylene. Polypropylene with approximately
14% of the worldwide usage of plastics is very cheap and can support
companies in cost-saving. This aspect becomes more and more important considering
the expansion of global business competition, especially in the automotive industry.
With approximately 50%, glass-fibre reinforced polypropylene is the dominant
material in the group of glass fibre reinforced thermoplastics. To counteract the demand
of shorter development times in the design process the automotive industry
and its suppliers count on simulation tools such as the finite-element (FE)-simulation.
For this reason the quality of the mathematical material models has to be improved
and its parameters have to be identified. After choosing a suitable material model and
identifying the corresponding parameters, a verification of both has to follow to assure
their reliability. This is typically carried out by comparing measurement with simulation
data at distinctive points of the considered geometry. With advanced performance
of computer hardware and measurement systems it is possible to measure
specimens and more complex geometries at high strain rates by means of high
speed cameras and to conduct FE-Simulations in a justifiable time with sufficient accuracy Thus the following chapter firstly discusses the basics of continuum mechanics with
its well-established mathematical formulations for anisotropic elasticity, plasticity and
viscoelasticity and the corresponding rheological models. In chapter three the properties
of the matrix material polypropylene are presented with more precise consideration
of the strength and failure of the composite material under tensile load depending
on the fibre length and volume. Thereafter, the geometry and dimensions of the
specimens for tensile and shear tests are presented, together with a test sample
which is used as an example for the design of automotive structures via coactions of
measuring and simulation techniques. Chapter four deals with the state of the art in
high speed testing, the experimental setup and its mode of operation as well as the
explanation of different kinds of evaluation software which is used in this work.
Here, the main focus is aimed at the determination and interpretation of displacement
and strain fields with the grey scale method. The following paragraph describes different
initial examinations of specimens and the test sample. In this context, exposures
of fracture surfaces and polished micrograph sections were examined by
means of optical and scanning electron microscopy. In this way discontinuities and
cracks caused by the injection moulding process are detected. The quality of the
specimens and the test sample and their suitability for systematic material testing are
finally evaluated by means of thermoelastic stress analysis and a laser extensometer.
With these systems a direct optical strain measurement can be accomplished to
screen the homogeneity of specimens and parts.
In chapter six an approach for an experimental method is presented for measuring
displacement fields of the surface of specimens of long-glass-fibre reinforced polypropylene
at high strain rate. A strategy is introduced for reasonable data evaluation
to characterise stress strain behaviour under tensile and shear load. Specimens of
long-glass-fibre polypropylene with a fibre volume content of 30% and 40% respectively,
are tested and analysed. Anisotropy of the material is considered by testing
specimens with fibres oriented either in the direction of the tensile load or perpendicular
to it. The resulting stress strain curves for the two main directions are used as
basis for identifying material properties for an orthotropic constitutive law. Hence the
elastic parameters that are collected from stress strain curves are the axial modulus
in fibre direction and perpendicular to it, the shear modulus in the fibre plane and the
matrix plane and finally the lateral contraction in fibre direction, at right angle to it and
in the matrix plane. After having collected the parameters for elasticity, the HILLcriterion
is utilised to describe orthotropic plasticity. The different stresses at the
yielding points related to the designated directions are used to compute the parameters
of the HILL-criterion. Finally, in order to describe the strain-rate dependent behaviour
of the material, a one dimensional rheological model with four relaxation
terms is utilized to represent the set of curves resulting from tests of specimens at five different strain rates. The viscoelastic parameters are identified by means of a
least square approach using the Levenberg-Marquardt algorithm.
In chapter eight, the elastic-plastic orthotropic material model is verified for low strain
rates. A specimen with a hole in its middle is exposed to a tensile load until break and
simultaneously measured by means of a CCD-camera to obtain the two-dimensional
displacement field on its surface. Comparison of the experimental displacements with
the displacements of a finite-element model at the same points shows the quality of
the material model and its parameters. Finally, in chapter nine, the results of a filling
simulation of the test sample is shown and again a comparison of measured and
simulated data is presented. This we describe the potential and the limits of current
filling-simulation-software in conjunction with a popular finite-element-tool like
ABAQUS. To conclude appropriate mathematical characterisation and reliable parameters
of long-glass-fibre reinforced polypropylene require stringent experimental
and theoretical characterisation. Complete specification of such a complex material is still very time-consuming and prone to mistakes during the whole sequence of operations.
For this reason it is very important to improve the reliability of every single step
in product engineering. Hence the performance of a mathematical material model is
not only dependent on its formulation but also and particularly on the quality of its
material parameters whether they are determined directly from material tests or by
means of special optimization software. The best optimization tools can only optimize
material parameters reliably if the underlying experimental data is just as reliable.
Multiphase materials combine properties of several materials, which makes them interesting for high-performing components. This thesis considers a certain set of multiphase materials, namely silicon-carbide (SiC) particle-reinforced aluminium (Al) metal matrix composites and their modelling based on stochastic geometry models.
Stochastic modelling can be used for the generation of virtual material samples: Once we have fitted a model to the material statistics, we can obtain independent three-dimensional “samples” of the material under investigation without the need of any actual imaging. Additionally, by changing the model parameters, we can easily simulate a new material composition.
The materials under investigation have a rather complicated microstructure, as the system of SiC particles has many degrees of freedom: Size, shape, orientation and spatial distribution. Based on FIB-SEM images, that yield three-dimensional image data, we extract the SiC particle structure using methods of image analysis. Then we model the SiC particles by anisotropically rescaled cells of a random Laguerre tessellation that was fitted to the shapes of isotropically rescaled particles. We fit a log-normal distribution for the volume distribution of the SiC particles. Additionally, we propose models for the Al grain structure and the Aluminium-Copper (\({Al}_2{Cu}\)) precipitations occurring on the grain boundaries and on SiC-Al phase boundaries.
Finally, we show how we can estimate the parameters of the volume-distribution based on two-dimensional SEM images. This estimation is applied to two samples with different mean SiC particle diameters and to a random section through the model. The stereological estimations are within acceptable agreement with the parameters estimated from three-dimensional image data
as well as with the parameters of the model.
Fucoidan is a class of biopolymers mainly found in brown seaweeds. Due to its diverse medical importance, homogenous supply as well as a GMP-compliant product is of a special interest. Therefore, in addition to optimization of its extraction and purification from classical resources, other techniques were tried (e.g., marine tissue culture and heterologous expression of enzymes involved in its biosynthesis). Results showed that 17.5% (w/w) crude fucoidan after pre-treatment and extraction was obtained from the brown macroalgae F. vesiculosus. Purification by affinity chromatography improved purity relative to the commercial purified product. Furthermore, biological investigations revealed improved anti-coagulant and anti-viral activities compared with crude fucoidan. Furthermore, callus-like and protoplast cultures as well as bioreactor cultivation were developed from F. vesiculosus representing a new horizon to produce fucoidan biotechnologically. Moreover, heterologous expression of several enzymes involved in its biosynthesis by E. coli (e.g., FucTs and STs) demonstrated the possibility to obtain active enzymes that could be utilized in enzymatic in vitro synthesis of fucoidan. All these competitive techniques could provide the global demands from fucoidan.
Zur Eigenspannungsausbildung bei der wickeltechnischen Verarbeitung thermoplastischer Bandhalbzeuge
(2005)
Filament winding is today a well established production technique for fiber reinforced
pressure vessels. Most of the parts are still made using thermosets as matrix material,
but parts with thermoplastic matrices are today on the edge to mass production.
Usually these parts are made from fully consolidated unidirectional fiber reinforced
thermoplastic tapes. During processing the matrix material is molten and the tapes
are placed on the substrate where they re-solidify. A wide range of material combinations
are available on the market. The materials used in the present investigation are
semi-crystalline thermoplastics and glass or carbon fiber i.e. carbon fiber reinforced
Polyetheretherketone, glass fiber reinforced Polyetheretherketone and glass fiber
reinforced Polypropylene.
Applications can be found in the field of medium and high pressure vessels like they
are used for natural gas and hydrogen storage or for tubes and pipes for their transport.
During the design of such parts mostly idealized properties as for example tensile
strength are used. Residual stresses which are inherent for composite materials
are only considered as part of the safety factor.
The present work investigates the generation of residual stresses for in-situ consolidation
during filament winding. Within this process consolidation of the tape material
and the substrate takes place immediately after the tapes are placed. This is contrary
to the normal curing of thermoset materials and has a large influence on the generation
of the residual stress. The impact of these stresses on the behavior of the produced
parts during service is one of the topics of this investigation. Therefore the
background of thermal residual stresses in semi-crystalline thermoplastic parts is discussed
and a closer look on the crystallization behavior of the matrix materials was
taken. As the beginning of the crystal growth is a major point in the generation of thermal residual stress.
The aim of the present work is to find process parameter combinations that allow to
compensate the thermal residual stresses and to generate a residual stress profile
that – unlike the thermal residual stresses - brings about structural benefit. Ring
samples with a defined geometry were made to measure the generated stresses.
The geometry of the samples was chosen in a way that prevents influences of the
boundary conditions of the free edges on the measuring point.
In the investigations the residual stresses were measured in circumferential direction
using a method where the ring samples were cut in radial direction and the deformation
was measured using strain gages. From the strain the local stress can be determined.
It was tried to minimize the number of experiments. Therefore the influence of filament
winding process parameters on the residual stress were investigated using a
Design of Experiments approach where the main influences on the residual stress
generation can be found from a relatively small number of experiments such as 8
instead of 128. As a result of these experiments it was found that the winding angle,
the mandrel temperature, the annealing, the wall thickness and the tape tension have
a significant influence on residual stresses. With increasing winding angles the influence
on the measured circumferential stresses increase regardless to kind of residual
stresses. The mandrel temperature has a large influence on the temperature difference
that causes the stress between fiber and matrix. They are caused by different
thermal expansion coefficients of fiber and matrix. Structural benefit through annealing
is only theoretically possible because the required outside temperatures
along with internal cooling of the parts can not be realized within an industrial processes.
Increasing wall thickness leads to also increasing residual stress but it can not
be the aim to build oversized parts for the sake of residual stresses. The applied tape
tension was identified as a parameter that can be used to achieve the desired residual
stress state with reasonable efforts.
Different ways of varying the tape tension with increasing wall thickness were investigated.
The tape tension was increased with every layer to a chosen maximum value or, after half of the layers were placed, in one step to the maximum value. Furthermore
a continuously high tape tension and a variant without tape tension was investigated.
The experiments led to the conclusion that increasing tape tension with increasing
wall thickness is a viable way to have structural benefit from residual stress.
The increasing in one step gave the best results.
The impact of the thermal history during production is discussed as well. Temperatures
must not exceed the softening point of the matrix. Otherwise a part of the tape
tension gets lost by relaxation. In a particular case the relaxation reached an amount
where the compensation of the thermal stresses failed. Thermodynamic calculations
led to the conclusion that the energy transfer into the material by mandrel heating
and melt energy caused a temperature above the softening point.
The impact of tape tension on material quality is documented. Very low tape tension
can not guarantee a proper consolidation. On the other hand excessive tape tension
can lead to matrix squeeze out and in particular cases to cracks due to too high residual
stresses. Therefore the tape tension profile should be well adapted to work
load, the composite and its properties.
Investigations on the relaxation behavior of the residual stresses showed that relaxation
occurs and that a part of the residual stress relaxes when the samples were exposed
to higher temperatures. Test at room temperature showed no significant sign
of relaxation. When the temperature was raised – in this case to 80 °C - the samples
clearly relaxed. The amount of induced residual stress sank to half of its initial value.
Investigations on the structural benefit showed that material savings of up to 23 % of
weight are possible for high pressure applications and fiber reinforcements with relatively
low fiber volume content. Higher fiber volume contents which also mean higher
strengths reduce the benefit. As the strength of the material increases the benefit
reduces in relation to it.
Nevertheless there is a potential in material saving and one should keep in mind that
the costs to establish the equipment to control the tape tension is cheap in comparison
to the achievable result.
In dieser Arbeit sollten Liganden für Übergangsmetalle auf Basis von cyclischen Peptiden mit natürlichen und nicht-natürlichen Aminosäureuntereinheiten entwickelt werden. Durch die chiralen Aminosäuren in den Cyclopeptiden sollte deren Chiralität auf den Metallkomplex übertragen werden. Dadurch könnten Materialien für die Racematspaltung auf Basis von Koordinationsnetzwerken oder chirale Rezeptoren mit geeigneten Hohlräumen auf Basis von diskreten Koordinationsverbindungen zugänglich werden. Cyclische Kationenrezeptoren können als Wirkstoff in der Medizin Anwendung finden, zum Beispiel als Mimetikum für Ionophore wie Valinomycin.
Im ersten Teil der Arbeit wurden die Synthesen einer Reihe von Cyclotetrapeptiden, welche in alternierender Reihenfolge Prolin- und nicht-cyclische α-Aminosäureuntereinheiten enthielten, verfolgt. Als vielversprechendste Grundstruktur erwies sich dabei ein Cyclotetrapeptid mit D-Phenylalanin und L-4-Azido-Prolineinheiten, da es eine Vielzahl von möglichen Funktionalisierungen über die Azidgruppen ermöglichte. Durch Einführung geeigneter funktioneller Gruppen in der Peripherie des Cyclopeptidrings wurden Koordinationsstellen für Metallzentren geschaffen. Von den erhaltenen Produkten eignete sich keins für den Aufbau von Koordinationsnetzwerken (Metal-organic frameworks; MOF). Die Ursache ist höchstwahrscheinlich die zu hohe Flexibilität der betreffenden Cyclopeptide. Die hohe Flexibilität dieser Verbindungen wurde ebenfalls bei den Versuchen zur Darstellung von diskreten Koordinationsverbindungen mit Pd(II) deutlich. Hier wurde ein dinuklearer Pd(II)-Komplex erhalten, in dem die beiden Cyclopeptidliganden charakteristisch andere Konformationen annehmen als in der freien Form.
Weiterhin wurde im zweiten Teil der Arbeit eine Synthese für Cyclohexapeptide mit N-alkylierten 5-Amino-4-oxo-1,4-dihydropyridin-3-carbonsäureeinheiten entwickelt. Das gewünschte Produkt wurde in einer 16-stufigen Synthese erhalten. NMR-spektroskopische Studien zeigten, dass es in Lösung ein komplexes Konformerengleichgewicht aufweist. Die Studien deuten außerdem an, dass es mit Alkalimetallionen in Lösung wechselwirkt.
Using valuation theory we associate to a one-dimensional equidimensional semilocal Cohen-Macaulay ring \(R\) its semigroup of values, and to a fractional ideal of \(R\) we associate its value semigroup ideal. For a class of curve singularities (here called admissible rings) including algebroid curves the semigroups of values, respectively the value semigroup ideals, satisfy combinatorial properties defining good semigroups, respectively good semigroup ideals. Notably, the class of good semigroups strictly contains the class of value semigroups of admissible rings. On good semigroups we establish combinatorial versions of algebraic concepts on admissible rings which are compatible with their prototypes under taking values. Primarily we examine duality and quasihomogeneity.
We give a definition for canonical semigroup ideals of good semigroups which characterizes canonical fractional ideals of an admissible ring in terms of their value semigroup ideals. Moreover, a canonical semigroup ideal induces a duality on the set of good semigroup ideals of a good semigroup. This duality is compatible with the Cohen-Macaulay duality on fractional ideals under taking values.
The properties of the semigroup of values of a quasihomogeneous curve singularity lead to a notion of quasihomogeneity on good semigroups which is compatible with its algebraic prototype. We give a combinatorial criterion which allows to construct from a quasihomogeneous semigroup \(S\) a quasihomogeneous curve singularity having \(S\) as semigroup of values.
As an application we use the semigroup of values to compute endomorphism rings of maximal ideals of algebroid curves. This yields an explicit description of the intermediate rings in an algorithmic normalization of plane central arrangements of smooth curves based on a criterion by Grauert and Remmert. Applying this result to hyperplane arrangements we determine the number of steps needed to compute the normalization of a the arrangement in terms of its Möbius function.
The phase field approach is a powerful tool that can handle even complicated fracture phenomena within an apparently simple framework. Nonetheless, a profound understanding of the model is required in order to be able to interpret the obtained results correctly. Furthermore, in the dynamic case the phase field model needs to be verified in comparison to experimental data and analytical results in order to increase the trust in this new approach. In this thesis, a phase field model for dynamic brittle fracture is investigated with regard to these aspects by analytical and numerical methods
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
The popularity of composite materials is constantly growing, which can be verified by
the rising number of composite parts in our everyday life. Examples of composite
parts can be found in the Airbus A 380 or the constantly increasing number of wind
turbines which contain composite rotor blades of over 50m length. Because of the
main features of composites, which are light weight combined with high strength and
the possibility of tailoring the strength and the stiffness of the composite according to
the requirements, their application is highly efficient and economic.
In order to manufacture a composite part by employing a Liquid Composite Molding
Process (LCM), it is first necessary to select an appropriate manufacturing process
such as the Resin Transfer Molding Process (RTM) and to design a mold which corresponds
to the requirements of the selected process. Then the stacking sequence of
the individual fibrous reinforcements is designed to withstand the loads on the final
part. To achieve an efficient composite manufacturing process, pre-shaped, handable,
dry reinforcing structures, so called preforms, need to be applied. Such preforms
can be assembled either by using conventional binder technologies or by the
recently developed “cut and sew approach”. A variety of available software simulation
tools support the design engineer in this task. These tools are, on the one hand, a
fast way of gaining information about the expected loads the mold has to endure during
the injection process. On the other hand, they provide the possibility to optimize
the injection process and its process parameters and to identify critical points of incomplete
saturation. With this information at hand, the design of the mold can be adjusted
in order to obtain optimal processing conditions for a slim and efficient production
cycle.
A prerequisite for employing these powerful simulation tools is to obtain thorough
knowledge of the required input parameters concerning the fibrous reinforcement to
be used. The most important input parameters are the compaction behavior and the
permeability of the fibrous stacking sequence. Because of the absence of modelbased
tools to provide this input information experimental determination methods
have to be employed.
This work introduces two semi-automated measurement cells which determine the inplane
permeability of fibrous reinforcements in an efficient manner, i.e. the dielectrical permeability work cell and the optical compaction and permeability work cell. The
latter of which can determine both the required compaction and the permeability information
in one single experiment. The design and manner of operating of the optical
compaction and permeability work cell is described and its functionality is validated
by a comparison of experimental results.
The complexity of modern real-time systems is increasing day by day. This inevitable rise in complexity predominantly stems from two contradicting requirements, i.e., ever increasing demand for functionality, and required low cost for the final product. The development of modern multi-processors and variety of network protocols and architectures have enabled such a leap in complexity and functionality possible. Albeit, efficient use of these multi-processors and network architectures is still a major problem. Moreover, the software design and its development process needs improvements in order to support rapid-prototyping for ever changing system designs. Therefore, in this dissertation, we provide solutions for different problems faced in the development and deployment process of real-time systems. The contributions presented in this thesis enable efficient utilization of system resources, rapid design & development and component modularity & portability.
In order to ease the certification process, time-triggered computation model is often used in distributed systems. However, time-triggered scheduling is NP-hard, due to which the process of schedule generation for complex large systems becomes convoluted. Large scheduler run-times and low scalability are two major problems with time-triggered scheduling. To solve these problems, we present a modular real-time scheduler based on a novel search-tree pruning technique, which consumes less time (compared to the state-of-the-art) in order to schedule tasks on large distributed time-triggered systems. In order to provide end-to-end guarantees, we also extend our modular scheduler to quickly generate schedules for time-triggered network traffic in large TTEthernet based networks. We evaluate our schedulers on synthetic but practical task-sets and demonstrate that our pruning technique efficiently reduces scheduler run-times and exhibits adequate scalability for future time-triggered distributed systems.
In safety critical systems, the certification process also requires strict isolation between independent components. This isolation is enforced by utilizing resource partitioning approach, where different criticality components execute in different partitions (each temporally and spatially isolated from each other). However, existing partitioning approaches use periodic servers or tasks to service aperiodic activities. This approach leads to utilization loss and potentially leads to large latencies. On the contrary to the periodic approaches, state-of-the-art aperiodic task admission algorithms do not suffer from problems like utilization loss. However, these approaches do not support partitioned scheduling or mixed-criticality execution environment. To solve this problem, we propose an algorithm for online admission of aperiodic tasks which provides job execution flexibility, jitter control and leads to lower latencies of aperiodic tasks.
For safety critical systems, fault-tolerance is one of the most important requirements. In time-triggered systems, modes are often used to ensure survivability against faults, i.e., when a fault is detected, current system configuration (or mode) is changed such that the overall system performance is either unaffected or degrades gracefully. In literature, it has been asserted that a task-set might be schedulable in individual modes but unschedulable during a mode-change. Moreover, conventional mode-change execution strategies might cause significant delays until the next mode is established. In order to address these issues, in this dissertation, we present an approach for schedulability analysis of mode-changes and propose mode-change delay reduction techniques in distributed system architecture defined by the DREAMS project. We evaluate our approach on an avionics use case and demonstrate that our approach can drastically reduce mode-change delays.
In order to manage increasing system complexity, real-time applications also require new design and development technologies. Other than fulfilling the technical requirements, the main features required from such technologies include modularity and re-usability. AUTOSAR is one of these technologies in automotive industry, which defines an open standard for software architecture of a real-time operating system. However, being an industrial standard, the available proprietary tools do not support model extensions and/or new developments by third-parties and, therefore, hinder the software evolution. To solve this problem, we developed an open-source AUTOSAR toolchain which supports application development and code generation for several modules. In order to exhibit the capabilities of our toolchain, we developed two case studies. These case studies demonstrate that our toolchain generates valid artifacts, avoids dirty workarounds and supports application development.
In order to cope with evolving system designs and hardware platforms, rapid-development of scheduling and analysis algorithms is required. In order to ease the process of algorithm development, a number of scheduling and analysis frameworks are proposed in literature. However, these frameworks focus on a specific class of applications and are limited in functionality. In this dissertation, we provide the skeleton of a scheduling and analysis framework for real-time systems. In order to support rapid-development, we also highlight different development components which promote code reuse and component modularity.
Asynchronous concurrency is a wide-spread way of writing programs that
deal with many short tasks. It is the programming model behind
event-driven concurrency, as exemplified by GUI applications, where the
tasks correspond to event handlers, web applications based around
JavaScript, the implementation of web browsers, but also of server-side
software or operating systems.
This model is widely used because it provides the performance benefits of
concurrency together with easier programming than multi-threading. While
there is ample work on how to implement asynchronous programs, and
significant work on testing and model checking, little research has been
done on handling asynchronous programs that involve heap manipulation, nor
on how to automatically optimize code for asynchronous concurrency.
This thesis addresses the question of how we can reason about asynchronous
programs while considering the heap, and how to use this this to optimize
programs. The work is organized along the main questions: (i) How can we
reason about asynchronous programs, without ignoring the heap? (ii) How
can we use such reasoning techniques to optimize programs involving
asynchronous behavior? (iii) How can we transfer these reasoning and
optimization techniques to other settings?
The unifying idea behind all the results in the thesis is the use of an
appropriate model encompassing global state and a promise-based model of
asynchronous concurrency. For the first question, We start from refinement
type systems for sequential programs and extend them to perform precise
resource-based reasoning in terms of heap contents, known outstanding
tasks and promises. This extended type system is known as Asynchronous
Liquid Separation Types, or ALST for short. We implement ALST in for OCaml
programs using the Lwt library.
For the second question, we consider a family of possible program
optimizations, described by a set of rewriting rules, the DWFM rules. The
rewriting rules are type-driven: We only guarantee soundness for programs
that are well-typed under ALST. We give a soundness proof based on a
semantic interpretation of ALST that allows us to show behavior inclusion
of pairs of programs.
For the third question, we address an optimization problem from industrial
practice: Normally, JavaScript files that are referenced in an HTML file
are be loaded synchronously, i.e., when a script tag is encountered, the
browser must suspend parsing, then load and execute the script, and only
after will it continue parsing HTML. But in practice, there are numerous
JavaScript files for which asynchronous loading would be perfectly sound.
First, we sketch a hypothetical optimization using the DWFM rules and a
static analysis.
To actually implement the analysis, we modify the approach to use a
dynamic analysis. This analysis, known as JSDefer, enables us to analyze
real-world web pages, and provide experimental evidence for the efficiency
of this transformation.
Das virtuelle, optische Messen wird in der industriellen Anwendung häufig vernachlässigt. Um optische Messergebnisse jedoch vorhersehbar und zuverlässig zu machen, ist es erforderlich, Sensoren zu modellieren und die Resultate, sogenannte virtuelle Messergebnisse, zu analysieren. Die zulässigen Modellvereinfachungen sind dabei vom zugrunde liegenden, physikalischen Messprinzip abhängig. In dieser Arbeit werden zwei virtuelle, optische Sensoren mit unterschiedlichen Messprinzipien unter paraxialen Annahmen modelliert. Zudem werden Untersuchungen zum Übertragungsverhalten der Sensoren angestellt. Beim ersten Sensor handelt es sich um einen winkelauflösenden Streulichtsensor zur Messung der statistischen Verteilung von Gradienten geometrischer Oberflächen. Der zweite Sensor ist ein kurzkohärentes Interferometer zur vertikal hochauflösenden Messung von Topographien. Während dem winkelauflösenden Messprinzip ein inkohärenter Modellansatz zugrunde liegt, werden beim Interferometer kohärente Annahmen getroffen. Mithilfe der Sensormodelle ist es möglich, geometrische Oberflächen virtuell anzutasten und, basierend auf generierten oder real gemessenen Topographiedaten, virtuelle Messungen anzustellen. Auf diese Weise werden umfangreiche Untersuchungen zum Übertragungsverhalten der Sensoren ermöglicht. Darüber hinaus wird ein eigens entwickeltes, VTK-basiertes Programm vorgestellt, das die nichtsequentielle Berechnung optischer Sensoren ermöglicht. Dieses Programm nutzt Ray Tracing zur Simulation nichtsequentieller, optischer Systeme. Des Weiteren werden Ansätze für die parallele Datenverarbeitung mit CUDA® vorgestellt. Der paraxial modellierte, winkelauflösende Streulichtsensor wird demnach zusätzlich nichtsequentiell simuliert und die Ergebnisse der paraxialen und der nichtsequentiellen Berechnung werden gegenübergestellt.
Thermoplastische Faser-Kunststoff-Verbunde (TP-FKV) rücken aufgrund ihrer guten Verarbeit- und Rezyklierbarkeit immer weiter in den Fokus der Automobilindustrie. Sie können effizient in serientauglichen Fließpress- oder Umformprozessen zu Bauteilen verarbeitet werden und bringen gute chemische, mechanische und thermische Eigenschaften mit. Die resultierenden Bauteile werden anschließend in Baugruppen eingesetzt, deren Strukturbauteile nach wie vor hauptsächlich aus Metallen bestehen. An der Schnittstelle zwischen TP-FKV und Metall entsteht ein Verbindungsproblem, das bisher meist durch Schrauben, Nieten oder Kleben gelöst wird. Allerdings werden diese Verfahren den speziellen Anforderungen der TP-FKV nicht gerecht und bringen zusätzliches Material in das Bauteil ein. TP-FKV eignen sich aufgrund der Schmelzbarkeit der thermoplastischen Matrix für thermische Fügeverfahren. Da die thermoplastische Matrix selbst als Klebstoff genutzt werden kann, entsteht eine flächige Verbindung, ohne dass Bohrungen oder zusätzliches Material notwendig sind. Außerdem kann durch eine geeignete Vorbehandlung der Metalloberfläche ein Formschluss erzielt und so die Festigkeit signifikant gesteigert werden.
In der vorliegenden Arbeit wurden ein diskontinuierlicher und ein kontinuierlicher, induktiver Schweißprozess entwickelt und optimiert. Dazu wurde ein Prüfstand ent-worfen und aufgebaut, der auf beide Prozesse angepasst werden kann. Beim konti-nuierlichen Induktionsschweißen konnte die Prozessgeschwindigkeit durch den Einsatz einer Bauteilkühlung ohne Beeinträchtigung der Fügefestigkeit auf mehr als 1m/min gesteigert werden. Beim diskontinuierlichen Schweißen wurde die bisher verwendete, sehr fehleranfällige temperaturbasierte Prozessregelung durch eine Wegregelung ersetzt. So konnte ein stabiler, voll automatisierter Schweißprozess entwickelt werden. Zum Abschluss wurde die Eignung des Induktionsschweißens für die industrielle Anwendung am Beispiel eines Unterbodenblechs eines Nutzfahrzeuges gezeigt. Hier konnte durch diskontinuierliches Induktionsschweißen in Kombination mit der Vorbehandlung des metallischen Fügepartners durch Laserstrukturierung die gleiche Performance wie bei dem ursprünglichen, genieteten Ansatz erzielt werden. Es steht mit dem Induktionsschweißen also ein Fügeprozess zur Verfügung, der sowohl hinsichtlich Effizienz als auch Festigkeit für die industrielle Anwendung geeignet ist.
Optical Character Recognition (OCR) system plays an important role in digitization of data acquired as images from a variety of sources. Although the area is very well explored for Latin languages, some of the languages based on Arabic cursive script are not yet explored. It is due to many factors: Most importantly are the unavailability of proper data sets and complexities posed by cursive scripts. The Pashto language is one of such languages which needs considerable exploration towards OCR. In order to develop such an OCR system, this thesis provides a pioneering study that explores deep learning for the Pashto language in the field of OCR.
The Pashto language is spoken by more than $50$ million people across the world, and it is an active medium both for oral as well as written communication. It is associated with rich literary heritage and contains huge written collection. These written materials present contents of simple to complex nature, and layouts from hand-scribed to printed text. The Pashto language presents mainly two types of complexities (i) generic w.r.t. cursive script, (ii) specific w.r.t. Pashto language. Generic complexities are cursiveness, context dependency, and breaker character anomalies, as well as space anomalies. Pashto specific complexities are variations in shape for a single character and shape similarity for some of the additional Pashto characters. Existing research in the area of Arabic OCR did not lead to an end-to-end solution for the mentioned complexities and therefore could not be generalized to build a sophisticated OCR system for Pashto.
The contribution of this thesis spans in three levels, conceptual level, data level, and practical level. In the conceptual level, we have deeply explored the Pashto language and identified those characters, which are responsible for the challenges mentioned above. In the data level, a comprehensive dataset is introduced containing real images of hand-scribed contents. The dataset is manually transcribed and has the most frequent layout patterns associated with the Pashto language. The practical level contribution provides a bridge, in the form of a complete Pashto OCR system, and connects the outcomes of the conceptual and data levels contributions. The practical contribution comprises of skew detection, text-line segmentation, feature extraction, classification, and post-processing. The OCR module is more strengthened by using deep learning paradigm to recognize Pashto cursive script by the framework of Recursive Neural Networks (RNN). Proposed Pashto text recognition is based on Long Short-Term Memory Network (LSTM) and realizes a character recognition rate of $90.78\%$ on Pashto real hand-scribed images. All these contributions are integrated into an application to provide a flexible and generic End-to-End Pashto OCR system.
The impact of this thesis is not only specific to the Pashto language, but it is also beneficial to other cursive languages like Arabic, Urdu, and Persian e.t.c. The main reason is the Pashto character set, which is a superset of Arabic, Persian, and Urdu languages. Therefore, the conceptual contribution of this thesis provides insight and proposes solutions to almost all generic complexities associated with Arabic, Persian, and Urdu languages. For example, an anomaly caused by breaker characters is deeply analyzed, which is shared among 70 languages, mainly use Arabic script. This thesis presents a solution to this issue and is equally beneficial to almost all Arabic like languages.
The scope of this thesis has two important aspects. First, a social impact, i.e., how a society may benefit from it. The main advantages are to bring the historical and almost vanished document to life and to ensure the opportunities to explore, analyze, translate, share, and understand the contents of Pashto language globally. Second, the advancement and exploration of the technical aspects. Because, this thesis empirically explores the recognition and challenges which are solely related to the Pashto language, both regarding character-set and the materials which present such complexities. Furthermore, the conceptual and practical background of this thesis regarding complexities of Pashto language is very beneficial regarding OCR for other cursive languages.
The N-containing heterocycles have received strong attention from the organic synthesis field because of their importance for pharmaceutical and material sciences. Nitrogen element plays an important role between inorganic salts and biomolecules, to search convenient methods combine C-N bond together become a hot topic in recent decades.
Since the early beginning of 20th century, transition-metal-catalyzed coupling reactions had been well-known and world widely spread in organic researchs, achieved abundant significant progress. In the other side, the less toxic and more challenging transition metal free coupling method remained further potential value.
With the evolution of amination reactions and oxidants, more and more effective, simplified, and atom economic organic synthesis methods will come soon. And these stories also drove me to think about investigating the novel cross-dehydrogenative-coupling amination methods development as the topics of my PhD research.
Thus, we selected the phenothiazine derivatives as the N-nucleophile reagents and the phenols as the C-nucleophile reagents. To achieve the transition metal-free CDC aminations of phenols with phenothiazines, we scanned the chemical toolbox and tested a series of both common and uncommon oxidants.
Firstly, we start the condition in the presence of cumene and O2. The proposed mechanism initiated by a Hock process, which would form in situ peroxo-species as initiator of the reaction. And the initial infra-red analysis predicted there is a strong O-H..N interaction.
In the second method, a series of iodines with different valance have been tested to achieve the C-N bond formation of phenols with phenothiazines. This time, a simplified and more efficient method had been developed, which also provides a wider scope of phenols. Several controlling experiments had been conducted for the plausible pathway research. Large-scale synthesis of target molecular was also successfully performed.
And then, we focus the research on the cross-coupling reaction of pre-oxidized(iminated) phenothiazine with ubiquitous phenols and indoles. In this task, we first regio-selectively synthesized the novel iminated phenothiazine derivatives with the traditional biocide and mild disinfectant, Chloramine T. Then the phenothiazinimine performed an ultra-simple condensation technique with phenol or indole coupling partners in a simplified condition. Parallel reactions were also performed to investigate the plausible pathway.
Nowadays, the increasing demand for ever more customizable products has emphasized the need for more flexible and fast-changing manufacturing systems. In this environment, simulation has become a strategic tool for the design, development, and implementation of such systems. Simulation represents a relatively low-cost and risk-free alternative for testing the impact and effectiveness of changes in different aspects of manufacturing systems.
Systems that deal with this kind of data for its use in decision making processes are known as Simulation-Based Decision Support Systems (SB-DSS). Although most SB-DSS provide a powerful variety of tools for the automatic and semi-automatic analysis of simulations, visual and interactive alternatives for the manual exploration of the results are still open to further development.
The work in this dissertation is focused on enhancing decision makers’ analysis capabilities by making simulation data more accessible through the incorporation of visualization and analysis techniques. To demonstrate how this goal can be achieved, two systems were developed. The first system, viPhos – standing for visualization of Phos: Greek for light –, is a system that supports lighting design in factory layout planning. viPhos combines simulation, analysis, and visualization tools and techniques to facilitate the global and local (overall factory or single workstations, respectively) interactive exploration and comparison of lighting design alternatives.
The second system, STRAD - standing for Spatio-Temporal Radar -, is a web-based systems that considers the spatio/attribute-temporal analysis of event data. Since decision making processes in manufacturing also involve the monitoring of the systems over time, STRAD enables the multilevel exploration of event data (e.g., simulated or historical registers of the status of machines or results of quality control processes).
A set of four case studies and one proof of concept prepared for both systems demonstrate the suitability of the visualization and analysis strategies adopted for supporting decision making processes in diverse application domains. The results of these case studies indicate that both, the systems as well as the techniques included in the systems can be generalized and extended to support the analysis of different tasks and scenarios.
Das 2,2′-Bipyrimidinradikalanion als Brückenligand für Komplexe mit L-N\(_\text{4}\)Me\(_\text{2}\)
(2018)
Im Rahmen dieser Dissertationsschrift gelang es erstmals 3d-Metallionen über ein 2,2′-Bipyrimidinradikalanion zu verbrücken und zu isolieren. Der für sich betrachtet instabile Radikalbrückenligand wurde hierbei in situ durch Reduktion mit Cobaltocen generiert und durch Koordination stabilisiert. Es konnte neben verschiedenen Referenzverbindungen eine Reihe von vier unter Luftausschluss stabilen homodimetallischen Verbindungen mit dem [{M\(^\text{II}\)(L-N\(_\text{4}\)Me\(_\text{2}\))}\(_\text{2}\)(μ-bpym\(^\text{●}\))]\(^\text{3+}\)-Komplexkation (mit M = Zn (\(\textbf{2}\)), Ni (\(\textbf{6}\)), Co (\(\textbf{8}\)) und Fe (\(\textbf{12}\)) synthetisiert, vollständig charakterisiert und miteinander verglichen werden. Durch Gegenüberstellung der strukturellen Parameter des verbrückend koordinierten 2,2′-Bipyrimidinradikalanions in den zweikernigen Verbindungen wurden für dieses charakteristische Bindungslängenbereiche festgestellt. Weiterhin wurden IR- und UV/Vis-spektroskopisch typische Banden des verbrückend koordinierten 2,2′-Bipyrimidinradikalanions gefunden. Durch cyclovoltammetrische und NMR-spektroskopische Untersuchungen wurde der Reaktionspfad zu den dinuklearen Verbindungen aufgeklärt. An \(\textbf{2}\) wurden die intrinsischen ESR-spektroskopischen Eigenschaften der 2,2′-Bipyrimidinradikalanion-Brücke untersucht. Die Elektronendichte des Radikals in \(\textbf{2}\) ist hauptsächlich auf dem Brückenliganden verortet und es liegt ein S = 1/2 System vor. SQUID-magnetometrische Messungen an \(\textbf{6}\) zeigen eine starke ferromagnetische Kopplung zwischen den Nickelionen und der Radikalbrücke, welche zu einem S = 5/2 Spingrundzustand führt. Der S = 5/2 Zustand wurde mittels X-Band-ESR-Spektroskopie bestätigt. Durch Hochfeld-ESR-Spektroskopie wurde ebenfalls die ferromagnetische Kopplung bestätigt und die Nullfeldaufspaltung der Nickelionen in \(\textbf{6}\) eindeutig als schwach negativ bestimmt. Röntgenkristallographische Untersuchungen an \(\textbf{8}\) zeigen bei D\(_\text{2h}\)-Symmetrie einen über einen weiten Temperaturbereich stabilen low-spin/high-spin Zustand der beiden Cobaltionen. Dies alleine ist für Cobaltionen nach bisherigem Kenntnisstand einzigartig. \(\textbf{8}\) ist zudem die erste Verbindung, in welcher diese Begebenheiten mit einem direkt an die Metallzentren koordinierten Radikalbrückenliganden kombiniert vorliegen. Der low-spin/high-spin Zustand wurde weiterhin durch EXAFS- und XANES-Messungen verifiziert. Mit der Verbindung [{Co(L-N\(_\text{4}\)Me\(_\text{2}\))}\(_\text{2}\)(μ-Ph\(_\text{2}\)bpym\(^\text{●}\))](ClO\(_\text{4}\))\(_\text{3}\) (\(\textbf{10}\)) wurde eine weitere radikalverbrückte Verbindung synthetisiert, in der beide Cobaltionen bei identischer Koordinationsumgebung über einen weiten Temperaturbereich in unterschiedlichem Spinzustand vorliegen. SQUID-magnetometrische Untersuchungen an \(\textbf{8}\) und \(\textbf{10}\) zeigen, dass in beiden Verbindungen die low-spin Cobaltionen moderat ferro-, die high-spin Cobaltionen stark antiferromagnetisch mit der jeweiligen Radikalbrücke koppeln, was in beiden Fällen zu einem S = 3/2 Grundzustand führt. Der S = 3/2 Grundzustand wurde ebenfalls durch X-Band-ESR-Spektroskopie bestätigt. In \(\textbf{8}\) und \(\textbf{10}\) konnte jeweils ein Spincrossover des low-spin Cobaltions zum high-spin Zustand festgestellt werden. Dieser wurde mittels XRD-Analytik und SQUID-Magnetometrie für beide Verbindungen und für \(\textbf{8}\) zusätzlich durch EXAFS-Messungen, XANES-Messungen und temperaturabhängige IR-Spektroskopie nachgewiesen. Die Spincrossovereigenschaften sind zusammen mit den anderen vorgenannten Eigenschaften dieser neuen zweikernigen Cobaltverbindungsklasse ein weiteres Alleinstellungsmerkmal. Die einkernigen Referenzverbindungen [Co(L-N\(_\text{4}\)Me\(_\text{2}\))(bpym)](ClO\(_\text{4}\))\(_\text{2}\) (\(\textbf{9a}\)) und [Co(L-N\(_\text{4}\)Me\(_\text{2}\))(Ph\(_\text{2}\)bpym)](ClO\(_\text{4}\))\(_\text{2}\) ∙ MeCN (\(\textbf{11}\)) zeigen jeweils ebenfalls Spincrossovereigenschaften, was mittels SQUID-Magnetometrie und im Fall von \(\textbf{11}\) zusätzlich durch XRD-Analytik und temperaturabhängige IR-Spektroskopie nachgewiesen wurde. In \(\textbf{12}\) liegen beide Eisenionen im low-spin Zustand vor. Dies wurde röntgenkristallographisch und mittels Mößbauer-Spektroskopie bestätigt. X-Band-ESR-spektroskopisch wird ein Signal einer S = 1/2 Spezies gefunden, welches durch das brückenligandzentrierte Radikal hervorgerufen wird.
The scientific and industrial interest devoted to polymer/layered silicate
nanocomposites due to their outstanding properties and novel applications resulted
in numerous studies in the last decade. They cover mostly thermoplastic- and
thermoset-based systems. Recently, studies in rubber/layered silicate
nanocomposites were started, as well. It was presented how complex maybe the
nanocomposite formation for the related systems. Therefore the rules governing their
structure-property relationships have to be clarified. In this Thesis, the related
aspects were addressed.
For the investigations several ethylene propylene diene rubbers (EPDM) of polar and
non-polar origin were selected, as well as, the more polar hydrogenated acrylonitrile
butadiene rubber (HNBR). The polarity was found to be beneficial on the
nanocomposite formation as it assisted to the intercalation of the polymer chains
within the clay galleries. This favored the development of exfoliated structures.
Finding an appropriate processing procedure, i.e. compounding in a kneader instead
of on an open mill, the mechanical performance of the nanocomposites was
significantly improved. The complexity of the nanocomposite formation in
rubber/organoclay system was demonstrated. The deintercalation of the organoclay
observed, was traced to the vulcanization system used. It was evidenced by an
indirect way that during sulfur curing, the primary amine clay intercalant leaves the
silicate surface and migrates in the rubber matrix. This was explained by its
participation in the sulfur-rich Zn-complexes created. Thus, by using quaternary
amine clay intercalants (as it was presented for EPDM or HNBR compounds) the
deintercalation was eliminated. The organoclay intercalation/deintercalation detected
for the primary amine clay intercalants, were controlled by means of peroxide curing
(as it was presented for HNBR compounds), where the vulcanization mechanism
differs from that of the sulfur curing.
The current analysis showed that by selecting the appropriate organoclay type the
properties of the nanocomposites can be tailored. This occurs via generating different
nanostructures (i.e. exfoliated, intercalated or deintercalated). In all cases, the
rubber/organoclay nanocomposites exhibited better performance than vulcanizates
with traditional fillers, like silica or unmodified (pristine) layered silicates.The mechanical and gas permeation behavior of the respective nanocomposites
were modelled. It was shown that models (e.g. Guth’s or Nielsen’s equations)
developed for “traditional” vulcanizates can be used when specific aspects are taken
into consideration. These involve characteristics related to the platy structure of the
silicates, i.e. their aspect ratio after compounding (appearance of platelet stacks), or
their orientation in the rubber matrix (order parameter).
Benzene is a natural constituent of crude oil and a product of incomplete combustion of petrol
and has been classified as “carcinogenic to humans” by IARC in 1982 (IARC 1982). (E,E)-
Muconaldehyde has been postulated to be a microsomal metabolite of benzene in vitro
(Latriano et al. 1986). (E,E)-Muconaldehyde is hematotoxic in vivo and its role in the
hematotoxicity of benzene is unclear (Witz et al. 1985).
We intended to ascertain the presence of (E,E)-muconaldehyde in vivo by detection of a
protein conjugate deriving from (E,E)-muconaldehyde.
Therefore we improved the current synthetic access to (E,E)-muconaldehyde. (E,E)-
muconaldehyde was synthesized in three steps starting from with (E,E)-muconic acid in an
overall yield of 60 %.
Reaction of (E,E)-muconaldehyde with bovine serum albumin resulted in formation of a
conjugate which was converted upon addition of NaBH4 to a new species whose HPLC-
retention time, UV spectra, Q1 mass and MS2 spectra matched those of the crude reaction
product from one pot conversion of Ac-Lys-OMe with (E,E)-muconaldehyde in the presence
of NaBH4 and subsequent cleavage of protection groups.
Synthetic access to the presumed structure (S)-2-ammonio-6-(((E,E)-6-oxohexa-2,4-dien-1-
yl)amino)hexanoate (Lys(MUC-CHO)) was provided in eleven steps starting from (E,E)-
muconic acid and Lys(Z)-OtBu*HCl in 2 % overall yield. Additionally synthetic access to
(S)-2-ammonio-6-(((E,E)-6-hydroxyhexa-2,4-dien-1-yl)amino)hexanoate (Lys(MUC-OH))
and (S)-2-ammonio-6-((6-hydroxyhexyl)amino)hexanoate (IS) was provided.
With synthetic reference material at hand, the presumed structure Lys(MUC-OH) could be
identified from incubations of (E,E)-muconaldehyde with bovine serum albumin via HPLC-ESI+-
MS/MS.
Cytotoxicity analysis of (E,E)-muconaldehyde and Lys(MUC-CHO) in human promyelocytic
NB4 cells resulted in EC50 ≈ 1 μM for (E,E)-muconaldehyde. Lys(MUC-CHO) did not show
any additional cytotoxicity up to 10 μM.
B6C3F1 mice were exposed to 0, 400 and 800 mg/kg b.w. benzene to examine the formation
of Lys(MUC-OH) in vivo. After 24 h mice were sacrificed and serum albumin was isolated.
Analysis for Lys(MUC-OH) has not been performed in this work.
Collaboration aims to increase the efficiency of problem solving and decision making by bringing diverse areas of expertise together, i.e., teams of experts from various disciplines, all necessary to come up with acceptable concepts. This dissertation is concerned with the design of highly efficient computer-supported collaborative work involving active participation of user groups with diverse expertise. Three main contributions can be highlighted: (1) the definition and design of a framework facilitating collaborative decision making; (2) the deployment and evaluation of more natural and intuitive interaction and visualization techniques in order to support multiple decision makers in virtual reality environments; and (3) the integration of novel techniques into a single proof-of-concept system.
Decision making processes are time-consuming, typically involving several iterations of different options before a generally acceptable solution is obtained. Although, collaboration is an often-applied method, the execution of collaborative sessions is often inefficient, does not involve all participants, and decisions are often finalized with- out the agreement of all participants. An increasing number of computer-supported cooperative work systems (CSCW) facilitate collaborative work by providing shared viewpoints and tools to solve joint tasks. However, most of these software systems are designed from a feature-oriented perspective, rather than a human-centered perspective and without the consideration of user groups with diverse experience and joint goals instead of joint tasks. The aim of this dissertation is to bring insights to the following research question: How can computer-supported cooperative work be designed to be more efficient? This question opens up more specific questions like: How can collaborative work be designed to be more efficient? How can all participants be involved in the collaboration process? And how can interaction interfaces that support collaborative work be designed to be more efficient? As such, this dissertation makes contributions in:
1. Definition and design of a framework facilitating decision making and collaborative work. Based on examinations of collaborative work and decision making processes requirements of a collaboration framework are assorted and formulated. Following, an approach to define and rate software/frameworks is introduced. This approach is used to translate the assorted requirements into a software’s architecture design. Next, an approach to evaluate alternatives based on Multi Criteria Decision Making (MCDM) and Multi Attribute Utility Theory (MAUT) is presented. Two case studies demonstrate the usability of this approach for (1) benchmarking between systems and evaluates the value of the desired collaboration framework, and (2) ranking a set of alternatives resulting from a decision-making process incorporating the points of view of multiple stake- holders.
2. Deployment and evaluation of natural and intuitive interaction and visualization techniques in order to support multiple diverse decision makers. A user taxonomy of industrial corporations serves to create a petri network of users in order to identify dependencies and information flows between each other. An explicit characterization and design of task models was developed to define interfaces and further components of the collaboration framework. In order to involve and support user groups with diverse experiences, smart de- vices and virtual reality are used within the presented collaboration framework. Natural and intuitive interaction techniques as well as advanced visualizations of user centered views of the collaboratively processed data are developed in order to support and increase the efficiency of decision making processes. The smartwatch as one of the latest technologies of smart devices, offers new possibilities of interaction techniques. A multi-modal interaction interface is provided, realized with smartwatch and smartphone in full immersive environments, including touch-input, in-air gestures, and speech.
3. Integration of novel techniques into a single proof-of-concept system. Finally, all findings and designed components are combined into the new collaboration framework called IN2CO, for distributed or co-located participants to efficiently collaborate using diverse mobile devices. In a prototypical implementation, all described components are integrated and evaluated. Examples where next-generation network-enabled collaborative environments, connected by visual and mobile interaction devices, can have significant impact are: design and simulation of automobiles and aircrafts; urban planning and simulation of urban infrastructure; or the design of complex and large buildings, including efficiency- and cost-optimized manufacturing buildings as task in factory planning. To demonstrate the functionality and usability of the framework, case studies referring to factory planning are demonstrated. Considering that factory planning is a process that involves the interaction of multiple aspects as well as the participation of experts from different domains (i.e., mechanical engineering, electrical engineering, computer engineering, ergonomics, material science, and even more), this application is suitable to demonstrate the utilization and usability of the collaboration framework. The various software modules and the integrated system resulting from the research will all be subjected to evaluations. Thus, collaborative decision making for co-located and distributed participants is enhanced by the use of natural and intuitive multi-modal interaction interfaces and techniques.
Due to their superior weight-specific mechanical properties, carbon fibre epoxy composites (CFRP) are commonly used in aviation industry. However, their brittle failure behaviour limits the structural integrity and damage tolerance in case of impact (e.g. tool drop, bird strike, hail strike, ramp collision) or crash events. To ensure sufficient robustness, a minimum skin thickness is therefore prescribed for the fuselage, partially exceeding typical service load requirements from ground or flight manoeuvre load cases. A minimum skin thickness is also required for lightning strike protection purposes and to enable state-of-the-art bolted repair technology. Furthermore, the electrical conductivity of CFRP aircraft structures is insufficient for certain applications; additional metal components are necessary to provide electrical functionality (e.g. metal meshes on the outer skin for lightning strike protection, wires for electrical bonding and grounding, overbraiding of cables to provide electromagnetic shielding). The corresponding penalty weights compromise the lightweight potential that is actually given by the structural performance of CFRP over aluminium alloys.
Former research attempts tried to overcome these deficits by modifying the resin system (e.g. by addition of conductive particles or toughening agents) but could not prove sufficient enhancements. A novel holistic approach is the incorporation of highly conductive and ductile continuous metal fibres into CFRP. The basic idea of this hybrid material concept is to take advantage of both the electrical and mechanical capabilities of the integrated metal fibres in order to simultaneously improve the electrical conductivity and the damage tolerance of the composite. The increased density of the hybrid material is over-compensated by omitting the need for additional electrical system installation items and by the enhanced structural performance, enabling a reduction of the prescribed minimum skin thickness. Advantages over state-of-the-art fibre metal laminates mainly arise from design and processing technology aspects.
In this context, the present work focuses on analysing and optimising the structural and electrical performance of such hybrid composites with shares of metal fibres up to 20 vol.%. Bundles of soft-annealed austenitic steel or copper cladded low carbon steel fibres with filament diameters of 60 or 63 µm are considered. The fibre bundles are distinguished by high elongation at break (32 %) and ultimate tensile strength (900 MPa) or high electrical conductivity (2.4 × 10^7 S/m). Comprehensive researches are carried out on the fibre bundles as well as on unidirectional and multiaxial laminates. Both hybrid composites with homogeneous and accumulated steel fibre arrangement are taken into account. Electrical in-plane conductivity, plain tensile behaviour, suitability for bolted joints as well as impact and perforation performance of the composite are analysed. Additionally, a novel non-destructive testing method based on measurement of deformation-induced phase transformation of the metastable austenitic steel fibres is discussed.
The outcome of the conductivity measurements verifies a correlation of the volume conductivity of the composite with the volume share and the specific electrical resistance of the incorporated metal fibres. Compared to conventional CFRP, the electrical conductivity in parallel to the fibre orientation can be increased by one to two orders of magnitude even for minor percentages of steel fibres. The analysis, however, also discloses the challenge of establishing a sufficient connection to the hybrid composite in order to entirely exploit its electrical conductivity.
In case of plain tensile load, the performance of the hybrid composite is essentially affected by the steel fibre-resin-adhesion as well as the laminate structure. Uniaxial hybrid laminates show brittle, singular failure behaviour. Exhaustive yielding of the embedded steel fibres is confined to the arising fracture gap. The high transverse stiffness of the isotropic metal fibres additionally intensifies strain magnification within the resin under transverse tensile load. This promotes (intralaminar) inter-fibre-failure at minor composite deformation. By contrast, multiaxial hybrid laminates exhibit distinctive damage evolution. After failure initiation, the steel fibres extensively yield and sustain the load-carrying capacity of angularly (e.g. ±45°) aligned CFRP plies. The overall material response is thus not only a simple superimposition but a complex interaction of the mechanical behaviour of the composite’s constituents. As a result of this post-damage performance, an ultimate elongation of over 11 % can be proven for the hybrid laminates analysed in this work. In this context, the influence of the steel fibre-resin adhesion on the failure behaviour of the hybrid composite is explicated by means of an analytical model. Long term exposure to corrosive media has no detrimental effect on the mechanical performance of stainless steel fibre reinforced composites. By trend, water uptake increases the maximum elongation at break of the hybrid laminate.
Moreover, the suitability of CFRP for bolted joints can partially be improved by the integration of steel fibres. While the bearing strength basically remains nearly unaffected, the bypass failure behaviour (ε_{max}: +363 %) as well as the head pull-through resistance (E_{a,BPT}: +81 %) can be enhanced. The improvements primarily concern the load-carrying capacity after failure initiation. Additionally, the integrated ductile steel fibres significantly increase the energy absorption capacity of the laminate in case of progressive bearing failure by up to 63 %.
However, the hybrid composite exhibits a sensitive low velocity/low mass impact behaviour. Compared to conventional CFRP, the damage threshold load of very thin hybrid laminates is lower, making them prone for delamination at minor, non-critical impact energies. At higher energy levels, however, the impact-induced delamination spreads less since most of the impact energy is absorbed by yielding of the ductile metal fibres instead of crack propagation. This structural advantage compared to CFRP gains in importance with increasing impact energy. The plastic deformation of the metastable austenitic steel fibres is accompanied by a phase transformation from paramagnetic γ-austenite to ferromagnetic α’-martensite. This change of the magnetic behaviour can be used to detect and evaluate impacts on the surface of the hybrid composite, which provides a simple non-destructive testing method. In case of low velocity/high mass impact, integration of ductile metal fibres into CFRP enables to address spacious areas of the laminate for energy absorption purposes. As a consequence, the perforation resistance of the hybrid composite is significantly enhanced; by addition of approximately 20 vol.% of stainless steel fibres, the perforation strength can be increased by 61 %, while the maximum energy absorption capacity rises by 194 %.
Due to the steadily growing flood of data, the appropriate use of visualizations for efficient data analysis is as important today as it has never been before. In many application domains, the data flood is based on processes that can be represented by node-link diagrams. Within such a diagram, nodes may represent intermediate results (or products), system states (or snapshots), milestones or real (and possibly georeferenced) objects, while links (edges) can embody transition conditions, transformation processes or real physical connections. Inspired by the engineering sciences application domain and the research project “SinOptiKom: Cross-sectoral optimization of transformation processes in municipal infrastructures in rural areas”, a platform for the analysis of transformation processes has been researched and developed based on a geographic information system (GIS). Caused by the increased amount of available and interesting data, a particular challenge is the simultaneous visualization of several visible attributes within one single diagram instead of using multiple ones. Therefore, two approaches have been developed, which utilize the available space between nodes in a diagram to display additional information.
Motivated by the necessity of appropriate result communication with various stakeholders, a concept for a universal, dashboard-based analysis platform has been developed. This web-based approach is conceptually capable of displaying data from various data sources and has been supplemented by collaboration possibilities such as sharing, annotating and presenting features.
In order to demonstrate the applicability and usability of newly developed applications, visualizations or user interfaces, extensive evaluations with human users are often inevitable. To reduce the complexity and the effort for conducting an evaluation, the browser-based evaluation framework (BREF) has been designed and implemented. Through its universal and flexible character, virtually any visualization or interaction running in the browser can be evaluated with BREF without any additional application (except for a modern web browser) on the target device. BREF has already proved itself in a wide range of application areas during the development and has since grown into a comprehensive evaluation tool.
A fast numerical method for an advanced electro-chemo-mechanical model is developed which is able to capture phase separation processes in porous materials. This method is applied to simulate lithium-ion battery cells, where the complex microstructure of the electrodes is fully resolved. The intercalation of ions into the popular cathode material LFP leads to a separation into lithium-rich and lithium-poor phases. The large concentration gradients result in high mechanical stresses. A phase-field method applying the Cahn-Hilliard equation is used to describe the diffusion. For the sake of simplicity, the linear elastic case is considered. Numerical tests for fully resolved three-dimensional granular microstructures are discussed in detail.
In this thesis we integrate discrete dividends into the stock model, estimate
future outstanding dividend payments and solve different portfolio optimization
problems. Therefore, we discuss three well-known stock models, including
discrete dividend payments and evolve a model, which also takes early
announcement into account.
In order to estimate the future outstanding dividend payments, we develop a
general estimation framework. First, we investigate a model-free, no-arbitrage
methodology, which is based on the put-call parity for European options. Our
approach integrates all available option market data and simultaneously calculates
the market-implied discount curve. We illustrate our method using stocks
of European blue-chip companies and show within a statistical assessment that
the estimate performs well in practice.
As American options are more common, we additionally develop a methodology,
which is based on market prices of American at-the-money options.
This method relies on a linear combination of no-arbitrage bounds of the dividends,
where the corresponding optimal weight is determined via a historical
least squares estimation using realized dividends. We demonstrate our method
using all Dow Jones Industrial Average constituents and provide a robustness
check with respect to the used discount factor. Furthermore, we backtest our
results against the method using European options and against a so called
simple estimate.
In the last part of the thesis we solve the terminal wealth portfolio optimization
problem for a dividend paying stock. In the case of the logarithmic utility
function, we show that the optimal strategy is not a constant anymore but
connected to the Merton strategy. Additionally, we solve a special optimal
consumption problem, where the investor is only allowed to consume dividends.
We show that this problem can be reduced to the before solved terminal wealth
problem.
Sandwichelemente aus Stahlbeton genügen zahlreichen Ansprüchen hinsichtlich
energetischer, wirtschaftlicher, architektonischer und gestalterischer Gesichtspunkte
sowie tragfähiger Konstruktionen. Neben Sandwichwänden können Sandwichelemente auch als biegebeanspruchte Bauteile wie Sandwichdecken oder Sandwichdächer eingesetzt werden. Das große Potential solcher Elemente kann jedoch aufgrund
fehlender Kenntnisse bezüglich des Last-Verformungs-Verhaltens bisher nicht ausgeschöpft werden.
Das Tragverhalten von Stahlbetonsandwichelementen wird maßgeblich durch die
Rissbildung in den Betonschichten beeinflusst. Während die Berücksichtigung der
Rissbildung beispielsweise bei der Verformungsberechnung von biegebeanspruchten
Stahlbetonbauteilen schon intensiv erforscht wurde und realitätsnah beschrieben werden kann, steht die Entwicklung einer abschnittsweisen Berücksichtigung der reduzierten Dehn- und Biegesteifigkeiten infolge der Rissbildung für biegebeanspruchte Sandwichelemente aufgrund der höheren Komplexität noch am Anfang. Bisher existieren
nur Modelle, die die Rissbildung im Beton von Sandwichelementen für die Berechnung
der Teilschnittgrößen und der Verformung näherungsweise berücksichtigen. Die Anwendung dieser Rissmodelle ist aber aufgrund verschiedener Annahmen und Vereinfachungen, die diesen Modellen zugrunde liegen, für die in dieser Arbeit untersuchten
Sandwichelemente mit Stahlbetontragschichten nicht geeignet.
Mithilfe eines realitätsnahen Ansatzes zur Bestimmung des Schubmoduls eines
Dämmstoffes, der Auswahl eines geeigneten Verfahrens zur Berechnung des Last-
Verformungs-Verhaltens eines Stahlbetonbauteils einschließlich der Berücksichtigung
der Rissbildung sowie eines Modellvorschlags zur Nachrechnung der Schubversuche
an Sandwichelementen wird ein eigenes Ingenieurmodell zur Nachrechnung des Last-
Verformungs-Verhaltens von biegebeanspruchten Sandwichelementen entwickelt.
Aufbauend auf diesem Ingenieurmodell erfolgt die Erstellung eines Berechnungswerkzeuges. Anhand der Nachrechnung zahlreicher Versuchsergebnisse kann gezeigt
werden, dass mit diesem Berechnungswerkzeug eine sehr gute Übereinstimmung der
rechnerisch ermittelten mit den im Versuch bestimmten Last-Verformungs-Kurven erzielt werden kann. Das neue Ingenieurmodell berücksichtigt sowohl die reduzierten
Dehn- und Biegesteifigkeiten infolge der Rissbildung als auch abschnittsweise unterschiedlich große Schubsteifigkeiten der Kernschicht, die sich aus der Anordnung von
stiftförmigen Verbundmitteln ergeben.
Basierend auf dem Ingenieurmodell sowie den umfangreichen experimentellen Untersuchungen zum Last-Verformungs-Verhalten von Sandwichelementen wird ein Berechnungswerkzeug sowie ein Bemessungskonzept für Stahlbetonsandwichelemente
mit stiftförmigen Verbundmitteln vorgestellt. Damit konnte ein Fortschritt erzielt und die
Grundlage für den Einsatz von Sandwichelementen mit Stahlbetontragschichten sowie
einer Kernschicht aus Dämmstoffplatten und stiftförmigen Verbundmitteln gelegt werden.
In this thesis, we deal with the finite group of Lie type \(F_4(2^n)\). The aim is to find information on the \(l\)-decomposition numbers of \(F_4(2^n)\) on unipotent blocks for \(l\neq2\) and \(n\in \mathbb{N}\) arbitrary and on the irreducible characters of the Sylow \(2\)-subgroup of \(F_4(2^n)\).
S. M. Goodwin, T. Le, K. Magaard and A. Paolini have found a parametrization of the irreducible characters of the unipotent subgroup \(U\) of \(F_4(q)\), a Sylow \(2\)-subgroup of \(F_4(q)\), of \(F_4(p^n)\), \(p\) a prime, for the case \(p\neq2\).
We managed to adapt their methods for the parametrization of the irreducible characters of the Sylow \(2\)-subgroup for the case \(p=2\) for the group \(F_4(q)\), \(q=p^n\). This gives a nearly complete parametrization of the irreducible characters of the unipotent subgroup \(U\) of \(F_4(q)\), namely of all irreducible characters of \(U\) arising from so-called abelian cores.
The general strategy we have applied to obtain information about the \(l\)-decomposition numbers on unipotent blocks is to induce characters of the unipotent subgroup \(U\) of \(F_4(q)\) and Harish-Chandra induce projective characters of proper Levi subgroups of \(F_4(q)\) to obtain projective characters of \(F_4(q)\). Via Brauer reciprocity, the multiplicities of the ordinary irreducible unipotent characters in these projective characters give us information on the \(l\)-decomposition numbers of the unipotent characters of \(F_4(q)\).
Sadly, the projective characters of \(F_4(q)\) we obtained were not sufficient to give the shape of the entire decomposition matrix.
Wird Rotwein im Holzfass gelagert, kommt es meist zu einer Intensivierung und Stabilisierung der Weinfarbe. Ursache ist der durch die Fassdauben diffundierende Sauerstoff, der Ethanol zu Acetaldehyd oxidiert. Dieses bildet Ethylidenbrücken zwischen Anthocyanen und Flavanolen, wodurch intensiv violett gefärbte Pigmente entstehen. Bisher wurden nur die dimeren ethyliden-verbrückten Anthocyan-Flavanol Addukte umfassend erforscht, die jedoch im Wein nicht stabil sind und zu Folgeprodukten reagieren. Deren Struktur ist bisher wenig erforscht. Ein Ziel dieser Arbeit bestand daher darin, die Reaktionsprodukte der ethyliden-verbrückten Anthocyan-Flavanol Dimere im Rotwein zu untersuchen. Dabei wurden erstmals Polyphenoladdukte mit bis zu drei Ethylidenbrücken massenspektrometrisch nachgewiesen. Dies zeigt, dass Weinpigmente durch die Bildung mehrerer Ethylidenbrücken polymerisieren können. Es wurden außerdem mehrere Pigmente gefunden, bei denen ein Anthocyan über zwei Ethylidenbrücken mit anderen Polyphenolen verbunden war. Dies widerlegt die bisherige Annahme, dass sich Anthocyane nur in terminalen Positionen eines polymeren Pigments befinden können. Durch die Quantifizierung ethyliden-verbrückter Di- und Trimere mittels Massenspektrometer wurde deutlich, dass diese Pigmente in höheren Konzentrationen im Rotwein vorliegen als bisher publiziert. Es zeigte sich außerdem, dass bis zu 50 % der durch den Sauerstoff bewirkten Abnahme von Anthocyanen und Flavanolen auf die Bildung ethyliden-verbrückter Di- und Trimere, sowie Vitisin B zurückführen lassen.
Heute werden in der Weinbereitung häufig Edelstahltanks eingesetzt, bei denen es, anders als in Holzfässern, kaum zu Sauerstoffeinträgen kommt. Eine Farbstabilisierung kann somit nicht stattfinden. Dem Rotwein können stattdessen durch das Verfahren der Mikrooxygenierung geringe Mengen Sauerstoff kontrolliert zugesetzt werden. Bei manchen Weinen führt dies jedoch zu einer verringerten Farbintensität statt zu einer Farbvertiefung. Anhand der insgesamt 21 im Rahmen dieser Arbeit untersuchten Weine zeigte sich, dass Sauerstoff nur dann zu einer intensiveren Weinfarbe führt, wenn das Verhältnis von Tanninen zu Anthocyanen (TAV) unter einem Wert von 3 lag. Die Zunahme der Farbintensität war außerdem negativ mit den spektralphotometrisch zu bestimmenden kleinen (SPP) und großen polymeren Pigmenten (LPP) korreliert, sodass Sauerstoff nur bei geringen Konzentrationen dieser Pigmente zu höheren Farbintensitäten führte. Zudem wurde während der Mikrooxygenierung keine weitere Intensivierung der Weinfarbe erzielt, wenn der Gehalt der LPP den der SPP überstieg. Da LPP aufgrund ihrer Molekülgröße auch eine geringere Löslichkeit aufweisen, sollte ihre übermäßige Bildung vermieden werden. Die Bestimmung von TAV, SPP und LPP erlaubt es somit, die Wirkung von Sauerstoff auf die Weinfarbe vor der Anwendung der Mikrooxygenierung einschätzen und den Sauerstoffzusatz zu beenden, wenn aufgrund der analytischen Daten eine weitere Steigerung der Farbintensität nicht zu erwarten ist.
In einem weiteren Teil der Arbeit wurde untersucht, wie sich die Mikrooxygenierung auf die Lagerfähigkeit der Rotweine auswirkt, da Sauerstoff zu einer beschleunigten Reifung führen kann. Dabei zeigte sich, dass die Farbe des mikrooxygenierten Weines auch nach einer 12-monatigen Flaschenlagerung noch stabiler war als in der entsprechenden Kontrollvariante und der Effekt damit nachhaltig. In Geruch und Geschmack unterschied sich der mikrooxygenierte Wein hingegen nicht von der Kontrolle. Mikrooxygenierte Weine sind damit ebenso lagerfähig, wie ohne Sauerstoffzugabe erzeugte Weine.
European economic, social and territorial cohesion is one of the fundamental aims of the European Union (EU). It seeks to both reduce the effects of internal borders and enhance European integration. In order to facilitate territorial cohesion, the linkage of member states by means of efficient cross-border transport infrastructures and services is an important factor. Many cross-border transport challenges have historically existed in everyday life. They have hampered smooth passenger and freight flows within the EU.
Two EU policies, namely European Territorial Cooperation (ETC) and the Trans-European Transport Networks (TEN-T), promote enhancing cross-border transport through cooperation in soft spaces. This dissertation seeks to explore the influence of these two EU policies on cross-border transport and further European integration.
Based on an analysis of European, national and cross-border policy and planning documents, surveys with TEN-T Corridor Coordinators and INTERREG Secretariats and a high number of elite interviews, the dissertation will investigate how the objectives of the two EU policies were formally implemented in both soft spaces and the EU member states as well as which practical implementations have taken place. Thereby, the initiated Europeanisation and European integration processes will be evaluated. The analysis is conducted in nine preliminary case studies and two in-depth case studies. The cases comprise cross-border regions funded by the ETC policy that are crossed by a TEN-T corridor. The in-depth analysis explores the Greater Region Saar-Lor-Lux+ and the Brandenburg-Lubuskie region. The cases are characterised by different initial situations.
The research determined that the two EU policies support cross-border transport on different levels and, further, that they need to be better intertwined in order to make effective use of their complementarities. Moreover, it became clear that the EU policies have a distinct influence on domestic policy and planning documents of different administrative levels and countries as well as on the practical implementation. The final implementation of the EU objectives and the cross-border transport initiatives was strongly influenced by the member states’ initial situations – particularly, the regional and local transport needs. This dissertation concludes that the two EU policies cannot remove the entirety of the cross-border transport-related challenges. However, in addition to their financial investments in concrete projects, they promote the importance of cross-border transport and facilitate cooperation, learning and exchange processes. These are all of high relevance to cross-border transport development, driven by member states, as well as to further European integration.
The dissertation recommends that the transport planning competences of the EU in addition to the TEN-T network should not be enlarged in the future, but rather further transnational transport development tasks should be decentralised to transnational transport planning committees that are aware of regional needs and can coordinate a joint transport development strategy. The latter should be implemented with the support of additional EU funds for secondary and tertiary cross-border connections. Moreover, the potential complementarities of the transnational regions and transport corridors as well as the two EU policy fields should be made better use of by improving communication. This means that soft spaces, the TEN-T and ETC Policy as well as the domestic transport ministries and the domestic administrations that are responsible for the two EU policies need to intensify their cooperation. Furthermore, a focus of future ETC projects on topics that are of added value for the whole cross-border region or else that can be applied in different territorial contexts is recommended rather than investing in small-scale scattered expensive infrastructures and services that are only of benefit for a small part of the region. Additionally, the dissemination of project results should be enhanced so that the developed tools can be accessed by potential users and benefits become more visible to a wider society, despite the fact that they might not be measurable in numbers. In addition, the research points at another success factor for more concrete outputs: the frequent involvement of transport and spatial planners in transnational projects could increase the relation to planning practice. Besides that, advanced training regarding planning culture could reduce cooperation barriers.
Untersuchungen zur Acrylamid- und Acrolein-Exposition mittels Lebensmittel- und Humanbiomonitoring
(2018)
Die vorliegende Arbeit beschäftigt sich mit den hitzeinduzierten Lebensmittelkontaminanten Acrylamid und Acrolein. Acrylamid entsteht vorwiegend im Rahmen der Maillard-Reaktion beim Erhitzen von Lebensmitteln aus reduzierenden Zuckern und Aminosäuren (Mottram et al., 2002), wohingegen eine thermisch induzierte Acrolein-Bildung bisher vor allem in Fetten und Ölen beschrieben wurde (Ewert et al., 2014). Sowohl für Acrylamid als auch für Acrolein sind toxische Wirkungen nachgewiesen, sodass eine Expositionsabschätzung nötig ist, um eine Risikobewertung vornehmen zu können. Zur Abschätzung der Acrylamid-Exposition empfahl die European Food Safety Authority (EFSA) die Durchführung von Duplikatstudien, bei denen eine Bestimmung der Acrylamid-Gehalte in den verzehrfertigen Mahlzeiten (Duplikaten) erfolgen sollte, um genauere Informationen zu den Acrylamid-Gehalten von im Haushalt zubereiteten Lebensmitteln zu erhalten. Eine Analyse von Acrylamid-Metaboliten im Urin der Probanden der Duplikatstudien sollte zur Validierung der Biomarker erfolgen (EFSA, 2015). Eine entsprechend konzipierte neuntägige Humanstudie (I) wurde mit 14 Probanden unter Vorgabe eines Ernährungsplans in einer kontrollierten Umgebung durchgeführt. Die Auswertung dieser Studie erfolgte im Rahmen dieser Arbeit und ermöglichte es die Acrylamid-assoziierten Mercaptursäuren N-Acetyl-S-(2-carbamoylethyl)-L-cystein (AAMA) und N-Acetyl-S-(2-carbamoyl-2-hydroxyethyl)-L-cystein (GAMA) als Biomarker der alimentären Acrylamid-Exposition zu validieren. Zusätzlich gab die Humanstudie Hinweise auf das Vorliegen eines Basislevels der AAMA- und GAMA-Ausscheidung, welches möglicherweise auf einer endogenen Acrylamid-Bildung beruhte. Ein weiterer Schwerpunkt dieser Arbeit stellte die Bestimmung der Acrolein-assoziierten Mercaptursäuren N-Acetyl-S-(3-hydroxypropyl)-L-cystein (HPMA) und N-Acetyl-S-(2-carboxyethyl)-L-cystein (CEMA) im Urin der Probanden der Humanstudie I sowie im Urin der Probanden einer weiteren Humanstudie (II) dar. Die Ausscheidung dieser Biomarker der Acrolein-Exposition wurde im Zusammenhang mit der Aufnahme von hocherhitzten Lebensmitteln betrachtet. Bei Humanstudie II handelte es sich um eine Studie, die mit Gemischtköstlern (n = 10) und Veganern (n = 10) über einen Zeitraum von zehn Tagen durchgeführt wurde. Anders als in Humanstudie I behielten die Probanden während des Studienzeitraums ihre Lebens- und Ernährungsgewohnheiten bei. Es zeigte sich bei Humanstudie I sowie Humanstudie II kein Zusammenhang zwischen der Ausscheidung der Acrolein-assoziierten Mercaptursäuren HPMA und CEMA und der Aufnahme von hocherhitzten Lebensmitteln. Unter kontrollierten Bedingungen (Humanstudie I) wurde eine konstante HPMA- und CEMA-Ausscheidung (Basislevel) beobachtet, wohingegen unter free living Bedingungen (Humanstudie II) zum Teil eine deutlich höhere HPMA- und CEMA-Ausscheidung nachgewiesen wurde. Dies legte den Einfluss einer nicht-alimentären exogenen Acrolein-Exposition auf die HPMA- und CEMA-Ausscheidung nahe.
Field-effect transistor (FET) sensors and in particular their nanoscale variant of silicon nanowire transistors are very promising technology platforms for label-free biosensor applications. These devices directly detect the intrinsic electrical charge of biomolecules at the sensor’s liquid-solid interface. The maturity of micro fabrication techniques enables very large FET sensor arrays for massive multiplex detection. However, the direct detection of charged molecules in liquids faces a significant limitation due to a charge screening effect in physiological solutions, which inhibits the realization of point-of-care applications. As an alternative, impedance spectroscopy with FET devices has the potential to enable measurements in physiological samples. Even though promising studies were published in the field, impedimetric detection with silicon FET devices is not well understood.
The first goal of this thesis was to understand the device performances and to relate the effects seen in biosensing experiments to device and biomolecule types. A model approach should help to understand the capability and limitations of the impedimetric measurement method with FET biosensors. In addition, to obtain experimental results, a high precision readout device was needed. Consequently, the second goal was to build up multi-channel, highly accurate amplifier systems that would also enable future multi-parameter handheld devices.
A PSPICE FET model for potentiometric and impedimetric detection was adapted to the experiments and further expanded to investigate the sensing mechanism, the working principle, and effects of side parameters for the biosensor experiments. For potentiometric experiments, the pH sensitivity of the sensors was also included in this modelling approach. For impedimetric experiments, solutions of different conductivity were used to validate the suggested theories and assumptions. The impedance spectra showed two pronounced frequency domains: a low-pass characteristic at lower frequencies and a resonance effect at higher frequencies. The former can be interpreted as a contribution of the source and double layer capacitances. The latter can be interpreted as a combined effect of the drain capacitance with the operational amplifier in the transimpedance circuit.
Two readout systems, one as a laboratory system and one as a point-of-care demonstrator, were developed and used for several chemical and biosensing experiments. The PSPICE model applied to the sensors and circuits were utilized to optimize the systems and to explain the sensor responses. The systems as well as the developed modelling approach were a significant step towards portable instruments with combined transducer principles in future healthcare applications.
Durch das Vernähen trockener Faservorformlinge vor der Harzinjektion werden vielfältige
Möglichkeiten eröffnet, um Faser-Kunststoff-Verbund-Strukturen gewichtsoptimiert
und gleichzeitig kostengünstig herzustellen. Durch die im Vergleich zur
Prepreg-Technik innovativere Prozesskette sind auch komplexe Geometrien, wie sie
beispielsweise in Lasteinleitungsbereichen vorliegen, automatisiert fertigbar. Die Einbringung
von strukturellen Vernähungen in Laminatdickenrichtung kann insbesondere
in Strukturbereichen mit dreidimensionalen Spannungszuständen die Delaminationsgefahr
durch eine Steigerung der interlaminaren Eigenschaften abmindern
und die Schadenstoleranz steigern. Allerdings erfordert eine vermehrte Anwendung
der Nähtechnik in der industriellen Praxis auch die Bereitstellung dreidimensionaler
mechanischer Werkstoffkennwerte, die im Konstruktions- und Auslegungsprozess
benötigt werden.
Im Rahmen dieser Arbeit wurden kohlenstofffaserverstärkte Multiaxialgelege-Laminate,
die im Flugzeugbau angewandt werden, strukturell vernäht und die durch den
Nähprozess entstehenden Reinharzgebiete sowie die Veränderung des relativen Faservolumengehaltes
erfasst. Bei der Bestimmung von intralaminaren Zug- und
Druckkennwerten wurden die Auswirkungen der Vernähung auch auf die Kerbdruckeigenschaften
untersucht. Zur Bestimmung von Elastizitäts- und Festigkeitskenngrößen
bei einer Zugbelastung senkrecht zur Laminatebene wurde ein Versuchskonzept
erarbeitet und die Potentiale der eingebrachten strukturellen Vernähung
ermittelt. Darüber hinaus wurden die Auswirkungen der strukturellen Vernähung auf
die interlaminaren Schubfestigkeiten charakterisiert. Auch der Einfluss des Nähprozesses
auf die mechanischen Eigenschaften der verwendeten E-Glas-Garne
wurde experimentell erfasst.
Die Versuchsergebnisse zeigten Reduktionen der intralaminaren Kennwerte um bis
zu 12 %, bei den Kerbdruckversuchen wurden teilweise Steigerungen des Kerbfaktors
festgestellt, die bis zu 9 % betrugen. Der Zug-Elastizitätsmodul senkrecht zur
Laminatebene wurde generell gesteigert, im Maximum um 8 %. Für die Zugfestigkeit
wurden leichte Steigerungen um 4 %, aber auch Abnahmen um bis zu 12 % beobachtet.
Bei der interlaminaren Schubfestigkeit waren durchgehend Steigerungen
festzustellen, die maximal 11 % betrugen. Der Elastizitätsmodul und die Festigkeit
des Nähgarns wurden infolge des Nähprozess um bis 22 % bzw. 42 % verringert.
Der praxisgerechte Einsatz der strukturellen Nähtechnik erfordert neben fundierten
Werkstoffkennwerten auch Simulationswerkzeuge, die die Auswirkungen der 3DVerstärkung
abschätzen können. Somit könnte durch eine Vorauswahl geeigneter
Nähmuster der Aufwand für eine kosten- und zeitintensive Materialcharakterisierung
reduziert werden. Hierzu wurde auf ein parametrisch gesteuertes Finite-Elemente-
Einheitszellenmodell zur Vorhersage von intralaminaren Elastizitäts- und –Festigkeitskenngrößen
zurückgegriffen und dieses um die Vorhersage von Elastizitäts- und
Zugfestigkeitskenngrößen senkrecht zur Laminatebene erweitert. Im Rahmen der
Modellvalidierung und -kalibrierung wurden intensive Untersuchungen hinsichtlich
geeigneter Randbedingungen und mikromechanischer Ansätze zur Beschreibung der
unidirektionalen Einzelschicht des Laminats durchgeführt. Die mit dem weiterentwickelten
Einheitszellenmodell abgeschätzten mechanischen Kennwerte zeigten gute
Übereinstimmungen mit experimentellen Ergebnissen.
Teilsignalisierung von Knotenpunkten - Untersuchungen zu Verkehrsablauf und Einsatzmöglichkeiten -
(2018)
Die vorliegende Dissertation beschäftigt sich mit Verkehrsablauf und Einsatzmöglichkeiten teilsignalisierter Knotenpunkte. An diesen sind nicht sämtliche, sondern nur bestimmte Verkehrsströme signaltechnisch geregelt. Erste Ansätze, sich dieses Verfahren zu Nutze zu machen, existieren seit den 1950er Jahren. Sie wurden ständig weiterentwickelt und schließlich nach Abschluss eines Forschungsprojektes der Bundesanstalt für Straßenwesen zu Nutzen, Kosten und Sicherheit Bestandteil der Richtlinien für Lichtsignalanlagen der FGSV (Neuauflage 2010).
Der Stand in Wissenschaft und Umsetzung im In- und Ausland weist dennoch bis heute Lücken auf. Für eine flächendeckende, praktische Realisierung fehlt es weiterhin an gesicherten Kenntnissen. Hier setzt diese Arbeit mit ihrem mehrstufigen Ansatz aus Literaturrecherche, Empirie, Mikrosimulation und konkreten Umsetzungsempfehlungen an.
Auf Basis der Literatur über signalisierte und unsignalisierte Knoten wurden Überlegungen zum Verkehrsablauf an teilsignalisierten Lösungen angestellt. Die Vermutung, dass sich dieser aus Elementen beider Grundverfahren zusammensetzt, die jedoch anderen Randbedingungen unterliegen, konnte verifiziert werden.
In einem ersten Schritt wurden teilsignalisierte Knotenpunkte hinsichtlich der Anzahl und Lage der Signalgeber bzw. der signaltechnisch gesicherten Verkehrsbeziehungen typisiert. Es konnten an Einmündungen und Kreuzungen drei empfehlenswerte Fälle der Teilsignalisierung identifiziert werden:
- Teilsignalisierung ohne Fußgängerfurten
- Teilsignalisierung mit Fußgängerfurt in der linken Zufahrt
- Teilsignalisierung mit Fußgängerfurt in der rechten Zufahrt
Diese bilden mit zuvor definierten Ausbaustandards, die Fahrstreifenaufteilungen – insbesondere das Vorhandensein von Linksabbiegestreifen in den Zufahrten – am Knotenpunkt berücksichtigen, die Grundlage für die Erstellung von Modellknoten, die in der weiteren Arbeit relevant sind.
Da keine empirischen Untersuchungen über den Verkehrsablauf derartiger Knoten vorlagen, wurden in zwei Feldversuchen hierzu wichtige Kenngrößen an Einmündungen ermittelt. Es zeigte sich dabei, dass lange Wartezeiten vor allem für Linkseinbieger reduziert werden konnten. In der Gesamtbilanz wiegen diese Zeit- und Sicherheitsgewinne die leicht gestiegenen Wartezeiten in der Hauptrichtung auf. Der Fahrzeugabfluss in der Nebenrichtung konnte signifikant gesteigert werden, auch wenn die Zeitbedarfswerte einer Vollsignalisierung nicht erreicht wurden. Dies lag an einem Zögern der Verkehrsteilnehmer an der Haltlinie. Die Zeitlückenverteilung im Hauptstrom entspricht nicht mehr der sonst angenommenen negativen Exponentialverteilung, da durch die Signalisierung eine starke Pulkbildung entsteht. Es kommt zu so genannten Überzufälligkeiten mit vermehrt kleineren Lücken.
Während der Mikrosimulation wurde nach dem „ceteris paribus“ Prinzip pro Ablauf immer nur eine Variable verändert. Somit konnten detailliert die Effekte der gewählten Einflussgrößen abgebildet werden. Es erfolgte eine Untersuchung der definierten Modellknotenpunkte mit der Software VISSIM bezüglich der Einflussfaktoren:
- Ausbaustandard (Linksabbiegestreifen)
- Fälle der Teilsignalisierung
- Signalprogramme
- Verkehrsstärken
Es wurden Diagramme zur Bestimmung der mittleren Verlustzeiten in Abhängigkeit der Verkehrsstärken in Haupt- und Nebenrichtung sowie Matrizen zur Bestimmung der Einsatzgrenzen entwickelt. Für Kreuzungen konnten im Gegensatz zu Einmündungen nur geringe positive Effekte ermittelt werden. Die Einsatzmöglichkeiten sind maßgeblich abhängig vom Ausbaustandard, Teilsignalisierungsfall und Signalprogramm. Die Teilsignalisierung deckt wie vermutet den Übergangsbereich zwischen konventioneller Vorfahrtregelung und Vollsignalisierung ab. Hierfür wurde der wissenschaftliche Beweis erbracht.
Ergänzt werden die Betrachtungen durch die Möglichkeiten zur Integration des Fußverkehrs. In der Hauptrichtung ist eine gesicherte Fußgängerführung in Abhängigkeit vom gewählten Teilsignalisierungsfall nur in jeweils einem Ast realisierbar. Die Nebenrichtung lässt allerdings keine gesicherte Querung zu. Diese Problematik verstärkt sich an Kreuzungen durch das Vorhandensein von zwei Nebenrichtungen, so dass in diesen Fällen eine Teilsignalisierung aus Sicherheitsüberlegungen ebenfalls nicht empfohlen werden kann. Es wurden prinzipielle Führungsmöglichkeiten aufgezeigt und mittels eines Entscheidungsbaumes visualisiert, der die Auswahl geeigneter Teilsignalisierungsformen am Knotenpunkt unterstützt.
An Kreisverkehren kann eine Teilsignalisierung unter bestimmten Konstellationen sinnvoll sein, um einerseits die Kapazität einzelner Zufahrten zu erhöhen oder andererseits eine gesicherte Fußgängerführung zu realisieren. Als problematisch haben sich nahezu ungehinderte Zuflüsse erwiesen. Diese treten auf, wenn der Zustrom nur selten durch andere Fahrzeuge auf der Kreisfahrbahn unterbrochen wird. Sie führen zu starker Kolonnenbildung. Die Installation einer LSA kann hier die mangelnden Unterbrechungen künstlich schaffen.
Abgerundet wird die Arbeit durch weitere Einsatzmöglichkeiten von Teilsignalisierungen zur Priorisierung von Einzelfahrzeugen oder bestimmter Fahrzeuggruppen im ÖV und Rettungswesen oder zur Räumung von Bahnübergängen.
The research problem is that the land-use (re-)planning process in the existing Egyptian cities
does not attain sustainability. This is because of the unfulfillment of essential principles within
their land-use structures, lack of harmony between the added and old parts in the cities, and
other reasons. This leads to the need for developing an assessment system, which is a
computational spatial planning support system-SPSS. This SPSS is used for identifying the
degree of sustainability attainment in land-uses plans, predicting probable problems, and
suggesting modifications in the evaluated plans.
The main goal is to design the SPSS for supporting sustainability in the Egyptian cities. The
secondary goals are: studying the Egyptian planning and administrative systems for designing
the technical and administrative frameworks for the SPSS, the development of an assessment
model from the SPSS for assessing sustainability in land-use structures of urban areas, as well
as the identification of the improvements required in the model and the recommendations for
developing the SPSS.
The theoretical part aims to design each of the administrative and technical frameworks of the
SPSS. This requires studying each of the main planning approaches, the sustainability in urban
land-use planning, and the significance of using efficient assessment tools for evaluating the
sustainability in this process. The added value of the planning support systems-PSSs for
planning and their role in supporting sustainability attainment in urban land-use planning are
discussed. Then, a group of previous examples in the sustainability assessment from various
countries (developed and developing countries) are selected, which have used various
assessment tools. This is to extract some learned lessons to be guides for the SPSS. And so,
the comprehensive technical framework for the SPSS is designed, which includes the suggested
methods and techniques that perform various stages of the assessment process.
The Egyptian context is studied regarding the planning and administration systems within the
Egyptian cities, as well as the spatial and administrative problems facing the sustainable
development. And so, the administrative framework for the SPSS is identified, which includes
the entities that should be involved in the assessment process.
The empirical part focuses on the design of a selected assessment model from the
comprehensive technical framework of the SPSS to be established as a minimized version from
it. This model is programmed in the form of a new toolbox within the ArcGIS™ software through
geoscripting using Python programming language to be applied for assessing the sustainability
attainment in the land-use structure of urban areas. The required assessing criteria for the model
specialized for the Egyptian and German cities are identified, for applying it on German and
Egyptian study areas.
The conclusions regarding each of PSSs, the Egyptian local administration and planning
systems, sustainability attainment in the land-use planning process in Egyptian Cities, as well as
the proposed SPSS and the developed toolbox are drawn. The recommendations are regarding
each of challenges facing the development and application of PSSs, the Egyptian local
administration and planning systems, the spatial problems in Egyptian cities, the establishment
of the SPSS, and the application of the toolbox. The future agenda is in the fields of sustainable urban land-use planning, planning support science, and the development process in the
Egyptian cities.
In Zeiten rasant ansteigender Energiepreise wird die Energieeinsparung durch Gewichtsreduzierung
bewegter Massen, z. B. im Automobilbau, zunehmend wichtiger. In immer mehr Bereichen des
Automobilbaues werden Faser-Kunststoff- Verbunde (FKV) aufgrund ihrer geringen Dichte eingesetzt.
Positive Aspekte einer Faserverstärkung von Kunststoffen sind Verbesserungen der Steifigkeit und
der Festigkeit. Negativ wirkt sich die Faserverstärkung hingegen auf die Bruchdehnung aus. Je nach
eingesetztem FKV kann durch die geringe Bruchdehnung bei einem Crash nur wenig Energie absorbiert
werden und es kommt zum strukturellen Versagen. Wegen der günstigen Material- und
Verarbeitungskosten werden im Auto- mobilbau häufig langglasfaserverstärkte Thermoplaste (LFT)
verwendet. Diese können allerdings aufgrund ihrer suboptimalen Crasheigenschaften in vielen
Bereichen des Fahrzeugbaues nicht eingesetzt werden. Die vorliegende Arbeit befasst sich daher mit
der Verbesserung der Crasheigenschaften von LFT durch eine Verstärkung mit Metalltextilien. Ziel
ist es, den Anwendungsbereich von LFT im Auto- mobilbau zu erweitern. Aufgrund der Erfahrungen in
vorangegangenen Arbeiten liegt der Fokus der vorliegenden Arbeit auf den Eigenschaften eines mit
Edelstahl- schweißgitter (ESG) verstärkten LFT. Das Material wurde mit einer Vielzahl an Versuchen
einer eingehenden mechanischen Charakterisierung unterzogen. Vor der Probenentnahme wurde die
herstellungsbedingte Faserorientierung in Plattenebene untersucht. Dies geschah durch die
Auswertung von Röntgen- und Durchlicht- aufnahmen. Es wurde eine hochgradige Faserausrichtung in
Fließrichtung fest- gestellt. Mit Hilfe der Computertomographie war eine qualitative Untersuchung
der lokalen Faserorientierung möglich. Weiterhin konnte die Beeinflussung der Faser- orientierung
durch die Metalltextilverstärkung beobachtet werden. Aufgrund der Be- deutung der
Interfaceeigenschaften zwischen Stahl und LFT für den ESG-LFT- Verbund wurden die Scher- und
Normalfestigkeit mit Hilfe von Drahtauszug- und Stirnabzugversuchen bestimmt. Die
Interfaceeigenschaften wurden für verschiedene Vorbehandlungsmethoden der metallischen Oberfläche
untersucht. Eine Vorbehand- lung durch Druckluftstrahlen der Oberfläche führte zu den besten
Haftungs- eigenschaften. Als Strahlmittel wurden Korundpartikel eingesetzt. Neben metall-
textilverstärkten LFT-Proben wurden auch unverstärkte LFT-Proben als Referenzuntersucht. Es wurden quasistatische Versuche unter Zug- und Schubbelastung
durchgeführt. Wegen der Crashanwendung wurden die Zugversuche auch unter
kurzzeitdynamischer Belastung durchgeführt. Zusätzlich wurden Durchstoßversuche
durchgeführt, um den Einfluss auf die Energieabsorption beobachten zu können. Um
die Verbesserung der strukturellen Integrität zu demonstrieren, wurden einfache
Demonstratorbauteile unter Zugbelastung getestet. Dabei konnte neben einer
Bestimmung wichtiger Materialparameter eine erhöhte Energieaufnahme und eine
verbesserte strukturelle Integrität nachgewiesen werden. Zur Erweiterung der
experimentellen Erkenntnisse wurde ein parametrisiertes Simulationsmodell auf
Mikroebene entwickelt. Anhand des Mikromodells gelang es, einen detaillierten
Einblick in den Spannungszustand und das Versagensverhalten von ESG-LFT zu
erhalten. Des Weiteren war es damit möglich, den Einfluss verschiedener Geometrieund
Haftungsparameter auf die Verbundeigenschaften zu untersuchen. Die
vorliegenden Erkenntnisse wurden zur Programmierung eines makromechanischen
Simulationsmodells genutzt. Dieses zeigte, trotz der vorgenommenen
Vereinfachungen, bereits gute Übereinstimmungen von Simulation und Experiment
und konnte Hinweise für weiterführende Arbeiten liefern. Das entwickelte makromechanische
Modell kann damit als Basis für die Weiterentwicklung dieses Materialmodells genutzt werden.
Durch die Einarbeitung von Nanopartikeln in eine Polymermatrix lässt sich eine signifikante Verbesserung der mechanischen Eigenschaften der Werkstoffe erzielen. Dazu ist allerdings eine Separierung und homogene Verteilung der Verstärkungsstoffe in der Matrix notwendig, um die spezifische Oberfläche der Nanopartikel ausnutzen zu können, die dann als Grenzfläche mit der Matrix in Wechselwirkung treten kann.
In der vorliegenden Arbeit wurde die Dispergierung von anorganischen Nanopartikeln am Beispiel von Titandioxid und Bariumsulfat in Epoxidharz mithilfe von Ultraschallwellen systematisch untersucht. Dazu wurden die Prozessparameter, wie z.B. die Amplitude und das beschallte Volumen, variiert, um die optimalen Dispergierparameter zu ermitteln, die zu einer guten Dispergierung der Nanopartikel führen, ohne dabei jedoch die Molekülstruktur des Epoxidharzes zu verändern. Eine Veränderung der Molekülstruktur der Matrix kann die mechanischen Eigenschaften des Werkstoffs negativ beeinflussen. Deshalb wurden für das unbehandelte und das beschallte Harz Morphologieuntersuchungen mittels FourierTransform-Infrarotspektroskopie und Gel-Permeations-Chromatographie durchgeführt. Dabei stellte sich heraus, dass die Nanopartikel im Harz mit der maximalen Amplitude von 100% und einer Beschallungszeit von 15 Minuten optimal dispergiert werden können, ohne die Morphologie des Harzes merklich zu verändern.
Für den Ultraschalldispergierprozess wurde ein Dispergiermodell erarbeitet, das die Entwicklung der Partikelgröße in Abhängigkeit von den Prozessparametern beschreibt. Dieses Modell ist auf andere Partikelsysteme übertragbar und soll Vorhersagen für zukünftige Dispergierexperimente ermöglichen.
Das Ziel der Fertigung der Nanoverbundwerkstoffe ist die Steigerung der mechanischen Eigenschaften im Zug-, Bruchzähigkeits-, Kerbschlagzähigkeits- und Biegeversuch. Hierbei wurde sowohl die Wirkung der Dispergierung als auch der Einfluss des Verstärkungsstoffgehaltes auf das Eigenschaftsprofil untersucht. Des Weiteren wurde die Übertragbarkeit der Ergebnisse auf ein weiteres Epoxidharz überprüft.
Um die Verstärkungsmechanismen der Nanopartikel in der Polymermatrix, die zu einer Verbesserung der mechanischen Eigenschaften führen, zu verstehen, wurden Rasterelektronenmikroskop-Aufnahmen der Bruchflächen ausgeführt. Diese zeigten,dass Nanoverbundwerkstoffe eine rauere Bruchoberfläche als reines Epoxidharz besitzen, was auf eine Änderung der Bruchmechanismen hindeutet.
Insgesamt konnten mithilfe der Ultraschalldispergierung Nanoverbundwerkstoffe mit verbesserten mechanischen Eigenschaften hergestellt werden und ihre Dispergierung durch ein Modell beschrieben werden, das auch Vorhersagen für weitere Partikel-Harz-Systeme erlaubt.
A popular model for the locations of fibres or grains in composite materials
is the inhomogeneous Poisson process in dimension 3. Its local intensity function
may be estimated non-parametrically by local smoothing, e.g. by kernel
estimates. They crucially depend on the choice of bandwidths as tuning parameters
controlling the smoothness of the resulting function estimate. In this
thesis, we propose a fast algorithm for learning suitable global and local bandwidths
from the data. It is well-known, that intensity estimation is closely
related to probability density estimation. As a by-product of our study, we
show that the difference is asymptotically negligible regarding the choice of
good bandwidths, and, hence, we focus on density estimation.
There are quite a number of data-driven bandwidth selection methods for
kernel density estimates. cross-validation is a popular one and frequently proposed
to estimate the optimal bandwidth. However, if the sample size is very
large, it becomes computational expensive. In material science, in particular,
it is very common to have several thousand up to several million points.
Another type of bandwidth selection is a solve-the-equation plug-in approach
which involves replacing the unknown quantities in the asymptotically optimal
bandwidth formula by their estimates.
In this thesis, we develop such an iterative fast plug-in algorithm for estimating
the optimal global and local bandwidth for density and intensity estimation with a focus on 2- and 3-dimensional data. It is based on a detailed
asymptotics of the estimators of the intensity function and of its second
derivatives and integrals of second derivatives which appear in the formulae
for asymptotically optimal bandwidths. These asymptotics are utilised to determine
the exact number of iteration steps and some tuning parameters. For
both global and local case, fewer than 10 iterations suffice. Simulation studies
show that the estimated intensity by local bandwidth can better indicate
the variation of local intensity than that by global bandwidth. Finally, the
algorithm is applied to two real data sets from test bodies of fibre-reinforced
high-performance concrete, clearly showing some inhomogeneity of the fibre
intensity.
In der Bevölkerung steigt mit zunehmendem Alter die Inzidenz chronischer Erkrankungen. Eine häufig diskutierte Ursache chronischer Erkrankungen ist oxidativer Stress. Dieser entsteht im Körper, wenn es zu einem Ungleichgewicht zwischen der Bildung und Inaktivierung von sogenannten reaktiven Sauerstoffspezies (ROS) kommt. Diesem Ungleichgewicht können endogene Faktoren (z.B. körpereigenes Glutathion (GSH)) und exogene Antioxidantien (z.B. Flavonoide) entgegenwirken. Epidemiologische Daten zeigen, dass eine Ernährung mit einem hohen Anteil an Flavonoiden präventive Eigenschaften zeigt und mit einem inversen Effekt bezüglich des Risikos chronischer Krankheiten korreliert. Beerenfrüchte (vor allem Wildheidelbeeren) stellen eine wichtige Quelle an diesen Flavonoiden dar. Für die Wildheidelbeere werden neben anderen Polyphenolen hauptsächlich die Anthocyane für deren Wirkung verantwortlich gemacht. Vor allem antioxidative und antiinflammatorische Eigenschaften von Anthocyanen werden derzeit diskutiert. Der Nachteil von Anthocyanen im Vergleich zu anderen Polyphenolen resultiert allerdings aus deren geringen Bioverfügbarkeit. In vielen Studien lag die Bioverfügbarkeit von verzehrten Anthocyanen im Urin meist unter 1%. Ein Grund für die geringe Aufnahme von Anthocyanen ist deren limitierende Stabilität. Im Darm, welcher als Hauptresorptionsort für Anthocyane gilt, liegt ein Milieu von pH 6-8 vor. Unter diesen pH-Bedingungen sind die Strukturen der Anthocyane nur begrenzt stabil. Daraus begründete sich in der Vergangenheit unter anderem das Forschungsziel, Anthocyane aus Heidelbeerextrakt (HBE) mit Hilfe verschiedener Verkapselungstechniken während der Darmpassage zu stabilisieren und gezielt am Wirkort freizusetzten (DFG/AiF-Cluster 1, 2008-2011). Die effektivsten Verkapselungstechniken basierten dabei auf Molkenprotein- und Pektinbasis. In vitro konnten durch die Verkapselung im Vergleich zum unverkapselten Extrakt höhere Anthocyankonzentrationen im (simulierten) Dünndarmmilieu erreicht werden. Außerdem zeigte sich in vitro keine Verringerung der biologischen Aktivität (ROS, DNA-Strangbrüche, GSH) durch die Verkapselung.
Ziel war es, die bisherigen in vitro Ergebnisse zur biologischen Aktivität des HBE (unverkapselt und verkapselt) und der Bioverfügbarkeit der Anthocyane aus dem HBE bzw. Kapselmaterial auf die in vivo Situation zu übertragen und zu verifizieren. Die zentralen Fragen waren, in welchem Ausmaß Anthocyane aus HBE, die Bioaktivität beeinflussen können, unverändert in den Dickdarm gelangen, welche Rolle Prozesse der Dickdarmmikrobiota spielen und inwieweit dies durch Stabilisierungs-(Verkapselungs-)Techniken moduliert werden kann. Der Lösungsweg für diese Fragestellungen wurde durch eine humane Pilotstudie an Probanden realisiert. Welchen Einfluss der Darm bezüglich der Bioaktivität und Bioverfügbarkeit von HBE besitzt, kann anhand von Probanden mit intaktem
Gastrointestinaltrakt (GIT) nur limitierend erfasst werden. Aus diesem Grund wurde die Studie zum einen mit Probanden, die ein Stoma am terminalen Ileum besitzen und zum anderen analog mit Kontrollprobanden mit intaktem Kolon durchgeführt. Die Pilotstudie wurde 2011 am Universitätsklinikum Würzburg durchgeführt und unterteilte sich in zwei Abschnitte. Dabei erfolgte während Teil I die Verabreichung von Heidelbeerextrakt (HBE) und während Teil II die Verabreichung von HBE-beladenen Molkeproteinkapseln (hergestellt durch U. Kulozik, TU München) und HBE-beladenen Citruspektinkapseln (hergestellt durch K. Schwarz, Univ. Kiel), jeweils mit äquimolaren Anthocyankonzentrationen. Durchgeführt wurde die Pilotstudie mit Probanden mit intaktem Gastrointestinaltrakt (mit Kolon) und Ileostomaprobanden (ohne Kolon). Während der Studie wurden von allen Probanden Blut- und Urinproben und von den Ileostomieprobanden zusätzlich Ileostomabeutel gesammelt. Durch den Vergleich der beiden Probandengruppen konnte somit erfasst werden, welchen Einfluss der Dickdarm auf die Bioverfügbarkeit und biologische Aktivität besitzt und inwieweit im Dickdarm gebildete Metabolite für biologische Wirkungen verantwortlich sind.
Nach Heidelbeerextraktverzehr ergaben sich bei Probanden mit intaktem GIT im Vergleich zu Ileostomaprobanden höhere Gehalte an Anthocyanen (Urin 44% und Plasma 79%) und Abbauprodukten (Urin 75% und Plasma 100%). Durch Molkeproteinverkapselung (MPK) und Citruspektinverkapselung (CPK) wurden im Vergleich zum HBE die Gehalte in Dünndarmflüssigkeiten, Urin und Plasma der Probanden moduliert. Die Ausscheidungsmengen über den Urin zeigen, dass die Molkeproteinverkapselung die systemische Konzentration und die Kurzzeitbioverfügbarkeit der Anthocyane erhöhen kann. Nach Citruspektinverkapselung erfolgte eine Modulation und Stabilisierung der intestinalen Anthocyankonzentrationen lokalisiert am Ende des Dünndarms. Die Erfassung der DNA-Schäden zeigte eine tendenzielle Abnahme der DNA-Strangbrüche in den Blutzellen beider Probandengruppen während der Studie nach unverkapseltem HBE-Verzehr. Die stärksten Effekte der Reduzierung oxidativer DNA-Schäden (mit FPG-Behandlung) wurden nach Verzehr des citruspektinverkapselten Extraktes (CPK) in beiden Probandengruppen detektiert. Nach MPK-Verzehr konnten hingegen nur geringe Effekte beobachtet werden. Der GSH-Status der Probanden wurde innerhalb der Studie nicht beeinflusst.
Die Ergebnisse dieser Studie zeigen, dass die Verkapselung von Anthocyanen deren Bioverfügbarkeit im Vergleich zu nichtverkapselten Anthocyanen modulieren kann, wobei die Bioverfügbarkeit der Anthocyane im Allgemeinen während dieser Studie sehr gering war. Weiterhin wurden Effekte zur antioxidativen Wirksamkeit der verwendeten Extraktsysteme beobachtet. Der Dünndarmmetabolit Phloroglucinolaldehyd wurde als potentielle Wirkkomponente identifiziert (Forschungsstelle II, Wien). Die vorliegenden Ergebnisse werden anhand der Betrachtung der DNA-Schädigung und der ermittelten Plasmakonzentrationen
aber nicht vollständig erklärt. Weitere Anthocyanmetabolite, die im Rahmen dieser Arbeit nicht untersucht wurden, können für die Wirkung des Extraktes verantwortlich sein.
In this thesis, we focus on the application of the Heath-Platen (HP) estimator in option
pricing. In particular, we extend the approach of the HP estimator for pricing path dependent
options under the Heston model. The theoretical background of the estimator
was first introduced by Heath and Platen [32]. The HP estimator was originally interpreted
as a control variate technique and an application for European vanilla options was
presented in [32]. For European vanilla options, the HP estimator provided a considerable
amount of variance reduction. Thus, applying the technique for path dependent options
under the Heston model is the main contribution of this thesis.
The first part of the thesis deals with the implementation of the HP estimator for pricing
one-sided knockout barrier options. The main difficulty for the implementation of the HP
estimator is located in the determination of the first hitting time of the barrier. To test the
efficiency of the HP estimator we conduct numerical tests with regard to various aspects.
We provide a comparison among the crude Monte Carlo estimation, the crude control
variate technique and the HP estimator for all types of barrier options. Furthermore, we
present the numerical results for at the money, in the money and out of the money barrier
options. As numerical results imply, the HP estimator performs superior among others
for pricing one-sided knockout barrier options under the Heston model.
Another contribution of this thesis is the application of the HP estimator in pricing bond
options under the Cox-Ingersoll-Ross (CIR) model and the Fong-Vasicek (FV) model. As
suggested in the original paper of Heath and Platen [32], the HP estimator has a wide
range of applicability for derivative pricing. Therefore, transferring the structure of the
HP estimator for pricing bond options is a promising contribution. As the approximating
Vasicek process does not seem to be as good as the deterministic volatility process in the
Heston setting, the performance of the HP estimator in the CIR model is only relatively
good. However, for the FV model the variance reduction provided by the HP estimator is
again considerable.
Finally, the numerical result concerning the weak convergence rate of the HP estimator
for pricing European vanilla options in the Heston model is presented. As supported by
numerical analysis, the HP estimator has weak convergence of order almost 1.
The screening of metagenomic datasets led to the identification of new phage-derived members of the heme oxygenase and the ferredoxin-dependent bilin reductase enzyme families.
The novel bilin biosynthesis genes were shown to form mini-cassettes on metagenomic scaffolds and further form distinct clusters in phylogenetic analyses (Ledermann et al., 2016). In this project, it was demonstrated that the discovered sequences actually encode for active enzymes. The biochemical characterization of a member of the heme oxygenases (ΦHemO) revealed that it possesses a regiospecificity for the α-methine bridge in the cleavage of the heme macrocycle. The reaction product biliverdin IXα was shown to function as the substrate for the novel ferredoxin-dependent bilin reductases (PcyX reductases), which catalyze its reduction to PEB via the intermediate 15,16-DHBV. While it was demonstrated that ΦPcyX, a phage-derived member of the PcyX reductases, is an active enzyme, it also became clear that the rate of the reaction is highly dependent on the employed redox partner. It turned out that the ferredoxin from the cyanophage P-SSM2 is to date the most suitable redox partner for the reductases of the PcyX group. Furthermore, the solution of the ΦPcyX crystal structure revealed that it adopts an α/β/α-sandwich fold, typical for the FDBR-family. Activity assays and subsequent HPLC analyses with different variants of the ΦPcyX protein demonstrated that, despite their similarity, PcyX and PcyA reductases must act via different reaction mechanisms.
Another part of this project focused on the biochemical characterization of the FDBR KflaHY2 from the streptophyte alga Klebsormidium flaccidum. Experiments with recombinant KflaHY2 showed that it is an active FDBR which produces 3(Z)-PCB as the main reaction product, like it can be found in reductases of the PcyA group. Moreover, it was shown that under the employed assay conditions the reaction of BV to PCB proceeds in two different ways: Both 3(Z)-PΦB and 18¹,18²-DHBV occur as intermediates. Activity assays with the purified intermediates yielded PCB. Hence, both compounds are suitable substrates for KflaHY2.
The results of this work highlight the importance of the biochemical experiments, as catalytic activity cannot solely be predicted by sequence analysis.
Im Rahmen dieser Doktorarbeit wurden neue katalytische Methoden zur Aktivierung von Kohlenstoffdioxid und dessen Derivate entwickelt, die eine abfallfreie Nutzung von CO2 als C1-Baustein in C-C-Bindungsknüpfungen erlauben.
Die Entwicklung einer abfallfreien Hydroxymethylierung terminaler Alkine demonstriert ein innovatives Konzept zur nachhaltigen Nutzung von CO2 als C1-Baustein, ohne die damit einhergehende Salzabfallbildung konventioneller Verfahren. Hierbei wurden terminale Alkine in einem ersten Schritt in Gegenwart der milden Aminbase 2,2,6,6-Tetramethylpiperidin katalytisch C-H-carboxyliert. Durch eine anschließende katalytische Hydrierung der Ammoniumpropiolate zu den korrespondierenden Alkoholen unter Freisetzung der eingesetzten Aminbase stellt Wasser das einzige Abfallprodukt dieser Umsetzung dar. Die industrielle Anwendbarkeit dieses neuen Konzepts wurde in einem Kooperationsprojekt mit der BASF SE durch die Entwicklung eines neuen, nachhaltigen Verfahrens zur Darstellung von 1,4-Butandiol aus Acetylen und CO2 gezeigt. Essentieller Schritt bei diesem Verfahren ist die Veresterung des Dikaliumsuccinats unter CO2-Druck mit Methanol, wobei je zwei Äquivalente KHCO3 und HK2PO4 anfallen. Durch thermische Behandlung lässt sich aus diesem Gemisch die ursprüngliche Base K3PO4 regenerieren, sodass wiederum kein Salzabfall anfällt.
Darüber hinaus wurde durch die Entwicklung einer hocheffizienten Methode zur stereoselektiven Darstellung biologisch aktiver (E)-beta-Alkoxyacrylate ausgehend von terminalen Alkinen und Dialkylcarbonaten die nachhaltige Nutzung eines Kohlensäurederivats demonstriert. Diese Alkoxid-katalysierte Transformation zeichnet sich durch eine vollständige Atomeffizienz und einen hervorragenden E-Faktor von 5.2 aus.
Des Weiteren konnte ein Protokoll zur Darstellung langkettiger unsymmetrischer Alkylether mittels einer reduktiven Veretherung aus nachwachsenden Rohstoffen ausgearbeitet werden. Die entwickelte Methode erlaubt auch Umsetzungen von Fettsäure-/ester-Gemischen wie Rapsölmethylester (RME) oder Tallöl. Hierdurch lassen sich komplexe Stoffgemische aus nachwachsenden Rohstoffen in einheitliche Produkte überführen.
Im letzten Teilprojekt dieser Arbeit wurde eine effiziente und minutenschnelle Methode zur Spaltung von 8-Aminochinolinamiden (Daugulis-Amide) unter Mikrowellen-Bedingungen entwickelt. In Kombination mit der vorab von Herrn Katayev und Herrn Pfister entwickelten Methode zur ortho-C-H-Nitrierung aromatischer 8-Aminochinolinamide erlaubt diese den Einsatz von 8-Aminochinolin (Q-NH2) als temporäre dirigierende Schutzgruppe.
1,3-Diynes are frequently found as an important structural motif in natural products, pharmaceuticals and bioactive compounds, electronic and optical materials and supramolecular molecules. Copper and palladium complexes are widely used to prepare 1,3-diynes by homocoupling of terminal alkynes; albeit the potential of nickel complexes towards the same is essentially unexplored. Although a detailed study on the reported nickel-acetylene chemistry has not been carried out, a generalized mechanism featuring a nickel(II)/nickel(0) catalytic cycle has been proposed. In the present work, a detailed mechanistic aspect of the nickel-mediated homocoupling reaction of terminal alkynes is investigated through the isolation and/or characterization of key intermediates from both the stoichiometric and the catalytic reactions. A nickel(II) complex [Ni(L-N4Me2)(MeCN)2](ClO4)2 (1) containing a tetradentate N,N′-dimethyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4Me2) as ligand was used as catalyst for homocoupling of terminal alkynes by employing oxygen as oxidant at room temperature. A series of dinuclear nickel(I) complexes bridged by a 1,3-diyne ligand have been isolated from stoichiometric reaction between [Ni(L-N4Me2)(MeCN)2](ClO4)2 (1) and lithium acetylides. The dinuclear nickel(I)-diyne complexes [{Ni(L-N4Me2)}2(RC4R)](ClO4)2 (2) were well characterized by X-ray crystal structures, various spectroscopic methods, SQUID and DFT calculation. The complexes not only represent as a key intermediate in aforesaid catalytic reaction, but also describe the first structurally characterized dinuclear nickel(I)-diyne complexes. In addition, radical trapping and low temperature UV-Vis-NIR experiments in the formation of the dinuclear nickel(I)-diyne confirm that the reactions occurring during the reduction of nickel(II) to nickel(I) and C-C bond formation of 1,3-diyne follow non-radical concerted mechanism. Furthermore, spectroscopic investigation on the reactivity of the dinuclear nickel(I)-diyne complex towards molecular oxygen confirmed the formation of a mononuclear nickel(I)-diyne species [Ni(L-N4Me2)(RC4R)]+ (4) and a mononuclear nickel(III)-peroxo species [Ni(L-N4Me2)(O2)]+ (5) which were converted to free 1,3-diyne and an unstable dinuclear nickel(II) species [{Ni(L-N4Me2)}2(O2)]2+ (6). A mononuclear nickel(I)-alkyne complex [Ni(L-N4Me2)(PhC2Ph)](ClO4).MeOH (3) and the mononuclear nickel(III)-peroxo species [Ni(L-N4Me2)(O2)]+ (5) were isolated/generated and characterized to confirm the formulation of aforementioned mononuclear nickel(I)-diyne and mononuclear nickel(III)-peroxo species. Spectroscopic experiments on the catalytic reaction mixture also confirm the presence of aforesaid intermediates. Results of both stoichiometric and catalytic reactions suggested an intriguing mechanism involving nickel(II)/nickel(I)/nickel(III) oxidation states in contrast to the reported nickel(II)/nickel(0) catalytic cycle. These findings are expected to open a new paradigm towards nickel-catalyzed organic transformations.
Ziel im ersten Teil dieser Arbeit ist die Untersuchung der offenen und geschlossenen
Konformation des Maltose bindende Proteins (MBP) im nativen und Molten-Globule-(MG)-Zustand mit Hilfe der ESR-Spektroskopie.
Die komplexen Mechanismen der Proteinfaltung und Proteindynamik bilden schon seit Langem ein wichtiges Forschungsziel in der Untersuchung biochemischer Prozesse und der Enzymkinetik.
MBP bietet sich in diesem Zusammenhang als geeignetes Forschungsobjekt an, da die Konformationsunterschiede
des MBP gut erkennbar sind und sich der MG-Zustand genügend
lang für Untersuchungen stabilisieren lässt. Die Fähigkeit zur reversiblen Faltung ist für ein Protein dieser Größe ebenso wie die Ausbildung eines hoch geordneten MG-Zustands
mit hoher Affinität zu seinem Zielsubstrat ungewöhnlich.
Der besondere Vorteil der ESR-Spektroskopie ist die geringe Störung der Messung durch
das Messsystem, was die Möglichkeit liefert, das Protein unter nativen Bedingungen, selbst innerhalb von Membranen oder biologischen Systemen, zu untersuchen.
Die in dieser Arbeit verwendete site-directed spin-labeling (SDSL)-Methode, bei der eine kovalente Bindung von Nitroxid-Spinlabel (NSL) an das Protein eingesetzt wird, löst kaum Störungen im System aus und schränkt die Flexibilität der Proteine kaum ein.
Als Grundlage der ESR-spektroskopischen Untersuchungen dienen im Haus durchgeführte cw-ESR-Messungen und DQC-Messungen, welche bei unserem Kooperationspartner Prof. J. Freed im ACERT Institut, Ithaca, New York, durchgeführt wurden.
Die double quantum coherence (DQC)-ESR beschreibt eine spezifische Messmethode zur
Analyse der dipolaren Elektron-Elektron-Wechselwirkungen durch Isolierung des Elektron-
Spin-Echos und somit der Abstandsbestimmung zweier NSL unter Verwendung einer
spezifischen Pulsabfolge. Der größte Vorteil dieser Methode ist die Minimierung störender
Hintergrundsignale, ein geringes Signal-Rausch-Verhältnis und die mögliche Bestimmung von Abständen zwischen 10 und 80 °A.
Über Molekulare-Dynamik-(MD)-Simulation lässt sich ein guter Einblick in die Struktur
von Proteinen gewinnen und ein Model der gelabelten Proteine entwickeln.
Die These, dass MBP bereits ohne seinen Liganden beide Konformationen einnimmt, kann
durch die DQC-Messungen und die Korrelation mit der MD-Simulation bestätigt werden.
Weiterhin kann nachgewiesen werden dass eine Grundstruktur von MBP und ein funktionell
ausgebildetes aktives Zentrum bereits im MG-Zustand vorliegt.
Im zweiten Teil dieser Arbeit wird die Möglichkeit untersucht freie Radikale in verschiedenen Systemen, auch innerhalb von Zellen, mittels ESR-Spektroskopie zu detektieren und zu analysieren. Die Zielsetzung dabei ist es, die Radikalbildung bei verschiedenen medizinischen
Behandlungen zu untersuchen.
Die Lebensdauer einer Zelle wird durch das Zusammenspiel von freien Radikalen mit
Antioxidantien, Proteinen, Cofaktoren und sonstigen Zellbestandteilen bestimmt.
Durch bessere Kenntnis dieses Zusammenspiels können große Fortschritte in Medizin und
Gesundheitsvorsorge erreicht werden.
Sollte die Bildung der Sauerstoffradikale das natürliche antioxidative Potential der Zelle
überschreiten, spricht man von dem “oxidativem Stress” der Zelle.
Zu den möglichen Folgen des oxidativen Stresses gehört die Schädigung aller zellulären
und extrazellulären Makromoleküle bis hin zur Apoptose, also dem Absterben der Zelle.
Die primären Folgen sind vor allem die Lipidperoxidation, die Proteinoxidation und die
Schädigung der DNA.
Durch die Verwendung von ESR-spektroskopischen Methoden ist es möglich Untersuchungen
innerhalb lebender Zellen durchzuführen.
Zur Detektion der Radikale wird dabei ein Radikalfänger (Spin trap) eingesetzt, welcher a priori kein ESR-Signal liefert, sondern erst durch den Kontakt mit dem freien Radikal ein ungepaartes Elektron und somit ein ESR-Signal aufweist.
Die Verbindung 2-Ethoxycarbonyl-2-methyl-3,4-dihydro-2H-pyrrol-1-oxid (EMPO) ist ein
Derivat des DMPO, in welchem die Nitroxidgruppe zusätzlich stabilisiert wird.
Hierdurch kommt es zu einer deutlich längeren Lebensdauer der Spin-Addukte und einer
besseren Auflösung der ESR-Messung.
Die entstehenden Signale der einzelnen EMPO-Addukte lassen sich mit geeigneten Methoden
simulieren. Dies ermöglicht die Analyse der entstandenen Radikale.
Während unter der Strahlenbelastung von CT- und MRT-Untersuchungen keine Radikalbildung in den Proben festgestellt werden kann, liefert die Strahlentherapie mittels Linearbeschleuniger ein breites Spektrum gebildeter Radikale.
Die Ausbildung dieser Radikale zeigt sich dabei von verschiedenen Faktoren abhängig.
So zeigt sich die Ausbildung von H-, OH- und OOH-Addukten durch Luftsauerstoff
begünstigt, die Zugabe von NaCl fördert die Ausbildung von Wasserstoffradikalen und
organische Pufferbestandteile, wie z.B. Tris oder HEPES, führen zur erhöhten C-Addukt-
Bildung.
Crowd condition monitoring concerns the crowd safety and concerns business performance metrics. The research problem to be solved is a crowd condition estimation approach to enable and support the supervision of mass events by first-responders and marketing experts, but is also targeted towards supporting social scientists, journalists, historians, public relations experts, community leaders, and political researchers. Real-time insights of the crowd condition is desired for quick reactions and historic crowd conditions measurements are desired for profound post-event crowd condition analysis.
This thesis aims to provide a systematic understanding of different approaches for crowd condition estimation by relying on 2.4 GHz signals and its variation in crowds of people, proposes and categorizes possible sensing approaches, applies supervised machine learning algorithms, and demonstrates experimental evaluation results. I categorize four sensing approaches. Firstly, stationary sensors which are sensing crowd centric signals sources. Secondly, stationary sensors which are sensing other stationary signals sources (either opportunistic or special purpose signal sources). Thirdly, a few volunteers within the crowd equipped with sensors which are sensing other surrounding crowd centric device signals (either individually, in a single group or collaboratively) within a small region. Fourthly, a small subset of participants within the crowd equipped with sensors and roaming throughout a whole city to sense wireless crowd centric signals.
I present and evaluate an approach with meshed stationary sensors which were sensing crowd centric devices. This was demonstrated and empirically evaluated within an industrial project during three of the world-wide largest automotive exhibitions. With over 30 meshed stationary sensors in an optimized setup across 6400m2 I achieved a mean absolute error of the crowd density of just 0.0115
people per square meter which equals to an average of below 6% mean relative error from the ground truth. I validate the contextual crowd condition anomaly detection method during the visit of chancellor Mrs. Merkel and during a large press conference during the exhibition. I present the approach of opportunistically sensing stationary based wireless signal variations and validate this during the Hannover CeBIT exhibition with 80 opportunistic sources with a crowd condition estimation relative error of below 12% relying only on surrounding signals in influenced by humans. Pursuing this approach I present an approach with dedicated signal sources and sensors to estimate the condition of shared office environments. I demonstrate methods being viable to even detect low density static crowds, such as people sitting at their desks, and evaluate this on an eight person office scenario. I present the approach of mobile crowd density estimation by a group of sensors detecting other crowd centric devices in the proximity with a classification accuracy of the crowd density of 66 % (improvement of over 22% over a individual sensor) during the crowded Oktoberfest event. I propose a collaborative mobile sensing approach which makes the system more robust against variations that may result from the background of the people rather than the crowd condition with differential features taking information about the link structure between actively scanning devices, the ratio between values observed by different devices, ratio of discovered crowd devices over time, team-wise diversity of discovered devices, number of semi- continuous device visibility periods, and device visibility durations into account. I validate the approach on multiple experiments including the Kaiserslautern European soccer championship public viewing event and evaluated the collaborative mobile sensing approach with a crowd condition estimation accuracy of 77 % while outperforming previous methods by 21%. I present the feasibility of deploying the wireless crowd condition sensing approach to a citywide scale during an event in Zurich with 971 actively sensing participants and outperformed the reference method by 24% in average.
Following the ideas presented in Dahlhaus (2000) and Dahlhaus and Sahm (2000) for time series, we build a Whittle-type approximation of the Gaussian likelihood for locally stationary random fields. To achieve this goal, we extend a Szegö-type formula, for the multidimensional and local stationary case and secondly we derived a set of matrix approximations using elements of the spectral theory of stochastic processes. The minimization of the Whittle likelihood leads to the so-called Whittle estimator \(\widehat{\theta}_{T}\). For the sake of simplicity we assume known mean (without loss of generality zero mean), and hence \(\widehat{\theta}_{T}\) estimates the parameter vector of the covariance matrix \(\Sigma_{\theta}\).
We investigate the asymptotic properties of the Whittle estimate, in particular uniform convergence of the likelihoods, and consistency and Gaussianity of the estimator. A main point is a detailed analysis of the asymptotic bias which is considerably more difficult for random fields than for time series. Furthemore, we prove in case of model misspecification that the minimum of our Whittle likelihood still converges, where the limit is the minimum of the Kullback-Leibler information divergence.
Finally, we evaluate the performance of the Whittle estimator through computational simulations and estimation of conditional autoregressive models, and a real data application.
Botrytis cinerea, der Erreger der Graufäule, infiziert hunderte verschiedene Pflanzenspezies und verursacht weltweit enorme landwirtschaftliche Verluste. Dabei tötet er das Wirtsgewebe sehr schnell mithilfe lytischer Enzyme und Nekrose-induzierender Metaboliten und Proteine ab. Das Signal-Mucin Msb2 ist in B. cinerea, wie in anderen pathogenen Pilzen, wichtig für die Oberflächenerkennung, Differenzierung von Appressorien und die Penetration des Pflanzengewebes. Msb2 agiert oberhalb der BMP1 Pathogenitäts-MAPK-Kaskade. In dieser Studie konnte eine direkte Interaktion zwischen Msb2 und BMP1, sowie zwischen den beiden Sensorproteinen Msb2 und Sho1 nachgewiesen werden. Dennoch führte die Deletion von sho1 lediglich zu geringfügigen Defekten im Wachstum, der Hyphendifferenzierung und der Bildung von Infektionsstrukturen. Sho1 zeigte nur einen geringen Einfluss auf die Aktivierung von BMP1. Das Fehlen von Sho1 verursachte keine Virulenzdefekte, während der Doppel-KO von msb2 und sho1 zu einer stärkeren Reduzierung der Läsionsausbreitung im Vergleich zu msb2 Mutanten führte. Es wurden mehrere keimungsregulierte, BMP1 abhängige Gene deletiert und die Mutanten phänotypisch charakterisiert. Keines der Gene für lytische Enzyme oder putative Effektorproteine beeinflusste die Virulenz. Mutanten, denen das für ein Ankyrin-repeat Protein codierende arp1 Gen fehlt, zeigten eine gestörte Oberflächenerkennung, gravierende Wachstumsdefekte und reduzierte Virulenz.
B. cinerea VELVET-Mutanten sind in der lichtabhängigen Differenzierung und der Ausbreitung nekrotischer Läsionen beeinträchtigt. In dieser Arbeit ermöglichte die Charakterisierung mehrerer Mutanten ein besseres Verständnis der molekularen Vorgänge, aufgrund derer der VELVET-Komplex die Entwicklung und Pathogenese in B. cinerea reguliert. Quantitative Vergleiche der in planta Transkriptome und Sekretome führten zur Identifizierung eines für drei VELVET-Mutanten gemeinsamen Sets an herunterregulierten Genen, welche für CAZymes, Proteasen und Virulenz-assoziierte Proteine codieren. Die meisten dieser Gene wurden zusätzlich im Wildtyp während der Infektion verstärkt exprimiert, was zusätzliche Hinweise auf deren Relevanz im Infektionsprozess lieferte. Die drastisch verringerte Expression von Genen für Proteasen konnte mit niedrigerer Proteaseaktivität und der unvollständigen Mazeration des Gewebes an der Infektionsstelle in Verbindung gebracht werden. Der neu etablierte quantitative Sekretom-Vergleich des Wildtyps und der VELVET-Mutanten mithilfe 15N-markierter Proteine korrelierte eindeutig mit den Transkriptomdaten sekretierter Proteine. Damit wurde gezeigt, dass die Abundanz der Proteine maßgeblich von deren mRNA-Level abhängt. Die Unfähigkeit zur Ansäuerung des Wirtsgewebes ist einer der interessantesten phänotypischen Aspekte der VELVET-Mutanten. Während Citrat die dominierende von B. cinerea ausgeschiedene Säure ist, sekretierten VELVET-Mutanten deutlich weniger Citrat. Weder für Oxalat noch für Gluconat konnte eine wichtige Rolle während der Infektion bestätigt werden. Die Läsionsausbreitung der Mutanten wurde sowohl durch Zugabe von Vollmedium, als auch durch künstlich konstant niedrig eingestellte pH-Werte an den Infektionsstellen gefördert, während die Einstellung auf neutrale pH-Werte die Expansion beim B. cinerea Wildtyp stark beeinträchtigte. Damit ist die Ansäuerung in Tomatenblättern ein wichtiger Virulenzmechanismus, der möglicherweise essentiell für die Aktivität der sekretierten Proteine ist.
Überraschenderweise scheint eine Ansäuerung des Gewebes für die erfolgreiche Infektion der Ackerbohne Vicia faba nicht notwendig zu sein. Weder B. cinerea noch der am nächsten verwandte Botrytis fabae, welcher sich als Spezialist auf V. faba aggressiver verhält, zeigten während der erfolgreichen Infektion eine Ansäuerung des Ackerbohnenblattgewebes. B. fabae ist auf wenige Wirtspflanzen der Fabaceae begrenzt. Die Grundlagen der Wirtsspezifität sind bisher unklar. Vergleichende Transkriptom- und Sekretom-Analysen ergaben Hinweise für die molekularen Ursachen der unterschiedlichen Wirtsspektren von B. cinerea und B. fabae. In dieser Arbeit konnte die schlechte Infektion durch B. fabae auf Tomatenblättern mit einer deutlich niedrigeren Proteaseaktivität in Verbindung gebracht werden, während artifiziell konstant niedrige pH-Werte die Läsionsausbreitung kaum förderten. Im Gegensatz zur Infektion von Tomatenblättern wurden jedoch auf V. faba insgesamt deutlich niedrigere Proteaseaktivitäten in den Sekretomen beider Spezies gemessen. Diese Daten weisen darauf hin, dass die beiden Spezies nicht nur generell unterschiedliche Infektionsstrategien anwenden, sondern dass die Virulenzmechanismen zusätzlich vom infizierten Pflanzengewebe abhängig sind.