Refine
Year of publication
- 2008 (110) (remove)
Document Type
- Doctoral Thesis (63)
- Report (22)
- Periodical Part (10)
- Preprint (8)
- Working Paper (3)
- Study Thesis (2)
- Book (1)
- Master's Thesis (1)
Has Fulltext
- yes (110) (remove)
Keywords
- Streptococcus pneumoniae (4)
- Cluster (3)
- Clusterion (3)
- Eisen (3)
- Finite-Elemente-Methode (3)
- Gasphase (3)
- Massenspektrometrie (3)
- Materialermüdung (3)
- Visualisierung (3)
- Adipinsäure (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Fraunhofer (ITWM) (16)
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Informatik (9)
- Kaiserslautern - Fachbereich Sozialwissenschaften (8)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Physik (1)
Faser-Kunststoff-Verbunde sind aufgrund ihrer mechanischen Eigenschaften und
Formgebungsmöglichkeiten der Trendwerkstoff im Rahmenbau von Hochleistungs-
Sportfahrrädern. Hierbei ermöglicht die zunehmende Berücksichtigung von Leichtbau-
Technologien eine Erhöhung der Leistungs-Gewichts-Relation, um den stetig
wachsenden Anforderungen an die Fahreigenschaften, die Haltbarkeit und das Gewicht
gerecht zu werden.
Ein geschichtlicher Rückblick über die letzten Jahrzehnte im Fahrradrahmenbau
zeigt eine deutliche Gewichtsreduktion bei steigender Funktionalität. Besonders der
Einsatz neuartiger Werkstoffe ermöglichte immer wieder eine wesentliche Erhöhung
der Leichtbaugüte. In den Anfängen begannen die Rahmenhersteller mit Gusseisen,
anschließend wurde Stahl verwendet und schließlich Leichtmetalle, wie Aluminium.
Die derzeit leichtesten Rahmen werden aus kohlenstofffaserverstärktem Kunststoff
gefertigt.
Die Anwendung von Faser-Kunststoff-Verbunden ist deutlich komplexer und fordert
eine integrierte Betrachtungsweise von den Werkstoffen über die Bauweise, der
Fertigungstechnologie sowie der Bauteilprüfung. Die erzielbare Leistungsfähigkeit
eines Hochleistungs-Rahmens wird hierbei wesentlich in der Konstruktions- und
Dimensionierungsphase vorgegeben. Eine Übersicht über derzeitige Bauweisen und
Fertigungstechnologien zeigt deren spezifische Eigenschaften.
Um in der Entwicklung eine möglichst gute Lösung innerhalb eines vorgegebenen
Zeitfensters zu erreichen, können praktikable und effiziente Simulationswerkzeuge
einen erheblichen Beitrag leisten. Hierzu wurde ein Werkzeug entwickelt, welches
mit Hilfe eines Gradientenverfahrens an parametrischen Geometrie FE-Modellen zur
Gestaltoptimierung und Optimierung der Laminatkonfiguration angewendet werden
kann. Dieses ist auf in Differentialbauweise gefertigte Rahmen ausgerichtet und
berücksichtigt in besonderem Maße die werkstoff- und fertigungsspezifischen Anforderungen
von Faser-Kunststoff-Verbunden.
Zur Verbesserung der Festigkeitsvorhersage dient ein Modell zur vollständigen
schichtenweisen Bruchanalyse, welches aus den Bausteinen Spannungsermittlung
mit Berücksichtigung werkstofflicher Nichtlinearitäten, Festigkeitskriterium mit Unterscheidung
der Bruchtypen Zwischenfaserbruch und Faserbruch sowie Steifigkeitsdegradation
der Einzelschicht nach Eintritt von unkritischen Matrixbrüchen besteht. Das Modell erlaubt die Vorhersage des gesamten Schädigungsprozesses unter quasistatischer
Belastung vom Erstschichtversagen bis hin zum Laminatversagen. Weiterhin
wurde das Modell in ein kommerzielles FE-Programm implementiert und erlaubt
die Analyse von komplex geformten Strukturen.
Unter Anwendung der Simulationswerkzeuge konnten drei Hochleistungs-Rahmen in
Differentialbauweise entwickelt werden, die weltweit zu den leichtesten und steifsten
gehören. Hierbei lieferte das Optimierungswerkzeug die Ausgangsgestalt sowie die
in den Rohren notwendige Laminatkonfiguration zur Erreichung höchstmöglicher
Steifigkeits-zu-Gewichtsverhältnisse. Aufbauend auf den Erkenntnissen erfolgte die
detaillierte Rahmenkonstruktion. Kritische Bereiche am Rahmen konnten durch die
abschließende Anwendung des Festigkeitsanalysewerkzeugs aufgedeckt und beseitigt
werden. Es konnte eine gute Übereinstimmung der Ergebnisse des Festigkeitsanalysewerkzeugs
mit Prüfstandsversuchen gezeigt werden. Die erzielten herausragenden
Fahreigenschaften und die Haltbarkeit der entwickelten Rahmen konnten
sowohl auf Prüfständen als auch im Alltag bereits ausgiebig unter Beweis gestellt
werden.
Der Einfluss von transversalen Stoßeinwirkungen auf Fahrradrahmen wurde an
Sturzversuchen an kompletten Rennrädern sowie an repräsentativen Ober- und
Unterrohren aus Aluminium und kohlenstofffaserverstärktem Kunststoff untersucht
und die auftretenden Schädigungen ermittelt. Hierbei zeigte sich, dass insbesondere
an Rahmen aus kohlenstofffaserverstärktem Kunststoff nicht sichtbare Schäden
bereits bei geringsten Stoßeinwirkungen auftreten, unabhängig vom verwendeten
Fasertyp. Durchgeführte zyklische Prüfungen an vorgeschädigten Rennradrahmen
unter geringer Stoßeinwirkung zeigten keinen messbaren Verlust an Steifigkeit oder
Haltbarkeit der untersuchten Rahmen. Untersuchungen zum Einfluss des Fasertyps
auf die Impakteigenschaften zeigten deutliche Unterschiede bei den aufgetretenen
visuell erkennbaren Schäden.
Nanotechnology is now recognized as one of the most promising areas for technological
development in the 21st century. In materials research, the development of
polymer nanocomposites is rapidly emerging as a multidisciplinary research activity
whose results could widen the applications of polymers to the benefit of many different
industries. Nanocomposites are a new class of composites that are particle-filled
polymers for which at least one dimension of the dispersed particle is in the nanometer
range. In the related area polymer/clay nanocomposites have attracted considerable
interest because they often exhibit remarkable property improvements when
compared to virgin polymer or conventional micro- and macro- composites.
The present work addresses the toughening and reinforcement of thermoplastics via
a novel method which allows us to achieve micro- and nanocomposites. In this work
two matrices are used: amorphous polystyrene (PS) and semi-crystalline polyoxymethylene
(POM). Polyurethane (PU) was selected as the toughening agent for POM
and used in its latex form. It is noteworthy that the mean size of rubber latices is
closely matched with that of conventional toughening agents, impact modifiers.
Boehmite alumina and sodium fluorohectorite (FH) were used as reinforcements.
One of the criteria for selecting these fillers was that they are water swellable/
dispersible and thus their nanoscale dispersion can be achieved also in aqueous
polymer latex. A systematic study was performed on how to adapt discontinuousand
continuous manufacturing techniques for the related nanocomposites.
The dispersion of nanofillers was characterized by transmission, scanning electron
and atomic force microcopy (TEM, SEM and AFM respectively), X-ray diffraction
(XRD) techniques, and discussed. The crystallization of POM was studied by means
of differential scanning calorimetry and polarized light optical microscopy (DSC and
PLM, respectively). The mechanical and thermomechanical properties of the composites
were determined in uniaxial tensile, dynamic-mechanical thermal analysis
(DMTA), short-time creep tests, and thermogravimetric analysis (TGA).
PS composites were produced first by a discontinuous manufacturing technique,
whereby FH or alumina was incorporated in the PS matrix by melt blending with and
without latex precompounding of PS latex with the nanofiller. It was found that direct melt mixing (DM) of the nanofillers with PS resulted in micro-, whereas the latex mediated
pre-compounding (masterbatch technique, MB) in nanocomposites. FH was
not intercalated by PS when prepared by DM. On the other hand, FH was well dispersed
(mostly intercalated) in PS via the PS latex-mediated predispersion of FH following
the MB route. The nanocomposites produced by MB outperformed the DM
compounded microcomposites in respect to properties like stiffness, strength and
ductility based on dynamic-mechanical and static tensile tests. It was found that the
resistance to creep (summarized in master curves) of the nanocomposites were improved
compared to those of the microcomposites. Master curves (creep compliance
vs. time), constructed based on isothermal creep tests performed at different temperatures,
showed that the nanofiller reinforcement affects mostly the initial creep
compliance.
Next, ternary composites composed of POM, PU and boehmite alumina were produced
by melt blending with and without latex precompounding. Latex precompounding
served for the predispersion of the alumina particles. The related MB was produced
by mixing the PU latex with water dispersible boehmite alumina. The composites
produced by the MB technique outperformed the DM compounded composites in
respect to most of the thermal and mechanical characteristics.
Toughened and/or reinforced PS- and POM-based composites have been successfully
produced by a continuous extrusion technique, too. This technique resulted in
good dispersion of both nanofillers (boehmite) and impact modifier (PU). Compared
to the microcomposites obtained by conventional DM, the nanofiller dispersion became
finer and uniform when using the water-mediated predispersion. The resulting
structure markedly affected the mechanical properties (stiffness and creep resistance)
of the corresponding composites. The impact resistance of POM was highly
enhanced by the addition of PU rubber when manufactured by the continuous extrusion
manufacturing technique. This was traced to the dispersed PU particle size being
in the range required from conventional, impact modifiers.
The prototype of a rapid authoring tool for reusable learning objects, LOXtractor was extended with the ability for importing PDF files and for direct input of plain text. The ability to process PDF files was a major step forward to the goal of creating an application that integrates the creation of small-scale learning objects, their annotation with metadata and their mapping to an ontology for later retrieval into the task solving workflow, as intended by the SLEAM process. Especially small and medium sized enterprises can profit from this easy and affordable way to conserve individual informal learning effort for the whole company.
Diese Abhandlung dokumentiert wesentliche Forschungsergebnisse der Untersuchung von transluzenten Sandwichstrukturen in ihrer Eignung und Verwendbarkeit als tragende Konstruktionselemente in baulichen Strukturen. Vor dem Hintergrund der Bestrebungen, materialsparende und energieeffiziente Produkte für ein zunehmend komplexes Anforderungsprofil zu entwickeln, steigt seit einigen Jahren der Anteil konstruktiver Bauteile in Sandwichbauweise in der Architektur und im Bauwesen stetig an. Dabei spielt der Leichtbaucharakter dieser Bauweise eine entscheidende Rolle. Sandwichstrukturen sind aufgrund ihres geschichteten flächigen Aufbaus in der Regel als Platten oder Paneele erhältlich. Sie lassen sich als biegebeanspruchte Platten, Wandscheiben oder auch als räumlich gekrümmte Flächen verwenden und kombinieren. Seit einigen Jahren werden auch mehrschichtige Plattenwerkstoffe auf dem Markt angeboten, die aus lichtdurchlässigen Kunststoffen wie Acrylglas, Polycarbonat oder Glasfaserverstärkten Kunststoffen bestehen. Sie werden in unterschiedlichsten Formen, Farben, Strukturen und Abmessungen hergestellt. Die Bandbreite der Produktpalette orientiert sich dabei vor allem an den Herstellungsmöglichkeiten und marktgängigen Fertigungstechniken der Kunststoffindustrie. Betrachtet man den überwiegenden Teil der praktischen Anwendungen dieser Plattenmaterialien, so wird deutlich, dass ein großer Anteil der Verwendung den Sandwicheffekt gar nicht oder nur eingeschränkt nutzt. In diesem Zusammenhang steht vorrangig die Frage, welche dieser Produkte den Strukturprinzipien eines Sandwichverbundes wirklich entsprechen und die statisch-konstruktiven Vorzüge des Sandwichverbundes effektiv nutzen können. Bisherige Anwendungsschwerpunkte sind Messe- und Innenausbauten sowie Fassaden bei Freizeit- und Industriebauten. Die statisch-konstruktiven Potentiale, die der mehrschichtige Aufbau der Produkte teilweise mit sich bringt, bleiben aber weitgehend ungenutzt. Die konstruktive Verwendung und Fügung unterscheidet sich bisher nicht wesentlich von der monolithischer Plattenmaterialien. Kapitel 1 beschreibt einführend die grundlegenden Prinzipien der Sandwichbauweise und dient zur Definition von Begriffen und Bezeichnungen. Bezug nehmend zu opaken Sandwichstrukturen werden wesentliche Merkmale und grundlegende Eigenschaften transluzenter Sandwichstrukturen aufgezeigt. Basierend auf einer umfangreichen Produktanalyse sowie ausgewählten Anwendungsbeispielen wird in Kapitel 2 eine strukturbasierende Typologie transluzenter Sandwichstrukturen aufgestellt. Dabei werden unterschiedliche bauliche Eigenschaften überprüft und tabellarisch gegenübergestellt. Ein spezieller Fokus liegt dabei auf der Untersuchung, in welcher Weise das jeweilige Herstellungsverfahren Einfluss auf das jeweilige Eigenschaftsprofil der Plattenprodukte besitzt. In ausgewählten Projektbeispielen werden Stärken und Schwächen des bisherigen Einsatzes mit Schwerpunkt in bau- und tragkonstruktiver Hinsicht aufgezeigt und bewertet. In Kapitel 3 erfolgt die Untersuchung der in Kapitel 2 vorgestellten transluzenten Sandwichstrukturen in Form von Versuchsreihen hinsichtlich ihrer statisch-konstruktiven Fähigkeiten. Die resultierenden Ergebnisse bilden die Grundlage zur Beurteilung der konstruktiven Eignung der untersuchten Sandwichverbunde für tragwerksrelevante Anwendungen. Basierend auf den Versuchsergebnissen aus Kapitel 3 wird in Kapitel 4 der Plattentyp mit dem größten statisch-konstruktiven Potential einer weiterführenden Optimierung unterzogen. Hierbei werden zwei Ansätze verfolgt: zum einen die Optimierung der Deckschichtlage in ihrer Materialbeschaffenheit und Verbundwirkung, zum anderen die Optimierung der Kernschichtlage in Bezug auf die geometrische Struktur. In Kapitel 5 wird neben der tragkonstruktiven Eignung des in Kapitel 4 optimierten transluzenten Sandwichverbundes die baupraktische Verwendbarkeit und Einsatzfähigkeit untersucht. Hierzu werden erweiterte Anwendungsspektren in der Architektur und dem Messebau aufgezeigt. Ziel ist dabei die Nutzung der Sandwichplatte als Konstruktionsraum für Fügetechnik. Den aufgezeigten Potentialen für selbsttragende Anwendungen wird versucht, fügetechnisch zu begegnen. Die konstruktive Fügung ist Thema praktischer Detailstudien und Modellversuche zu material- und anwendungsgerechten Methoden des Fügens, die in diesem Kapitel exemplarisch aufgezeigt und bewertet werden. Zusammenfassende Schlussfolgerungen bilden den Abschluss mit einem Ausblick auf weiterführende Anknüpfungspunkte der Forschung.
Untersuchungen zur Beeinflussung humaner Topoisomerasen und der DNA-Integrität durch Beerenfrüchte
(2008)
Das Ziel dieser Arbeit war es zur Aufklärung der Beeinflussung von humanen Topoisomerasen und der DNA-Integrität durch polyphenolische Substanzen und polyphenolreiche Extrakte beizutragen. Die vorliegende Dissertation zeigt auf, dass auch die beschriebene DNA-schädigende Wirkung von Delphinidin, sowie das Ausbleiben einer antioxidativen Wirkung des Anthocyanidins unter Zellkulturbedinungen teilweise auf das gebildete H2O2 zurückzuführen ist. Insgesamt zeigen die Daten, dass alle in dieser Arbeit untersuchten Polyphenole oder polyphenolreichen Extrakte mit Ausnahme der Ellagsäure Wasserstoffperoxid im Zellkulturmedium generieren. Delphinidin moduliert die DNA-strangbrechende Wirkung der, in der Chemotherapie eingesetzten Topoisomerasegifte Camptothecin, Etoposid und Doxorubicin in HT29-Zellen. Basierend auf diesen Ergebnissen lässt sich für Delphinidin folgender Wirkmechanismus postulieren: Delphinidin wirkt als katalytischer Hemmstoff der Topoisomeraseaktivität, der die Enzyme inaktiviert bevor diese an die DNA binden und einen Strangbruch induzieren. Die in dieser Arbeit untersuchten anthocyanreichen Extrakte hemmen potent die Aktivität humaner Topoisomerasen. Des Weiteren stabilisieren sie nicht das kovalente Enzym-DNA-Intermediat in HT29-Zellen, so dass davon ausgegangen werden kann, dass die Extraktinhaltsstoffe als rein katalytische Topoisomerasehemmstoffe agieren. Eine Bindung an die DNA-Furchen wiesen die Extraktinhaltsstoffe nicht auf. Zudem induzieren die Extrakte keine DNA-Strangbrüche und bewirken keinen Zellzyklusarrest in der G2/M-Phase, so dass der Einfluss der polyphenolischen Extraktinhaltsstoffe auf die DNA-Integrität als gering einzustufen ist. Vergleichbar mit Delphinidin modulieren auch die Extrakte die DNA-strangbrechende Wirkung von Topoisomerasegiften. Weiterhin konnte im Rahmen diese Dissertation bestimmt werden, dass die getesteten Ellagtannine sowie die Ellagsäure die Aktivität humaner Topoisomerasen im zellfreien System hemmen. Dabei wirken nicht nur die Einzelsubstanzen als potente Topoisomerasehemmstoffe, sondern auch ein Eichenholzextrakt. Diese Ergebnisse legen nahe, dass die Ellagtannine keine Stabilisierung des Topoisomerase-DNA-Intermediats bewirken. Des Weiteren konnte für Castalagin eine Modulation der strangbrechenden Wirkung von Camptothecin bestimmt werden. Dieses Ergebnis legt nahe, dass Castalagin als katalytischer Hemmstoff die Topoisomerase hemmt bevor das Enzym an die DNA binden und einen Strangbruch im Zucker-Phosphat-Rückgrat induzieren kann.
Untersuchungen zu Spincrossover und Valenztautomerie an an Eisen(II)- bzw. Kobalt(II)-Komplexen
(2008)
Mit den Komplexen [Fe(L-N4H2)(NCS)2]∙MeOH (1) und [Fe(L-N2S2)(NCS)2]∙0,5 DMF (2) konnten zwei neue Spincrossover-Verbindungen synthetisiert werden, die Thiocyanat-Anionen als Liganden beinhalten. Die magnetischen Untersuchungen für Komplex 1 wurden aufgrund der verwitterungsanfälligen Kristalle mit einer lösungsmittelfreien Probe ([Fe(L-N4H2)(NCS)2]) durchgeführt. Sowohl die SQUID-Magnetometrie als auch die Mößbauer-Spektroskopie zeigen hierbei einen unvollständigen Spinübergang, bei dem bei tiefen Temperaturen ein high-spin Restanteil von 30 % verbleibt. Die Übergangstemperatur beträgt T1/2 = 141 K, für Komplex 2 wird ein Wert von T1/2 = 232 K gefunden. Der Komplex [Fe(L-N4tBu2)(CN)2]•MeCN (3) ist das erste Beispiel einer eisen(II)-haltigen low-spin Verbindung, die den makrozyklischen Pyridinophanliganden L-N4tBu2 enthält. Durch die Verwendung von Coliganden mit geringerer Ligandenfeldstärke (verglichen zum Cyanid-Anion) gelang es in der vorliegenden Arbeit erstmals, Spincrossover-Komplexe mit dem Liganden L-N4tBu2 zu synthetisieren. Dabei handelt es sich um die Eisen(II)-Komplexe [Fe(L-N4tBu2)(bipy)](BPh4)2•MeCN•Et2O (4), [Fe(L-N4tBu2)(phen)](BPh4)2•Et2O (5a), [Fe(L-N4tBu2)(phen)](BPh4)2•MeCN (5b), [Fe(L-N4tBu2)(dppz)](BPh4)2 (6) sowie [Fe(L-N4tBu2)(bpym)](BPh4)2•MeCN (7), bei denen aromatische Diimine als Coliganden eingesetzt wurden. Die Röntgenstrukturanalysen zeigen mehr oder weniger ausgeprägte Bindungslängenunterschiede, die jeweils auf einen Spincrossover schließen lassen. Die magnetischen Untersuchungen zeigen für die Komplexe 4 (T1/2 = 177 K), 5a (T1/2 = 179 K), 5b (T1/2 ≈ 347 K), 6 (T1/2 = 275 K) und 7 (T1/2 ≈ 335 K) Spinübergänge mit unterschiedlichen Verläufen und Übergangstemperaturen. Besonders hervorzuheben sind dabei die analogen Komplexe 5a und 5b, die sich zwar lediglich durch das im Kristallgitter eingebaute Lösungsmittelmolekül unterscheiden, jedoch völlig verschiedene magnetische Eigenschaften und Spinübergangsarten aufweisen. Neben den einkernigen low-spin Komplexen [Fe(L-N4Me2)(bpym)](ClO4)2 (8) und [Fe(L-N4Me2)(BiBzIm)]∙4 MeOH (9) konnten erstmals mit dem Pyridinophanliganden L-N4Me2 zweikernige Spincrossover-Komplexe hergestellt werden. Der zweikernige Komplex [{Fe(L-N4Me2)}2(BiBzIm)](ClO4)2∙2 EtCN (10) zeigt bei T = 175 K einen abrupten high-spin/high-spin→high-spin/low-spin Übergang. Nur eines der beiden Eisen(II)-Ionen geht beim Abkühlen vom high-spin in den low-spin Zustand über. In der Kristallstruktur können bei tiefen Temperaturen die beiden unterschiedlichen Eisen(II)-Zentren genau lokalisiert werden. Ein solcher high-spin/high-spin→high-spin/low-spin Übergang wird auch für [{Fe(L-N4Me2)}2(BzImCOO)](ClO4)2∙0.5 (CH3)2CO (11) beobachtet. Die Übergangstemperatur beträgt hier T = 210 K. Das high-spin und das low-spin Eisen(II)-Ion können in dieser Kristallstruktur bei tiefer Temperatur ebenfalls genau identifiziert werden. Bei dem Komplex [{Fe(L-N4Me2)}2(pndc)](ClO4)2∙H2O (12) handelt es sich ebenfalls um einen zweikernigen Spincrossover-Komplex, der einen vollständigen Spinübergang aufweist (T1/2 ≈ 260 K). Die Untersuchungen zur Valenztautomerie wurden an Kobalt-Komplexen mit dem redoxaktiven Liganden 3,5-Di-tert-butylcatecholat und den makrozyklischen Pyridinophan-liganden L-N4Me2 und L-N4tBu2 durchgeführt. Die Röntgenstrukturanalyse weist Verbindung [Co(L-N4Me2)(dbc)](BPh4) (13) als diamagnetische low-spin Kobalt(III)-Catecholat-Spezies aus. Die C-C-Bindungen und die C-O-Abstände belegen, dass der Dioxolenligand in der Catecholat-Form vorliegt. Außerdem sind die Co-N- und die Co-O-Bindungslängen sehr kurz, was auf das low-spin Kobalt(III)-Ion zurückzuführen ist. Bei Komplex [Co(L-N4tBu2)(dbsq)](B(C6H4Cl)4) (14) handelt es sich hingegen um eine paramagnetische Kobalt(II)-Semichinonat-Verbindung. In der Kristallstruktur ist im kompletten Temperaturbereich das typische Bindungsschema eines Semichinonatliganden zu erkennen. Dagegen unterscheiden sich die Co-N- und die Co-O-Abstände bei den verschiedenen Messtemperaturen deutlich voneinander. Während die kürzeren Bindungs-längen bei T = 100 K eindeutig auf ein low-spin Kobalt(II)-Ion schließen lassen, legen die bei T = 400 K deutlich elongierten Bindungslängen einen beginnenden Spinübergang in den high-spin Zustand nahe. Dieser Befund wird durch die SQUID-Messung unterstützt, bei der im Temperaturintervall von 50 K bis 200 K konstante Werte für χMT bzw. für µeff gefunden werden, während die Werte für T > 200 K deutlich ansteigen und somit auf einen Spincrossover hinweisen.
Rapid growth in sensors and sensor technology introduces variety of products to the market. The increasing number of available sensor concepts and implementations demands more versatile sensor electronics and signal conditioning. Nowadays signal conditioning for the available spectrum of sensors is becoming more and more challenging. Moreover, developing a sensor signal conditioning ASIC is a function of cost, area, and robustness to maintain signal integrity. Field programmable analog approaches and the recent evolvable hardware approaches offer partial solution for advanced compensation as well as for rapid prototyping. The recent research field of evolutionary concepts focuses predominantly on digital and is at its advancement stage in analog domain. Thus, the main research goal is to combine the ever increasing industrial demand for sensor signal conditioning with evolutionary concepts and dynamically reconfigurable matched analog arrays implemented in main stream Complementary Metal Oxide Semiconductors (CMOS) technologies to yield an intelligent and smart sensor system with acceptable fault tolerance and the so called self-x features, such as self-monitoring, self-repairing and self-trimming. For this aim, the work suggests and progresses towards a novel, time continuous and dynamically reconfigurable signal conditioning hardware platform suitable to support variety of sensors. The state-of-the-art has been investigated with regard to existing programmable/reconfigurable analog devices and the common industrial application scenario and circuits, in particular including resource and sizing analysis for proper motivation of design decisions. The pursued intermediate granular level approach called as Field Programmable Medium-granular mixed signal Array (FPMA) offers flexibility, trimming and rapid prototyping capabilities. The proposed approach targets at the investigation of industrial applicability of evolvable hardware concepts and to merge it with reconfigurable or programmable analog concepts, and industrial electronics standards and needs for next generation robust and flexible sensor systems. The devised programmable sensor signal conditioning test chips, namely FPMA1/FPMA2, designed in 0.35 µm (C35B4) Austriamicrosystems, can be used as a single instance, off the shelf chip at the PCB level for conditioning or in the loop with dedicated software to inherit the aspired self-x features. The use of such self–x sensor system carries the promise of improved flexibility, better accuracy and reduced vulnerability to manufacturing deviations and drift. An embedded system, namely PHYTEC miniMODUL-515C was used to program and characterize the mixed-signal test chips in various feedback arrangements to answer some of the questions raised by the research goals. Wide range of established analog circuits, ranging from single output to fully differential amplifiers, was investigated at different hierarchical levels to realize circuits like instrumentation amplifier and filters. A more extensive design issues based on low-power like for e.g., sub-threshold design were investigated and a novel soft sleep mode idea was proposed. The bandwidth limitations observed in the state of the art fine granular approaches were enhanced by the proposed intermediate granular approach. The so designed sensor signal conditioning instrumentation amplifier was then compared to the commercially available products in the market like LT 1167, INA 125 and AD 8250. In an adaptive prototype, evolutionary approaches, in particular based on particle swarm optimization with multi-objectives, were just deployed to all the test samples of FPMA1/FMPA2 (15 each) to exhibit self-x properties and to recover from manufacturing variations and drift. The variations observed in the performance of the test samples were compensated through reconfiguration for the desired specification.
In this paper we develop a network location model that combines the characteristics of ordered median and gradual cover models resulting in the Ordered Gradual Covering Location Problem (OGCLP). The Gradual Cover Location Problem (GCLP) was specifically designed to extend the basic cover objective to capture sensitivity with respect to absolute travel distance. Ordered Median Location problems are a generalization of most of the classical locations problems like p-median or p-center problems. They can be modeled by using so-called ordered median functions. These functions multiply a weight to the cost of fulfilling the demand of a customer which depends on the position of that cost relative to the costs of fulfilling the demand of the other customers. We derive Finite Dominating Sets (FDS) for the one facility case of the OGCLP. Moreover, we present efficient algorithms for determining the FDS and also discuss the conditional case where a certain number of facilities are already assumed to exist and one new facility is to be added. For the multi-facility case we are able to identify a finite set of potential facility locations a priori, which essentially converts the network location model into its discrete counterpart. For the multi-facility discrete OGCLP we discuss several Integer Programming formulations and give computational results.
This thesis is devoted to the study of tropical curves with emphasis on their enumerative geometry. Major results include a conceptual proof of the fact that the number of rational tropical plane curves interpolating an appropriate number of general points is independent of the choice of points, the computation of intersection products of Psi-classes on the moduli space of rational tropical curves, a computation of the number of tropical elliptic plane curves of given degree and fixed tropical j-invariant as well as a tropical analogue of the Riemann-Roch theorem for algebraic curves. The result are obtained in joint work with Hannah Markwig and/or Andreas Gathmann.
In recent years, formal property checking has become adopted successfully in industry and is used increasingly to solve the industrial verification tasks. This success results from property checking formulations that are well adapted to specific methodologies. In particular, assertion checking and property checking methodologies based on Bounded Model Checking or related techniques have matured tremendously during the last decade and are well supported by industrial methodologies. This is particularly true for formal property checking of computational System-on-Chip (SoC) modules. This work is based on a SAT-based formulation of property checking called Interval Property Checking (IPC). IPC originates in the Siemens company and is in industrial use since the mid 1990s. IPC handles a special type of safety properties, which specify operations in intervals between abstract starting and ending states. This paves the way for extremely efficient proving procedures. However, there are still two problems in the IPC-based verification methodology flow that reduce the productivity of the methodology and sometimes hamper adoption of IPC. First, IPC may return false counterexamples since its computational bounded circuit model only captures local reachability information, i.e., long-term dependencies may be missed. If this happens, the properties need to be strengthened with reachability invariants in order to rule out the spurious counterexamples. Identifying strong enough invariants is a laborious manual task. Second, a set of properties needs to be formulated manually for each individual design to be verified. This set, however, isn’t re-usable for different designs. This work exploits special features of communication modules in SoCs to solve these problems and to improve the productivity of the IPC methodology flow. First, the work proposes a decomposition-based reachability analysis to solve the problem of identifying reachability information automatically. Second, this work develops a generic, reusable set of properties for protocol compliance verification.
Within this thesis a series of molecular species has been studied, with focus on hydrogen bonded species and on (solvated) transition metal complexes. Experimental techniques such as FT-ICR-MS and IRMPD were combined with ab initio calculations for the determination of structure and reactivity of the aforementioned types of systems. On the basis of high level electronic structure calculations of neutral water clusters (H2O)n with n = 17-21 a transitional size regime has been determined, where a structural stabilization between all-surface and interior configurations alternates with the addition or removal of a single water molecule. Electronic structure calculations suggested that for n = 17 and 19 the interior configuration would be energetically more stable than the all-surface one. The gas phase infrared spectrum of the singly hydrated ammonium ion, NH4+(H2O), had previously been recorded by photodissociation spectroscopy of mass selected ions and interpreted by means of ab initio calculations. The present work provides additional information on the shape of the potential energy curves of NH4+(H2O) along the N-H distance on MP2/aug-cc-pVDZ level of theory yielding an anharmonic potential shape. Calculation of potential energy curves of the O-H mode of the intramolecular hydrogen bond of various dicarboxylic acids (oxalic to adipic acid) revealed that the shapes of the potentials directly correlate to the size of the system and the resulting ring strain The shape of the potential is also influenced by the charge of the system. Calculation of anharmonic frequencies based on the VPT2 approach lead to reasonable results in all systems with narrow potentials. IRMPD spectra of complexes in the gas phase have been recorded for a series of cationic vanadium oxide complexes when reacted with acetonitrile, methanol and ethanol. The experimental spectra are compared to calculated absorption spectra. The systematic DFT study identifies potential candidates for reductive nitrile coupling in cationic transition metal acetonitrile complexes. On the basis of the calculations, the formation of metallacyclic structures in group 3 through 7 complexes can be ruled out. Solvation of the transition metal cation by five acetonitrile ligands leads to a reductive nitrile coupling reaction in three types of complexes, namely those containing either niobium, tantalum or tungsten.
This thesis is devoted to deal with the stochastic optimization problems in various situations with the aid of the Martingale method. Chapter 2 discusses the Martingale method and its applications to the basic optimization problems, which are well addressed in the literature (for example, [15], [23] and [24]). In Chapter 3, we study the problem of maximizing expected utility of real terminal wealth in the presence of an index bond. Chapter 4, which is a modification of the original research paper joint with Korn and Ewald [39], investigates an optimization problem faced by a DC pension fund manager under inflationary risk. Although the problem is addressed in the context of a pension fund, it presents a way of how to deal with the optimization problem, in the case there is a (positive) endowment. In Chapter 5, we turn to a situation where the additional income, other than the income from returns on investment, is gained by supplying labor. Chapter 6 concerns a situation where the market considered is incomplete. A trick of completing an incomplete market is presented there. The general theory which supports the discussion followed is summarized in the first chapter.
We present results and views about a project in assisted living. The scenario is a room in which an elderly and/or disabled person lives who is not able to perform certain actions due to restricted mobility. We enable the person to express commands verbally that will then be executed automatically. There are several severe problems involved that complicate the situation. The person may utter the command in a rather unexpected way, the person makes an error or the action cannot be performed due to several reasons. In our approach we present an architecture with three components: The recognition component that contains novel features in the signal processing, the analysis component that logically analyzes the command, and the execution component that performs the action automatically. All three components communicate with each other.
Recently we developed a discrete model of elastic rods with symmetric cross section suitable for a fast simulation of quasistatic deformations [33]. The model is based on Kirchhoff’s geometrically exact theory of rods. Unlike simple models of “mass & spring” type typically used in VR applications, our model provides a proper coupling of bending and torsion. The computational approach comprises a variational formulation combined with a finite difference discretization of the continuum model. Approximate solutions of the equilibrium equations for sequentially varying boundary conditions are obtained by means of energy minimization using a nonlinear CG method. As the computational performance of our model yields solution times within the range of milliseconds, our approach proves to be sufficient to simulate an interactive manipulation of such flexible rods in virtual reality applications in real time.
Sound surrounds us all the time and in every place in our daily life, may it be pleasant music in a concert hall or disturbing noise emanating from a busy street in front of our home. The basic properties are the same for both kinds of sound, namely sound waves propagating from a source, but we perceive it in different ways depending on our current mood or if the sound is wanted or not. In this thesis both pleasant sound as well as disturbing noise is examined by means of simulating the sound and visualizing the results thereof. However, although the basic properties of music and traffic noise are the same, one is interested in different features. For example, in a concert hall, the reverberation time is an important quality measure, but if noise is considered only the resulting sound level, for example on ones balcony, is of interest. Such differences are reflected in different methods of simulation and required visualizations, therefore this thesis is divided into two parts. The first part about room acoustics deals with the simulation and novel visualizations for indoor sound and acoustic quality measures, such as definition (original "Deutlichkeit") and clarity index (original "Klarheitsmaß"). For the simulation two different methods, a geometric (phonon tracing) and a wave based (FEM) approach, are applied and compared. The visualization techniques give insight into the sound behaviour and the acoustic quality of a room from a global as well as a listener based viewpoint. Furthermore, an acoustic rendering equation is presented, which is used to render interference effects for different frequencies. Last but not least a novel visualization approach for low frequency sound is presented, which enables the topological analysis of pressure fields based on room eigenfrequencies. The second part about environmental noise is concerned with the simulation and visualization of outdoor sound with a focus on traffic noise. The simulation instruction prescribed by national regulations is discussed in detail, and an approach for the computation of noise volumes, as well as an extension to the simulation, allowing interactive noise calculation, are presented. Novel visualization and interaction techniques for the calculated noise data, incorporated in an interactive three dimensional environment, enabling the easy comprehension of noise problems, are presented. Furthermore additional information can be integrated into the framework to enhance the visualization of noise and the usability of the framework for different usages.
Sandwichstrukturen mit einem Wabenkern und Faserverbund-Deckschichten finden
aufgrund ihres hohen Leichtbaupotenzials zunehmend Verwendung in zahlreichen
Konstruktionen, in denen eine Gewichtsersparnis angestrebt wird – allen voran im
Flugzeugbau. Im gleichen Zuge werden in der Produktentwicklung aus Effizienzgründen
verstärkt numerische Simulationsrechnungen auf Basis der Finite-Elemente-
Methode verwendet, um Bauteile für statische oder kurzzeitdynamische Belastungen
wie Crash- oder Impact-Belastungen auszulegen.
Die nichtlineare Materialmodellierung derartiger inhomogener Sandwichstrukturen
stellt aufgrund einer Vielzahl möglicher Versagensarten eine komplexe Aufgabe dar.
Da gerade auch im Fall von kurzzeitdynamischen Belastungen, bei denen Dehnrateneffekte
eine Rolle spielen können, wenig Kenntnis bezüglich des Materialverhaltens
besteht, setzt die vorliegende Arbeit an dieser Stelle an, um das Schädigungsverhalten
von Sandwichstrukturen im Flugzeugbau experimentell zu erfassen und
geeignete Modellierungsmethoden in der kommerziellen expliziten Berechnungssoftware
LS-DYNA zu entwickeln.
Neben den im Luftfahrtbereich etablierten Nomex®-Honigwaben wurden auch neuartige
Faltwaben untersucht, wobei zunächst das mechanische Verhalten beider Wabentypen
unter quasi-statischen und hochdynamischen Lastraten charakterisiert
wurde. Neben der experimentellen Bestimmung der Materialeigenschaften wurden
alternativ analytische und numerische Methoden angewendet. Insbesondere die virtuellen
Werkstoffprüfungen mittels dynamischer Simulationen und Mesomodellen
zeigten dabei das Potenzial, auf effiziente Weise und mit einer hohen Ergebnisgenauigkeit
das mechanische Verhalten von Wabenkernen vorherzusagen.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung der in der Passagierkabine
verwendeten Sandwichstrukturen, welche aus Brandschutzgründen mit Deckschichten
aus glasfaserverstärkten Phenoplasten ausgeführt sind. In Versuchsreihen wurden
der Dehnrateneffekt des Deckschichtmaterials, die Festigkeit der Kern-
Deckschicht-Verklebung, der Einfluss des Herstellverfahrens auf die mechanischen
Eigenschaften sowie die Versagensarten unter ebener und transversaler Belastung
untersucht und in numerischen Modellen abgebildet. Da insbesondere Lasteinleitungs- und Verbindungsstellen potenzielle Versagensstellen
von Konstruktionen in Sandwichbauweise sein können, wurde das Schädigungsverhalten
von unterschiedlichen Kanten- und Insert-Verbindungen experimentell untersucht.
Auf Grundlage dieser Ergebnisse wurden Modellierungsmethoden entwickelt,
die eine Abbildung des Versagensverhaltens ermöglichen.
Im Rahmen der Versuchsreihen stellte sich ein transversales Kernschubversagen als
eine dominierende Schädigungsart heraus. Da unter Verwendung einer Schalenmodellierung
für die Sandwichstruktur in der Berechnungssoftware LS-DYNA kein Materialmodell
für den Wabenkern existiert, welches ein solches Versagen abbilden kann,
wurde hierfür ein benutzerdefiniertes orthotropes Werkstoffgesetz entwickelt. Neben
dem Transversalschubversagen wurden hierin auch die weiteren in dieser Arbeit ermittelten
Charakteristika von Wabenkernen wie ein nichtlineares Nachversagensverhalten
oder ein Dehnrateneffekt implementiert.
In dieser Arbeit wurden zahlreiche neue Erkenntnisse zum einen hinsichtlich des Materialverhaltens
der untersuchten Sandwichstrukturen und zum anderen hinsichtlich
der Modellierungsmethoden gewonnen. Diese Erkenntnisse lassen sich für eine Vielzahl
unterschiedlicher nichtlinearer Problemstellungen bei Sandwichstrukturen in der
Luftfahrt einsetzen und finden innerhalb dieser Arbeit in drei exemplarischen kurzzeitdynamischen
Lastfällen Anwendung: die Simulation von Kabinenkomponenten
bei einer harten Landung, die Impact-Belastung einer Faltwaben-Sandwichstruktur
sowie die Crashsimulation eines Rumpfsegments in Sandwichbauweise.
Acidic zeolites like H-Y, H-ZSM-5, H-MCM-22 and H-MOR zeolites were found to be the selective adsorbents for the removal of thiophene from toluene or n-heptane as solvent. The competitive adsorption of toluene is found to influence the adsorption capacity for thiophene and is more predominant when high-alumina zeolites are used as adsorbents. This behaviour is also reflected by the results of the adsorption of thiophene on H-ZSM-5 zeolites with varied nSi/nAl ratios (viz. 13, 19 and 36) from toluene and n-heptane as solvents, respectively. UV-Vis spectroscopic results show that the oligomerization of thiophene leads to the formation of dimers and trimers on these zeolites. The oligomerization in acid zeolites is regarded to be dependent on the geometry of the pore system of the zeolites. The sulphur-containing compounds with more than one ring viz. benzothiophene, which are also present in substantial amounts in certain hydrocarbon fractions, are not adsorbed on H-ZSM-5 zeolites. This is obvious, as the diameter of the pore aperture of zeolite H-ZSM-5 is smaller than the molecular size of benzothiophene. Metal ion-exchanged FAU-type zeolites are found to be promising adsorbents for the removal of sulphur-containing compounds from model solutions. The introduction of Cu+-, Ni2+-, Ce3+-, La3+- and Y3+- ions into zeolite Na+-Y by aqueous ion-exchange substantially improves the adsorption capacity for thiophene from toluene or n-heptane as solvent. More than the absolute content of Cu+-ions, the presence of Cu+-ions at the sites exposed to supercages is believed to influence the adsorption of thiophene on Cu+-Y zeolite. It was shown experimentally for the case of Cu+-Y and Ce3+-Y that the supercages present in the FAU zeolite allow for an access of bulkier sulphur-containing compounds (viz. benzothiophene, dibenzothiophene and dimethyl dibenzothiophene). The presence of these bulkier compounds compete with thiophene and are preferentially adsorbed on Cu+-Y zeolite. IR spectroscopic results revealed that the adsorption of thiophene on Na+-Y, Cu+-Y and Ni2+-Y is primarily a result of the interaction of thiophene via pi-complexation between C=C double bond (of thiophene) and metal ions (in the zeolite framework). A different mode of interaction of thiophene with Ce3+-, La3+- and Y3+-metal ions was observed in the IR spectra of thiophene adsorbed on Ce3+-Y, La3+-Y and Y3+-Y zeolites, respectively. On these adsorbents, thiophene is believed to interact via a lone electron pair of the sulphur atom with metal ions present in the adsorbent (M-S interaction). The experimental results show that there is a large difference in the thiophene adsorption capacities of pi-complexation adsorbents (like Cu+-Y, Ni2+-Y) between the model solution with toluene as solvent and the model solution with n-heptane as solvent. The lower capacity of these zeolites for the adsorption of thiophene from toluene than from n-heptane as solvent is the clear indication of competition of toluene in interating with adsorbent in a way similar to thiophene. The difference in thiophene adsorption capacities is very low in the case of adsorbents Ce3+-Y, La3+-Y and Y3+-Y, which are believed to interact with thiophene predominantly by direct M3+-S bond (thiophene interacting with metal ion via a lone pair of electrons). TG-DTA analysis was used to study the regeneration behaviour of the adsorbents. Acid zeolites can be regenerated by simply heating at 400 °C in a flow of nitrogen whereas thiophene is chemically adsorbed on the metal ion. By contrast, it is not possible to regenerate by heating under idle inert gas flow. The only way to regenerate these adsorbents is to burn off the adsorbate, which eventually brings about an undesired emission of SOx. The exothermic peaks appeared at different temperatures in the heat flow profiles of Cu+-Y, Ce3+-Y, La3+-Y and Y3+-Y are also indicating that two different types of interaction are present as revealed by IR spectroscopy, too. One major difficulty in reducing the sulphur content in fuels to value below 10 ppm is the inability in removing alkyl dibenzothiophenes, viz. 4,6 dimethyl dibenzothiophene, by the existing catalytic hydrodesulphurization technique. Cu+-Y and Ce3+-Y were found in the present study to adsorb this compound from toluene to a certain extent. To meet the stringent regulations on sulphur content, selective adsorption by zeolites could be a valuable post-purification method after the catalytic hydrodesulphurization unit.
Die in dieser Dissertation durchgeführten Reaktivitätstudien an Metallclustern (Cobalt, Rhodium, Nicken und Niob) dienten dazu, einen Einblick in Elementarschritte der C-H-Aktivierung zu geben. Hierfür wurde eine Laserverdampfungsquelle an einem FT-ICR-Massenspektrometer installiert. Cobaltcluster-Kationen zeigten bei der Umsetzung mit Ethan eine größenabhängige Reaktion. Nur spezielle Cluster im mittleren Größenbereich (Con+, n = 10-16) waren in der Lage unter Abspaltung von molekularem Wasserstoff mit Ethan zu reagieren. Es ist gezeigt worden, dass Cobaltcluster durch die Umsetzung mit Distickstoffmonoxid unter Abspaltung von molekularem Stickstoff oxidierbar sind. Rhodium-Cluster wurden systematisch mit den Alkoholen Methanol, Ethanol und Isopropanol umgesetzt. Als Produkte der Reaktion von Rhodiumcluster-Kationen mit Methanol traten das intakt adsorbierte, das partiell und das vollständig dehydrierte Methanol auf. Die Clustergrößenabhängigkeit zeigte, dass nur große Cluster (Rhn+ mit n > 7) Methanol intakt adsorbierten. Die vollständige Dehydrierung wurde im gesamten Clustergrößenbereich beobachtet. Dass große Cluster entweder unter intakter Anlagerung oder unter vollständiger Dehydrierung reagierten, deutet darauf hin, dass zwei unterschiedliche Reaktionsmechanismen vorliegen, was in einem hypothetischen Modell erklärt werden soll. Die Umsetzung von größeren Alkoholen wie Ethanol und Isopropanol mit Rhodiumclustern zeigte eine unspezifische Reaktionschemie. Diese ist in der höheren Flexibilität des Alkohols durch die vergrößerte Kettenlänge begründet. Ein allgemeiner Vergleich zeigte, dass die Anionen um fast zwei Größenordnungen unreaktiver sind als die Kationen. Sowohl für die Anionen als auch für die Kationen nahm die Reaktivität von Methanol zu Ethanol und Isopropanol zu. Kleine Rhodiumcluster-Anionen waren deutlich reaktiver als größere. Eine Besonderheit der Rhodiumcluster-Kationen in der Umsetzung mit Methanol war das Auftreten von zwei Reaktionsisomeren im Clustergrößenbereich n = 8, 10, 11, 13-18. Dies wurde durch die Reaktion mit Ethanol bestätigt. Kleine Nickelcluster-Kationen stellten das untersuchte Modellsystem zur katalytischen Oxidierung von Kohlenmonoxid mittels Distickstoffmonoxid dar. Niobcluster wurden vergleichend mit Aromaten (Benzol und Naphthalin) und Heteroaroaten (Furan, Thiophen und Pyrrol) untersucht. Abschließend werden IRMPD-Spektren, die am Freie-Elektronen-Laser (CLIO, Orsay/Paris) für protonierte und deprotonierte Adipinsäure und für das protonierte Dimer von Carnosin und für einen Carnosin-Zink-Komplex vorgestellt und mit vorhandenen theoretischen Rechnungen verglichen.
Im Rahmen dieser Dissertation wurde eine Laserverdampfungsquelle an einem neu installierten und anschließend umgebauten FT-ICR-Massenspektrometer in Betrieb genommen. Es konnten sowohl anionische als auch kationische Metallcluster erzeugt und in die ICR-Zelle überführt werden. Größenselektierte Übergangsmetallcluster (wie Niob, Vanadium, Kobalt und Tantal) wurden unter Einzelstoßbedingungen (8x10-10 - 1x10-8 mbar) auf ihre C-H-Aktivierung hin untersucht. Gemäß einer Kinetik pseudoerster Ordnung konnten relative Geschwindigkeitskonstanten für verschiedene Reaktionen bestimmt werden. Niobcluster wurden mit diversen Heteroaromaten (Pyrrol, Furan, Thiophen) und Kohlenstoffmonoxid umgesetzt. Ebenso wie bei der Reaktion von Tantalanionenclustern mit Kohlenstoffmonoxid wurde bei den Niobanionenclustern ein dunkler Reaktionskanal (vermutlich die Eliminierung eines e-) für bestimmte Clustergrößen beobachtet. Zusätzlich zur Bestimmung der relativen Geschwindigkeitskonstanten wurde eine Ablöserate für ein e- in Abhängigkeit von der Niobclustergröße bestimmt. Vanadiumcluster Vn+ und VnO+/- wurden mit dem aromatischen System Benzol umgesetzt. Unabhängig von der Clustergröße zeigten sowohl die Cluster als auch die Oxide die vollständige Dehydrierung des Benzols als einzigen Reaktionskanal. Des Weiteren wurden die Reaktionen von Vn+, Con+/- und Tan+/- mit Acetonitril untersucht. Dabei wurden sehr komplexe Reaktionspfade beobachtet, als Hauptreaktionsweg konnte die paarweise Abspaltung von Wasserstoffatomen identifiziert werden. Tantalcluster Tan+/- wurden systematisch mit Methan, Benzol und Benzolderivaten untersucht. Der Haupttrend bei den Untersuchungen der Benzolderivate lag darin, dass je größer der Cluster wurde, desto größer wurde auch die Dehydrierung der untersuchten Systeme. Die zugeführte Energie reicht bei großen Tantalclustern aus, die Aktivierungsbarriere hin zur vollständigen Dehydrierung zu überwinden. Kleinere Cluster sind dazu nicht in der Lage. Des Weiteren werden IRMPD-Spektren an CLIO (Orsay/Paris) für protonierte und deprotonierte Adipinsäure und für das protonierte Dimer von Carnosin und für einen Carnosin-Zink-Komplex vorgestellt und mit vorhandenen theoretischen Rechnungen verglichen.
Die sterischen Eigenschaften des makrozyklischen Liganden L-N4tBu2 verhindern in der Reaktion des Komplexes [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) mit molekularem Sauerstoff die Bildung einer µ-Oxo-verbrückten Dieisen(III)-Spezies. Stattdessen entsteht in der Reaktion mit Sauerstoff in wässrigen Lösungsmitteln zunächst der Eisen(III)-Komplex [Fe(L-N4tBu2)(O2CPh)(OH)](BPh4) (3). Dieser Komplex reagiert ebenfalls mit Sauerstoff. Es bildet sich in Acetonitril eine intensiv violett gefärbte Spezies mit einer starken Absorptionsbande im UV/Vis-Spektrum bei 560 nm. Leider ist es nicht gelungen, diese chromophore Verbindung zu isolieren. Allerdings gibt es Hinweise darauf, dass es sich bei dieser Verbindung um einen Eisen(III)-Phenolat-Komplex handelt. Es konnte gezeigt werden, dass der Komplex 3 mit elektronenarmen Phenolen stabile Eisen(III)-Phenolat-Komplexe bildet. Für den Fall des unsubstituierten Phenols ist es gelungen den Komplex [Fe(L-N4tBu2)(O2CPh)(OPh)](BPh4) (4) zu isolieren. Mit elektronenreichen Phenolen sind die sich bildenden Eisen(III)-Phenolat∙Komplexe nicht stabil. Es spalten sich Phenoxylradikale ab, die zu bekannten Kopplungsprodukten weiter reagieren. Am Eisenzentrum kommt es währenddessen zu einer Reduktion von Eisen(III) zu Eisen(II) und es entsteht ein Eisen(II)-Benzoat-Komplex. So konnte gezeigt werden, dass der Eisen(III)-Hydroxo-Komplex 3a die aktive Spezies in der katalytischen Umsetzung von elektronenreichen Phenolen mit dem Komplex [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) und Sauerstoff darstellt. Neben den Phenolen gelang es auch eine ganze Reihe von p-Hydrobenzochinonen erfolgreich zu oxidieren. Es ist zwar nicht gelungen durch die Verwendung von [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) als Katalysator für Oxidation des 2-Hydroxy-5-tert.-butyl-p-hydrobenzochinon zum 2-Hydroxy-5-tert.-butyl-p-benzochinon eine Erhöhung der Ausbeute oder der Reaktionsgeschwindigkeit im Rahmen des von Klinman vorgestellten Modellsystem für die Reaktion von Topachinon- abhängigen Aminoxidasen zu erzielen, aber es konnte gezeigt werden, dass durch den Einsatz von 1 auch andere Chinone in der Lage sind Benzylamin zu Benzaldehyd zu oxidieren. Hier hilft der Komplex 1 die Regeneration des Chinons durch Sauerstoff zu beschleunigen. Somit stehen weitere Modellsysteme für die Chinon-abhängigen Aminoxidasen zur Verfügung. Mit der Synthese der beiden Komplexe [Fe(L-N4Me2)(BF)(MeOH)](BPh4) (8) und [Fe(L-N4tBu2)(BF)](BPh4) (5) gelang die Herstellung und Charakterisierung zweier Eisen(II)-α-Ketocarboxylat-Komplexe mit dem Makrozyklus L-N4R2. Die Reaktion der beiden Komplexe mit molekularem Sauerstoff hat gezeigt, dass das Einführen von sperrigeren Substituenten an den Aminstickstoffen des Makrozyklus dazuführt, das im Komplex 5 die Ausbildung einer µ-Oxo-verbrückten Spezies unterbleibt, wie sie für den Komplex 8 beobachtet wird. Ein weiterer Unterschied liegt darin, dass für den Komplex 8 nach der Bildung einer µ-Oxo-Brücke in den resultierenden Verbindungen 10a und 11a keine Decarboxylierung des Benzoylformiat-Liganden beobachtet werden kann. Im Gegensatz dazu können für den Komplex 5 zwei unterschiedliche Mechanismen einer oxidativen Decarboxylierung beobachtet werden. Einmal vermittelt durch einen Elektronentransfer zwischen zwei Eisen(III)-Zentren und zum anderen durch molekularen Sauerstoff vermittelt. Für den Komplex 5 konnte eine stöchiometrische wie auch katalytische Oxidation von Phenolen beobachtet werden. Allerdings war es nicht möglich den Mechanismus dieser Reaktion eindeutig zu bestimmen. Mit großer Wahrscheinlichkeit ist die aktive Spezies in Analogie zur Reaktionsweise des Komplexes 1 eine Eisen(III)-Hydroxo-Verbindung. Bedingt durch die beobachtete oxidative Decarboxylierung mit Hilfe von molekularem Sauerstoff kann allerdings auch der Weg über eine Eisen(IV)-Spezies nicht völlig ausgeschlossen werden.
Die Arbeit beschäftigt sich mit der Bestimmung der Zwangsbeanspruchungen und mit den daraus resultierenden Verformungen auf geotechnische Bauwerke infolge Quellen von teilgesättigten, bindigen Böden. Zur Ermittlung eines Quellgesetzes zur Beschreibung dieses Volumenänderungsverhaltens wurden zwei spezielle Oedometergeräte entwickelt. Mittels eines modifizierten Oedometers können radiale und axiale Quelldrücke getrennt voneinander gemessen sowie axiale Dehnungen zugelassen werden. Die axialen Spannungen werden über eine Kraftmessdose ermittelt während die radialen über Dehnungsmessstreifen, die an der Außenfläche des Oedometerringes befestigt sind, bestimmt werden. Mit Hilfe dieser Dehnungsmessstreifen wird die Radialverformung des Ringes gemessen. Daraus wird die Ringkraft und somit der Radialdruck, der auf der Probe wirkt, ermittelt. Ein anderes Oedometergerät, welches bis auf den Oedometerring baugleich zu dem bereits erwähnten ist, wurde speziell für die vorliegende Problematik entwickelt. In der Innenseite des Oedometerringes ist eine Membran angebracht, über die kontrolliert Radialdrücke erzeugt und gemessen werden können. Der Raum zwischen dem Ring und der Membran ist mit einem Fluid gefüllt. Durch Regulierung des im Reservoir befindlichen Fluidvolumens kann die Radialdehnung gesteuert werden. Somit ist dieses modifizierte Oedometergerät mit einem triaxialen Apparat vergleichbar. Es wurden umfangreiche Untersuchungen in den o. g. Geräten an einem quellfähigen Boden durchgeführt. Dabei wurden der Anfangs- und der Endsättigungsgrad sowie die Porenzahl variiert. Aus den Versuchen ergab sich, dass das Quellverhalten als nichtlinear elastisch angesehen werden kann. Anhand dieser Ergebnisse sind Approximationen für das eindimensionale sowie das dreidimensionale Quellverhalten aufgestellt und in den FEM - Code ABAQUS mittels einer Subroutine implementiert worden. In der numerischen Simulation werden die elastischen Quelldeformationen mit den mechanischen Deformationen aus äußerer Belastung und Eigengewicht überlagert. Für die mechanische Beanspruchung ist eine linear elastische - ideal plastische Spannungsdehnungsbeziehung angenommen mit einer Grenzfunktion nach Drucker - Prager. Es ist bekannt, dass dieses Materialgesetz nur bedingt geeignet ist zur Beschreibung des Materialverhaltens teilgesättigter, bindiger Böden. Es ist jedoch relativ einfach zu handhaben und adäquat genug um zu demonstrieren, dass die implementierten Quellbeziehungen miteinem Großteil der existierenden mechanischen Spannungsdehnungsbeziehungen verwendet werden können. Zur Überprüfung der Güte der in ABAQUS eingegebenen und implementierten Beziehungen werden exemplarisch verschiedene experimentelle Ergebnisse nachgerechnet und mit den Simulationen verglichen. Die Rückrechnung der entwickelten Zusammenhänge zeigt, dass die Variation des Quellmoduls für alle variierten Parameterwerte zu einer sehr guten Übereinstimmung in den Ergebnissen führt. Abschließend wird anhand eines praxisorientierten Berechnungsbeispiels aus der Geotechnik bestehend aus einer Pfahl-Platten Einheit die Anwendungsmöglichkeit des aufgestellten und implementierten Quellmodells für die Praxis dargestellt.
In der vorliegenden Arbeit wurden das quasistatische und das Ermüdungsverhalten von wirrfaserverstärktem Thermoplast mit Endlosfasern (D-LFT) und von gewebeverstärktem Thermoplast untersucht. Hierbei wurden ortsaufgelöste Verfahren der Deformationsanalyse, schwerpunktsmäßig die Ortsaufgelöste Hysteresismessung und ergänzend die Thermoelastische Spannungsanalyse, eingesetzt. Zur genauen Erfassung des Zerrüttungsvorgangs war in einer vorangegangenen Arbeit die Messgenauigkeit der Hysteresismessung deutlich verbessert worden, und es konnte auf diese sehr wichtigen Vorleistungen zurückgegriffen werden. Zur Gefügeanalyse wurden Röntgengrobstrukturuntersuchungen, Ultraschall- und REM-Untersuchungen durchgeführt. Bei der Untersuchung der quasistatischen Eigenschaften von D-LFT gibt die ortsaufgelöste Dehnungsanalyse wichtige Hinweise zum Werkstoffverhalten. Das Versagen tritt an der Stelle mit dem geringsten E-Modul auf. Die Festigkeitswerte zeigen relativ starke Streuungen aufgrund der Inhomogenität des Gefüges. Bei lokal-dehnungsorientierter Betrachtung tritt eine wesentlich geringere Streuung der Kennwerte auf. Die Bruchdehnung liegt in Abhängigkeit von Fasergehalt und Entnahmerichtung im Mittel zwischen 2,2 und 2,8 %. Dieser Befund der geringen Streuung der lokalen Bruchdehnung ist trotz der deutlichen Unterschiede der Strukturparameter und unterschiedlichen Fasergehalte bemerkenswert. Dieses interessante Charakteristikum des Werkstoffs macht das robuste Verhalten bei mechanischer Belastung von D-LFT-Bauteilen verständlich. Die starken Schwankungen der Festigkeit wirken sich auch beim Ermüdungsverhalten aus. Nur durch geeignete Voruntersuchungen, die sich auf das dehnungsorientierte Materialverhalten stützten, konnte der Prüfaufwand in einem vertretbaren Rahmen gehalten werden. Die mechanisch-dynamischen Kennwerte zeigen bei Ermüdungsbelastung eine mäßige Dämpfungszunahme und eine geringe Steifigkeitsabnahme, verbunden mit einer starken Kriechneigung. Für die Analyse der beiden letzteren Effekte ist eine dehnungsorientierte Betrachtung hilfreich. Die Steifigkeitsabnahme wird durch die Kenngröße der Ausschlagsdehnung ersetzt und kann dann unmittelbar mit dem Kriechen, das durch die Mitteldehnung beschrieben wird, verglichen werden. Wie beim Zugversuch konnte auch beim Ermüdungsversuch eine dehnungsorientierte Analyse des Ermüdungsvorgangs durchgeführt werden. Diese führt zu einem Totaldehnungswöhlerdiagramm, in dem die Wöhlerlinien für Belastung senkrecht und quer zur Faserorientierung nahezu zusammenfallen. Es kann daher von einem maximalen Totaldehnungskriterium des Versagens ausgegangen werden. Der anisotrope, gewebeverstärkte Thermoplast wird statischen und dynamischen Zug- und Druckbelastungen unterworfen. Ergänzende Gefügeuntersuchungen ergeben leider keinen Zusammenhang zwischen der lokalen Kennwerteigenschaft und dem Gefügezustand, was auf den komplexen Aufbau (Wirrfasermittelschicht, beide Randschichten gewebeverstärkt) zurückzuführen ist. Die Werkstoffcharakterisierung an gewebeverstärktem Thermoplast wird bei zwei Chargen unter Zug-, und Druckschwellbelastung untersucht. Bei quasistatischer und dynamischer Belastung tritt das Versagen zumeist an der Stelle mit der geringsten lokalen Steifigkeit auf. Das mechanische Verhalten wird durch die anisotropen Eigenschaften stark bestimmt. Bei Zugschwellbelastung werden Kriechen und Steifigkeitsabnahme beobachtet, wobei bei senkrechter Belastung das Kriechen relativ stärker und die Steifigkeitsabnahme relativ schwächer ausfällt. Die Dämpfungszunahme bei der Ermüdungsbelastung ist z. T. intensiv. Insbesondere bei Charge 1 wird aufgrund von Haftungsschwächen bzw. Lunkern ein intensiver Dämpfungsanstieg mit der Lastspielzahl beobachtet. Bei Druckschwellbelastung sind Steifigkeitsabnahme und Kriechen geringer. Als Schadensphänomen wird vielfach ein spontanes Abscheren der Probe beobachtet. Ähnlich wie bei D-LFT führt eine totaldehnungsorientierte Betrachtung zu einem vergleichbaren Verlauf der Totaldehnungswöhlerdiagramme bei paralleler und senkrechter Belastung, während die Diagramme bei spannungsorientierter Betrachtung weit auseinander liegen. Das Verhalten von Ausschlags- und Mitteldehnung quantifiziert in Kenngrößen (mit gleichen physikalischen Einheiten) das Ermüdungsgeschehen hinsichtlich Steifigkeitsabnahme und Kriechen. Allerdings zeigt der Verlauf der Kenngrößen über der Lastspielzahl keine systematische Tendenz hinsichtlich des Einflusses der Spannungsamplitude, was auf Werkstoffinhomogenitäten zurückgeführt wird. Zur weiteren Auswertung wird daher eine Relativbetrachtung angestellt und hierfür der Wert von strain max / strain middle ermittelt. Durch diese Kennwertbildung wird die Streuung bezüglich des Spannungseinflusses deutlich reduziert, und es kann ein Tendenzverlauf der Messwerte in Abhängigkeit von der Spannungsamplitude angegeben werden.
This thesis covers two important fields in financial mathematics, namely the continuous time portfolio optimisation and credit risk modelling. We analyse optimisation problems of portfolios of Call and Put options on the stock and/or the zero coupon bond issued by a firm with default risk. We use the martingale approach for dynamic optimisation problems. Our findings show that the riskier the option gets, the less proportion of his wealth the investor allocates to the risky asset. Further, we analyse the Credit Default Swap (CDS) market quotes on the Eurobonds issued by Turkish sovereign for building the term structure of the sovereign credit risk. Two methods are introduced and compared for bootstrapping the risk-neutral probabilities of default (PD) in an intensity based (or reduced form) credit risk modelling approach. We compare the market-implied PDs with the actual PDs reported by credit rating agencies based on historical experience. Our results highlight the market price of the sovereign credit risk depending on the assigned rating category in the sampling period. Finally, we find an optimal leverage strategy for delivering the payments promised by a Constant Proportion Debt Obligation (CPDO). The problem is solved via the introduction and explicit solution of a stochastic control problem by transforming the related Hamilton-Jacobi-Bellman Equation into its dual. Contrary to the industry practise, the optimal leverage function we derive is a non-linear function of the CPDO asset value. The simulations show promising behaviour of the optimal leverage function compared with the one popular among practitioners.
Zur Entwicklung von technischen Benutzungsoberflächen in der Investitionsgüterindustrie ist ein systematischer und durchgängiger Prozess essentiell, der in den einzelnen Prozessphasen besonders eine Nutzerorientierung unterstützt. Dieser Prozess bereitete bisher die Grundlage, um generell nutzerorientierte Benutzungsoberflächen zu entwickeln. Aus diesem Prozess resultiert eine Benutzungsoberfläche, welches spezielle Aufgaben unterschiedlicher Nutzer berücksichtigt. Es entsteht eine Benutzungsoberfläche für viele Nutzer. Die Unterschiedlichkeit der Nutzer findet keine explizite Umsetzung durch persönliche Präferenzen. Durch die steigende Informationsflut werden Nutzer aber in Zukunft überfordert werden. Daher kann bei Berücksichtigung dieser Präferenzen eine höhere Nutzerorientierung, eine Steigerung der Usability und eine Erhöhung der Bedieneffizienz von Nutzern erzielt werden. Zur Erreichung dieser Ziele ist eine umfassende Darstellung dieser Präferenzen notwendig. Sie unterteilen sich einerseits in Nutzereigenschaften, die zur Charakterisierung der Nutzer und Vereinfachung der nutzerspezifischen Datenerfassung dienen. Andererseits werden Präferenzen bezüglich der Entwicklung technischer Benutzungsoberflächen erhoben, um personalisierte Benutzungsoberflächen zu generieren. Diese allgemeine Darstellung muss in einzelnen Branchen konkretisiert werden. Diese Konkretisierung wird meist durch eine Untermenge der allgemeinen Darstellung umgesetzt. Für die Produktionsumgebung zeigt sich zum einen, dass sehr unterschiedliche Präferenzen hinsichtlich der Gestaltungsmerkmale existieren. Daher bestehen in dieser Branche nur vereinzelt Zusammenhänge zwischen Gestaltungsmerkmalen und weiteren Nutzereigenschaften. Zum anderen korrelieren die strukturellen Nutzerpräferenzen mit vielen verschiedenen Nutzereigenschaften. Auf Basis dieser Personalisierungsmerkmale entstehen Q-Personas nach [Coo99] für die Produktions-umgebung, die in sich homogene, aber untereinander heterogene Personalisierungsmerk-malsausprägungen aufweisen. Nutzer in der Produktionsumgebung können aufgrund der Beschreibungen der Q-Personas diesen zugeordnet werden. Eine Eigenschafts- und Präferenzmatrix dient dabei als Hilfsmittel zum Vergleich der Nutzercharakterisierung mit signifikanten Q-Personamerkmale. Die QPersonabeschreibungen bilden die Grundlage zur Entwicklung personalisierte Systeme. Diese Systeme dienen zum einen der Überprüfung der Auswirkungen der Personalisierung technischer Systeme auf die Benutzung. Zum anderen werden sie zur Überprüfung der Übertragbarkeit der entwickelten Q-Personas auf andere produktionstechnische Systeme als diejenigen, anhand derer die Q-Personas entwickelt wurden, verwendet. Die erste Untersuchung hierzu zeigt die Möglichkeit einer einfachen und schnellen Zuordnung von Nutzern zu Q-Personas. Die Ergebnisse beider Untersuchungen bestätigen deutliche Vorteile von personalisierten Systemen gegenüber neutralen, die hauptsächlich durch die Strukturierung erreicht werden. Diese zeigen sich in einer schnellen Aufgabenbearbeitung, weniger Fehlern, einer gesteigerten Zufriedenheit und einem erhöhten Wohlbefinden von Nutzern im Umgang mit ihrem personalisierten System. Die Gestaltung wirkt sich vergleichsweise gering auf die Bewertung aus. Die zweite Untersuchung berücksichtigt andere Systeminhalte. Dadurch zeigt sich die Übertragbarkeit der Personalisierung, indem eine problemlose Kompatibilität der entwickelten Q-Personas für dieses System möglich ist. Zur systematischen und effizienten Entwicklung von personalisierten technischen Benutzungsoberflächen ist eine Verbindung der Personalisierung mit dem Useware-Entwicklungsprozess unumgänglich. Alle Prozessphasen erfahren unterschiedliche Anpassungen, Erweiterungen und Änderungen. In der Analysephase ist eine Erweiterung des Anforderungskatalogs zur Erfassung der auftretenden Q-Personas notwendig. Die Auswertung in der Analysephase umfasst zusätzlich die Überprüfung, welche Q-Personas sich unter den Nutzern befinden. Als Ergebnis entstehen q-personabasierte Aufgabenmodelle. Die Strukturgestaltungsphase erfordert eine Erweiterung hinsichtlich der Attributierung der strukturierten Handlungen, Tätigkeiten und Operationen. Die generell gewünschte Strukturierungsart wird definiert. Verknüpfungen zwischen den einzelnen Objekten werden anhand der Aufgabenmodelle der Analysephase festgelegt. In der Gestaltungsphase werden aufgrund der in der Analysephase erhobenen Q-Personas unterschiedlich personalisierte Benutzungsoberflächen entwickelt, die die in der Strukturgestaltungs-phase entwickelte Struktur und ihre neue Attributierung umsetzen. Durch diese marginalen Erweiterung und Änderungen am Useware-Entwicklungsprozess entstehen auf effiziente Weise statt einer ursprünglichen nutzerorientierten Benutzungsoberfläche mehrere personalisierte Benutzungsoberflächen.
The desire to model in ever increasing detail geometrical and physical features has lead to a steady increase in the number of points used in field solvers. While many solvers have been ported to parallel machines, grid generators have left behind. Sequential generation of meshes of large size is extremely problematic both in terms of time and memory requirements. Therefore, the need for developing parallel mesh generation technique is well justified. In this work a novel algorithm is presented for automatic parallel generation of tetrahedral computational meshes based on geometrical domain decomposition. It has a potential to remove this bottleneck. Different domain decomposition approaches and criteria have been investigated. Questions regarding time and memory consumption, efficiency of computations and quality of generated surface and volume meshes have been considered. As a result of the work parTgen (partitioner and parallel tetrahedral mesh generator) software package based on the developed algorithm has been created. Several real-life examples of relatively complex structures involving large meshes (of order 10^7-10^8 elements) are given. It has been shown that high mesh quality is achieved. Memory and time consumption are reduced significantly, and parallel algorithm is efficient.
We develop a framework for analyzing an executive’s own-company stockholding and work effort preferences. The executive, characterized by risk aversion and work effectiveness parameters, invests his personal wealth without constraint in the financial market, including the stock of his own company whose value he can directly influence with work effort. The executive’s utility-maximizing personal investment and work effort strategy is derived in closed-form, and an indifference utility rationale is demonstrated to determine his required compensation. Our results have implications for the practical and theoretical assessment of executive quality and the benefits of performance contracting. Assuming knowledge of the company’s non-systematic risk, our executive’s unconstrained own-company investment identifies his work effectiveness (i.e. quality), and also reflects work effort that establishes a base-level that performance contracting should seek to exceed.
An optimal control problem for a mathematical model of a melt spinning process is considered. Newtonian and non--Newtonian models are used to describe the rheology of the polymeric material, the fiber is made of. The extrusion velocity of the polymer at the spinneret as well as the velocity and temperature of the quench air serve as control variables. A constrained optimization problem is derived and the first--order optimality system is set up to obtain the adjoint equations. Numerical solutions are carried out using a steepest descent algorithm.
We present an optimal control approach for the isothermal film casting process with free surfaces described by averaged Navier-Stokes equations. We control the thickness of the film at the take-up point using the shape of the nozzle. The control goal consists in finding an even thickness profile. To achieve this goal, we minimize an appropriate cost functional. The resulting minimization problem is solved numerically by a steepest descent method. The gradient of the cost functional is approximated using the adjoint variables of the problem with fixed film width. Numerical simulations show the applicability of the proposed method.
This article focuses on the analytical analysis of the free energy in a realistic model for RNA secondary structures. In fact, the free energy in a stochastic model derived from a database of small and large subunit ribosomal RNA (SSU and LSU rRNA) data is studied. A common thermody-namic model for computing the free energy of a given RNA secondary structure, as well as stochastic context-free grammars and generating functions are used to derive the desired results. These results include asymptotics for the expected free energy and for the corresponding variance of a random RNA secondary structure. The quality of our model is judged by comparing the derived results to the used database of SSU and LSU rRNA data. At the end of this article, it is discussed how our results could be used to help on identifying good predictions of RNA secondary structure.
This paper provides a brief overview of two linear inverse problems concerned with the determination of the Earth’s interior: inverse gravimetry and normal mode tomography. Moreover, a vector spline method is proposed for a combined solution of both problems. This method uses localised basis functions, which are based on reproducing kernels, and is related to approaches which have been successfully applied to the inverse gravimetric problem and the seismic traveltime tomography separately.
On Abstract Shapes of RNA
(2008)
As any RNA sequence can be folded in many different ways, there are lots of different possible secondary structures for a given sequence. Most computational prediction methods based on free energy minimization compute a number of suboptimal foldings and we have to identify the native structures among all these possible secondary structures. For this reason, much effort has been made to develop approaches for identifying good predictions of RNA secondary structure. Using the abstract shapes approach as introduced by Giegerich et al., each class of similar secondary structures is represented by one shape and the native structures can be found among the top shape representatives. In this article, we derive some interesting results answering enumeration problems for abstract shapes and secondary structures of RNA. We start by computing symptotical representations for the number of shape representations of length n. Our main goal is to find out how much the search space can be reduced by using the concept of abstract shapes. To reach this goal, we analyze the number of secondary structures and shapes compatible with an RNA sequence of length n under the assumption that base pairing is allowed between arbitrary pairs of bases analytically and compare their exponential growths. Additionally, we analyze the number of secondary structures compatible with an RNA sequence of length n under the assumptions that base pairing is allowed only between certain pairs of bases and that the structures meet some appropriate conditions. The exponential growth factors of the resulting asymptotics are compared to the corresponding experimentally obtained value as given by Giegerich et al.
A modular level set algorithm is developed to study the interface and its movement for free moving boundary problems. The algorithm is divided into three basic modules : initialization, propagation and contouring. Initialization is the process of finding the signed distance function from closed objects. We discuss here, a methodology to find an accurate signed distance function from a closed, simply connected surface discretized by triangulation. We compute the signed distance function using the direct method and it is stored efficiently in the neighborhood of the interface by a narrow band level set method. A novel approach is employed to determine the correct sign of the distance function at convex-concave junctions of the surface. The accuracy and convergence of the method with respect to the surface resolution is studied. It is shown that the efficient organization of surface and narrow band data structures enables the solution of large industrial problems. We also compare the accuracy of the signed distance function by direct approach with Fast Marching Method (FMM). It is found that the direct approach is more accurate than FMM. Contouring is performed through a variant of the marching cube algorithm used for the isosurface construction from volumetric data sets. The algorithm is designed to keep foreground and background information consistent, contrary to the neutrality principle followed for surface rendering in computer graphics. The algorithm ensures that the isosurface triangulation is closed, non-degenerate and non-ambiguous. The constructed triangulation has desirable properties required for the generation of good volume meshes. These volume meshes are used in the boundary element method for the study of linear electrostatics. For estimating surface properties like interface position, normal and curvature accurately from a discrete level set function, a method based on higher order weighted least squares is developed. It is found that least squares approach is more accurate than finite difference approximation. Furthermore, the method of least squares requires a more compact stencil than those of finite difference schemes. The accuracy and convergence of the method depends on the surface resolution and the discrete mesh width. This approach is used in propagation for the study of mean curvature flow and bubble dynamics. The advantage of this approach is that the curvature is not discretized explicitly on the grid and is estimated on the interface. The method of constant velocity extension is employed for the propagation of the interface. With least squares approach, the mean curvature flow has considerable reduction in mass loss compared to finite difference techniques. In the bubble dynamics, the modules are used for the study of a bubble under the influence of surface tension forces to validate Young-Laplace law. It is found that the order of curvature estimation plays a crucial role for calculating accurate pressure difference between inside and outside of the bubble. Further, we study the coalescence of two bubbles under surface tension force. The application of these modules to various industrial problems is discussed.
Noughts and Crosses
(2008)
The Comparative Manifesto Project (CMP) dataset is the only dataset providing information about the positions of parties for comparative researchers across time and countries. This article evaluates its structure and finds a peculiarity: A high number of zeros and their unequal distribution across items, countries and time. They influence the results of any procedure to build a scale, but especially those using factor analyses. The article shows that zeroes have different meanings: Firstly, there are substantial zeroes in line with saliency theory. Secondly, zeroes exist for non-substantial reasons: The length of a manifesto and the percentage of uncoded sentences, both strongly varying across time and country. We quantify the problem and propose a procedure to identify data points containing non-substantial zeroes. For the future comparative use of the dataset we plead for a theoretical selection of items combined with the information about the likelihood that zeroes are substantially meaningful.
In many medical, financial, industrial, e.t.c. applications of statistics, the model parameters may undergo changes at unknown moment of time. In this thesis, we consider change point analysis in a regression setting for dichotomous responses, i.e. they can be modeled as Bernoulli or 0-1 variables. Applications are widespread including credit scoring in financial statistics and dose-response relations in biometry. The model parameters are estimated using neural network method. We show that the parameter estimates are identifiable up to a given family of transformations and derive the consistency and asymptotic normality of the network parameter estimates using the results in Franke and Neumann Franke Neumann (2000). We use a neural network based likelihood ratio test statistic to detect a change point in a given set of data and derive the limit distribution of the estimator using the results in Gombay and Horvath (1994,1996) under the assumption that the model is properly specified. For the misspecified case, we develop a scaled test statistic for the case of one-dimensional parameter. Through simulation, we show that the sample size, change point location and the size of change influence change point detection. In this work, the maximum likelihood estimation method is used to estimate a change point when it has been detected. Through simulation, we show that change point estimation is influenced by the sample size, change point location and the size of change. We present two methods for determining the change point confidence intervals: Profile log-likelihood ratio and Percentile bootstrap methods. Through simulation, the Percentile bootstrap method is shown to be superior to profile log-likelihood ratio method.
Structuring global supply chain networks is a complex decision-making process. The typical inputs to such a process consist of a set of customer zones to serve, a set of products to be manufactured and distributed, demand projections for the different customer zones, and information about future conditions, costs (e.g. for production and transportation) and resources (e.g. capacities, available raw materials). Given the above inputs, companies have to decide where to locate new service facilities (e.g. plants, warehouses), how to allocate procurement and production activities to the variousmanufacturing facilities, and how to manage the transportation of products through the supply chain network in order to satisfy customer demands. We propose a mathematical modelling framework capturing many practical aspects of network design problems simultaneously. For problems of reasonable size we report on computational experience with standard mathematical programming software. The discussion is extended with other decisions required by many real-life applications in strategic supply chain planning. In particular, the multi-period nature of some decisions is addressed by a more comprehensivemodel, which is solved by a specially tailored heuristic approach. The numerical results suggest that the solution procedure can identify high quality solutions within reasonable computational time.
In this paper, we are going to propose the first mathematical model for Multi- Period Hub Location Problems (MPHLP). We apply this mixed integer program- ming model on public transport planning and call it Multi-Period Hub Location Problem for Public Transport (MPHLPPT). In fact, HLPPT model proposed earlier by the authors is extended to include more facts and features of the real-life application. In order to solve instances of this problem where existing standard solvers fail, a solution approach based on a greedy neighborhood search is developed. The computational results substantiate the efficiency of our solution approach to solve instances of MPHLPPT.
Diese Arbeit beschäftigte sich mit der Modulation oxidativer Zellschäden bei Hämodialysepatienten durch Pro- und Antioxidantien. Im ersten Teil wurden die prooxidativen Auswirkungen der drei zur intravenösen Applikation bestimmten Eisenmedikamente Ferrlecit® (Glukonat) [ältestes Medikament], Venofer® (Saccharat), CosmoFer® (Dextran) in vitro sowie die Modulation des oxidativen Stress durch eine Ferrlecit®-Gabe bei HD-Patienten bestimmt. Die Bestimmungen der DNA-Schäden mittels Comet Assay und des LPO-Produkts Malondialdehyd mittels HPLC/Fluoreszenzdetektion zeigten in vitro bei U937-Zellen, isolierten humanen Lymphozyten und ex vivo bei humanem Vollblut ein im Vergleich zu Ferrlecit® und Venofer® deutlich geringeres Schädigungspotential von CosmoFer®. Der Dextran-Komplex (höchste Komplexstabilität) scheint gegenüber den Glukonat- und Saccharat-Komplexen verträglicher zu sein und sollte in Zukunft bevorzugt bei der Anämie-Behandlung eingesetzt werden. Die Ergebnisse der Untersuchungen des oxidativen Stress bei mit Ferrlecit® behandelten HD-Patienten zeigen deutliche Anstiege bei den DNA-Schäden und der LPO zu allen Messzeitpunkten nach Ende der Eisengabe und somit auch die Relevanz der erhaltenen in vitro Daten für die Belastungssituation in vivo. Die Abstufungen im Schädigungspotential, die bei den in vitro Tests erhalten wurden, decken sich auch mit den Untersuchungen von Pai et al. bei HD-Patienten, bei denen sich für das Ausmaß der Schädigung die Rangfolge Fe-Glukonat > Fe-Saccharat > Fe-Dextran ergab [Pai et al., 2007]. Im zweiten Teil dieser Arbeit wurde das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil in einer humanen Interventionsstudie mit Biomarkern der oxidativen Zellschädigung, des oxidativen Status der Zelle und der Zellantwort charakterisiert. Ergänzend wurden Untersuchungen zur antioxidativen Kapazität vergleichbarer Fruchtsäfte durchgeführt. 21 HD-Patienten nahmen nach einer dreiwöchigen Run-in-Phase über vier Wochen täglich 200 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 31,1 mmol/L Trolox) auf. Anschließend folgte eine dreiwöchige Wash-out-Phase ohne Saftaufnahme. Wöchentlich wurde Blut entnommen und zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Malondialdehyd (LPO-Produkt), Proteinoxidation (Carbonyle) Glutathionspiegel/-status, DNA-Bindungsaktivität des Transkriptionsfaktors Nuclear Factor kappa B und antioxidative Kapazität (TEAC) sowie zur Erfassung der Harnsäure-, Triglycerid- und Anthocyankonzentrationen verwendet. Die Ergebnisse zeigten eine signifikante Abnahme der oxidativen DNA-Schäden (p< 0,0001), der MDA-Konzentration (p< 0,001) und des Carbonylgehaltes (p< 0,0001), eine Zunahme des tGSH-Spiegels und des Glutathionstatus (je p< 0,0001), ein Rückgang des GSSG-Spiegels (p< 0,0001) und der DNA-Bindungsaktivität von Nuclear Factor kappa B (p< 0,0001) während der 4-wöchigen Saftaufnahme im Vergleich zur 3-wöchigen Run-in-Phase. Ein leicht signifikanter Rückgang ergab sich für den Harnsäuregehalt (p< 0,05), der TEAC und die Triglyceridkonzentrationen dagegen wurde nicht beeinflusst. In der Wash-out-Phase zeigte sich, dass manche Messwerte direkt nach Ende der Saftaufnahme (GSSG, p< 0,0001; Proteincarbonyle, p< 0,0001) oder mit einer Woche Verspätung (DNA-Gesamtschäden, p< 0,0001) wieder anstiegen bzw. absanken (Glutathionspiegel/status, jeweils p< 0,0001), was für eine kurzzeitige Wirkung (< 1 Woche) spricht. Beim Malondialdehyd-Gehalt und der DNA-Bindungsaktivität von Nuclear Factor kappa B handelt es sich offensichtlich um eine längerfristig anhaltende protektive Wirkung, die Werte verändern sich im Vergleich zur Saftafnahme-Phase nur unwesentlich. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in einer Studie mit fast polyphenolfreiem Vergleichssaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte [Weisel et al., 2006]. Zusammenfassend konnte in dieser Arbeit das antioxidative Potential eines flavonoid/polyphenolreichen roten Mischfruchtsafts zur Verringerung oxidativer Zellschädigung bei Hämodialysepatienten eindeutig nachgewiesen werden. Der Konsum von antioxidativ wirksamen Fruchtsäften ist ein vielversprechender Präventions- und Therapieansatz für Patienten, die an Niereninsuffizienz und ROS-assoziierten Krankheiten leiden. Die Aufnahme natürlicher Antioxidantien mit der Nahrung über solche Säfte scheint eine Alternative zur chronischen Anwendung von hochdosierten Supplementen zu sein.
This dissertation deals with the optimization of the web formation in a spunbond process for the production of artificial fabrics. A mathematical model of the process is presented. Based on the model, two kind of attributes to be optimized are considered, those related with the quality of the fabric and those describing the stability of the production process. The problem falls in the multicriteria and decision making framework. The functions involved on the model of the process are non linear, non convex and non differentiable. A strategy in two steps; exploration and continuation, is proposed to approximate numerically the Pareto frontier and alternative methods are proposed to navigate the set and support the decision making process. The proposed strategy is applied to a particular production process and numerical results are presented.
This thesis shows an approach to combine the advantages of MBS tyre models and FEM models for the use in full vehicle simulations. The procedure proposed in this thesis aims to describe a nonlinear structure with a Finite Element approach combined with nonlinear model reduction methods. Unlike most model reduction methods - as the frequently used Craig-Bampton approach - the method of Proper Orthogonal Decomposition (POD) offers a projection basis suitable for nonlinear models. For the linear wave equation, the POD method is studied comparing two different choices of snapshot sets. Set 1 consists of deformation snapshots, and set 2 additionally contains velocities and accelerations. An error analysis proves no convergence guarantee for deformations only. For inclusion of derivatives it yields an error bound diminishing for small time steps. The numerical results show a better behaviour for the derivative snapshot method, as long as the sum of the left-over eigenvalues is significant. For the reduction of nonlinear systems - especially when using commercial software - it is necessary to decouple the reduced surrogate system from the full model. To achieve this, a lookup table approach is presented. It makes use of the preceding computation step with the full model necessary to set up the POD basis (training step). The nonlinear term of inner forces and the stiffness matrix are output and stored in a lookup table for the reduced system. Numerical examples include a nonlinear string in Matlab and an airspring computed in Abaqus. Both examples show that effort reductions of two orders of magnitude are possible within a reasonable error tolerance. The lookup approaches perform faster than the Trajectory Piecewise Linear (TPWL) method and produce comparable errors. Furthermore, the Abaqus example shows the influence of training excitation on the quality of the reduced model.
Minimum Cut Tree Games
(2008)
In this paper we introduce a cooperative game based on the minimum cut tree problem which is also known as multi-terminal maximum flow problem. Minimum cut tree games are shown to be totally balanced and a solution in their core can be obtained in polynomial time. This special core allocation is closely related to the solution of the original graph theoretical problem. We give an example showing that the game is not supermodular in general, however, it is for special cases and for some of those we give an explicit formula for the calculation of the Shapley value.
Open cell foams are a promising and versatile class of porous materials. Open metal foams serve as crash absorbers and catalysts, metal and ceramic foams are used for filtering, and open polymer foams are hidden in every-day-life items like mattresses or chairs. Due to their high porosity, classical 2d quantitative analysis can give only very limited information about the microstructure of open foams. On the other hand, micro computed tomography (μCT) yields high quality 3d images of open foams. Thus 3d imaging is the method of choice for open cell foams. In this report we summarise a variety of methods for the analysis of the resulting volume images of open foam structures developed or refined and applied at the Fraunhofer ITWM over a course of nearly ten years: The model based determination of mean characteristics like the mean cell volume or the mean strut thickness demanding only a simple binarisation as well as the image analytic cell reconstruction yielding empirical distributions of cell characteristics.
Die Herstellung duroplastischer Werkstoffe verlangt nicht nur eine präzise Kenntnis
des Materialverhaltens in Abhängigkeit der Prozessführung, sondern auch den
Einsatz geeigneter Analysemethoden zur Charakterisierung und Beurteilung des
Werkstoffes. Eine wesentliche Herausforderung bei der Vernetzung von Polymeren
stellen innere Spannungen dar, die durch chemischen Reaktionsschwund und
thermische Ausdehnung verursacht werden.
Ziel dieser Arbeit ist es, den Vernetzungsvorgang und die daraus resultierenden
Eigenschaften eines Epoxidharzes mit bestehenden materialwissenschaftlichen
Analyseverfahren zu charakterisieren und durch die Implementierung einer
neuartigen Dehnungsmesstechnik einen idealen thermischen Vernetzungsprozess
für einen spannungsminimierten Zustand zu definieren.
Den Untersuchungen liegt ein kommerzielles Epoxidharz (EP-Harz) auf der Basis
von anhydridgehärtetem Bisphenol A zugrunde. Es wurden sowohl das reine, d.h.
das ungefüllte Polymer, als auch ein mit Calciumsilikat und -carbonat gefülltes
System analysiert. Eine Materialcharakterisierung mit kalorimetrischen und
rheologischen Verfahren in Verbindung mit der Anpassung an reaktionskinetische
und chemorheologische Modelle liefert eine quantitative Beschreibung des
Vernetzungsvorganges sowohl des ungefüllten als auch des gefüllten EP-Harzes.
Die während der Vernetzung auftretenden Kräfte der beiden Harzsysteme wurden
mit Normalkraftmessungen erfasst und mathematisch erfolgreich modelliert. Das
Erweichungsverhalten sowie die (bruch)mechanischen Werte der Werkstoffe wurden
mit statischen und dynamischen mechanischen Analysen im unterschiedlich stark
vernetzten, festen Zustand geprüft. Maximale mechanische Eigenschaften werden
erst bei vollständiger Umsetzung erreicht.
Ein neuartiges Verfahren basierend auf einer faseroptischen Messsensorik wurde für
das gefüllte EP-Harz entwickelt und ermöglicht die Bestimmung reaktionsinduzierter
Dehnungen im vernetzenden Polymer. Fibre Bragg Grating (FBG)-Sensoren, die
direkt im Reaktionsharz eingebettet wurden, ermöglichen die Bestimmung von
charakteristischen Phasenübergängen während der chemischen Vernetzung, d.h.
Gelierung und Verglasung, ebenso wie die Erfassung des Ausdehnungsverhaltens
unter Temperatureinfluss. Die Ergebnisse zeigen exzellente Übereinstimmungen zu
den Daten aus etablierten Messverfahren wie Kalorimetrie, Rheologie, Volumendilatometrie
und thermisch-mechanischer Analyse. In umfangreichen Serien wurde
mithilfe der FBG-Technik der Einfluss verschiedener Phasen des thermischen Vernetzungsprozesses auf die reaktionsinduzierte Dehnungsentwicklung des EPHarzes
ermittelt.
Die erzielten Ergebnisse in Kombination mit ergänzenden Untersuchungen zum
Erweichungsverhalten sowie zur Eigenerwärmung durch exotherme Reaktion
erlauben die Definition eines idealisierten thermischen Prozesses mit dem Ziel einer
Minimierung innerer Spannungen im vernetzenden Werkstoff. Das ideal
spannungsoptimierte Härteprofil wird dadurch erzielt, dass bei zunächst moderater
Temperatur die Vernetzung in Gang gesetzt wird. Die anschließende Aufheizphase
auf Härtetemperatur startet noch im flüssigen Zustand und wird unter
Berücksichtigung von Exothermieeffekten so zügig durchgeführt, dass die Gelierung
des Materials bei möglichst hoher Temperatur stattfindet, idealerweise beim
maximalen Glasübergangspunkt Tg,∞. Erst nach einer vollständigen Vernetzung bei
entsprechend hoher Härtetemperatur tritt die Materialverglasung bei Unterschreitung
des Tg,∞ ein. Durch die gezielte Temperaturführung wird erreicht, dass die thermische
Ausdehnung gegenüber der chemischen Volumenreduktion dominiert und das
Auftreten von Zugkräften im vernetzenden Polymer unterbunden wird. Eine
frühzeitige Gelierung und besonders eine vorzeitige Verglasung während des
Vernetzungsprozesses hingegen verursachen bereits in einem niedrigen
Umsatzstadium Zugkräfte und Spannungen im Material, die sich in einem frühen
Materialversagen etwa in Form von Rissen äußern.
Die vorliegende Arbeit präsentiert durch die Implementierung des FBG-Verfahrens
nicht nur ein ausgezeichnetes Werkzeug für die Polymerentwicklung, sondern bietet
auch durch die überzeugenden faseroptischen Messergebnisse in Kombination mit
gängigen Analyseverfahren eine höchst effektive Strategie zur Erreichung eines
idealen Härteprozesses zur spannungsarmen Vernetzung von Epoxidharzen.
Today’s high-resolution digital images and videos require large amounts of storage space and transmission bandwidth. To cope with this, compression methods are necessary that reduce the required space while at the same time minimize visual artifacts. We propose a compression method based on a piecewise linear color interpolation induced by a triangulation of the image domain. We present methods to speed up significantly the optimization process for finding the triangulation. Furthermore, we extend the method to digital videos. Laser scanners to capture the surface of three-dimensional objects are widely used in industry nowadays, e.g., for reverse engineering or quality measurement. Hand-held scanning devices have the advantage that the laser device can be moved to any position, permitting a scan of complex objects. But operating a hand-held laser scanner is challenging. The operator has to keep track of the scanned regions in his mind, and has no feedback of the sample density unless he starts the surface reconstruction after finishing the scan. We present a system to support the operator by computing and rendering high-quality surface meshes of the captured data online, i.e., while he is still scanning, and in real time. Furthermore, it color-codes the rendered surface to reflect the surface quality. Thereby, instant feedback is provided, resulting in better scans in less time.
Die Resistenz solider Tumoren gegenüber der Behandlung mit Medikamenten oder Bestrahlung ist ein häufig auftretendes Phänomen. Insbesondere das Auftreten von Chemoresistenzen stellt ein großes Problem bei der Behandlung von Krebs dar. Aufgrund einer Unterversorgung des Gewebes kommt es in soliden Tumoren zur Bildung des so genannten ‚hypoxischen Kern’ (hypoxic core), welcher bei der Progression und Metastasierung des Tumors eine wichtige Rolle spielt. Es wird diskutiert, inwieweit Hypoxie an der Entstehung von Resistenzen gegenüber unterschiedlichen Therapieansätzen beteiligt ist. Das Ziel der Arbeit war es, die Fragestellung zu klären, ob Hypoxie vor Apoptose, ausgelöst durch Chemotherapeutika, schützt. Wenn sich diese Vermutung bestätigen sollte, sollten die zu Grunde liegenden Mechanismen dieser Chemoresistenz aufgeklärt werden. Es konnte festgestellt werden, dass es in A549 Zellen unter Hypoxie durch ein Zusammenspiel mehrerer unabhängiger Signalwege zum Schutz vor Etoposid-induzierter Apoptose kommt. Zum einen induziert Hypoxie die Stabilisierung und Aktivierung von HIF-1. Über einen intrazellulären Mechanismus, wahrscheinlich der Expression anti-apoptotischer Zielgene, kommt es zur Desensitivierung der Zellen gegenüber der Behandlung mit Etoposid. Des Weiteren konnte festgestellt werden, dass es unter Hypoxie unabhängig von HIF-1 zur Freisetzung von Schutzfaktoren kommt. Diese vermitteln über auto- oder parakrine Wege anti-apoptotische Signale. Hypoxie führte zu einer Akkumulation der Cyclooxygenase-2 (COX-2), welche maßgeblich an der Freisetzung des Schutzfaktors beteiligt ist. In diesem Zusammenhang wurde festgestellt, dass die Stimulation mit PGE2 zu einer erhöhten Resistenz von A549 Zellen gegenüber Etoposid-induzierter Apoptose führte. Es konnte weiterhin gezeigt werden, dass die basale Aktivität der Sphingosin-Kinasen für die Vitalität von A549 Zellen essenziell ist. Unter Hypoxie wurde darüber hinaus eine Aktivierung der Sphingosin-Kinase 2 (SphK2) festgestellt, wodurch eine vermehrte Synthese und Freisetzung von Sphingosin-1-phosphat (S1P) induziert wurde. Es kommt unter Hypoxie über zwei unabhängige Signalwege zur Freisetzung von PGE2 und S1P, welche in Zielzellen einen chemoresistenten Phänotyp induzieren. Die Übertragung des anti-apoptotischen Signals erfolgte über die Aktivierung der ERK1/2-Signalkaskade. Zusammengefasst konnte gezeigt werden, dass Hypoxie über die Aktivierung von HIF-1, COX-2 und SphK2 in A549 Zellen die Resistenz gegenüber Chemotherapeutika induziert. Hierbei sind neben intrazellulären Signalen auch auto- und parakrin wirkende Mechanismen beteiligt. Als Übermittler des übertragbaren anti-apoptotischen Signals konnten S1P und PGE2 identifiziert werden, die über die Aktivierung von ERK1/2 vor Apoptose schützen.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up
the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix systems
with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and
tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
The high demanded data throughput of data communication between units in the system can be covered by short-haul optical communication and high speed serial data communication. In these data communication schemes, the receiver has to extract the corresponding clock from serial data stream by a clock and data recovery circuit (CDR). Data transceiver nodes have their own local reference clocks for their data transmission and data processing units. The reference clocks are normally slightly different even if they are specified to have the same frequency. Therefore, the data communication transceivers always work in a plesiochronous condition, an operation with slightly different reference frequencies. The difference of the data rates is covered by an elastic buffer. In a data readout system in the experiment in particle physics, such as a particle detector, the data of analog-to-digital converters (ADCs) in all detector nodes are transmitted over the networks. The plesiochronous condition in these networks are non-preferable because it causes the difficulty in the time stamping, which is used to indicate the relative time between events. The separated clock distribution network is normally required to overcome this problem. If the existing data communication networks can support the clock distribution function, the system complexity can be largely reduced. The CDRs on all detector nodes have to operate without a local reference clock and provide the recovered clocks, which have sufficiently good quality, for using as the reference timing for their local data processing units. In this thesis, a low jitter clock and data recovery circuit for large synchronous networks is presented. It possesses a 2-loop topology. They are clock and data recovery loop and clock jitter filter loop. In CDR loop, the CDR with rotational frequency detector is applied to increase its frequency capture range, therefore the operation without local reference clock is possible. Its loop bandwidth can be freely adjusted to meet the specified jitter tolerance. The 1/4-rate time-interleaving architecture is used to reduce the operation frequency and optimize the power consumption. The clock-jitter-filter loop is applied to improve the jitter of the recovered clock. It uses a low jitter LC voltage controlled oscillator (VCO). The loop bandwidth of the clock-jitter-filter is minimized to suppress the jitter of the recovered clock. The 1/4-rate CDR with frequency detector and clock-jitter-filter with LC-VCO were implemented in 0.18µm CMOS Technology. Both circuits occupy an area of 1.61mm2 and consume 170mW from 1.8V supply. The CDR can cover data rate from 1 to 2Gb/s. Its loop bandwidth is configurable from 700kHz to 4MHz. Its jitter tolerance can comply to SONET standard. The clock-jitter-filter has the configurable input/output frequencies from 9.191 to 78.125MHz. Its loop bandwidth is adjustable from 100kHz to 3MHz. The high frequency clock is also available for a serial data transmitter. The CDR with clock-jitter-filter can generate clock with jitter of 4.2ps rms from the incoming serial data with inter-symbol-interference jitter of 150ps peak-to-peak.
Der stetige Fortschritt in der Fahrzeugakustik zeigt sich besonders in dem gewonnenen Komfort-eindruck, obwohl die Ausstattungsmöglichkeiten durch Nebenaggregate (Mechatroniksystemen) an Anzahl, Funktion und Leistung deutlich zugenommen haben. Besonders Fahrzeuge der Oberklasse weisen eine Vielzahl von „mechatronischen“ Systemen mit den unterschiedlichsten Aktuatoren auf. Als Beispiele seien hier genannt: die hydraulische Wankstabilsierung und Lenkhilfe, die pneumati-sche Niveauregulierung, das elektrohydraulische Bremsregelsystem, das Hochdruckeinspritzsystem der Kraftstoffanlage oder die Vielzahl der elektrischen Stellmotoren, z.B. im Fensterheberantrieb, in Lenksäulen- oder Sitzverstellungen, usw. Die Leistungs- und Medienversorgung durch Stromkabel, Luftkanäle, Kraftstoff-, Rohr- und Schlauchleitungen stellen durch deren Verbindungen der Aggregate zur Karosserie auch Körper-schallnebenwege dar. Hierbei werden neben dem Körperschalleintrag des Verbrennungsmotors auch die Funktionsgeräusche der Hilfsaggregate selbst in den Fahrzeuginnenraum übertragen. Auf-grund der Vielzahl der Mechatroniksysteme und damit verbundenen Schallnebenwege übersteigt der Geräuschbeitrag die klassischen Schallpfade, wie Motorlagerung und Antriebsstranglagerung. Die Reduktion der Geräuschemission von Nebenaggregaten besitzt heute die gleiche Bedeutung in der Fahrzeugentwicklung wie die klassischen Themen der Strukturdynamik, Antriebs- und Strö-mungsakustik. Eine besondere Bedeutung haben hierbei die Schlauchleitungen der hydraulischen Lenkung und Wankstabilisierung, der Kraftstoffversorgung und der Klimaanlage. Sie stellen durch ihre Verbin-dung von Motoraggregat (Pumpe, Kompressor) zu Karosserieaggregat (Lenkgetriebe, Ventilblock) eine Körperschallbrücke dar. Die konstruktive Gestaltung der Schlauchleitungen und die geometri-sche Verlegung im Fahrzeugbauraum haben einen gravierenden Einfluss auf die Geräuschübertra-gung. Eine kostengünstige und gewichtsreduzierte Konstruktion mit ausreichender Einfügedäm-mung ist nur durch präzise Konstruktionsabstimmung innerhalb der frühen Phase des Produktent-wicklungsprozesses möglich. In dieser Gestaltungsphase werden die Konstruktionskonzepte der einzelnen Baugruppen festgelegt. Dies geschieht überwiegend am „virtuellen“ Gesamtfahrzeugmo-dell. Die Absicherung der Konzeptstudien durch Messungen am Gesamtfahrzeug hinsichtlich der Grenzwerteinhaltung ist deshalb nicht möglich. Auch Erfahrungswerte sind zur Beantwortung spe-zifischer Fragestellungen bei Weitem nicht ausreichend, weshalb auf Komponentenversuche oder Simulationen zurückgegriffen werden muss. Die akustische Beurteilung bedingt hierbei allerdings eine Grenzwertableitung aus dem Gesamtfahrzeug zum Mechatroniksystem, bzw. sogar ein „Run-terbrechen“ auf die Ebene der Einzelkomponenten. Die Aufgabe dieser Arbeit war es, funktionale Abhängigkeiten der Körperschallübertragung von konstruktiven Auslegungen biegeschlaffer Schlauchleitungen nachzuweisen. Hierzu mussten für die Berechung die fehlenden dynamische Steifigkeiten der Schlauchwandung und des Systems Öl-Schlauchwand der im Fahrzeug verlegten Schlauchleitungen ermittelt werden. Die Vielzahl der Schlauchmaterialien wurde durch definierte Schlauchproben repräsentiert. Zur Bestimmung der kinematischen Kenngrößen wurden zunächst neue Prüfstandskonzepte entwickelt, welche Schlauchverlegungen unter den in Fahrzeugen herrschenden Randbedingungen zulassen. Nach mehreren Konzeptverbesserungen und Wirksamkeitsprüfungen wurde ein „Akustik-Schlauchprüfstand“ konstruiert und gebaut. Mit diesem „Akustik-Schlauchprüfstand“ können nun die Körperschallübertragungseigenschaften von viskoelastischen Schlauchmaterialien und elastischen Stahl- bzw. Wellrohren auch außerhalb des Gesamtfahrzeugaufbaues fahrzeugunabhängig ermittelt werden. Eine Berücksichtigung der Fahrzeugrandbedingungen erfolgt hierbei durch die äußeren Lasten in Form eines Betriebskennfel-des. Das Betriebskennfeld, gebildet durch die äußeren Lasten des Fluiddrucks und der Umgebungs-temperatur, wird durch den wesentlichen geometrischen Lastfall der Biegeverlegung in Abhängig-keit vom Biegeradius ergänzt. Das Verhalten der kinematischen Steifigkeiten im Betriebskennfeld gibt Aufschluss über die für den Konstrukteur wichtigen Beeinflussungsmöglichkeiten der akusti-schen Übertragungseigenschaften. Aufgrund der kinematischen Verhärtung von viskoelastischen Materialien müssen die System-kenngrößen ermittelt werden. Dies bedeutet z.B. für das Elastizitätsverhalten nicht, die Steife zu bestimmen, sondern deren akustische Wirkung als kinematische Steife im für die Fahrzeugakustik relevanten Frequenzbereich 100 Hz bis 1000 Hz. Aufgrund des meist vorherrschenden linearen Amplitudenverhaltens im Betriebspunkt kann zur Dämpfungsberücksichtigung auf das lineare Kel-vin-Voigt Modell zurückgegriffen werden. Eine Vereinfachung der mathematischen Formulierun-gen der System- und Materialeigenschaften bietet hierbei die zulässige Beschränkung auf reine harmonische Schwingungen und die Berücksichtigung der Dämpfung durch die Einführung der komplexen Steife bzw. des komplexen E-Moduls. Nach einem Überblick über vorangegangene Arbeiten (Kapitel 2) werden zunächst die akustischen Grundlagen zur Beschreibung der komplexen Kenngrößen, wie kinematische Steife und E-Modul der Schlauchproben, aufgezeigt. Das Phänomen der Kontinuumschwingungen des massebehafteten Schlauches und die Ausbildung der stehenden Körperschallwellen in ihrer modalen Ausprägung als Dehn-, Torsion und Biegewelle werden erläutert (Kapitel 3). Zur Verifizierung der Messergebnisse wurden versuchsbegleitend Berechnungsmodelle der Schlauchproben entwickelt. Basierend auf der Technik der akustischen „Mehrpolmatrizen“ lassen sich mit ausreichender Genauigkeit die Verteilung der Kraft- und des Körperschallschnellepegels längs der Schlauchprobe sowie deren modale Schwingformen beschreiben (Kapitel 4). Die Mög-lichkeit, einen druckbelasteten Hydraulikschlauch mit einem simulatorisch modifizierbaren Fluid im Betriebskennfeld abzubilden, ist besonders zum Verständnis des Masseverhaltens und der hyd-raulischen Steife von Ölen hilfreich. Inspiriert durch den Zweimassenschwingeraufbau als akustischem „Tonpilz“ wurde ein Prüfstand-konzept erarbeitet (Kapitel 5.1). Hierzu wurden Versuchseinrichtungen zum Aufprägen von Flu-iddruck und homogener Wärmebelastung bei einstellbarer Biegeverlegung der Schlauchproben in einer entsprechend konstruierten Wärmekammer entwickelt. Mit Hilfe einer Aufspannvorrichtung werden selektiv die Schwingmoden des Kontinuums der technisch wichtigen stehenden Dehn-, Torsion- und Biegewellen kraftangeregt. Die sich einstellenden Eigenresonanzlagen werden mess-technisch in allen Raumrichtungen zeitgleich erfasst. Speziell konstruierte Impedanzmessköpfe für die Erfassung der statischen und kinematischen Messwerte erreichen bis zur Grenzfrequenz von 2 kHz die für eine Wellenreflexion ausreichend hohe dynamische Masse am Probenanfang und -ende. Zentrales Thema der experimentellen Untersuchungen ist das Materialverhalten im Betriebskenn-feld (Kapitel 5.2). Mit Hilfe exakter Eigenfrequenz- und Eigenmodemessungen wird der komplexe kinematische E-Modul des Schlauchs als Systemgröße bestimmbar. Die Berücksichtigung eines anisotropen Elastizitätsverhaltens der Schlauchwandung gelingt durch hierfür abgeleitete Glei-chungen: Mittels Gleichsetzen der reduzierten Kompressionsmodule, beschrieben durch die Korte-weg-Gleichung und dem zu Grunde liegenden Schlauch-Öl Federmodell, ergibt sich die Dehnwel-lensteife der Schlauchwandung. Ergänzend zum Kinematikfaktor, welcher das Verhältnis der stati-schen zur kinematischen Materialsteife beschreibt, wird der „Isotropenfaktor“ zur Beschreibung der Richtungsabhängigkeit des E-Moduls eingeführt. Alle dominanten Einflüsse und akustischen Zusammenhänge der Materialeigenschaften und ihrer geometrischen Größen werden funktional beschrieben und die Auswirkungen auf die Körperschallübertragung diskutiert. Die Betrachtungs-weise der gebogenen Schlauchleitungen und die damit verbundene Veränderung der Wellenge-schwindigkeit relativ zu geraden Schlauchproben sowie die durch Biegeverlegung mögliche Kopp-lung von Dehn- und Biegewelle werden formal mit dem Biegeradius, der Schlauchlänge und der Anregekraft mathematisch verknüpft. Für die praktische Anwendung zur kinematischen Schlauchprobenbeschreibung erfolgt eine Ap-proximation an die akustischen Kenndaten in einem Standardversuch. Nach Linearisierung ihn den Hauptbetriebspunkten kann das Schlauchsystem kinematisch durch Kennzahlen beschrieben wer-den. Hierdurch ist eine Klassifizierung in Entwicklungslastenheften möglich. Aus den Versuchen ermittelte Faktoren und Exponenten bieten die Möglichkeit, durch Gleichungen die Abhängigkeit der Körperschallübertragung von Druckbelastung, Materialtemperatur und Schlauchbiegeradius zu berücksichtigen. Mit dem „Akustik-Schlauchprüfstand“ und den in dieser Arbeit beschrieben Berechnungsverfahren können nun fahrzeugunabhängig auf einem Komponentenprüfstand die Körperschallübertragungs-eigenschaften der viskoelastischen Schlauchmaterialien im Betriebskennfeld ermittelt werden. Es erschließt sich ein weiteres Potenzial der akustischen Verbesserung der Dämmungseigenschaften von Schläuchen aufgrund ermittelbarer kinematischer Kenngrößen. Eine akustischen Kriterien folgende Schlauchmaterialauswahl und die entsprechend definierte Biegeverlegung ist nun mög-lich. Weitere Untersuchungen sollten der Kopplung von Dehn- und Biegewelle, ergänzt durch eine Tor-sionswellenüberlagerung, gelten. Auch ist die Funktion der Eingangsimpedanzen des „halbunendli-chen“ Schlauches bei der Wellenformkopplung zu ergründen. Ein Ansatz könnte das Aufstellen einer „Wellenkopplungsfunktion“ in Abhängigkeit der Biegeverlegung und der entsprechenden Implementierung in eine „Mehrpolübertagungsmatrix“ sein.
Gegenstand dieser Arbeit ist die kanonische Verbindung klassischer globaler Schwerefeldmodellierung in der Konzeption von Stokes (1849) und Neumann (1887) und moderner lokaler Multiskalenberechnung mittels lokalkompakter adaptiver Wavelets. Besonderes Anliegen ist die "Zoom-in"-Ermittlung von Geoidhöhen aus lokal gegebenen Schwereanomalien bzw. Schwerestörungen.
Jahresbericht 2007
(2008)