Refine
Year of publication
- 2017 (84) (remove)
Document Type
- Doctoral Thesis (84) (remove)
Has Fulltext
- yes (84)
Keywords
- A/D conversion (1)
- ADAS (1)
- AFDX (1)
- Ableitungsfreie Optimierung (1)
- Achslage (1)
- Anion recognition (1)
- Automation (1)
- Backlog (1)
- Beschränkte Krümmung (1)
- Betriebliche Gesundheitsförderung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (27)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich ARUBI (1)
The detection and characterisation of undesired lead structures on shaft surfaces is a concern in production and quality control of rotary shaft lip-type sealing systems. The potential lead structures are generally divided into macro and micro lead based on their characteristics and formation. Macro lead measurement methods exist and are widely applied. This work describes a method to characterise micro lead on ground shaft surfaces. Micro lead is known as the deviation of main orientation of the ground micro texture from circumferential direction. Assessing the orientation of microscopic structures with arc minute accuracy with regard to circumferential direction requires exact knowledge of both the shaft’s orientation and the direction of surface texture. The shaft’s circumferential direction is found by calibration. Measuring systems and calibration procedures capable of calibrating shaft axis orientation with high accuracy and low uncertainty are described. The measuring systems employ areal-topographic measuring instruments suited for evaluating texture orientation. A dedicated evaluation scheme for texture orientation is based on the Radon transform of these topographies and parametrised for the application. Combining the calibration of circumferential direction with the evaluation of texture orientation the method enables the measurement of micro lead on ground shaft surfaces.
The present situation of control engineering in the context of automated production can be described as a tension field between its desired outcome and its actual consideration. On the one hand, the share of control engineering compared to the other engineering domains has significantly increased within the last decades due to rising automation degrees of production processes and equipment. On the other hand, the control engineering domain is still underrepresented within the production engineering process. Another limiting factor constitutes a lack of methods and tools to decrease the amount of software engineering efforts and to permit the development of innovative automation applications that ideally support the business requirements.
This thesis addresses this challenging situation by means of the development of a new control engineering methodology. The foundation is built by concepts from computer science to promote structuring and abstraction mechanisms for the software development. In this context, the key sources for this thesis are the paradigm of Service-oriented Architecture and concepts from Model-driven Engineering. To mold these concepts into an integrated engineering procedure, ideas from Systems Engineering are applied. The overall objective is to develop an engineering methodology to improve the efficiency of control engineering by a higher adaptability of control software and decreased programming efforts by reuse.
A Multi-Sensor Intelligent Assistance System for Driver Status Monitoring and Intention Prediction
(2017)
Advanced sensing systems, sophisticated algorithms, and increasing computational resources continuously enhance the advanced driver assistance systems (ADAS). To date, despite that some vehicle based approaches to driver fatigue/drowsiness detection have been realized and deployed, objectively and reliably detecting the fatigue/drowsiness state of driver without compromising driving experience still remains challenging. In general, the choice of input sensorial information is limited in the state-of-the-art work. On the other hand, smart and safe driving, as representative future trends in the automotive industry worldwide, increasingly demands the new dimensional human-vehicle interactions, as well as the associated behavioral and bioinformatical data perception of driver. Thus, the goal of this research work is to investigate the employment of general and custom 3D-CMOS sensing concepts for the driver status monitoring, and to explore the improvement by merging/fusing this information with other salient customized information sources for gaining robustness/reliability. This thesis presents an effective multi-sensor approach with novel features to driver status monitoring and intention prediction aimed at drowsiness detection based on a multi-sensor intelligent assistance system -- DeCaDrive, which is implemented on an integrated soft-computing system with multi-sensing interfaces in a simulated driving environment. Utilizing active illumination, the IR depth camera of the realized system can provide rich facial and body features in 3D in a non-intrusive manner. In addition, steering angle sensor, pulse rate sensor, and embedded impedance spectroscopy sensor are incorporated to aid in the detection/prediction of driver's state and intention. A holistic design methodology for ADAS encompassing both driver- and vehicle-based approaches to driver assistance is discussed in the thesis as well. Multi-sensor data fusion and hierarchical SVM techniques are used in DeCaDrive to facilitate the classification of driver drowsiness levels based on which a warning can be issued in order to prevent possible traffic accidents. The realized DeCaDrive system achieves up to 99.66% classification accuracy on the defined drowsiness levels, and exhibits promising features such as head/eye tracking, blink detection, gaze estimation that can be utilized in human-vehicle interactions. However, the driver's state of "microsleep" can hardly be reflected in the sensor features of the implemented system. General improvements on the sensitivity of sensory components and on the system computation power are required to address this issue. Possible new features and development considerations for DeCaDrive are discussed as well in the thesis aiming to gain market acceptance in the future.
Diversitätsgenerierende Retroelemente (DGRs) wurden im Jahre 2002 in Bordetella‐Phagen entdeckt
und stellen eine einzigartige Klasse unter den Retroelementen dar. Durch einen speziellen „Copy‐and‐
Replace“ Mechanismus sind sie in der Lage ein bestimmtes Zielgen zu hypermutieren. Bei diesem
Mutagenic Homing‐Prozess wird die RNA der Templat‐Region (TR) durch die elementeigene reverse
Transkriptase (RT) transkribiert. Die dabei entstandene mutierte cDNA wird anschließend in die
variable Region (VR) des Zielgens inkorporiert und dieses somit diversifiziert. Hierbei steht der
experimentelle Nachweis für die Hypermutation durch die RT noch aus. Zudem spielt das akzessorische
Protein (Avd) eine weitere wichtige Rolle im Mutagenic Homing Prozess, wobei dessen tatsächliche
Funktion noch nicht charakterisiert werden konnte. Bis dato gibt es vor allem Analysen in Bezug auf
das Bordetella‐Phagen DGR, womit sich die Frage nach anderen Systemen und allgemeiner
Anwendbarkeit stellt. Daher war die Analyse des Nostoc sp. PCC 7120 DGR Hauptgegenstand dieser
Arbeit, wobei der Fokus auf der Untersuchung der reversen Transkripase (nRT), sowie der
Charakterisierung des akzessorischen Proteins (nAvd) aus dem Nostoc sp. PCC 7120 DGR lag.
Die nRT konnte überexprimiert werden, wobei sie nur teilweise löslich vorlag. Eine effektive
Aufreinigung der nRT konnte mit den hier getesteten Methoden nicht erzielt werden, sodass andere
Aufreinigungsmethoden erprobt werden müssen. Zudem war die nRT nicht lagerfähig, wodurch eine
regelmäßige neue Proteinpräparation nötig war. In Aktivitätsstudien konnten erste Hinweise auf eine
Aktivität der nRT erhalten werden. Dabei konnten die entstandenen Nukleinsäuren nicht nur
detektiert, sondern auch mittels analytischem Verdau als DNA identifiziert werden. Darüber hinaus
konnte die synthetisierte cDNA mittels PCR amplifiziert und die PCR‐Produkte anschließend
sequenziert werden. Hierbei wurden jedoch keine Adenin‐spezifischen oder sonstigen Mutationen
beobachtet. Somit konnte kein Nachweis für Hypermutation durch die RT erbracht werden. Bei
Untersuchungen bezüglich einer möglichen Interaktion zwischen nRT und nAvd konnte keine erhöhte
nRT‐Aktivität durch die nAvd festgestellt werden.
Die Untersuchungen der nAvd zeigten, dass diese Nukleinsäuren bindet. Hierbei waren Präferenzen
gegenüber verschiedenen Nukleinsäuren zu beobachten. Vor allem RNA/DNA‐Hybride zeigt die
höchste Affinität gegenüber der nAvd, während dsDNA eine höhere Affinität zur nAvd aufweist als
ssRNA. Zudem ist die nAvd in der Lage Nukleinsäuren zu hybridisieren. Hierbei hybridisiert sie ATreiche
DNA‐Moleküle von mittlerer Länge (48 bp) am effizientesten. Ein von der nAvd katalysierter
Strangaustausch konnte nicht beobachtet werden. Weiter konnte gezeigt werden, dass die nAvd selbst
bis 95 °C hitzestabil ist und im Anschluss an Hitzestress weiterhin Nukleinsäuren hybridisieren kann.
Darüber hinaus ist sie befähigt Nukleinsäuren unter Hitzestress zu stabilisieren. Diese Ergebnisse lassen
auf eine Rolle der nAvd als Lotse oder zur Stabilisierung von Nukleinsäuren schließen.
The cytosolic Fe65 adaptor protein family, consisting of Fe65, Fe65L1 and Fe65L2 is involved in many intracellular signaling pathways linking via its three interaction domains a continuously growing list of proteins by facilitating functional interactions. One of the most important binding partners of Fe65 family proteins is the amyloid precursor protein (APP), which plays an important role in Alzheimer Disease.
To gain deeper insights in the function of the ubiquitously expressed Fe65 and the brain enriched Fe65L1, the goal of my study was I) to analyze their putative synaptic function in vivo, II) to examine structural analysis focusing on a putative dimeric complex of Fe65, III) to consider the involvement of Fe65 in mediating LRP1 and APP intracellular trafficking in murine hippocampal neurons. By utilizing several behavioral analyses of Fe65 KO, Fe65L1 KO and Fe65/Fe65L1 DKO mice I could demonstrate that the Fe65 protein family is essential for learning and memory as well as grip strength and locomotor activity. Furthermore, immunohistological as well as protein biochemical analysis revealed that the Fe65 protein family is important for neuromuscular junction formation in the peripheral nervous system, which involves binding of APP and acting downstream of the APP signaling pathway. Via Co-immunoprecipitation analysis I could verify that Fe65 is capable to form dimers ex vivo, which exclusively occur in the cytosol and upon APP expression are shifted to membrane compartments forming trimeric complexes. The influence of the loss of Fe65 and/or Fe65L1 on APP and/or LRP1 transport characteristics in axons could not be verified, possibly conditioned by the compensatory effect of Fe65L2. However, I could demonstrate that LRP1 affects the APP transport independently of Fe65 by shifting APP into slower types of vesicles leading to changed processing and endocytosis of APP.
The outcome of my thesis advanced our understanding of the Fe65 protein family, especially its interplay with APP physiological function in synapse formation and synaptic plasticity.
The development of autonomous mobile robots is a major topic of current research. As those robots must be able to react to changing environments and avoid collisions also with moving obstacles, the fulfilment of safety requirements is an important aspect. Behaviour-based systems (BBS) have proven to meet several of the properties required for these kindsof robots, such as reactivity, extensibility and re-usability of individual components. BBS consist of a number of behavioural components that individually realise simple tasks. Their interconnection allows to achieve complex robot behaviour, which implies that correct
connections are crucial. The resulting networks can get very large making them difficult to verify. This dissertation presents a novel concept for the analysis and verification of complex autonomous robot systems controlled by behaviour-based software architectures with special focus on the integration of environmental aspects into the processes.
Several analysis techniques have been investigated and adapted to the special requirements of BBS. These include a structural analysis, which is used to find constraint violations and faults in the network layout. Fault tree analysis is applied to identify root causes of hazards and the relationship of system events. For this, a technique to map the behaviour-based control network to the structure of a fault tree has been developed. Testing and data analysis are used for the detection of failures and their root causes. Here, a new concept that identifies patterns in data recorded during test runs has been introduced.
All of these methods cannot guarantee failure-free and safe robot behaviour and can never prove the absence of failures. Therefore, model checking as formal verification technique that proves a property to be correct for the given system, has been chosen to complement the set of analysis techniques. A novel concept for the integration of environmental influences into the model checking process is proposed. Environmental situations and the sensor processing chain are represented as synchronised automata similar to the modelling of the behavioural network. Tools supporting the whole verification process including the creation of formal queries in its environment have been developed.
During the verification of large behavioural networks, the scalability of the model checking approach appears as a big problem. Several approaches that deal with this problem have been investigated and the selection of slicing and abstraction methods has been justified. A concept for the application of these methods is provided, that reduces the behavioural network to the relevant parts before the actual verification process.
All techniques have been applied to the behaviour-based control system of the autonomous outdoor robot RAVON. Its complex network with more than 400 components allows for demonstrating the soundness of the presented concepts. The set of different techniques provides a fundamental basis for a comprehensive analysis and verification of BBS acting in changing environments.
This thesis is concerned with different null-models that are used in network analysis. Whenever it is of interest whether a real-world graph is exceptional regarding a particular measure, graphs from a null-model can be used to compare the real-world graph to. By analyzing an appropriate null-model, a researcher may find whether the results of the measure on the real-world graph is exceptional or not.
Deciding which null-model to use is hard and sometimes the difference between the null-models is not even considered. In this thesis, there are several results presented: First, based on simple global measures, undirected graphs are analyzed. The results for these measures indicates that it is not important which null-model is used, thus, the fastest algorithm of a null-model may be used. Next, local measures are investigated. The fastest algorithm proves to be the most complicated to analyze. The model includes multigraphs which do not meet the conditions of all the measures, thus, the measures themselves have to be altered to take care of multigraphs as well. After careful consideration, the conditions are met and the analysis shows, that the fastest is not always the best.
The same applies for directed graphs, as is shown in the last part. There, another more complex measure on graphs is introduced. I continue testing the applicability of several null-models; in the end, a set of equations proves to be fast and good enough as long as conditions regarding the degree sequence are met.
The proliferation of sensors in everyday devices – especially in smartphones – has led to crowd sensing becoming an important technique in many urban applications ranging from noise pollution mapping or road condition monitoring to tracking the spreading of diseases. However, in order to establish integrated crowd sensing environments on a large scale, some open issues need to be tackled first. On a high level, this thesis concentrates on dealing with two of those key issues: (1) efficiently collecting and processing large amounts of sensor data from smartphones in a scalable manner and (2) extracting abstract data models from those collected data sets thereby enabling the development of complex smart city services based on the extracted knowledge.
Going more into detail, the first main contribution of this thesis is the development of methods and architectures to facilitate simple and efficient deployments, scalability and adaptability of crowd sensing applications in a broad range of scenarios while at the same time enabling the integration of incentivation mechanisms for the participating general public. During an evaluation within a complex, large-scale environment it is shown that real-world deployments of the proposed data recording architecture are in fact feasible. The second major contribution of this thesis is the development of a novel methodology for using the recorded data to extract abstract data models which are representing the inherent core characteristics of the source data correctly. Finally – and in order to bring together the results of the thesis – it is demonstrated how the proposed architecture and the modeling method can be used to implement a complex smart city service by employing a data driven development approach.
In change-point analysis the point of interest is to decide if the observations follow one model
or if there is at least one time-point, where the model has changed. This results in two sub-
fields, the testing of a change and the estimation of the time of change. This thesis considers
both parts but with the restriction of testing and estimating for at most one change-point.
A well known example is based on independent observations having one change in the mean.
Based on the likelihood ratio test a test statistic with an asymptotic Gumbel distribution was
derived for this model. As it is a well-known fact that the corresponding convergence rate is
very slow, modifications of the test using a weight function were considered. Those tests have
a better performance. We focus on this class of test statistics.
The first part gives a detailed introduction to the techniques for analysing test statistics and
estimators. Therefore we consider the multivariate mean change model and focus on the effects
of the weight function. In the case of change-point estimators we can distinguish between
the assumption of a fixed size of change (fixed alternative) and the assumption that the size
of the change is converging to 0 (local alternative). Especially, the fixed case in rarely analysed
in the literature. We show how to come from the proof for the fixed alternative to the
proof of the local alternative. Finally, we give a simulation study for heavy tailed multivariate
observations.
The main part of this thesis focuses on two points. First, analysing test statistics and, secondly,
analysing the corresponding change-point estimators. In both cases, we first consider a
change in the mean for independent observations but relaxing the moment condition. Based on
a robust estimator for the mean, we derive a new type of change-point test having a randomized
weight function. Secondly, we analyse non-linear autoregressive models with unknown
regression function. Based on neural networks, test statistics and estimators are derived for
correctly specified as well as for misspecified situations. This part extends the literature as
we analyse test statistics and estimators not only based on the sample residuals. In both
sections, the section on tests and the one on the change-point estimator, we end with giving
regularity conditions on the model as well as the parameter estimator.
Finally, a simulation study for the case of the neural network based test and estimator is
given. We discuss the behaviour under correct and mis-specification and apply the neural
network based test and estimator on two data sets.
Für den Bau von Wohn- und Gewerbegebäuden werden schon seit vielen Jahren
Wandelemente aus haufwerksporigem Leichtbeton verwendet. DieWandelemente werden
in Fertigteilwerken hergestellt und „just-in-time“ auf die Baustelle geliefert und aufgebaut.
Die Wandelemente sind zum Teil massiv hergestellt (Wohnungsbau) oder aber
mit einzelnen Dämmkernen versehen (gewerbliche Bauten). Als Zuschlagsstoffe kommen
überwiegend Naturbims oder Blähton zum Einsatz. Durch einen, im Vergleich zu
Normalbeton und gefügedichtem Leichtbeton, niedrigen Anteil an Zement, berühren
sich die Zuschlagskörner nur punktuell. Dadurch entsteht die haufwerksporige Struktur.
Durch diese Gefügestruktur und die Verwendung von porigen Leichtzuschlägen,
erzielt haufwerksporiger Leichtbeton sehr gute bauphysikalische Eigenschaften, wie z.
B. eine gute Wärmeleitfähigkeit. Den guten bauphysikalischen Eigenschaften stehen
niedrige Festigkeiten gegenüber. Daher wird haufwerksporiger Leichtbeton als wärmedämmender
Leichtbeton in der Regel nur für tragende Bauteile mit geringen Festigkeitsanforderungen
eingesetzt.
Gestiegene Anforderungen an den baulichen Wärmeschutz zwingen deutsche Hersteller
von Wandelementen aus haufwerksporigem Leichtbeton immer wieder zu Neuentwicklungen.
Im Rahmen der vorliegenden Arbeit wurde die Verwendung von haufwerksporigem
Leichtbeton in dreischichtigen Wandelementen (Sandwichelemente) untersucht.
Die Wandelemente bestehen dabei aus einer innenliegenden Tragschale, einer
außenliegenden Vorsatzschale und einer dazwischenliegenden Schicht aus Dämmstoff.
Die beiden Betonschalen werden durch entsprechende Verbindungselemente
verbunden. In dieser Arbeit wurden als Verbindungselement in der Bauindustrie gebräuchliche
Gitterträger gewählt.
In einer Vielzahl an Versuchen wurden unterschiedliche Erkenntnisse zum Tragverhalten
der Wandelemente gewonnen. An Vier-Punkt-Biegeversuchen wurde das allgemeine
Tragverhalten von bewehrten Platten untersucht. In Auszugversuchen wurde
die Tragfähigkeit von einbetonierten Gitterträgern bestimmt. Die Bestimmung des Last-
Verformungsverhaltens der Verbundfuge (Schicht aus Dämmung und Verbindungsmittel)
erfolgte anhand von Scherversuchen. An großformatigen Wandstreifen wurden zudem
Vier-Punkt-Biegeversuche durchgeführt. Diese Versuche wurden mit aus Literatur
entnommenen Berechnungsformeln für die Schnitt- und Verformungsgrößen aus
der Verbundtragwirkung nachgerechnet. Hierbei wurden sehr gute Übereinstimmungen
erreicht.
Der Einfluss der Gitterträger auf den Wärmedurchgangskoeffizienten (U-Wert) des
Wandquerschnittes wurde anhand von FE-Berechnungen untersucht. Aus den erzielten
Ergebnissen wurden Tabellen generiert, welche eine einfache Berechnung des
Wärmedurchgangskoeffizienten unter Berücksichtigung der Gitterträger ermöglicht.
Abschließend wird die Bemessung von dreischichtigenWandelemente aus haufwerksporigem
Leichtbeton und Gitterträger als Verbindungselement der beiden Betonschalen
nach DIN EN 1520 und den Erkenntnissen dieser Arbeit in einem Bemessungskonzept
vorgestellt.
Betonfertigteile mit integriertem Dämmstoff aus Polystyrol bieten eine ausgezeichnete Lösung zur baulichen Ausführung von Außenwandbauteilen. Die Vorteile gegenüber der Ortbetonbauweise, wie bspw. die Erfüllung hoher Qualitätsansprüche aufgrund der Vorfertigung im Fertigteilwerk oder das Entfallen von Arbeitsschritten auf der Baustelle, ermöglichen einen wirtschaftlichen Bauprozess. Bei der Halbfertigteilbauweise werden nur die äußeren Betonschalen vorgefertigt. Anschließend werden die Wände auf die Baustelle transportiert und mit Ortbeton zum Endquerschnitt verfüllt. Dies erspart den zeit- und kostenintensiven Schalungsvorgang und verringert gleichzeitig das Transportgewicht. Der beim Ausbetonieren der Halbfertigteile auftretende Frischbetondruck muss von Verbindungsmitteln, die zur Kopplung der Betonschalen dienen, mit ausreichender Sicherheit aufgenommen werden. Der Frischbetondruck ist derzeit nach DIN 18218 „Frischbetondruck auf lotrechte Schalungen“ anzunehmen. Die Beeinflussung durch einen integrierten Dämmstoff oder weitere Parameter einer Elementwand bleibt bisher allerdings unberücksichtigt. In Abhängigkeit der Randbedingungen wird der Frischbetondruck stark überschätzt, was zu einem unwirtschaftlichen Bemessungsergebnis im Bauzustand führt. Ziel der vorliegenden Arbeit ist die realitätsnahe Beschreibung des Frischbetondrucks in Elementwänden mit integriertem Dämmstoff.
Angesichts der Vielzahl an Einflussparametern werden die theoretischen und experimentellen Untersuchungen dieser Arbeit systematisch geplant und durchgeführt. In Voruntersuchungen werden bereits einflussschwache Einflussparameter ausgeschlossen und maßgebende Einflussparameter für weiterführende Untersuchungen bestimmt. Neben zahlreichen kleinmaßstäblichen Versuchsreihen, die größtenteils zur Analyse und Beschreibung von einzelnen geometrischen oder werkstoffspezifischen Eigenschaften dienen, werden auch großmaßstäbliche Elementwände untersucht. Diese verfolgen das Ziel, ein besseres Verständnis für die Entstehung des Frischbetondrucks unter Einbeziehung von bauausführungstechnischen Randbedingungen zu entwickeln.
Auf Grundlage der theoretisch und experimentell gewonnenen Erkenntnisse dieser Arbeit wird ein realitätsnahes Berechnungsmodell zur Ermittlung des horizontalen Frischbetondrucks in Elementwänden mit integriertem Dämmstoff abgeleitet. Nach Validierung des Modells an Großversuchen und vereinfachenden Annahmen für einen praxisgerechten Einsatz kann der Frischbetondruck analog zur DIN 18218 mithilfe von einfachen Gleichungen, Tabellen und Diagrammen ermittelt werden. Die Anwendung und der wirtschaftliche Vorteil des Berechnungsmodells werden am Ende der Arbeit anhand von zwei Berechnungsbeispielen demonstriert.
Neben der Beeinflussung des Frischbetondrucks wirkt sich die Umlagerung von Zementleim aus dem Frischbeton in den Dämmstoff auch auf die Eigenschaften des Ortbetons und des Dämmstoffs der Elementwand aus. Die Untersuchungsergebnisse zeigen, dass sich zwar die wärmedämmende Wirkung des Dämmstoffs verschlechtert, dies jedoch bei hohen Dämmstoffstärken zur Sicherstellung des Wärmeschutzes nach EnEV 2016 vernachlässigt werden kann. Die Druckfestigkeit des Ortbetons infolge des Zementleimentzugs wird durch die Verringerung des w/z-Werts und die nachbehandelnde Wirkung des feuchten Dämmstoffs positiv beeinflusst.
Kurzusammenfassung
Molke gilt als Rohstoff, der ein in großen Mengen anfallendes Nebenprodukt der Käseindustrie ist. In den vergangenen Jahrzehnten wurde die wirtschaftliche Nutzung durch Wertschöpfung dieses kostengünstigen aber wertvollen Produktes intensiviert. Zu den drei wichtigsten Bestanteilen von Molke gehören Mineralien, Eiweiß und Lactose. Gerade der hohe physiologische Nährwert von Molke bei fast vollständiger Abwesenheit von Fett legt eine Anwendung in der Lebensmittelindustrie nahe. So werden inzwischen Bestandteile von Molke in Süßigkeiten, Diätetika, Tablettenfüll-stoffen, Verdickungsmitteln und Säuglingsernährung verwendet.
Vor der Verwendung von mikrobiellem Lab, welcher keine Spätblähung mehr verursacht, gab es ein Problem mit Nitratbelastung in der Molke durch Zugabe von Kalium- bzw. Natriumnitrat während der Käseherstellung zur Inhibition von Fehlgärungen. Bei Kleinkindern droht Lebensgefahr durch innere Erstickung, da das aus Nitrat gebildete Nitrit (durch Bakterien der Darmflora) Hämoglobin oxidiert. Daher wurden die Molkereien gezwungen sich mit dem Thema zu beschäftigen, um dieses Problem zu lösen. Für Erwachsene ist dies aber ungefährlich.
In dieser Arbeit wurde die Denitrifikation von Molkekonzentrat mit nativen Zellen und mit immobilisierten Zellen von Paracoccus denitrificans durchgeführt. Die indirekte Anwendung von dem Bakterium zur Nitratentfernung aus Molkekonzentrat befasst sich mit der Integration der Regeneration des Eluenten in den Prozess nach dem chromatographischen Verfahren. Das im Eluenten enthaltene Nitrat wird auch in Gegenwart von Natriumchlorid über mehrere Zwischenstufen zu elementarem Stickstoff reduziert. Somit wird der Eluent für eine weitere Regeneration wiederverwendbar und das Abwasseraufkommen des Gesamtprozesses stark reduziert. Eine kontinuierliche Denitrifikation des Eluenten mit einer Natriumchlorid-konzentration von 35 g/L wurde durch native Zellen realisiert. Als geeignete Denitrifikationsbedingungen wurden eine Temperatur von 37 °C, ein pH-Wert von 7,5 und die Zugabe von Acetat als Elektronendonor ermittelt.
Kontinuierliche Denitrifikationen mit nativen Zellen wurden in einer Laboratoriums- und Pilotanlage in Bioreaktoren mit einem Volumen von 5 L bzw. 25 L durchgeführt. Die Abtrennung der nativen Zellen zur Rückführung des Eluenten in die chroma-tographische Stufe erfolgte durch Cross-Flow-Filtration. Die vollständige Entfernung von Nitrat in Molkekonzentrat ist bis zu 450 Liter pro Tag im Pilotmaßstab möglich.
Im Falle immobilisierter Zellen wird die Zellabtrennung vereinfacht, da die Immobilisate 1,5-5 mm groß sind. Die Immobilisate konnten somit durch ein einfaches grobmaschiges Sieb zurückgehalten werden. Die Immobilisierung der Mikroorganis-men Paracoccus denitrificans wurde mit Hilfe des LentiKats® der Fa. genialLab GmbH hergestellt. Mit dem immobilisierten Verfahren wurde Nitrat im Eluent bzw. direkt in Molkekonzentrat denitrifiziert. Die Entfernung von Nitrat im Eluent ist bei gleichen Bedingungen wie mit nativen Zellen möglich. Allerdings zeichnen sich immobilisierte Mikroorganismen durch eine geringere Aktivität im Vergleich zu nativen Zellen aufgrund der Diffusionslimitierung, aus. So wurde durch immobilisierte Zellen eine Abbaugeschwindigkeit von v = 22,2 mgNitrat h-1∙g-1BTM im kontinuierlichen Betrieb erreicht, während durch Verwendung nativer Zellen Abbauraten von bis zu 32,4 mgNitrat h-1∙g-1BTM realisiert werden konnten. Der direkte Nitratabbau im Molkekonzentrat wurde bei Temperaturen von 10 °C bis zu 30 °C durchgeführt. Nach 1 h bei 30 °C konnte 90 mg/L Nitratkonzentrat vom Molkekonzentrat entfernt werden. Eine Akkumulierung von Nitrit ist nicht aufgetreten. Bei niedrigeren Temperaturen wurde der Nitratabbau geringer. Bei einer Temperatur von 10 °C ist es nicht mehr möglich Nitrat abzubauen. Die Untersuchung der wichtigen Inhaltstoffe, wie Protein, Mineralstoffe, Lactose, Glucose und Galactose im Molkekonzentrat wurde nach der Denitrifikation durchgeführt. Eine Änderung der Konzentration konnte nicht nachgewiesen werden.
Schlagworte: Molke, Molkeproteine, Denitrifikation, Nitrat, Immobilisierung, Paracoccus denitrificans
For many years, most distributed real-time systems employed data communication systems specially tailored to address the specific requirements of individual domains: for instance, Controlled Area Network (CAN) and Flexray in the automotive domain, ARINC 429 [FW10] and TTP [Kop95] in the aerospace domain. Some of these solutions were expensive, and eventually not well understood.
Mostly driven by the ever decreasing costs, the application of such distributed real-time system have drastically increased in the last years in different domains. Consequently, cross-domain communication systems are advantageous. Not only the number of distributed real-time systems have been increasing but also the number of nodes per system, have drastically increased, which in turn increases their network bandwidth requirements. Further, the system architectures have been changing, allowing for applications to spread computations among different computer nodes. For example, modern avionics systems moved from federated to integrated modular architecture, also increasing the network bandwidth requirements.
Ethernet (IEEE 802.3) [iee12] is a well established network standard. Further, it is fast, easy to install, and the interface ICs are cheap [Dec05]. However, Ethernet does not offer any temporal guarantee. Research groups from academia and industry have presented a number of protocols merging the benefits of Ethernet and the temporal guarantees required by distributed real-time systems. Two of these protocols are: Avionics Full-Duplex Switched Ethernet (AFDX) [AFD09] and Time-Triggered Ethernet (TTEthernet) [tim16]. In this dissertation, we propose solutions for two problems faced during the design of AFDX and TTEthernet networks: avoiding data loss due to buffer overflow in AFDX networks with multiple priority traffic, and scheduling of TTEthernet networks.
AFDX guarantees bandwidth separation and bounded transmission latency for each communication channel. Communication channels in AFDX networks are not synchronized, and therefore frames might compete for the same output port, requiring buffering to avoid data loss. To avoid buffer overflow and the resulting data loss, the network designer must reserve a safe, but not too pessimistic amount of memory of each buffer. The current AFDX standard allows for the classification of the network traffic with two priorities. Nevertheless, some commercial solutions provide multiple priorities, increasing the complexity of the buffer backlog analysis. The state-of-the-art AFDX buffer backlog analysis does not provide a method to compute deterministic upper bounds
iiifor buffer backlog of AFDX networks with multiple priority traffic. Therefore, in this dissertation we propose a method to address this open problem. Our method is based on the analysis of the largest busy period encountered by frames stored in a buffer. We identify the ingress (and respective egress) order of frames in the largest busy period that leads to the largest buffer backlog, and then compute the respective buffer backlog upper bound. We present experiments to measure the computational costs of our method.
In TTEthernet, nodes are synchronized, allowing for message transmission at well defined points in time, computed off-line and stored in a conflict-free scheduling table. The computation of such scheduling tables is a NP-complete problem [Kor92], which should be solved in reasonable time for industrial size networks. We propose an approach to efficiently compute a schedule for the TT communication channels in TTEthernet networks, in which we model the scheduling problem as a search tree. As the scheduler traverses the search tree, it schedules the communication channels on a physical link. We presented two approaches to traverse the search tree while progressively creating the vertices of the search tree. A valid schedule is found once the scheduler reaches a valid leaf. If on the contrary, it reaches an invalid leaf, the scheduler backtracks searching for a path to a valid leaf. We present a set of experiments to demonstrate the impact of the input parameters on the time taken to compute a feasible schedule or to deem the set of virtual links infeasible.
This thesis comprises several independent research studies on transition metal complexes as trapped ions in isolation. Electrospray Ionization (ESI) serves to transfer ions from solution into the gas phase for mass spectrometric investigations. Subsequently, a variety of experimental and theoretical methods provide fundamental insights into molecular properties of the isolated complexes: InfraRed (Multiple) Photon Dissociation (IR-(M)PD) spectroscopy provides information on binding motifs and molecular structures at cryo temperatures as well as at room temperature. Collision Induced Dissociation (CID) serves to elucidate molecular fragmentation pathways as well as relative stabilities of the complexes at room temperature. Quantum chemical calculations via Density Functional Theory (DFT) substantiate the experimental results and deepen the fundamental insights into the molecular properties of the complexes. Magnetic couplings between metal centers in oligonuclear complexes are investigated by Broken Symmetry DFT modelling and X Ray Magnetic Circular Dichroism (XMCD) spectroscopy.
Zunehmend strengere Regulierungen der CO2-Emissionen von Neuwagen seitens
der europäischen Union erfordern den Einsatz von Leichtbaukonzepten, welche für
die Massenproduktion geeignet sind. Dies erfordert den Einsatz leistungsstarker und
zugleich kostengünstiger Werkstoffe. Für den breiten Einsatz im Transportbereich
werden daher vermehrt kurzglasfaserverstärkte Thermoplaste zur Substitution
klassischer Metallkomponenten eingesetzt. Die geringen Werkstoffkosten, die stetig
weiterentwickelten mechanischen Eigenschaften sowie die Möglichkeit zur
Funktionsintegration aufgrund der hohen Formgebungsfreiheit des Spritzgussprozesses
sind entscheidende Vorteile dieser Werkstoffgruppe. Der Spritzgussprozess
führt zu einer lokal stark variierenden Faserorientierung. Die Werkstoffeigenschaften
hängen dabei entscheidend von der Faserorientierung ab. Besitzt der
Werkstoff parallel zur Faserrichtung seine höchste Steifig- und Festigkeit, sind diese
quer zur Faserorientierung am niedrigsten. Zusätzlich besitzt die thermoplastische
Matrix ein ausgeprägt nichtlineares Werkstoffverhalten, wodurch die strukturmechanische
Berechnung kurzfaserverstärkter Bauteile deutlich erschwert wird. Eine
geeignete Methodik zur Charakterisierung und numerischen Abbildung des
nichtlinearen anisotropen Werkstoffverhaltens mit anschließender Lebensdaueranalyse
ist zurzeit nicht vorhanden und bildet das Ziel dieser Arbeit.
Der untersuchte Werkstoff findet häufig Einsatz in strukturellen Komponenten im
Fahrwerks- und Motorbereich. In diesen Einsatzgebieten ist er zusätzlich zu den
mechanischen Lasten auch Umwelteinflüssen, wie beispielsweise Feuchtigkeit oder
Steinschlägen, ausgesetzt. Im Rahmen der durchgeführten experimentellen Arbeiten
wird der Einfluss dieser zusätzlichen einsatzbedingten Lasten auf die statischen
Eigenschaften und das Lebensdauerverhalten untersucht. Ist ein Fahrwerksbauteil
ganzjährig Wasser und Feuchtigkeit ausgesetzt, kann es in Winterzeiten auch zu
Kontakt mit Tausalzlösungen kommen. In Auslagerungsversuchen über einen
Zeitraum von etwa einem Jahr wird der Werkstoff folgenden Medien ausgesetzt:
Wasser, wässrigem Natriumchlorid und wässrigem Calciumchlorid. Zu verschiedenen
Expositionszeiten werden Proben entnommen und statischen Zugversuchen
unterzogen. Die Auslagerung bewirkt eine deutliche Verschlechterung der Werkstoffeigenschaften,
welche jedoch durch eine Rücktrocknung im Vakuumofen wieder
vollständig hergestellt werden kann.
Mithilfe eines speziell entwickelten Prüfstandes wird der Einfluss von Wasser und Calciumchlorid auf das zyklische Werkstoffverhalten untersucht. Dieser Prüfstand
erlaubt das Besprühen der Proben während eines Dauerschwingversuches. Eine
Reduktion der Lebensdauer aufgrund einer Exposition mit Calciumchlorid kann nicht
nachgewiesen werden. Zur Simulation von dauerhaften Mikro-Steinschlägen wird die
Oberflächenrauheit von Probekörpern künstlich mittels Sandstrahlen erhöht. Sowohl
in den statischen als auch zyklischen Versuchen unter Medieneinfluss kann nur eine
geringe Festigkeitsreduktion ermittelt werden. Dies ist auf die Duktilität des Werkstoffes
und der damit einhergehenden Unempfindlichkeit gegenüber Kerben
zurückzuführen.
Moderne Prozesssimulationen können die Faserverteilung in Bauteilen komplexer
Geometrie noch nicht realitätsnah abbilden, weshalb in dieser Arbeit die
experimentelle Orientierungsanalyse im Mikro-Computertomographen verwendet
wird. Neben Probekörpern wird auch eine komplette Fahrwerkskomponente im
Mikro-Computertomographen analysiert. Die Orientierungsinformationen finden zur
numerischen Beschreibung des Werkstoffverhaltens in der Finite-Elemente-Methode
Verwendung. Eine vollständige statische Werkstoffcharakterisierung dient als
Grundlage für die komplexe Werkstoffmodellierung. Zur Beschreibung des
Lebensdauerverhaltens werden umfangreiche Dauerschwing- und Restfestigkeitsversuche
für unterschiedliche Faserorientierungen und Spannungsverhältnisse
durchgeführt.
Selbstentwickelte Programmroutinen importieren den Faserorientierungstensor jedes
FE-Elementes und definieren in Abhängigkeit der Faserrichtung sowie der
Faseranteile in die jeweilige Richtung das Werkstoffmodell. Eine inkrementelle
Lebensdaueranalyse greift ebenfalls auf selbstentwickelte Routinen zurück und
berechnet die ertragbare Schwingspielzahl unter Berücksichtigung einer zyklischen
Steifigkeitsdegradation hochbelasteter Elemente und damit einhergehenden
Spannungsumlagerungen. Die Routine wird an den zyklisch geprüften Standard-
Probekörpern kalibriert und an der bereits erwähnten Fahrwerkskomponente
validiert. Für unterschiedliche Lastniveaus und Spannungsverhältnisse werden die
Versuchsergebnisse sehr gut durch die entwickelte Berechnungsmethodik
abgebildet. Sowohl die ertragbare Schwingspielzahl als auch das Schadensbild der
Simulation stimmen mit den Versuchen überein.
”In contemporary electronics 80% of a chip may perform digital functions but the 20%
of analog functions may take 80% of the development time.” [1]. Aggravating this, the
demands on analog design is increasing with rapid technology scaling. Most designs
have moved away from analog to digital domains, where possible, however, interacting
with the environment will always require analog to digital data conversion. Adding to
this problem, the number of sensors used in consumer and industry related products are
rapidly increasing. Designers of ADCs are dealing with this problem in several ways, the
most important is the migration towards digital designs and time domain techniques.
Time to Digital Converters (TDC) are becoming increasingly popular for robust signal
processing. Biological neurons make use of spikes, which carry spike timing information
and will not be affected by the problems related to technology scaling. Neuromorphic
ADCs still remain exotic with few implementations in sub-micron technologies Table 2.7.
Even among these few designs, the strengths of biological neurons are rarely exploited.
From a previous work [2], LUCOS, a high dynamic range image sensor, the efficiency
of spike processing has been validated. The ideas from this work can be generalized to
make a highly effective sensor signal conditioning system, which carries the promise to
be robust to technology scaling.
The goal of this work is to create a novel spiking neural ADC as a novel form of a
Multi-Sensor Signal Conditioning and Conversion system, which
• Will be able to interface with or be a part of a System on Chip with traditional
analog or advanced digital components.
• Will have a graceful degradation.
• Will be robust to noise and jitter related problems.
• Will be able to learn and adapt to static errors and dynamic errors.
• Will be capable of self-repair, self-monitoring and self-calibration
Sensory systems in humans and other animals analyze the environment using several
techniques. These techniques have been evolved and perfected to help the animal sur-
vive. Different animals specialize in different sense organs, however, the peripheral
neural network architectures remain similar among various animal species with few ex-
ceptions. While there are many biological sensing techniques present, most popularly
used engineering techniques are based on intensity detection, frequency detection, and
edge detection. These techniques are used with traditional analog processing (e.g., colorvi
sensors using filters), and with biological techniques (e.g. LUCOS chip [2]). The local-
ization capability of animals has never been fully utilized.
One of the most important capabilities for animals, vertebrates or invertebrates, is the
capability for localization. The object of localization can be predator, prey, sources of
water, or food. Since these are basic necessities for survival, they evolve much faster
due to the survival of the fittest. In fact, localization capabilities, even if the sensors
are different, have convergently evolved to have same processing methods (coincidence
detection) in their peripheral neurons (for e.g., forked tongue of a snake, antennae of
a cockroach, acoustic localization in fishes and mammals). This convergent evolution
increases the validity of the technique. In this work, localization concepts based on
acoustic localization and tropotaxis are investigated and employed for creation of novel
ADCs.
Unlike intensity and frequency detection, which are not linear (for e.g. eyes saturate in
bright light, loose color perception in low light), localization is inherently linear. This
is mainly because the accurate localization of predator or prey can be the difference
between life and death for an animal.
Figure 1 visually explains the ADC concept proposed in this work. This has two parts.
(1) Sensor to Spike(time) Conversion (SSC), (2) Spike(time) to Digital Conversion(SDC).
Both of the structures have been designed with models of biological neurons. The
combination of these two structures is called SSDC.
To efficiently implement the proposed concept, a comparison of several biological neural
models is made and two models are shortlisted. Various synapse structures are also
studied. From this study, Leaky Integrate and Fire neuron (LIF) is chosen since it
fulfills all the requirements of the proposed structure. The analog neuron and synapse
designs from Indiveri et. al. [3], [4] were taken, and simulations were conducted using
cadence and the behavioral equivalence with biological counterpart was checked. The
LIF neuron had features, that were not required for the proposed approach. A simple
LIF neuron stripped of these features and was designed to be as fast as allowed by the
technology.
The SDC was designed with the neural building blocks and the delays were designed
using buffer chains. This SDC converts incoming Time Interval Code (TIC) to sparse
place coding using coincidence detection. Coincidence detection is a property of spiking
neurons, which is a time domain equivalent of a Gaussian Kernel. The SDC is designed to
have an online reconfigurable Gaussian kernel width, weight, threshold, and refractory
period. The advantage of sparse place codes, which contain rank order coding wasvii
Figure 1: ADC as a localization problem (right), Jeffress model of sound localization
visualized (left). The values t 1 and t 2 indicate the time taken from the source to s1 and
s2 respectively.
described in our work [5]. A time based winner take all circuit with memory was created
based on a previous work [6] for reading out of sparse place codes asynchronously.
The SSC was also initially designed with the same building blocks. Additionally, a
differential synapse was designed for better SSC. The sensor element considered wasviii
a Wheatstone full bridge AMR sensor AFF755 from Sensitec GmbH. A reconfigurable
version of the synapse was also designed for a more generic sensor interface.
The first prototype chip SSDCα was designed with 257 modules of coincidence detectors
realizing the SDC and the SSC. Since the spike times are the most important information,
the spikes can be treated as digital pulses. This provides the capability for digital
communication between analog modules. This creates a lot of freedom for use of digital
processing between the discussed analog modules. This advantage is fully exploited
in the design of SSDCα. Three SSC modules are multiplexed to the SDC. These SSC
modules also provide outputs from the chip simultaneously. A rising edge detecting fixed
pulse width generation circuit is used to create pulses that are best suited for efficient
performance of the SDC. The delay lines are made reconfigurable to increase robustness
and modify the span of the SDC. The readout technique used in the first prototype is
a relatively slow but safe shift register. It is used to analyze the characteristics of the
core work. This will be replaced by faster alternatives discussed in the work. The area
of the chip is 8.5 mm 2 . It has a sampling rate from DC to 150 kHz. It has a resolution
from 8-bit to 13-bit. It has 28,200 transistors on the chip. It has been designed in 350
nm CMOS technology from ams. The chip has been manufactured and tested with a
sampling rate of 10 kHz and a theoretical resolution of 8 bits. However, due to the
limitations of our Time-Interval-Generator, we are able to confirm for only 4 bits of
resolution.
The key novel contributions of this work are
• Neuromorphic implementation of AD conversion as a localization problem based
on sound localization and tropotaxis concepts found in nature.
• Coincidence detection with sparse place coding to enhance resolution.
• Graceful degradation without redundant elements, inherent robustness to noise,
which helps in scaling of technologies
• Amenable to local adaptation and self-x features.
Conceptual goals have all been fulfilled, with the exception of adaptation. The feasibility
for local adaptation has been shown with promising results and further investigation is
required for future work. This thesis work acts as a baseline, paving the way for R&D
in a new direction. The chip design has used 350 nm ams hitkit as a vehicle to prove
the functionality of the core concept. The concept can be easily ported to present
aggressively-scaled-technologies and future technologies.
In this thesis we explicitly solve several portfolio optimization problems in a very realistic setting. The fundamental assumptions on the market setting are motivated by practical experience and the resulting optimal strategies are challenged in numerical simulations.
We consider an investor who wants to maximize expected utility of terminal wealth by trading in a high-dimensional financial market with one riskless asset and several stocks.
The stock returns are driven by a Brownian motion and their drift is modelled by a Gaussian random variable. We consider a partial information setting, where the drift is unknown to the investor and has to be estimated from the observable stock prices in addition to some analyst’s opinion as proposed in [CLMZ06]. The best estimate given these observations is the well known Kalman-Bucy-Filter. We then consider an innovations process to transform the partial information setting into a market with complete information and an observable Gaussian drift process.
The investor is restricted to portfolio strategies satisfying several convex constraints.
These constraints can be due to legal restrictions, due to fund design or due to client's specifications. We cover in particular no-short-selling and no-borrowing constraints.
One popular approach to constrained portfolio optimization is the convex duality approach of Cvitanic and Karatzas. In [CK92] they introduce auxiliary stock markets with shifted market parameters and obtain a dual problem to the original portfolio optimization problem that can be better solvable than the primal problem.
Hence we consider this duality approach and using stochastic control methods we first solve the dual problems in the cases of logarithmic and power utility.
Here we apply a reverse separation approach in order to obtain areas where the corresponding Hamilton-Jacobi-Bellman differential equation can be solved. It turns out that these areas have a straightforward interpretation in terms of the resulting portfolio strategy. The areas differ between active and passive stocks, where active stocks are invested in, while passive stocks are not.
Afterwards we solve the auxiliary market given the optimal dual processes in a more general setting, allowing for various market settings and various dual processes.
We obtain explicit analytical formulas for the optimal portfolio policies and provide an algorithm that determines the correct formula for the optimal strategy in any case.
We also show optimality of our resulting portfolio strategies in different verification theorems.
Subsequently we challenge our theoretical results in a historical and an artificial simulation that are even closer to the real world market than the setting we used to derive our theoretical results. However, we still obtain compelling results indicating that our optimal strategies can outperform any benchmark in a real market in general.
This thesis brings together convex analysis and hyperspectral image processing.
Convex analysis is the study of convex functions and their properties.
Convex functions are important because they admit minimization by efficient algorithms
and the solution of many optimization problems can be formulated as
minimization of a convex objective function, extending much beyond
the classical image restoration problems of denoising, deblurring and inpainting.
\(\hspace{1mm}\)
At the heart of convex analysis is the duality mapping induced within the
class of convex functions by the Fenchel transform.
In the last decades efficient optimization algorithms have been developed based
on the Fenchel transform and the concept of infimal convolution.
\(\hspace{1mm}\)
The infimal convolution is of similar importance in convex analysis as the
convolution in classical analysis. In particular, the infimal convolution with
scaled parabolas gives rise to the one parameter family of Moreau-Yosida envelopes,
which approximate a given function from below while preserving its minimum
value and minimizers.
The closely related proximal mapping replaces the gradient step
in a recently developed class of efficient first-order iterative minimization algorithms
for non-differentiable functions. For a finite convex function,
the proximal mapping coincides with a gradient step of its Moreau-Yosida envelope.
Efficient algorithms are needed in hyperspectral image processing,
where several hundred intensity values measured in each spatial point
give rise to large data volumes.
\(\hspace{1mm}\)
In the \(\textbf{first part}\) of this thesis, we are concerned with
models and algorithms for hyperspectral unmixing.
As part of this thesis a hyperspectral imaging system was taken into operation
at the Fraunhofer ITWM Kaiserslautern to evaluate the developed algorithms on real data.
Motivated by missing-pixel defects common in current hyperspectral imaging systems,
we propose a
total variation regularized unmixing model for incomplete and noisy data
for the case when pure spectra are given.
We minimize the proposed model by a primal-dual algorithm based on the
proximum mapping and the Fenchel transform.
To solve the unmixing problem when only a library of pure spectra is provided,
we study a modification which includes a sparsity regularizer into model.
\(\hspace{1mm}\)
We end the first part with the convergence analysis for a multiplicative
algorithm derived by optimization transfer.
The proposed algorithm extends well-known multiplicative update rules
for minimizing the Kullback-Leibler divergence,
to solve a hyperspectral unmixing model in the case
when no prior knowledge of pure spectra is given.
\(\hspace{1mm}\)
In the \(\textbf{second part}\) of this thesis, we study the properties of Moreau-Yosida envelopes,
first for functions defined on Hadamard manifolds, which are (possibly) infinite-dimensional
Riemannian manifolds with negative curvature,
and then for functions defined on Hadamard spaces.
\(\hspace{1mm}\)
In particular we extend to infinite-dimensional Riemannian manifolds an expression
for the gradient of the Moreau-Yosida envelope in terms of the proximal mapping.
With the help of this expression we show that a sequence of functions
converges to a given limit function in the sense of Mosco
if the corresponding Moreau-Yosida envelopes converge pointwise at all scales.
\(\hspace{1mm}\)
Finally we extend this result to the more general setting of Hadamard spaces.
As the reverse implication is already known, this unites two definitions of Mosco convergence
on Hadamard spaces, which have both been used in the literature,
and whose equivalence has not yet been known.
Divide-and-Conquer is a common strategy to manage the complexity of system design and verification. In the context of System-on-Chip (SoC) design verification, an SoC system is decomposed into several modules and every module is separately verified. Usually an SoC module is reactive: it interacts with its environmental modules. This interaction is normally modeled by environment constraints, which are applied to verify the SoC module. Environment constraints are assumed to be always true when verifying the individual modules of a system. Therefore the correctness of environment constraints is very important for module verification.
Environment constraints are also very important for coverage analysis. Coverage analysis in formal verification measures whether or not the property set fully describes the functional behavior of the design under verification (DuV). if a set of properties describes every functional behavior of a DuV, the set of properties is called complete. To verify the correctness of environment constraints, Assume-Guarantee Reasoning rules can be employed.
However, the state of the art assume-guarantee reasoning rules cannot be applied to the environment constraints specified by using an industrial standard property language such as SystemVerilog Assertions (SVA).
This thesis proposes a new assume-guarantee reasoning rule that can be applied to environment constraints specified by using a property language such as SVA. In addition, this thesis proposes two efficient plausibility checks for constraints that can be conducted without a concrete implementation of the considered environment.
Furthermore, this thesis provides a compositional reasoning framework determining that a system is completely verified if all modules are verified with Complete Interval Property Checking (C-IPC) under environment constraints.
At present, there is a trend that more of the functionality in SoCs is shifted from the hardware to the hardware-dependent software (HWDS), which is a crucial component in an SoC, since other software layers, such as the operating systems are built on it. Therefore there is an increasing need to apply formal verification to HWDS, especially for safety-critical systems.
The interactions between HW and HWDS are often reactive, and happen in a temporal order. This requires new property languages to specify the reactive behavior at the HW and SW interfaces.
This thesis introduces a new property language, called Reactive Software Property Language (RSPL), to specify the reactive interactions between the HW and the HWDS.
Furthermore, a method for checking the completeness of software properties, which are specified by using RSPL, is presented in this thesis. This method is motivated by the approach of checking the completeness of hardware properties.
This thesis presents research studies on the fundamental interplay of diatomic molecules with transition metal compounds under cryogenic conditions. The utilized setup offers a multitude of opportunities to study isolated ions: The ions can either be generated by an ElectroSpray Ionization (ESI) source or a Laser VAPorization (LVAP) cluster ion source. The setup facilitates kinetic investigations of the ions with different reaction gases under well-defined isothermal conditions. Moreover it enables cryo InfraRed (Multiple) Photon Dissociation (IR-(M)PD) spectroscopy in combination with tunable OPO/OPA laser systems. In conjunction with density functional theory (DFT) modelling, the IR(M)-PD spectra allow for an assignment of geometric minimum structures. Furthermore DFT modelling helps to identify possible reaction pathways. Altogether the presented methods allow to gain fundamental insights into molecular structures and reactivity of the investigated systems.
The first part of this thesis focuses on the interplay of N2 with different transition metal clusters (Con+, Nin+, and Fen+) by cryo IR spectroscopy and cryo kinetics. In conjunction with DFT modelling the N2 coordination was elucidated (Con+), structures were assigned (Nin+), the concept of structure related surface adsorption behavior was introduced (Nin+), and the a first explanation for the inertness if Fe17+ was given (Fen+). Furthermore this thesis provides for a case study on the coadsorption of H2 and N2 on Ru8+ that elucidates the H migration on the Ru cluster. The last part of the thesis addresses the IR spectra of in vacuo generated [Hemin]+ complexes with N2, O2, and CO. Structures and spin states were assigned with the help of DFT modelling.
In the present work, the interaction of diatomic molecules with charged transition metal clusters and complexes was investigated. Temperature controlled isothermal kinetic studies served to elucidate the adsorption behavior of transition metal clusters. Infrared multiple photon dissociation (IR-MPD) experiments in conjunction with density functional theory (DFT) computations enabled the analysis of adsorbate induced changes on the structure and spin multiplicity of transition metal cores. A tandem cryo trap setup was used for the kinetic and spectroscopic investigations of the given compounds as isolated species in the gas phase. The presented investigations enabled insight into the metal-adsorbate bonding and provided cluster size and adsorbate coverage dependent information on cluster surface morphologies.
Das Feld der Anionenerkennung ist ein stets wachsendes Forschungsgebiet, auch weil eine Vielzahl biochemischer Prozesse mit negativ geladenen Substraten und Co-Faktoren verbunden sind. Da solche Prozesse in wässrigem Milieu stattfinden, sind Verbindungen von besonderem Interesse, die Anionen in Wasser zu binden vermögen. Geeignete Rezeptoren zur Erkennung von Anionen sind die im Arbeitskreis Kubik entwickelten Cyclopeptide (CPs) und Bis(cyclopeptide) (BCPs).
Da die Anionenaffinität der in der Vergangenheit untersuchten BCPs nur in wenigen ausgesuchten Lösungsmittelgemischen und nie in reinem Wasser charakterisiert wurde, wurde im ersten Teil meiner Promotion ein BCP-Derivat entwickelt, mit dem kalorimetrische Bindungsstudien in einem breiten Spektrum von Lösungsmittelgemischen möglich waren. Die hierbei erhaltenen thermodynamischen Daten sollten Informationen über die Prinzipien geben, die der Anionenaffinität dieser Verbindungen zugrunde liegen. Es wurde zunächst die Synthese des bereits in meiner Diplomarbeit untersuchten BCP1 optimiert, dessen Wasserlöslichkeit durch insgesamt sechs Triethylenglycolreste vermittelt wird. Dieser Rezeptor erwies sich nach geeigneter Isolation ausreichend löslich, um Lösungen in Wasser mit einer Konzentration von bis zu 0.25 mM herzustellen. Es wurde ebenfalls das BCP2 mit einer zusätzlichen solubilisierenden Gruppe im Vergleich zu BCP1 synthetisiert, welches in bis zu 10 mM Konzentrationen in Wasser löslich ist. Mit beiden Rezeptoren wurden in Wasser, verschiedenen wässrigen Lösungsmittelgemischen und reinen organischen Lösungsmitteln Bindungsstudien durchgeführt, wodurch quantitative und qualitative Einblicke erhalten wurden, wie die Solvatisierung des Anions und des Rezeptors in den verschiedenen Lösungsmitteln die Anionenkomplexierung beeinflussen.
Im zweiten Teil dieser Arbeit wurde an der Entwicklung von CP-basierten chemischen Sensoren und Sonden gearbeitet, mit denen Anionen in Lösung detektiert werden können. In diesem Zusammenhang wurden Synthesen für zwei CPs entwickelt, die auf unterschiedliche Art auf Goldelektroden immobilisiert werden können. Diese Elektroden sollen für die elektrochemische Anionendetektion dienen. Im Bereich chemischer Sonden sollten mit CPs dekorierte Goldnanopartikel (Au-NPs) dargestellt werden, die nach Anionenzugabe agglomerieren. Die damit verbundene Farbveränderung der Lösung soll einen Anionennachweis mit bloßem Auge gestatten. Es wurden zwei CP-Grundstrukturen dargestellt, welche als anionenerkennende Liganden auf Au-NPs dienen können. Ebenfalls wurden erste Au-NPs synthetisiert, die eine Mischung oberflächengebundener inerter und CP-funktionalisierter Liganden enthielten.
Stadtumbau ist ein Veränderungsprozess: Baulich und räumlich, ebenso wirtschaftlich und gesellschaftlich. Kommunikation kommt dabei eine maßgebliche Rolle zu, im Sinne der Information, Partizipation und in der Begleitung von Veränderungsprozessen.
Insbesondere kommunale Presse- und Öffentlichkeitsarbeit ist dabei wichtig, denn sie versteht sich als Sprachrohr und Vehikel für die politischen Entscheidungen der Kommunalpolitik und -verwaltung. Damit hat sie neben ihrer informierenden Rolle eine demokratische Funktion.
Vor diesem Hintergrund betrachtet der Autor die Mechanismen kommunaler Presse- und Öffentlichkeitsarbeit und gibt die Inspiration und den Impuls für die Adaption von Instrumentarien und Mechanismen der Veränderungskommunikation für die kommunale Kommunikation. Hierzu werden die Phasen des Stadtumbaus mit Phasen der Veränderungskommunikation zum „Kommunikationsnetzwerk im Stadtumbau“ verschränkt.
Im Rahmen der Arbeit wird zudem ein Praxisbeispiel für kommunale Presse- und Öffentlichkeitsarbeit beschrieben sowie das entwickelte Kommunikationsnetzwerk in einer Szenariodarstellung skizziert.
Seit circa 150 Jahren wird versucht, Natur und Landschaft vor Zerstörung zu bewahren. Mit der Schaffung der ersten Staatlichen Stelle für Naturdenkmalpflege im Jahr 1906 wurde der Naturschutz auf die staatliche Ebene gehoben. Die Geschichtsforschung widmet sich erst seit wenigen Jahren diesem Thema und hier vornehmlich der Ideen- und Institutionengeschichte.
Der historische Rückblick auf die Anfänge der Naturauseinandersetzung zeigt deutlich, dass die spätere wissenschaftliche Aneignung von Natur und Landschaft, speziell in Thüringen, auf diesen frühen Zeiten basiert. Trotz der naturwissenschaftlich reichen Vorgeschichte entwickelte sich der staatliche Naturschutz in Thüringen aber nur schleppend. Insbesondere die bis 1920 andauernde thüringische Kleinstaaterei machte es der damaligen Beratungsstelle für Heimatschutz und Denkmalpflege, nahezu unmöglich, eine zentralisierte Naturschutzarbeit aufzubauen.
Trotz aller Probleme konnten sich die Naturschutzbeauftragten nach dem zweiten Weltkrieg neu etablieren. Während der Naturschutz in der DDR den in Nazideutschland begonnenen zentralisierten Weg weiter beschritt, wurde er in den westlichen Besatzungszonen auf die Bundesländer delegiert. Konnte sich in der BRD eine starke Umwelt- und Anti-Atomkraftbewegung entwickeln, erstarkte in der DDR die Naturschutzbewegung vornehmlich durch die im Kulturbund zusammengeschlossenen Fachgruppen.
Mit der Währungs-, Wirtschafts- und Sozialunion trat auch das Umweltrahmengesetz am 1.7.1990 in Kraft. Damit wurde Bundesrecht auf die noch existierende DDR angewendet. Eine neue rechtliche Legitimation erhielten die Naturschutzbeauftragten und -helfer aber erst mit Inkrafttreten des Vorläufigen Thüringer Naturschutzgesetzes 1993.
Nach mehreren Änderungen in der Thüringer Verwaltungs- und Gebietsstruktur sowie in der Naturschutzgesetzgebung gaben die mancherorts unüberhörbar gewordenen Dissonanzen zwischen Haupt- und Ehrenamt Anlass zu einer tiefer gehenden Betrachtung. Im Jahre 2011 wurden thüringenweit alle Mitglieder und Stellvertreter von Naturschutzbeiräten sowie Beauftragten für Naturschutz schriftlich befragt und mit den in den UNB zuständigen Mitarbeitern Gespräche geführt. Von den 535 befragten Ehrenamtlichen wurden 202 ausgefüllte Fragebögen zurück gesendet.
Bei der Auswertung der Fragebögen war auffällig, dass der überwiegende Teil der Ehrenamtlichen männlich und mit höherem Bildungsabschluss war. Viele der ehemaligen Naturschutzhelfer der DDR wurden als Beauftragte für Naturschutz oder als Mitglied eines Naturschutzbeirates übernommen. Das Durchschnittsalter der Ehrenamtlichen hat sich im Laufe der Zeit deutlich erhöht. So waren bereits 2012 allein 2/3 der Beauftragten für Naturschutz 61 Jahre und älter.
Anhand der Antworten ließen sich Schlussfolgerungen und Handlungsvorschläge ableiten. Trotz der bundesweit unterschiedlichen Regelungen in den Naturschutzgesetzen sind die Ergebnisse dieser Arbeit zum großen Teil auf andere Bundesländer übertragbar. Dies betrifft vornehmlich Vorschläge zur öffentlichen Darstellung der ehrenamtlichen Arbeit und zum Selbstverständnis.
Es bleibt festzustellen, dass die Kommunikations- und Konfliktlösungsfähigkeiten bei Ehrenamtlichen wie auch bei Hauptamtlichen nur eingeschränkt ausgebildet sind.
Hinsichtlich der Anerkennungskultur sehen die Ehrenamtlichen noch erhebliche Reserven. Dem gegenüber besitzen sie aber nur ein eingeschränktes Wissen um ihre Aufgaben und Pflichten. Neben diesem verstellten Aufgabenverständnis sehen sich viele Ehrenamtliche vornehmlich als Interessenvertreter der sie vorschlagenden Einrichtungen.
NoSQL-Datenbanken werden als Alternative zu klassischen relationalen Datenbanksystemen eingesetzt, um die Herausforderungen zu meistern, die „Big Data“ mit sich bringt. Big Data wird über die drei V definiert: Es sind große Datenmengen („Volume“), die schnell anwachsen („Velocity“) und heterogene Strukturen haben („Variety“). NoSQL-Datenbanken besitzen zudem meist nur sehr einfache Anfragemethoden. Um auch komplexe Datenanalysen durchzuführen, kommen meist Datenverarbeitungsframeworks wie MapReduce, Spark oder Flink zum Einsatz. Diese sind jedoch schwieriger in der Benutzung als SQL oder andere Anfragesprachen.
In dieser Arbeit wird die Datentransformationssprache NotaQL vorgestellt. Die Sprache verfolgt drei Ziele. Erstens ist sie mächtig, einfach zu erlernen und ermöglicht komplexe Transformationen in wenigen Code-Zeilen. Zweitens ist die Sprache unabhängig von einem speziellen Datenbankmanagementsystem oder einem Datenmodell. Daten können von einem System in ein anderes transformiert und Datenmodelle dementsprechend ineinander überführt werden. Drittens ist es möglich, NotaQL-Skripte auf verschiedene Arten auszuführen, sei es mittels eines Datenverarbeitsungsframeworks oder über die Abbildung in eine andere Sprache. Typische Datentransformationen werden periodisch ausgeführt, um bei sich ändernden Basisdaten die Ergebnisse aktuell zu halten. Für solche Transformationen werden in dieser Arbeit verschiedene inkrementellen Ansätze miteinander verglichen, die es möglich machen, dass NotaQL-Transformationen die vorherigen Ergebnisse wiederbenutzen und Änderungen seit der letzten Berechnung darauf anwenden können. Die NotaQL-Plattform unterstützt verschiedene inkrementelle und nicht-inkrementelle Ausführungsarten und beinhaltet eine intelligente Advisor-Komponente, um Transformationen stets auf die bestmögliche Art auszuführen. Die vorgestellte Sprache ist optimiert für die gebräuchlichen NoSQL-Datenbanken, also Key-Value-Stores, Wide-Column-Stores, Dokumenten- und Graph-Datenbanken. Das mächtige und erweiterbare Datenmodell der Sprache erlaubt die Nutzung von Arrays, verschachtelten Objekten und Beziehungen zwischen Objekten. Darüber hinaus kann NotaQL aber nicht nur auf NoSQL-Datenbanken, sondern auch auf relationalen Datenbanken, Dateiformaten, Diensten und Datenströmen eingesetzt werden. Stößt ein Benutzer an das Limit, sind Kopplungen zu Programmiersprachen und existierenden Anwendungen mittels der Entwicklung benutzerdefinierter Funktionen und Engines möglich. Die Anwendungsmöglichkeiten von NotaQL sind Datentransformationen jeglicher Art, von Big-Data-Analysen und Polyglot-Persistence-Anwendungen bis hin zu Datenmigrationen und -integrationen.
Computational simulations run on large supercomputers balance their outputs with the need of the scientist and the capability of the machine. Persistent storage is typically expensive and slow, its peformance grows at a slower rate than the processing power of the machine. This forces scientists to be practical about the size and frequency of the simulation outputs that can be later analyzed to understand the simulation states. Flexibility in the trade-offs of flexibilty and accessibility of the outputs of the simulations are critical the success of scientists using the supercomputers to understand their science. In situ transformations of the simulation state to be persistently stored is the focus of this dissertation.
The extreme size and parallelism of simulations can cause challenges for visualization and data analysis. This is coupled with the need to accept pre partitioned data into the analysis algorithms, which is not always well oriented toward existing software infrastructures. The work in this dissertation is focused on improving current work flows and software to accept data as it is, and efficiently produce smaller, more information rich data, for persistent storage that is easily consumed by end-user scientists. I attack this problem from both a theoretical and practical basis, by managing completely raw data to quantities of information dense visualizations and study methods for managing both the creation and persistence of data products from large scale simulations.
Im Zentrum dieser Arbeit steht die theoretische Beschreibung der magnetischen Anisotropie des Rhenium(IV)ions unter Anwendung von Dichtefunktionaltheorie. Das Ziel ist die Untersuchung der Eignung ein- und zweikomponentiger Dichtefunktionalmethoden zur Berechnung der magnetischen Anisotropie von Rhenium(IV)komplexen sowie der Vorschlag eines Liganden, der einen dreikernigen MnReMn-Komplex ermöglicht, der Einzelmolekülmagnetcharakteristiken aufweist.
Zu Beginn sollen drei einkernige Komplexe mit ein- und zweikomponentigen Dichtefunktionalmethoden (1c-DFT und 2c-DFT) untersucht: [ReCl6]2–, [ReCl4ox]2– und [ReCl4(CN)2]2–. Im einkomponentigen erfolgt die Berücksichtigung der Spin-Bahn-Kopplung über Störungstheorie 2. Ordnung unter der Annahme, dass diese die führende Ordnung in der Spin-Bahn-Kopplung ist. Dabei wurde festgestellt, dass dies bei Rhenium(IV), anders als beispielsweise bei 3d-Ionen, nicht der Fall ist. Vielmehr besitzt die Spin-Bahn-Kopplung auch in 4. Ordnung einen nicht zu vernachlässigenden Einfluss. Deshalb ist Störungstheorie 2. Ordnung ungeeignet, um die magnetische Anisotropie von Re(IV)-Komplexen zu bestimmen.
Zudem werden Berechnungen am dreikernigen [(PY5Me2Mn)2ReCl4(CN)2]2+-Komplex vorgestellt, der bereits in der Literatur beschrieben und hinsichtlich seiner magnetischen Anisotropie experimentell untersucht wurde. Dieser besteht aus einem [ReCl4(CN)2]2– Kern und jeweils zwei Mangan(II)ionen, die durch eine fünfzähnige „Endkappe“ abgeschlossen werden. Sowohl experimentell als auch theoretisch wurde festgestellt, dass die Rhombizität des Komplexes hoch ist, obwohl die lokale Symmetrie in der ersten Koordinationssphäre des Rheniumions (nahezu) D4h entspricht. Die Manganionen erzeugen durch die nicht-lineare Anordnung der Mn-NC-Re-CN-Mn-Einheit eine trigonale Verzerrung der Elektronenverteilung, die wiederum die Rhombizität der magnetischen Anisotropie vergrößert. Es wurde durch Berechnungen festgestellt, dass eine lineare Anordnung die Rhombizität erniedrigt. Aufgrund dieser Beobachtungen wurde die Suche nach einem Liganden aufgenommen, der als fünfzähnige „Endkappe“ fungiert und dabei eine lineare Anordnung der Mn-NC-Re-CN- Mn-Einheit ermöglicht. Dies wurde durch den PyMeAm4-Liganden, der aus einer Pyridin- und vier Amideinheiten besteht, in silico erreicht.
Im Rahmen dieser Doktorarbeit wurden neue effiziente Katalysatorsysteme für nachhaltige Transformationen entwickelt. Im ersten Projekt meiner Doktorarbeit wurde ein neuer und nachhaltiger Weg zur Synthese von 1,4-Butandiol aus Acetylen und CO2 entwickelt. Mit einer anorganischen Base und Kupferiodid als Katalysator konnte Acetylen mit einer TON von 90 zum Dikaliumacetylendicarboxylat umgesetzt werden. Die anschließende Hydrierung der Dreifachbindung gelang in quantitativen Ausbeuten. Der entscheidende Schritt war nun die direkte Veresterung des Kaliumsuccinats mit Methanol zum Dimethylsuccinat, da eine direkte Hydrierung des Kaliumsuccinats zum entsprechenden Alkohol thermodynamisch nicht möglich ist. Hierzu wurde die Reaktionslösung mit CO2-Druck begast und somit die notwendige Acidität für die Veresterung mit Methanol erzielt. Eine anschließende Hydrierung des Esters zum 1,4-Butandiol wurde in sehr guten Ausbeuten erreicht. Somit wurde erstmals eine Methode für die Synthese der wichtigen Basischemikalie 1,4-Butandiol aus Acetylen und CO2 ermöglicht. Im zweiten Teilprojekt dieser Arbeit wurde ein neuer nachhaltiger Zugang zu biologisch aktiven (E)-β-Alkoxyacrylaten ermöglicht. Hierbei wurde eine metallfreie, basenkatalysierte Carboxylierung mit anschließender Alkoxylierung terminaler Alkine mittels einfacher Dialkylcarbonate entwickelt. Für aromatische Substrate konnte mit Hilfe katalytischer Mengen Kaliummethoxid die entsprechenden Acrylate schon bei Raumtemperatur erzielt werden. Aliphatische Alkine wurde mit der stärkere Base Kalium-tert-butoxid in äquivalenten Mengen bei 90°C erfolgreich umgesetzt. Die Atomökonomie für diese Reaktion beträgt optimale 100 %. Im dritten Teilprojekt dieser Doktorarbeit wurde eine selektive Hydrierung von Fettsäuren, Fettsäureestern und Triglyceriden in Gegenwart von Alkoholen zu den entsprechenden unsymmetrischen Ethern entwickelt. Somit gelang es uns einen neuen, nachhaltigen Zugang zu langkettigen unsymmetrischen Alkylethern aus nachwachsenden Rohstoffen zu erzielen. Diese haben aufgrund ihres niedrigen Schmelzpunktes und der geringen Viskosität eine hohe Anwendungsbreite in Schmiermitteln, Tensiden und Kosmetika. Mit diesem Protokoll konnten sowohl Fettsäuren als auch Ester in reiner Form oder auch in Mischungen umgesetzt werden. Auch Triglyceride aus Rapsöl wurden erfolgreich ohne weitere Aufreinigung umgesetzt. Im letzten Teilprojekt erfolgte die Entwicklung einer Einschritt Sandmeyer-analogen Trifluormethylierung und Trifluormethylthiolierung. Hierbei werden Diazoniumsalze in situ aus den Anilinen generiert und anschließend direkt mit dem in situ generierten Cu-CF3 aus dem Ruppert-Prakash-Reagens und CuSCN umgesetzt. Aus dem Reaktiosgemisch werden die entsprechenden Benzotrifluoride gebildet und als einziges Nebenprodukt wird Stickstoff freigesetzt. Wird zu der Reaktionsmischung zusätzlich NaSCN als Schwefelquelle hinzugegeben werden hierbei die entsprechenden Trifluormethylthiolverbindungen erhalten.
V-Stoffe, die zur Klasse der Neurotoxischen Organophosphonate (NOPs) zählen, gehören zu den giftigsten bekannten Verbindungen. Ihre ausgeprägte Toxizität gegenüber dem Menschen erlaubt ihren Einsatz als chemische Kampfstoffe. Obwohl diese Verbindungen bereits vor mehr als 60 Jahren zum ersten Mal hergestellt wurden, steht noch keine sichere und universelle Therapiemethode zur Verfügung. Ein vielversprechender neuer Ansatz besteht in der Entwicklung sogenannter Scavenger. Dabei handelt es sich um Verbindungen, die NOPs im Körper binden und unschädlich machen, bevor sie Schaden anrichten. Makrocyclische Wirtverbindungen, die mit einer nukleophilen Gruppe substituiert sind, besitzen diese Eigenschaften.
In der vorliegenden Arbeit wurden neue Sulfonatocalix[4]arenderivate hergestellt, die mit einer Hydroxamsäuregruppe als nukleophiler Gruppe substituiert sind. Die erhaltenen Verbindungen wurden von unseren Kooperationspartnern am Institut für Pharmakologie und Toxikologie der Bundeswehr in München auf ihre Aktivität zur Entgiftung verschiedener V-Stoffe in wässriger Lösung untersucht. Als Ausgangsmaterialien zur Darstellung der potentiellen Scavenger wurden zunächst geeignete Sulfonatocalix[4]arenderivate synthetisiert. Anschließend wurden die Calixarenderivate mit entsprechenden Vorstufen verknüpft, in denen die Hydroxamsäuregruppe enthalten ist.
Es wurde ein Scavenger hergestellt, der VX mit einer Halbwertszeit von etwa 4 Minuten entgiftet, was im Vergleich zur Spontanhydrolyse einer Beschleunigung um das 3500-fache entspricht. Auch andere V-Stoffe wurden mit ähnlichen Geschwindigkeiten entgiftet. Diese Verbindung stellt damit den effizientesten niedermolekularen Scavenger für V-Stoffe dar, der bislang entwickelt wurde.
Neben den Messungen zur Bestimmung der Abbauraten für V-Stoffe wurden auch mechanistische Studien und Bindungsstudien durchgeführt. Hierbei konnte gezeigt werden, dass der Calixarenring effizient in wässriger Lösung an VX bindet. Außerdem wurde beobachtet, dass bei der Entgiftung von VX selektiv das ungiftige Abbauprodukt EMPA entsteht.
In the recent years small towns have experienced several negative developments. Especially in rural areas there are demographic problems and in the sector of retailing. Reforms in state administration resulted in the reduction of county administration seats. Also professional health care services are being reduced.
The thesis explores the effectiveness of three middle order centres (which in two cases are formed by more than one town) to fulfil their respective functions for their regions (complementary regions).
The spatial dominance of these towns in the sectors of jobs and services (retailing, secondary education – up to college level – health and entertainment) is surveyed.
The analysis is done with statistical material already collected by various institutions and by several own surveys. Interviews were done with experts.
Thus each middle order center and its complementary region is evaluated.
Haslach/Hausach/Wolfach performs best, albeit their demographic development is not dynamic. Bad Krozingen/Staufen has some shortcomings in its performance by the most dynamic demographic development of the three entities. Titisee-Neustadt's performance can be ranked second.
In a final chapter further research topics are listed.
Bei der Entwicklung moderner Landmaschinen besteht der Zielkonflikt zwischen Zuverlässigkeit und Dauerhaltbarkeit auf der einen Seite und Kosten- und Fahrzeugeffizienz auf der anderen Seite. Repräsentative Lastkollektive zur Beschreibung der Betriebsbelastungen im Nutzungsbetrieb sind dabei eine zentrale Forderung zur Dimensionierung von Bauteilen. Eine große Herausforderung besteht in der adäquaten Beschreibung der Nutzungsvariabilität einer Kundenpopulation und der Identifikation der kritischsten Kombination der Lastfälle.
Ziel der vorliegenden Arbeit ist die Ermittlung und Erprobung eines Verfahrens zur Beschreibung der wirkenden Belastungen von Traktoren im Anwendungsbetrieb. Im Fokus steht die Ableitung repräsentativer Lastkollektive, die als Grundlage für Betriebsfestigkeitsprüfungen dienen. Inhaltlich basiert das eingesetzte Verfahren auf der systematischen Trennung der auftretenden Betriebszustände (Faktormodell) und deren Einsatzverteilung im Kundenbetrieb (Nutzungsmodell). Die im Faktormodell identifizierten Betriebszustände werden dabei durch repräsentative Lastmessungen im Kundenbetrieb beschrieben. Mittels Monte-Carlo-Simulation erfolgt die Erzeugung einer beliebigen Anzahl virtueller Nutzer auf Basis der definierten Randbedingungen des Nutzungsmodells. Die erzeugten Nutzer besitzen jeweils eine individuelle Einsatzverteilung und das Verfahren ordnet ihnen abhängig von der vorgegebenen Nutzungsdauer die Lastdaten der korrespondierenden Betriebszustände zu. Die ausgewählten Lastdaten werden entsprechend der spezifischen Einsatzverteilung in Form von Pseudo-Schädigungszahlen für die Ziellebensdauer des Fahrzeugs aufsummiert. Die ermittelten Gesamtschädigungen sind dabei als Maß für die Härte der Belastungen im Anwendungsbetrieb zu verstehen. Auf Basis der Verteilung der Gesamtschädigungen einer Nutzerpopulation erfolgt die Identifikation des Referenz- oder Auslegungsnutzers (z. B.: 95% oder 99% Quantil). Die hinter dem ausgewählten Nutzer steckende Kombination der Lastfälle ermöglicht die Berechnung von repräsentativen Lastkollektiven. Das Verfahren ist zur Ermittlung von Eingangsbelastungen für Prüfprozeduren und die numerische Betriebsfestigkeitssimulation nutzbar. Es eignet sich weiterhin zur Durchführung von Sensitivitätsstudien bei der Entwicklung neuer Fahrzeuge wie auch zur Identifikation von marktspezifischem Kostenreduzierungspotential.
Das übergeordnete Ziel dieser Arbeit war die Synthese eines auxochrom-substituierten Derivats von p-Nitrostilbennitron (PNSN), sowie dessen biologische Anwendung als fluoreszierende spin trap, zur Identifikation und Lokalisation von zellulär gebildeten ROS.
Zunächst wurden von Hauck et al. (2009) veröffentlichte Syntheseschritte zur Darstellung von PNSN optimiert. Die Synthese der dazu korrespondierenden Aldehydvorstufe, konnte zunächst auch im Rahmen dieser Arbeit nicht auf auxochrom-funktionalisierte Nitrostilbenaldehyde übertragen werden. Deshalb wurde die dazu verwendete Heck-Matsuda-Reaktion einem Screening unterzogen (8 Ansätze). Die effektivste Umsetzung erfolgte durch das Erhöhen der gesamten Reaktionszeit bei einer initialen Kühlung. Anschließend wurde gezeigt, dass sich die optimierten Bedingungen auch zur Darstellung anderweitig-substituierter Stilbenaldehyde eignen (9 Ansätze). Auch zur Synthese der entsprechenden Stilbennitrone musste die publizierte Methode stark modifiziert werden und resultierte in teils quantitativen Ausbeuten.
Alle dargestellten Stilbennitronderivate wurden ausgiebig in Modelsystemen auf ihre optischen Eigenschaften, ihre Fähigkeit zum spin trapping und einer potentiellen, damit einhergehenden Fluoreszenzabnahme untersucht. In der Summe aller Untersuchungen stellte das p-Nitro-o-methoxystilbennitron (PNOMSN) das einzige der synthetisierten spin traps dar, welches verbesserte Eigenschaften bzgl. PNSN aufwies. Aus diesem Grund wurde PNOMSN in vitro auf seine biologische Anwendbarkeit überprüft (3 Zelllinien). Mittels eines SRB-Tests wurde zunächst dessen Atoxizität nachgewiesen. Danach wurde via konfokaler Laser-scanning-Mikroskopie (cLSM) eine mitochondriale Akkumulation von PNOMSN verfolgt und unter Zugabe von Atmungsketteninhibitoren festgestellt, dass auch auf zellulärer Ebene dessen Fluoreszenz innerhalb weniger Sekunden gequencht wird. In einer weiteren Studie wurden die entsprechenden Spin-Addukte aus Zellen extrahiert und EPR-spektroskopisch vermessen. Zudem wurde gezeigt, dass stabile Nitroxylradikale auch aus Kunststoffverbrauchsmaterialien (oxidierte HALS; TEMPO-Derivate) extrahiert werden und solche Messungen verfälschen können.
Außerdem konnte Fluorescein in ortho-Position formyliert und somit weiter zu einem Nitron funktionalisiert werden. Analog zu den Stilbennitronen wurde auch das dargestellte Fluoresceinnitron in Modelsystemen untersucht.
Nach Hauck (2007) wurde die cyclische spin trap EMPO synthetisiert. Zudem gelang es NBD-Chlorid und Dansylchlorid kovalent daran zu koppeln.
In current practices of system-on-chip (SoC) design a trend can be observed to integrate more and more low-level software components into the system hardware at different levels of granularity. The implementation of important control functions and communication structures is frequently shifted from the SoC’s hardware into its firmware. As a result, the tight coupling of hardware and software at a low level of granularity raises substantial verification challenges since the conventional practice of verifying hardware and software independently is no longer sufficient. This calls for new methods for verification based on a joint analysis of hardware and software.
This thesis proposes hardware-dependent models of low-level software for performing formal verification. The proposed models are conceived to represent the software integrated with its hardware environment according to the current SoC design practices. Two hardware/software integration scenarios are addressed in this thesis, namely, speed-independent communication of the processor with its hardware periphery and cycle-accurate integration of firmware into an SoC module. For speed-independent hardware/software integration an approach for equivalence checking of hardware-dependent software is proposed and an evaluated. For the case of cycle-accurate hardware/software integration, a model for hardware/software co-verification has been developed and experimentally evaluated by applying it to property checking.
In der vorliegenden Arbeit wurden 18 Saccharomyces-Hefestämme sowie zwei Stämme der Nichtsaccharomyces-Hefen Torulaspora delbruckii und Metschnikowia pulcherrima und ein Enzympräparat aus Aspergillus niger in Gärungen im Labor- und Praxismaßstab sowie in betriebsüblichen Wein- und Sektgärungen bezüglich ihres Potentials zur Freisetzung von glycosidisch gebundenen Aromastoffen charakterisiert. Die Untersuchungen wurden in drei Jahrgängen für die Rebsorten Chardonnay, Riesling und Muskateller durchgeführt. Hierbei wurden die Verfahren der Traubenverarbeitung zur Intensivierung der unterschiedlichen Ausgangsgehalte an Aromastoffvorläufern variiert. Zusätzlich wurden in Mosten der Rebsorten Riesling, Muskateller und Gewürztraminer die Einflussfaktoren Maischestandzeit und Pressung auf den Ausgangsgehalt an Aromastoffvorläufern untersucht. Alle Moste, hergestellten Weine, Grundweine und Sekte sind aromachemisch mittels SPE/GC-MS sowie die Weine und Sekte sensorisch durch die deskriptive Analyse untersucht worden. Anhand multivariater Statistik wurden die Datensätze modelliert. Die 18 eingesetzten Saccharomyces-Hefestämme sowie zusätzlich zwei Laborstämme der Art Debaromyces hansenii und Pichia anomala wurden mittels Plattentests unter Verwendung von YNB-Mangelmedium bei Zugabe der Substrate Arbutin und Cellobiose als Kohlenstoff-Quelle sowie mittels pNPG-Assay quantitativ auf Glycosidase-Aktivität getestet. Das Enzympräparat wurde ebenfalls mit dem Assay untersucht. Mittels qPCR erfolgte die Analyse der relativen Genexpression der mit der Glycosidase-Aktivität von Saccharomyces-Hefen in Verbindung stehenden Gene EXG1, SPR1 und YIR007W über den Verlauf einer Gärung. Die Analyse der Aromastoffvorläufer wurde mittels einer im Zuge der Arbeit etablierten SPE/GC-MS-Methode für die Injektion großer Probenvolumina durchgeführt. Anhand dieser Analytik als Referenzmethode sollte eine Schnellanalytik mittels FT-MIR entwickelt werden.
Die Untersuchungen zur Variation der Traubenverarbeitung demonstrierten einen signifikanten Einfluss auf die Aromastoffvorläufer-Gehalte im Most. Erstmalig konnte in dieser Arbeit verdeutlicht werden, dass eine verlängerte Maischestandzeit sowie gesteigerter Pressdruck bis hin zum fertigen Wein und Sekt als signifikanter Einflussfaktor sowohl auf die Gehalte der Aromastoffvorläufer als auch auf die Sensorik bestehen bleibt. Die Auswahl des Saccharomyces-Hefestammes hingegen konnte nicht als signifikanter, maximal als marginaler Einflussfaktor auf die Freisetzung der Aromastoffvorläufer oder die Sensorik der finalen Weine, Grundweine und Sekte identifiziert werden. Es wurden selbst bei weitestgehendem Ausschluss anderer mikrobiologischer Einflussfaktoren keine reproduzierbaren Unterschiede zwischen den untersuchten Hefestämmen nachgewiesen, wodurch kein prognostizierbarer Effekt ermittelt werden konnte. Dieses Ergebnis konnte durch die Charakterisierung der Enzymausstattung und aktivität der Hefen erklärt werden. Die Hefen konnten in den Plattentests die glycosidische Bindung der Substrate Arbutin und Cellobiose nicht spalten. Da Arbutin als spezifisch zum Nachweis des Enzyms 1,4 β Glucosidase gilt, kann davon ausgegangen werden, dass das Enzym in den Saccharomyces-Hefen nicht exprimiert wurde. Detektierbar mittels pNPG-Assay war hingegen eine basale Glycosidase-Aktivität, welche vermutlich auf die Nebenaktivität der exo 1,3 β Glucanase Exg1p zurückzuführen ist. Für das korrespondierende Gen EXG1 wurde mittels qPCR über den Verlauf einer Gärung proportional zum Abbau der Glucose eine ansteigende relative Expression bestimmt. Glucose scheint als Hemmstoff für die Genexpression von EXG1 zu wirken. Mit dem Anstieg der Genexpression ging die Abnahme der glycosidisch gebundenen Aromastoffvorläufer einher. Zwischen den untersuchten Saccharomyces-Hefestämmen bestanden dabei keine Unterschiede. Die Analyse der Sekte ergab nach neunmonatiger zweiter Gärung signifikante Unterschiede zwischen den regulär mit Hefe hergestellten Sekten und den ausschließlich unter Säureeinfluss stehenden Varianten ohne Hefezugabe. Damit konnte verdeutlicht werden, dass Saccharomyces-Hefen eine Glycosidase-Aktivität ausbilden, da sie im Vergleich zur ausschließlichen säurehydrolytischen Wirkung signifikant erhöht Aromastoffvorläufer freigesetzt hatten. Die Verwendung verschiedener Hefestämme führte hingegen nicht zu konsistenten Unterschieden in der Freisetzung der Aromastoffvorläufer und blieb ohne bemerkenswerte Auswirkungen auf die Sensorik der Grundweine und Sekte. Die im Praxismaßstab hergestellten Weine bestätigten diese Beobachtungen. Das aus Aspergillus niger stammende Enzympräparat AR2000 zeichnete sich hingegen in der Quantifizierung der Glycosidase-Aktivität mit ca. 1000fach erhöhter Aktivität gegenüber den Hefen aus. Dementsprechend setzte das Enzym in den Gärungen signifikant erhöht Aromastoffvorläufer frei und führte zu veränderten sensorischen Profilen der Weine und Sekte. Die weiterhin in die Versuche einbezogenen Nichtsaccharomyces-Hefen wurden teilweise positiv auf das Enzym β Glucosidase getestet und waren, insbesondere im Fall des Pichia anomala Stammes, auch durch eine signifikant erhöhte quantitative Enzymaktivität charakterisiert. Durch die umfassende Charakterisierung der Saccharomyces-Hefen im Vergleich mit Nichtsaccharomyces-Hefen und Enzympräparat wurde deutlich, dass die Glycosidase-Aktivität der Saccharomyces-Hefen nicht ausreicht, um das Aromapotential während der Wein- und Sektbereitung bedeutend ausschöpfen zu können.
Die in dieser Arbeit etablierte large volume injection GC-MS-Methode wurde validiert und gilt als eine stabile Methode mit hohen Wiederfindungsraten und guter Reproduzierbarkeit. Aufgrund von probenabhängigen Verlusten durch die SPE und die möglicherweise unvollständige enzymatische Spaltung der Aromastoffvorläufer bleibt der Gesamtmethode vermutlich ein systematischer Fehler der absoluten Aromastoffvorläufer-Gehalte zueigen, vergleichende Analysen sind jedoch problemlos möglich. Zum jetzigen Kenntnisstand existiert keine alternative Analysemethode. Die Unschärfe der SPE/GC-MS-Analytik pflanzte sich entsprechend bei der Entwicklung der Schnellmethode zur Quantifizierung der Aromastoffvorläufer mittels FT-MIR fort, welche mit der GC-MS-Methode als Referenzmethode etabliert werden sollte. Im Zuge der Methodenentwicklung am Gerät FT 120 Winescan (Foss) wurde zunächst die Signalintensität der Analyten in den Spektren verbessert, da Aromastoffvorläufer in Most und Wein unterhalb der üblichen Nachweisgrenze der MIR Spektroskopie liegen. Diese Erhöhung der Signalintensität wurde durch eine Vergrößerung der Küvettenstärke auf 150 µm und durch Verwendung der Lösungsmittel Dimethylsulfoxid oder Methanol erreicht. Für beide Küvetten-Lösungsmittel-Kombinationen wurde jeweils eine Basiskalibration mit einem Probensatz aus 37 heterogenen Most- und Weinproben verschiedener Rebsorten und Herkunft erstellt. Die Kalibrationen waren durch vielversprechende statistische Vorhersageparameter charakterisiert. Der Validierung mit unabhängigen Datensätzen konnten beide Kalibrationen aber bisher nicht standhalten.
In der modernen Hubschrauberfertigung werden neben Rotorblättern auch tragende
Strukturteile aus kohlenstofffaserverstärkten Kunststoffen eingesetzt. Um dabei
einen möglichst hohen Leichtbaugrad zu erreichen, werden immer neue Design-
Konzepte entwickelt. Innovative Design-Lösungen sind aber nur dann in der Fertigung
umsetzbar, wenn sie effizient, kostengünstig und fehlerfrei gefertigt werden
können.
Ein wichtiger Baustein für die Produktion sind die Fertigungsvorrichtungen, auf
denen die Bauteile laminiert und ausgehärtet werden. Diese Vorrichtungen sind ein
maßgeblicher Faktor zum Erreichen der geforderten Bauteilqualität. Das Augenmerk
liegt hierbei auf der sogenannten tool-part-interaction, also der Interaktion zwischen
Fertigungsvorrichtung und Faserverbundmaterial. Diese hat einen großen Einfluss
auf das Aufheiz- und Verpressungsverhalten der Prepreg-Materialien und somit auch
direkt auf fertigungsinduzierte Schädigungen wie Faltenbildung und Verzug.
Aktuell kann der Vorrichtungsentwickler lediglich auf Erfahrungswerte zurückgreifen,
um ein gutes Aufheiz- und Verpressungsverhalten der Vorrichtung zu erreichen.
Zur Minimierung von Falten fehlt jedoch häufig sogar das nötige Hintergrundwissen
über die grundlegenden Mechanismen der Faltenbildung. Nur ein langwieriger
trial-and-error Prozess nach Produktion der Vorrichtung kann helfen, Faltenbildung
zu eliminieren oder zumindest zu reduzieren.
Zukünftig muss es ein primäres Ziel für den Vorrichtungsbau sein, Fertigungsmittel
gezielt auslegen und bereits im Rahmen der Konzeptentwicklung Aussagen
über die zu erwartende Bauteilgüte und das Fertigungsergebnis machen zu können.
Einen möglichen Weg stellt die Einführung einer Herstellprozesssimulation dar, da
sie bereits in einer frühen Entwicklungsphase das Aufheiz- und Verpressungsverhalten
eines Bauteils sowie den Einfluss der Fertigungsvorrichtung auf die Bauteilqualität
einschätzen kann. Fertigungsinduzierte Schädigungen, wie der prozessinduzierte
Verzug, lassen sich bereits mit Hilfe von kommerziell erhältlichen Software-Tools
vorhersagen. Um zukünftig auch die Faltenbildung bei der Prepreg-Autoklavfertigung
vorhersagbar zu machen, müssen zwei übergeordnete Fragestellungen bearbeitet
werden:Faltenbildung: Wie läuft die Faltenbildung in der Autoklavfertigung ab und
welche Mechanismen bzw. Einflussfaktoren müssen besonders beachtet werden?
Simulation: Wie muss eine Herstellprozesssimulation geartet sein, um den
Einfluss der Fertigungsvorrichtung auf die Faltenbildung vorhersagen zu können
und Vorrichtungen auf diese Weise zukünftig auslegbar zu machen?
Experimentelle Untersuchungen an Omega- und C-Profilen helfen, die Faltenbildung,
ihren primären Mechanismus und vor allem die verschiedenen Einflussfaktoren
zu verstehen und zu bewerten. Im Falle der vorliegenden Arbeit wurde besonders
die Kompaktierung des Laminates über einem Außenradius und die daraus entstehende
überschüssige Faser- bzw. Rovinglänge als primärer Faltenauslöser betrachtet.
Es konnte aus den Experimenten abgeleitet werden, dass besonders der
Verpressungsweg, die Bauteilgeometrie, das verwendete Faserhalbzeug (unidirektional
oder Gewebe), die tool-part-interaction und das interlaminare Reibverhalten für
den untersuchten Mechanismus von Bedeutung sind. Daraus lassen sich die Mindestanforderungen
an eine Herstellprozesssimulation zusammenstellen.
Eine umfassende Materialcharakterisierung inklusive der interlaminaren Reibung,
der Reibinteraktionen zwischen Bauteil und Fertigungsvorrichtung sowie des
Verpressungsverhaltens des Faserbettes sind der erste Schritt in der Entwicklung
einer industriell einsetzbaren Simulation.
Die Simulation selbst setzt sich aus einem thermo-chemischen und einem
Kompaktiermodul zusammen. Ersteres ermittelt das Aufheizverhalten der Vorrichtung
und des Bauteils im Autoklaven und stellt darüber hinaus Aushärtegrad und
Glasübergangstemperatur als Parameter für das zweite Simulationsmodul zur Verfügung.
Zur korrekten Bestimmung des Wärmeübergangs im Autoklaven wurde ein
semi-empirisches Verfahren entwickelt, das in der Lage ist, Strömungseffekte und
Beladungszustände des Autoklaven zu berücksichtigen. Das Kompaktiermodul umfasst
das Verpressungsverhalten des Faserbettes inklusive des Harzflusses, der toolpart-
interaction und der Relativverschiebung der Laminatlagen zueinander. Besonders
das Erfassen der Durchtränkung des Fasermaterials mittels eines phänomenologischen
Ansatzes und das Einbringen der Reibinteraktionen in die Simulation muss
als Neuerung im Vergleich zu bisherigen Simulationskonzepten gesehen werden. Auf
diese Weise ist die Simulation in der Lage, alle wichtigen Einflussfaktoren der Faltenbildung zu erfassen. Der aus der Simulation auslesbare Spannungszustand kann
Aufschluss über die Faltenbildung geben. Mit Hilfe eines im Rahmen dieser Arbeit
entwickelten (Spannungs-)Kriteriums lässt sich eine Aussage über das zu erwartende
Faltenrisiko treffen. Außerdem ermöglicht die Simulation eine genaue Identifikation
der Haupttreiber der Faltenbildung für das jeweilige Bauteil bzw. Fertigungskonzept.
Parameter- und Sensitivitätsstudien können dann den experimentellen Aufwand
zur Behebung der Faltenbildung deutlich reduzieren.
Die hier vorliegende Arbeit erweitert damit nicht nur das Wissen über die Faltenbildung
in der Prepreg-Autoklavfertigung und deren Einflussfaktoren, sondern gibt
dem Vorrichtungsentwickler auch eine Simulationsmethodik an die Hand, die ihn in
die Lage versetzt, Fertigungsvorrichtungen gezielt auszulegen und zu optimieren.
In addition to rotor blades, primary structural parts are also manufactured from
carbon fiber reinforced plastics in modern helicopter production. New design concepts
are constantly developed in order to reach a maximum degree of lightweight
design. However, innovative design solutions are only realizable, if they can be manufactured
efficiently, economically, and free from defects.
Molds for laminating and curing of composite parts are of particular importance.
They are a relevant factor for achieving the required part quality. The attention is directed
at the so-called tool-part-interaction, i.e. the interaction between tools and fiber
composite materials, which has a great influence on the heating and compaction
behavior of the prepreg materials and therefore also directly on manufacturing induced
damage such as wrinkling and warping.
At present, the tooling designer can only resort to his/her experience to achieve
a good heating and compaction behavior of the molds. However, the necessary background knowledge about the fundamental mechanisms of wrinkling is often lacking
and only a tedious trial-and-error process after the production of the mold can
help eliminate or at least reduce wrinkling.
In the future, the primary goal for tooling production must be to specifically design
the manufacturing equipment and to be able to already make a statement about
the expected part quality and production result during the conceptual stage. A possible
solution is the introduction of a manufacturing process simulation, because at an
early development stage it can estimate the heating and compaction behavior of a
part as well as the influence of the manufacturing equipment on part quality. Commercially
available software tools are already able to predict damage during production,
as e.g. process induced deformation. In order to make wrinkling predictable also,
two primary issues need to be dealt with: Wrinkling: How does wrinkling develop in autoclave manufacturing and which
mechanisms or influencing factors need to be particularly considered?
Simulation: What must be integrated into a manufacturing process simulation,
if it is to predict the influence of the mold on wrinkling and to ensure future
tooling improvement? Experimental examinations of omega and c-profiles help to understand and
evaluate wrinkling, its primary mechanism, and particularly the various influencing
factors. In the case of the present paper, the compaction of the laminate over a convex
radius and the resulting surplus roving length was especially examined as primary
cause for wrinkling. From the experiments could be deduced that the compaction,
the part geometry, the utilized semi-finished fabrics (unidirectional and woven), the
tool-part-interaction and the interlaminar friction are of importance for the examined
mechanism. These factors determine the minimum requirements for a manufacturing
process simulation.
A comprehensive material characterization including interlaminar friction, friction
interaction between part and tool as well as the compaction behavior of the fiber bed
are the first step toward the development of a simulation on an industrial scale. The
simulation consists of a thermochemical and a compaction module. The former determines
the heating behavior of the mold and the part in the autoclave and additionally
provides the degree of cure and the glass transition temperature as parameters
for the second simulation module. A semi-empirical method that is able to consider
flow effects and loading conditions of the autoclave was developed for the correct
determination of the heat transfer within the autoclave. The compaction module comprises
the compaction behavior of the fiber bed including resin flow, tool-partinteraction
and relative displacement of the layers. Especially the integration of the
saturation phase by means of a phenomenological approach and the inclusion of friction
interaction in the simulation must be seen as innovation in comparison to other
simulation concepts. The simulation is thus able to capture all the important influencing
factors of wrinkling. The state of stress that is retrieved from the simulation can
provide information about the formation of wrinkles. Furthermore, the simulation enables
an exact identification of the main drivers for the development of wrinkles in the
respective part or manufacturing concept. Parameters and sensitivity analyses can
then significantly reduce the experimental effort for the elimination of wrinkling.
The present study does therefore not only expand the knowledge about wrinkling
and its influencing factors in prepreg autoclave manufacturing, but also presents
the tooling designer with a simulation methodology that enables him/her to systematically
develop and optimize manufacturing equipment.
Phosphodiesterasen (PDE) katalysieren die Hydrolyse der second messenger cAMP und cGMP und spielen damit eine wichtige Rolle in cAMP- und cGMP-vermittelten Signalkaskaden. PDE-Hemmstoffe besitzen pharmakologische Wirkungen und werden daher u.a. als Antikoagulantien, Antiphlogistika und Vasodilatatoren eingesetzt. Neben synthetischen PDE-Hemmstoffen sind zahlreiche natürliche Hemmstoffe bekannt, die sowohl in Arzneipflanzen als auch in Lebensmitteln vorkommen. So sind beispielsweise Methylxanthine, Chlorogensäuren, Alkylpyrazine und Flavonoide als PDE-Hemmstoffe beschrieben. Der Verzehr von Lebensmitteln mit PDE-hemmendem Potential könnte sich aufgrund der pharmakologischen Wirkungen von PDE-Hemmstoffen positiv auf das Risiko von Herz Kreislauf-Erkrankungen auswirken. Daher besteht gesteigertes Interesse, das PDE-hemmende Potential von verschiedenen Lebensmitteln und die dafür verantwortlichen Inhaltsstoffe zu identifizieren. Zwei Humanstudien haben in diesem Zusammenhang gezeigt, dass die PDE-Aktivität in Thrombozyten bei langzeitigem Konsum von Kaffee (Coffea arabica) gehemmt wurde. Dabei wurden die verantwortlichen Inhaltsstoffe in Kaffee nicht identifiziert, weshalb in der vorliegenden Arbeit eine Aktivitäts-geleitete Fraktionierung mit in vitro PDE-Aktivitäts-Assay durchgeführt wurde. Im Rahmen der Aktivitäts geleiteten Fraktionierung wurde eine Fraktion von wasserlöslichen Melanoidinen mit niedrigem Molekulargewicht (< 3 kDa), niedriger Polarität und UV-Aktivität (260 nm, 280 nm, 420 nm) als verantwortlich für die PDE-Hemmung durch Kaffee identifiziert. Als Mechanismus der Hemmung wurde eine nicht-kompetitive Hemmung bestimmt, die vermutlich durch die Chelatisierung von zweiwertigen Kationen durch die Melanoidinfraktion hervorgerufen wird. Da Daten zur Bioverfügbarkeit von intakten Melanoidinen in der Literatur fehlen, bleibt eine physiologische Bedeutung unklar. Weiterhin wurden in der vorliegenden Arbeit Arzneipflanzen mit kulinarischer Bedeutung auf ihr PDE-hemmendes Potential untersucht. Während Extrakte aus Erdbeerbaumfrüchten (Arbutus unedo) und Grüntee (Camellia sinensis) wider Erwarten keine Effekte auf die PDE-Aktivität besaßen, konnte für einen Artischockenblätterextrakt (ALE, Cynara scolymus) und einen Ingwerpulverextrakt (GPE, Zingiber officinale) ein mit Kaffee vergleichbares PDE-hemmendes Potential gezeigt werden. Einzelsubstanztestungen haben gezeigt, dass für das PDE-hemmende Potential des ALE vermutlich ein Synergismus von mehreren Inhaltsstoffen verantwortlich ist, wobei es sich sehr wahrscheinlich um Flavone und Chlorogensäuren handelt. Eine grobe Fraktionierung des GPE zeigte, dass das PDE-hemmende Potential der lipoiden Fraktion zuzuordnen war. Einzelsubstanztestung von [6]-Gingerol lässt vermuten, dass das PDE hemmende Potential von den Gingerolen und deren Derivaten ausgeht. So konnten in der vorliegenden Arbeit zwei neue Lebens- bzw. Arzneimittel mit PDE-hemmendem Potential identifiziert sowie die verantwortlichen Inhaltsstoffe eingegrenzt werden. Zukünftig gilt es zu untersuchen, ob Effekte durch den Verzehr dieser Extrakte oder Lebensmittel zu einem physiologischen Effekt führt, der positive Auswirkungen auf Herz-Kreislauf-Erkrankungen besitzt.
Chlorogenic acids (CGA) are phenolic compounds that form during the esterification of certain trans-cinnamic acids with (-)-quinic acid. According to several human intervention studies, they may have potential health benefits. Coffee is the main source of CGA in human nutrition, and is consumed either alone or in combination with a variety of foods. For this reason, the presented study aimed to clarify whether the simultaneous consumption of food, for example, a breakfast rich in carbohydrates, with instant coffee affects the absorption and bioavailability of CGA. The research specifically focused on how various food matrices, which are consumed at the same time as a coffee beverage, will influence kinetic parameters such as area under the curve (AUC), maximum plasma concentration (cmax), and time needed to reach maximum plasma concentration (tmax).
In a randomized crossover study, fourteen healthy participants consumed either pure instant coffee or coffee with a carbohydrate- or fat-rich meal. All of the subjects consumed the same quantity of CGA (3.1 mg CGA/kg body weight). Blood samples, collected at various time points up to 15 h after instant coffee consumption, were quantitatively analysed. Additionally, three urine collection intervals were chosen over a time period of 24h. High performance liquid chromatography electrospray ionization tandem mass spectrometry (HPLC-ESI-MS/MS) was used to determine the CGA present, along with the concentrations of respective metabolites.
During a blind data review meeting, 20 of the 56 analysed plasma metabolites were chosen for further statistical analysis. A total of 36 metabolites were monitored in the urine samples. Similar as in the plasma samples, between-treatment differences, measured through AUC, Cmax, and tmax, of various CGA derived metabolites were to estimate. Each treatment was also analysed in terms of the correlation between the plasma AUC and urinary excretion of seven metabolites.
It is already known that inter-individual variations in CGA absorption depends on gut microbial degradation and affects the efficacy of these compounds. Microorganisms present in the gastrointestinal tract metabolise CGA to form dihydroferulic acid (DHFA) and dihydrocaffeic acid (DHCA) derivatives, which precede the subsequent formation of a wide range of metabolites. Therefore stool samples were collected from the participants within 12 h before the second study day. Subsequent an ex-vivo incubation of faecal samples with 5-O-caffeoylquinic acid (5-CQA), the main chlorogenic acid found in coffee was performed. An HPLC system connected to a CoulArray® detector was used to measure the concentrations of 5-CQA and its metabolites. Reduced concentrations of 5-CQA as well as the appearance of DHCA and caffeic acid (CA) in the gut microbiota medium, were monitored to calculate the inter-individual kinetics for each compound. In addition, these samples were analysed for microbiota content by an external laboratory (L&S, Bad Bocklet, Germany). These results were used to distinguish whether the decreased or increased content of a specific microorganism was related to an individual’s decreased or increased metabolic efficiency. Finally, we used to aforementioned results to evaluate if any correlation could be drawn between the plasma appearance, urinary excretion and ability of microorganisms to degrade 5-CQA.
Strong inter-individual variation was observed for AUC, Cmax and tmax. The AUC measured the quantity of CGA in plasma samples. We noted that pure instant coffee consumption resulted in slightly higher CGA bioavailability than instant coffee with the additional consumption of a meal. However, these differences were not statistically significant. Additionally, the metabolites were divided into groups, according to similarity and chemical properties. They were further classified into three groups according to their physical structure and predicated from the area of appearance: directly from coffee (quinics), after first degradation and metabolism (phenolics, all trans-cinammic acids and their sulfates and glucuronides) as well as colonic degradation and metabolism (colonics, all dihydro compounds). These respective metabolic classes showed significant differences in the AUC values of certain classes yet no significant between-treatment differences. Our results corroborated earlier studies in that the three caffeoylquinic acid (CQA) isomers were absorbed to a lower extent whereas all feruloylquinic acids (FQA) were detected in comparably high amounts in the plasma samples of the volunteers. However, the amount of these quinic acid conjugates in the plasma samples accounted for only 0,5% of the total amount of identified. In contrast, at least 8.7% of the investigated compounds were identified to be phenolics. Dihydro compounds, the so known colonics, were identified as the most common metabolites (90.8%). Additionally, dihydroferulic acid (DHFA), meta-dihydrocoumaric acid (mDHCoA), dihydrocaffeic acid-3-sulfate (DHCA3S) and dihydroisoferulic acid (DHiFA) were identified to account for 78% of the studied metabolites, and thus represent the most abundant compounds circulating in the plasma after coffee consumption.
Irrespective of treatment, the tmax value for early metabolites (quinic and phenolic compounds) was observed between 0 and 2 h after the ingestion of coffee and tmax value for late metabolites (colonic metabolites) was observed between 7 and 10 h. The amount of colonic metabolites had not returned to the baseline level 15 h after the ingestion of coffee. The co-ingestion of breakfast and coffee, when compared to the ingestion of coffee alone, significantly increased the Cmax values for all quinic and phenolic compounds, as well as two colonic metabolites (DHCA and DHiFA). These differences also revealed that the three treatments differed in terms of the kinetics of release. Thus, future studies should use an extended plasma collection time with shorter intervals (e.g. 2 h) to provide a full pharmacokinetic profile.
There were no statistically significant between-treatment differences in the urine samples collected 24 h after coffee ingestion. However, urine samples collected within six hours of the consumption of coffee alone or in combination with a fat-rich meal showed significantly higher CGA quantities than samples collected at the same time point for coffee ingested with a carbohydrate-rich. Strong inter-individual variability and the fact that only 14 healthy subjects participated in the study hindered the identification of any clear trend between the plasma concentrations of metabolites and their excretion in urine.
Four hours after the ex vivo incubation of 5-CQA with individual faecal samples the sum of 5-CQA, CA, and DHCA varied strongly between participants. These findings could result from binding effects of the phenolic compounds with faecal constituents, further degradation or metabolism, and/or the release of bound phenolic substances before the experiment started. We hypothesized that for participants with high plasma AUCs of dihydro compounds, their incubation samples show also high concentrations of CA and DHCA in the incubation medium after four hours. No significant correlation could be found.
This study and all of the outcomes were exploratory. Due to the limited number of participants, we could only investigate tendencies for how the co-ingestion of food affects the bioavailability of CGAs and their respective metabolites following coffee consumption. Therefore, the achieved results are only indicative. Despite this limitation, the data highlight that even though all three treatments had strong similarities in the total bioavailability of CGAs and metabolites from instant coffee, there were between-treatment differences in the kinetics of release. The co-ingestion of breakfast and coffee favoured a slow and continuous release of colonic metabolites while non-metabolized coffee components were observed in plasma within the first hour when coffee was ingested alone.
In conclusion, both a shift in gastrointestinal transit time and the plasma metabolite composition were observed when the ingestion of coffee alone or in combination with breakfast were compared. These results showed that breakfast consumption induces the retarded release of chlorogenic acid metabolites in humans. The data from our human intervention study suggest that the bioavailability of chlorogenic acids from coffee and their derivatives does not only depend on chemical structure, molecular size and active or passive transport ability, but is also influenced by inter-individual differences. Therefore, we strongly recommend that future studies include metabolism experiments that focus on microbiota genotypes and/or the genotyping of individual subjects. This type of research could be pivotal to elucidating whether, and how, genotype affects the metabolic profile after chlorogenic acid intake.
Keilzinkenverbindungen als Fügetechnik für dünne Bauteile aus mikrobewehrtem Hochleistungsbeton
(2017)
Auf Grundlage von in erster Linie experimentellen Untersuchungen wurden im Rahmen
der Arbeit Keilzinkenverbindungen zum Fügen dünner Bauteile aus mikrobewehrtem
Hochleistungsbeton erforscht. Als Klebstoff kam hierbei ein rein zementgebundener
Hochleistungsmörtel zum Einsatz.
Die Entwicklung von Hochleistungsbetonen und neuartigen Bewehrungsformen, wie
Glas- oder Kohlefasergelegen, ermöglicht die Realisierung von sehr filigranen Konstruktionen.
Aus verschiedenen Gründen, beschränkt sich die Anwendung fast ausschließlich
auf werksmäßig hergestellte Fertigteile. Um daraus größere Strukturen
realisieren zu können, sind geeignete Fügetechniken erforderlich. Einen vielversprechenden
Ansatz stellen hier Klebverbindungen dar. Das Kleben als flächige Fügetechnik
zeichnet sich durch eine kontinuierliche Kraftübertragung und gleichmäßige
Materialauslastung aus.
Der große Vorteil von Zement-Klebstoffen im Vergleich zu Reaktionsharzklebstoffen
ist, dass sie weitestgehend unempfindlich gegenüber Umwelteinflüssen sind. Neben
zwei Hochleistungsmörteln, welche auf einer von Mühlbauer 2012 entwickelten Rezeptur
basieren, wurde ein kommerzieller Hochleistungsmörtel eingesetzt.
In einem ersten Schritt wurden verschiedene Voruntersuchungen durchgeführt. Im
Mittelpunkt standen dabei Tastversuche mit unterschiedlichen Fugenvarianten. Das
Versuchsprogramm sah verschiedene Fugengeometrien und Beanspruchungsarten
vor. Neben Mikrobewehrung kam hierbei auch Stabstahlbewehrung zum Einsatz. Als
besonders vorteilhaft hat sich die Keilgeometrie oder Keilzinkenverbindung, wie aus
dem Holzbau bekannt, herauskristallisiert. Neben einer hohen Traglast weist diese
weitere positive Eigenschaften auf, wie z.B. ein duktiles Tragverhalten.
Auf Grundlage von Kleinteilversuchen wurden in einem nächsten Schritt Bruchkriterien
entwickelt, die die Festigkeit der Klebfuge sowohl für eine kombinierte Schub-
Druck- als auch für eine Schub-Zugbeanspruchung beschreiben.
In einer umfangreichen Versuchsserie wurde schließlich das Tragverhalten von Keilzinkenverbindungen
detailliert untersucht. Neben Zugversuchen wurden dabei auch
Drei- und Vierpunktbiegeversuche durchgeführt. Das Versagen lässt sich vereinfachend
in ein Fugenversagen und ein Bewehrungsversagen unterteilen. Ziel einer
fachgerechten Konstruktion und Ausführung von Keilzinkenverbindungen muss ein
Bewehrungsversagen und damit ein duktiles Tragverhalten sein. Einflussfaktoren auf
das Tragverhalten sind der Flankenneigungswinkel, die Zahnlänge, der Bewehrungsgrad
des Bauteils sowie die Art der Klebflächenvorbereitung und der verwendete
Klebstoff.
Basierend auf den gewonnen Erkenntnissen wurde in einem letzten Schritt ein praxisgerechtes
Bemessungskonzept für zugbeanspruchte, biegebeanspruchte sowie
biege-querkraftbeanspruchte Keilzinkenverbindungen entwickelt.
In der vorliegenden Arbeit wird die Entwicklung und Beurteilung einer alternativen
kontinuierlichen Preform-Technologie zur Vorstabilisierung von trockenen Kohlenstofffaserhalbzeugen
unter Verwendung der Ultraschall-Schweiß-Technologie für
Kunststoffe präsentiert. Aktuell verwendete Technologien für Großbauteile in der
Luftfahrt sind in der Regel diskontinuierlich und wenig produktiv. Zudem weisen sie
Probleme hinsichtlich des gewünschten Kompaktierungsgrades und der Oberflächenqualität
auf. Diesen Nachteilen soll durch den Einsatz des kontinuierlichen
Ultraschall-Preformens begegnet werden.
Innerhalb der Ausarbeitung wurde eine neue Funktionseinheit, die für die Anforderungen
in einem kontinuierlichen Preform-Prozess geeignet ist, entwickelt und mit
passender Sensorik und Steuerung in einen Versuchsstand integriert. Durch statische
Versuche konnte das halbzeugabhängige Aufheizverhalten untersucht
werden. Es zeigte sich, dass der Erwärmungsprozess durch Reibung zwischen den
Filamenten bestimmt wird und somit einen homogenen Prozess unterstützt.
Untersuchungen der Parameter führten zu diskreten und materialabhängigen Prozessfenstern
und einem tieferen Verständnis für die Einflüsse des Schweiß-Prozesses
auf das Preform-Verhalten. Durch die Betrachtung von Prozessgrenzen
konnten unerwünschte Strukturdefekte ausgeschlossen und das Potenzial für die
Nutzung verschiedener Materialien sowie für den Einsatz an komplexeren Bauteilen
aufgezeigt werden. Weiterhin wurde durch Permeabilitätsuntersuchungen gezeigt,
dass es einen materialabhängigen Einfluss des Prozesses auf die Infusionierbarkeit
gibt, der sich sowohl als eine Verbesserung als auch eine als Verschlechterung
darstellen kann. Durch vibrationsinduzierte Verdichtungsprozesse konnten höhere
Faservolumengehalte bei einer gesteigerten Produktivität erzielt werden. Auch eine
partielle Verbesserung der mechanischen Eigenschaften ist durch die Anwendung
des Ultraschall-Prefom-Verfahrens möglich. Für die Herstellung komplexerer Strukturen
eignet sich das Verfahren ebenso, wie an einem Demonstrator gezeigt werden
konnte. Geometrische Restriktionen grenzen die Anwendbarkeit allerdings ein.
Durch die Entwicklung der Technologie konnte eine vielversprechende Alternative
dargelegt werden, die Kosten sparen und Bauteileigenschaften verbessern kann.
Als Begleiterscheinungen des rasanten Wirtschaftswachstums und der nicht behutsamen Raumentwicklungen Südkoreas seit Beginn der 60er Jahre kristallisierten sich monotone Stadtstrukturen, regionaler Identitätsverlust und enorme ökologische Belastung als negative Erscheinungsformen der Raumordnung heraus. Erhebliche Umweltbelastungen, Veränderungen des Stadtbilds und die Flächeninanspruchnahme sind vor allem in der Hauptstadt Seoul signifikante Folgen der städtischen Ausdehnung und Verdichtung. Zur planmäßigen Steuerung von Schutz-, Pflege- und Entwicklungsmaßnahmen für die gesamte Umwelt wurde dort das Gesetz zur Landschaftsplanung im Jahr 2007 als Grundgesetz für systematische und wirksame Landschaftsplanung verabschiedet und die rechtskräftige Landschaftsplanung Seouls im Jahr 2009 aufgestellt. Im Vergleich dazu ist die Landschaftsplanung in Deutschland bereits seit 1976 in Form des Bundesnaturschutzgesetzes rechtlich verankert. Sie entwickelte sich zu einem verlässlichen Planungsinstrument des Naturschutzes und der Landschaftspflege und spielt eine wichtige Rolle in der Steuerung eines ausgewogenen städtischen Naturhaushaltes.
Die Zielsetzung dieser Arbeit ist es, die theoretischen Grundlagen und praktischen Anwendungsbeispiele der Landschaftsplanung im städtischen Raum zu untersuchen sowie zukünftige Entwicklungsstrategien der koreanischen Landschaftsplanung im Sinne eines zentralen und vorsorgenden Steuerungsinstruments des Urbanisierungsprozesses zu erarbeiten. Anhand der Beispiele Seoul und Berlin sollen wirksame Steuerungsprozesse und Erfolgsparameter der Landschaftsplanung herausgearbeitet und schlussendlich Verbesserungsvorschläge für die koreanische Landschaftsplanung aufgezeigt werden.
Um Analyse sowie Auswertung der Landschaftsplanung durchzuführen, erfolgt zuerst eine theoretische Untersuchung des Wandels im umweltpolitischen Aufgabenspektrum – es folgen die fachlichen Diskussionen und die Herausarbeitung der raum- und umweltbezogenen Planungsinstrumente.
In dieser Arbeit werden insbesondere die Auslegungen gesetzlicher Grundlagen der Landschaftsplanung und die räumlichen Entwicklungen mit Flächennutzung beider Städte betrachtet. Auf dieser Grundlage werden inhaltliche Struktur, Auswirkungen und praxisbezogene Umsetzungsbeispiele zusammengefasst, um anschließend die Merkmale städtischer Landschaftsplanung zu identifiziert.
Im Ergebnis werden die expliziten Unterschiede der beiden Landschaftsplanungen mit den theoretischen Grundlagen und praxisbezogenen Beispielen vergleichend widergespiegelt sowie die differenzierten Handlungsstrategien für die erfolgreiche Implementierung der koreanischen Landschaftsplanung im Sinne eines zentralen Steuerungsinstruments dargelegt.
Following the ideas presented in Dahlhaus (2000) and Dahlhaus and Sahm (2000) for time series, we build a Whittle-type approximation of the Gaussian likelihood for locally stationary random fields. To achieve this goal, we extend a Szegö-type formula, for the multidimensional and local stationary case and secondly we derived a set of matrix approximations using elements of the spectral theory of stochastic processes. The minimization of the Whittle likelihood leads to the so-called Whittle estimator \(\widehat{\theta}_{T}\). For the sake of simplicity we assume known mean (without loss of generality zero mean), and hence \(\widehat{\theta}_{T}\) estimates the parameter vector of the covariance matrix \(\Sigma_{\theta}\).
We investigate the asymptotic properties of the Whittle estimate, in particular uniform convergence of the likelihoods, and consistency and Gaussianity of the estimator. A main point is a detailed analysis of the asymptotic bias which is considerably more difficult for random fields than for time series. Furthemore, we prove in case of model misspecification that the minimum of our Whittle likelihood still converges, where the limit is the minimum of the Kullback-Leibler information divergence.
Finally, we evaluate the performance of the Whittle estimator through computational simulations and estimation of conditional autoregressive models, and a real data application.
Magnetic and Structural Characterization of Isolated Gaseous Ions by XMCD and IRMPD Spectroscopy
(2017)
This thesis comprises four independent research studies on the magnetic and structural characterization of isolated ions in the gas phase. The electrospray ionization (ESI) technique is used for the transfer of (multi-)metallic complexes and organic molecules from solution into the gas phase. The subsequent storage of molecular ions in ion traps allows for a variety of spectroscopic methods in order to investigate the intrinsic properties of the isolated species void of solvent, crystal lattice, bulk or supporting surface effects. The magnetic properties of metal complexes are elucidated by gas phase X-ray magnetic circular dichroism (XMCD) spectroscopy. The element selective technique in combination with sum rule analysis allows for a separate determination of spin and orbital magnetic moments at different metal centers. Structural investigations on isolated molecular ions in terms of coordination sphere, binding motifs and hydrogen bonds are conducted using infrared multiple photon dissociation (IRMPD) spectroscopy. A resonant two color IRMPD technique serves to increase fragmentation yields, overcome dissociation bottlenecks and reveal otherwise dark bands. Comparison of experimental IRMPD spectra with calculated harmonic absorption spectra by density functional theory (DFT) provides structural assignments for a profound understanding of intra- and intermolecular interactions.
This dissertation describes an indoor localization system based on oscillating magnetic fields and the underlying processing architecture. The system consists of several fixed anchor points, generating the magnetic fields (transmitter), and wearable magnetic field measurement units, whose position should be determined (receiver). The system is evaluated in different environments and application areas. Additionally, various fields of application are discussed and assessed in ubiquitous and pervasive computing and Ambient Assisted Living. The fusion of magnetic field-based distance information and positions derived from LIDAR distance measurements is described and evaluated.
The system architecture consists of three layers, a physical layer, a layer for position and distance estimation between a magnetic field transmitter and a receiver, and a layer which uses several measurements to different transmitters to estimate the overall position of a wearable measurement unit.
Each layer covers different aspects which have to be taken care of when magnetic field information is processed. Especially the properties of the generated magnetic field information are considered in the processing algorithms.
The physical layer covers the magnetic field generation and magnetic Field-Based information transfer, synchronization of a transmitter and the receivers and the description of the locally measured magnetic fields on the receiver side. After a transfer of this information to a central processing unit, the hardware specific signal levels are transformed to the levels of the theoretical magnetic field models. The values are then used to estimate candidate positions and distances. Due to symmetrical effects of the magnetic fields, it is only possible to reduce the receiver position to 8 points around the transmitter (one position in each of the octants of the coordinate system). The determined positions have a mean error of 108 cm, the average error of the distance is 40 cm.
On top of this, the distance and position information against different transmitters are fused, this covers clock synchronization of transmitters, triggering and scheduling sequences and distance and position based localization and tracking algorithms. The magnetic-field-based indoor localization system has been evaluated in different applications and environments; the mean position error is 60 cm to 70 cm depending on the environment. A comparison against an RF-based indoor localization system shows the robustness of magnetic fields against RF shadows caused by big metal objects.
We additionally present algorithms for regions of interest detection, working on raw magnetic field information and transformed position and distance information. Setups in larger areas can distinguish regions which are further than 50 cm apart, small scale coil setups (3 transmitters in 2m^3) allow to resolve regions below 20 cm.
In the end, we describe a fusion algorithm for a wearable localization system based on 4 LIDAR distance measurement units and magnetic field-based distance estimation. The magnetic field indoor localization system provides distance proximity information which is used to resolve ambiguous position estimates of the LIDAR system. In a room (8m × 10m), we achieve a mean error of 8 cm.
Non–woven materials consist of many thousands of fibres laid down on a conveyor belt
under the influence of a turbulent air stream. To improve industrial processes for the
production of non–woven materials, we develop and explore novel mathematical fibre and
material models.
In Part I of this thesis we improve existing mathematical models describing the fibres on the
belt in the meltspinning process. In contrast to existing models, we include the fibre–fibre
interaction caused by the fibres’ thickness which prevents the intersection of the fibres and,
hence, results in a more accurate mathematical description. We start from a microscopic
characterisation, where each fibre is described by a stochastic functional differential
equation and include the interaction along the whole fibre path, which is described by a
delay term. As many fibres are required for the production of a non–woven material, we
consider the corresponding mean–field equation, which describes the evolution of the fibre
distribution with respect to fibre position and orientation. To analyse the particular case of
large turbulences in the air stream, we develop the diffusion approximation which yields a
distribution describing the fibre position. Considering the convergence to equilibrium on
an analytical level, as well as performing numerical experiments, gives an insight into the
influence of the novel interaction term in the equations.
In Part II of this thesis we model the industrial airlay process, which is a production method
whereby many short fibres build a three–dimensional non–woven material. We focus on
the development of a material model based on original fibre properties, machine data and
micro computer tomography. A possible linking of these models to other simulation tools,
for example virtual tensile tests, is discussed.
The models and methods presented in this thesis promise to further the field in mathematical
modelling and computational simulation of non–woven materials.
Das Ziel der vorgelegten Dissertation bestand darin, eine eigenständige Methode zur Berechnung der Mößbauer Isomerieverschiebung δ und Quadrupolaufspaltung ∆EQ zu entwickeln und Rechenkonditionen zu formulieren, die eine optimale Übereinstimmung berechneter und gemessener Werte eben dieser Mößbauerparameter gewährleisten.
Die dafür eigenständig angefertigten Programme wurden innerhalb einer TURBO-MOLE Version implementiert, welche als Entwicklerversion in der Arbeitsgruppe von Prof. Dr. Christoph van Wüllen genutzt wird. Diese Programme ermöglichen die Anfertigung von quantenchemischen Rechnungen unter Berücksichtigung der Ausdehnung der Atomkerne, indem sie die Ladungsverteilung des Atomkerns über eine Gaußfunktion simulieren.
Auf Grundlage dieser expliziten Berücksichtigung der Kernladungsverteilung lässt sich ein Operator berechnen, der als Produkt mit der Elektronendichte am Atomkern die Berechnung der Isomerieverschiebung zulässt. Des Weiteren lässt sich der Elektrische Feldgradiententensor berechnen, welcher die räumliche Verteilung der Elektronendichte um ein Atom beschreibt und so zur Berechnung der Quadrupolaufspaltung dient.
Mit Hilfe dieser Programme wurden umfassende Rechnungen angefertigt, die sowohl den Einfluss der verwendeten Basis als auch des Funktionals auf die Güte der dichtefunktionaltheoretischen Rechnung ermitteln und bewerten können. Dazu wurde ein Katalog an Molekülen erstellt, der den gesamten möglichen Wertebereich experimenteller Daten abdeckt. Diese Moleküle wurden unter Verwendung einer Referenzbasis berechnet, die sämtliche theoretischen Anforderungen an eine zur optimalen Berechnung der Mößbauerparameter geeigneten Basis erfüllt. Die Ergebnisse dieser Rechnungen dienten als Referenzwerte, welche mittels linearer Regression mit den Ergebnissen verschiedener getesteter Basissätze verglichen wurden. Dieses Verfahren wurde durch den Abgleich der experimentellen Daten der zugehörigen Moleküle vervollständigt.
Das Ergebnis dieser Benchmarkingprozesse zeigt, dass die Beschreibung des Rumpfbereichs des Atoms maßgeblich die Güte der Ergebnisse beeinflusst. Basissätze mit voller Qualität in allen Orbitalen führen zu einer deutlich höheren Übereinstimmung der berechneten Daten mit sowohl den Referenz- als auch den experimentellen Daten. Sie sind solchen Basissätzen vorzuziehen, die nur die Va- lenzorbitale mit der vollen Qualität der Basis beschreiben.
Das Methodenrepertoire der Stadt- und Umweltplanung befindet sich insbesondere durch den zunehmenden Einsatz von Geoweb-Methoden insgesamt in einem Umbruch hin zu einer „Smart urban Crowdsourcing“-Wissensgesellschaft [STREICH 2011: 236 F]. Kontinuierlich nimmt die An-zahl zur Verfügung stehenden Geoweb-Techniken zu, die auf ihren Einsatz in der Stadt- und Umweltplanung warten, sich in planerische Methoden integrieren oder zu solchen weiterentwickeln lassen. Am Beispiel des Verhältnisses von Planern gegenüber Bürgern werden die Veränderungen des planerischen Aufgabengebietes besonders dadurch deutlich, dass es sich hierbei nicht mehr um den reinen Transport von Informationen und gegebenenfalls eine Hilfestellung bei der Übersetzung dieser in einem klassischen Sender-Empfänger-Prinzip handelt. In einer, durch soziale Netzwerke und mobile Endgeräte, zunehmend digitalisierten Welt, ist es theoretisch möglich, dass jedem Bürger zu jeder Zeit an jedem Ort jede beliebige In-formation zum Abruf bereit steht. Auf diese Weise kann sich der Bürger informieren, seine eigene Meinung bilden und diese teilen. Da die ange-sprochenen mobilen Endgeräte zusätzlich mit Verortungstechnik ausgestat-tet sind und die geteilten Informationen um Angaben eines räumlichen Bezuges in Form von Geo-Koordinaten ergänzt werden können, bekommen die auf diesem Wege erstellten Datensätze auch zunehmend Aufmerksamkeit von Seiten der Raumplanung.
Durch die neu verfügbaren Techniken des Geowebs verändert sich auch das Aufgabengebiet von Stadt- und Umweltplanern: Um den jeweiligen „Stand der Technik“ hinsichtlich einer „smarten Planung“ [EXNER 2013] einsetzen zu können, werden sich Planer heute und auch zukünftig kontinuierlich über neue Techniken informieren müssen, diese auf ihre Einsatzpotentiale untersuchen, bestehende Planungsmethoden ergänzen und zum Einsatz bringen. Die Herausforderungen liegen dabei in der Prüfung der Geoweb-Techniken, deren Fortentwicklung sowie Integration in planerische Methoden. Beim Einsatz dieser neuen Methoden steht Generierung eines Mehrwertes für die von einer Planung betroffenen Menschen und die Planer selbst im Mittelpunkt. Mit dem Smartphone steht ein Werkzeug zur Verfügung, welches die Grundlage eines jeden, aktuell in Wissenschaft und Wirtschaft formulierten, „Smart-City“-Ansatzes bilden kann und zu dessen Umsetzung benötigt wird.
Nach einer theoretischen Behandlung des Aufgabengebietes der Stadt- und Umweltplanung und des Planungssystems in Deutschland, geht die vorliegende Arbeit zunächst auf die Genealogie des Internets und dessen Veränderungen der letzten Jahre ein. Neben der Entwicklung des Compu-tereinsatzes in der räumlichen Planung werden die neuen Möglichkeiten durch die Verbreitung von Smartphones behandelt. Außer den Potentialen wie der Erstellung raumbezogener Informationen durch den Einsatz der mobilen Endgeräte werden auch die dadurch verstärkt aufkommenden Themen des Datenschutzes und des Datenbewusstseins betrachtet.
Die Techniken und Methoden lassen sich den klassischen Aufgabenbereichen von Stadt- und Umweltplanern zuordnen. In der vorliegenden Arbeit erfolgt dieser Ansatz anhand der vier Bereiche der Strukturplanung, der Raumsensorik, der Gestaltungsplanung und den Kommunikationsplattformen entsprechend.
Das Kapitel zum Aufgabengebiet der Strukturplanung wird bei der zugehörigen Analyse nach den geometrischen Struktureinheiten punktueller, linien- und flächenhafter Informationen unterteilt. Der Bereich der Raumsensorik behandelt neben punktuell im Raum installierten Sensoren (wie z.B. Klimasensoren), die Ansätze der Humansensorik bzw. des „Menschen als Sensor im Raum“ [GOODCHILD 2007, RESCH ET AL. 2011, EXNER ET AL. 2012] und die Möglichkeiten optischer Sensortechniken, die mit unbemannten Luftfahrtgeräten nun auch als „fliegendes Auge“ zum Monitoring des Stadt- und Umweltraumes zum Einsatz gebracht werden können. Im klassischen Themengebiet der Gestaltungsplanung werden die Potentiale von virtuellen 3D-Welten in den Bereichen 3D-(Stadt-)Modelle, 360-Grad-Videos, Augmented Reality und Virtual Reality behandelt. Das den Hauptteil abschließende Kapitel rückt dagegen die Aspekte Information und Kommunikation noch einmal explizit in den Vordergrund. Hierbei wird unter anderem der Gedanke eines City-Dashboards hinsichtlich des damit zu erzielenden Mehrwertes fokussiert.
Neben der Erweiterungen hinsichtlich des Aufgabengebietes von Planern ändert sich auch dessen Rollenverständnis: In der Wissensgesellschaft befindet sich die Rolle des Planers zunehmend im Wandel und dieser nimmt eher die Rolle eines „Anwaltes in raumbezogenen Fragen“ der Bürger ein, berät diese, hilft bei der Formulierung deren Anliegen (beispielsweise auch durch die Zurverfügungstellung geeigneter Plattformen und Werkzeuge) und bringt deren Belange im Planungsprozess ein [STREICH 2014:167].
Die Auswirkungen auf das Selbstverständnis des Berufsbildes des Planers werden in einem abschließenden Fazit noch einmal aufgegriffen und zukünftige Themen im Ausblick und weiteren Forschungsbedarf thematisiert und skizziert.
Due to their superior weight-specific mechanical properties, carbon fibre epoxy composites (CFRP) are commonly used in aviation industry. However, their brittle failure behaviour limits the structural integrity and damage tolerance in case of impact (e.g. tool drop, bird strike, hail strike, ramp collision) or crash events. To ensure sufficient robustness, a minimum skin thickness is therefore prescribed for the fuselage, partially exceeding typical service load requirements from ground or flight manoeuvre load cases. A minimum skin thickness is also required for lightning strike protection purposes and to enable state-of-the-art bolted repair technology. Furthermore, the electrical conductivity of CFRP aircraft structures is insufficient for certain applications; additional metal components are necessary to provide electrical functionality (e.g. metal meshes on the outer skin for lightning strike protection, wires for electrical bonding and grounding, overbraiding of cables to provide electromagnetic shielding). The corresponding penalty weights compromise the lightweight potential that is actually given by the structural performance of CFRP over aluminium alloys.
Former research attempts tried to overcome these deficits by modifying the resin system (e.g. by addition of conductive particles or toughening agents) but could not prove sufficient enhancements. A novel holistic approach is the incorporation of highly conductive and ductile continuous metal fibres into CFRP. The basic idea of this hybrid material concept is to take advantage of both the electrical and mechanical capabilities of the integrated metal fibres in order to simultaneously improve the electrical conductivity and the damage tolerance of the composite. The increased density of the hybrid material is over-compensated by omitting the need for additional electrical system installation items and by the enhanced structural performance, enabling a reduction of the prescribed minimum skin thickness. Advantages over state-of-the-art fibre metal laminates mainly arise from design and processing technology aspects.
In this context, the present work focuses on analysing and optimising the structural and electrical performance of such hybrid composites with shares of metal fibres up to 20 vol.%. Bundles of soft-annealed austenitic steel or copper cladded low carbon steel fibres with filament diameters of 60 or 63 µm are considered. The fibre bundles are distinguished by high elongation at break (32 %) and ultimate tensile strength (900 MPa) or high electrical conductivity (2.4 × 10^7 S/m). Comprehensive researches are carried out on the fibre bundles as well as on unidirectional and multiaxial laminates. Both hybrid composites with homogeneous and accumulated steel fibre arrangement are taken into account. Electrical in-plane conductivity, plain tensile behaviour, suitability for bolted joints as well as impact and perforation performance of the composite are analysed. Additionally, a novel non-destructive testing method based on measurement of deformation-induced phase transformation of the metastable austenitic steel fibres is discussed.
The outcome of the conductivity measurements verifies a correlation of the volume conductivity of the composite with the volume share and the specific electrical resistance of the incorporated metal fibres. Compared to conventional CFRP, the electrical conductivity in parallel to the fibre orientation can be increased by one to two orders of magnitude even for minor percentages of steel fibres. The analysis, however, also discloses the challenge of establishing a sufficient connection to the hybrid composite in order to entirely exploit its electrical conductivity.
In case of plain tensile load, the performance of the hybrid composite is essentially affected by the steel fibre-resin-adhesion as well as the laminate structure. Uniaxial hybrid laminates show brittle, singular failure behaviour. Exhaustive yielding of the embedded steel fibres is confined to the arising fracture gap. The high transverse stiffness of the isotropic metal fibres additionally intensifies strain magnification within the resin under transverse tensile load. This promotes (intralaminar) inter-fibre-failure at minor composite deformation. By contrast, multiaxial hybrid laminates exhibit distinctive damage evolution. After failure initiation, the steel fibres extensively yield and sustain the load-carrying capacity of angularly (e.g. ±45°) aligned CFRP plies. The overall material response is thus not only a simple superimposition but a complex interaction of the mechanical behaviour of the composite’s constituents. As a result of this post-damage performance, an ultimate elongation of over 11 % can be proven for the hybrid laminates analysed in this work. In this context, the influence of the steel fibre-resin adhesion on the failure behaviour of the hybrid composite is explicated by means of an analytical model. Long term exposure to corrosive media has no detrimental effect on the mechanical performance of stainless steel fibre reinforced composites. By trend, water uptake increases the maximum elongation at break of the hybrid laminate.
Moreover, the suitability of CFRP for bolted joints can partially be improved by the integration of steel fibres. While the bearing strength basically remains nearly unaffected, the bypass failure behaviour (ε_{max}: +363 %) as well as the head pull-through resistance (E_{a,BPT}: +81 %) can be enhanced. The improvements primarily concern the load-carrying capacity after failure initiation. Additionally, the integrated ductile steel fibres significantly increase the energy absorption capacity of the laminate in case of progressive bearing failure by up to 63 %.
However, the hybrid composite exhibits a sensitive low velocity/low mass impact behaviour. Compared to conventional CFRP, the damage threshold load of very thin hybrid laminates is lower, making them prone for delamination at minor, non-critical impact energies. At higher energy levels, however, the impact-induced delamination spreads less since most of the impact energy is absorbed by yielding of the ductile metal fibres instead of crack propagation. This structural advantage compared to CFRP gains in importance with increasing impact energy. The plastic deformation of the metastable austenitic steel fibres is accompanied by a phase transformation from paramagnetic γ-austenite to ferromagnetic α’-martensite. This change of the magnetic behaviour can be used to detect and evaluate impacts on the surface of the hybrid composite, which provides a simple non-destructive testing method. In case of low velocity/high mass impact, integration of ductile metal fibres into CFRP enables to address spacious areas of the laminate for energy absorption purposes. As a consequence, the perforation resistance of the hybrid composite is significantly enhanced; by addition of approximately 20 vol.% of stainless steel fibres, the perforation strength can be increased by 61 %, while the maximum energy absorption capacity rises by 194 %.