Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1877) (remove)
Language
- English (940)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (235)
- Kaiserslautern - Fachbereich Biologie (134)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
The aim of this dissertation is to explain processes in recruitment by gaining a better understanding of how perceptions evolve and how recruitment outcomes and perceptions are influenced. To do so, this dissertation takes a closer look at the formation of fit perceptions, the effects of top employer awards on pre-hire recruitment outcomes, and on how perceptions about external sources are influenced.
Die polymorphkernigen neutrophilen Granuolzyten (PMN) besitzten zur Abwehr mikrobieller Pathogene unter anderem einen vorgefertigten Pool an Serinproteasen (Elastase (HNE), Proteinase 3 (PR3) und Cathepsin G). Diese Proteasen werden in den primären Granula aufbewahrt. Stimulation der PMN bewirkt eine Verschmelzung der Granula mit der Zellmembran und somit einer Freisetzung der Proteasen in das Phagolysosom oder in den extrazellulären Raum. Bei Patienten mit chronischen Entzündungskrankheiten, wie der Wegener'schen Granulomatose, finden sich die Proteasen in katalytisch aktiver Form auf der Zellmembran der PMN. In vitro Versuche haben gezeigt, daß diese oberflächengebundenen Serinproteasen nicht mehr von den Plasmaproteaseinhibitoren, die die Aktivität der ins Plasma freigesetzten Enzyme regulieren, inaktiviert werden können. Somit könnten die Proteasen auf der Zelloberfläche einen wichtigen Beitrag in der Pathogenese der Zellschädigungen, wie sie bei Wegener Patienten gefunden werden beitragen. In der vorliegenden Arbeit konnte mittels kompetitiven Bindungsstudien die Zahl der Bindungsstellen auf PMN für exogene Elastase auf etwa 40000/Zelle bestimmt werden. Inhibtionsstudien mit monoklonalen Antikörpern und synthetischen Peptiden identifizierten die ß2-Integrine CD11b und in geringerem Maße CD11a und CD11c als Bindungsstellen auf der Zelloberfläche. Die Bindung der Elastase an PMN ist abhängig von Ca2+, einem typischen Merkmal der Ligandenbindung der ß2-Integrine. Diese Ergebnisse konnten mittels der direkten molekularen Interaktion von Elastase und CD11b des gereinigten CD11b/CD18-Komplexes bestätigt werden. Die Bindung von Elastase an den isolierten CD11b/CD18-Komplex läßt sich mit Antikörpern gegen CD11b, nicht jedoch gegen CD18 hemmen. Elastase kann mit Antikörpern gegen CD11a und CD11b von der Membran stimulierter PMN copräzipitiert werden. Dies zeigt, daß die endogene Elastase ebenfalls an die ß2-Integrine auf der Zellmembran der PMN bindet. Adhäsionsversuche mit Epithel- und Endothelzellenmonolayern zeigten, daß die oberflächengebundene Elastase keinen Einfluß auf die PMN-Epithelzell Wechselwirkung hat, die Adhäsion an Endothelien jedoch fast vollständig unterdrückt. Bei der Adhäsion der PMN an Epithelien ist die Wechselwirkung der ß2-Integrine mit einem Rezeptor auf den Epithelzellen nicht der bestimmende Schritt. Die feste Adhäsion der PMN an Endothelzellen erfolgt dagegen fast ausschließlich über die Bindung von CD11b an ICAM-1 auf dem Endothel. Elastase kann so die Bindungsstelle für ICAM-1 blockieren oder aber ICAM-1 angreifen und die Adhäsion der PMN verhindern. Eine weitere wichtige Funktion des CD11b-Moleküls der Granulozyten ist die Bindung an C3bi auf opsonierten Mikroben. Dies wurde mittels der Bindung von PMN an C3bi-opsonierte Schafserythrozyten untersucht. Es binden weitaus mehr PMN mit oberflächengebundener Elastase an die Schfaserythrozyten als PMN ohne Elastase auf der Zelloberfläche. In der Durchflußzytometrie konnte gezeigt werden, daß die Bindung exogener Elastase in CD11b eine Konformationsänderung hervorruft, was sich in der Expression des aktivierungsabhängigen Epitops zeigt. Dieses Epitop charakterisiert den hoch affinen Zustand der CD11b Moleküle, der für eine starke Bindung an viele Liganden verantwortlich ist. Es konnte ebenfalls gezeigt werden, daß die Serinproteasen keinen Einfluß auf die Zahl der exprimierten CD11a und CD11b-Moleküle haben. Lediglich das mit CD11 assoziierte Molekül CD18 zeigt bei einigen Spendern eine leichte Sensibiltät für proteolytische Spaltung, einhergehend mit einer leicht reduzierten Expression.
Ziel dieser Arbeit war, die Entwicklung von übergangsmetallkatalysierten Kreuzkupplungsreaktionen zur Kohlenstoff-Kohlenstoff-Bindungsknüpfungen, bei denen Carbonsäuren anstelle der traditionell verwendeten, jedoch ökologisch bedenklichen Organometall-verbindungen (z. B. metallorganische Verbindungen der Elemente Bor, Zinn, Zink, Kupfer oder Magnesium) als Startmaterialien eingesetzt werden. Der wesentlich Schwerpunkt dieser Arbeit bestand darin, die zu diesem Zeitpunkt neu entwickelte decarboxylierende Kreuzkupplungsreaktion von aromatischen Carbonsäuren mit Arylhalogeniden zur synthetischen Reife zu führen.
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
Bei der Herstellung hochbelasteter Strukturbauteile aus Faser-Kunststoff-Verbund (FKV) wird verbreitet auf textile Halbzeuge wie Gewebe oder vernähte Biaxial-Gelege zurückgegrif-fen. Diese Halbzeuge zeigen im Verbund mit Kunststoffen periodische out-of-plane Roving-welligkeiten. Die Größe der Welligkeiten hängt unter anderem von den Fertigungsparametern der trockenen Halbzeuge ab. Durch das Verständnis der effektiven Kausalitäten zwischen Rovingwelligkeiten und mechanischem Verhalten soll eine bessere rechnerische Abschätzung der Materialkennwerte erzielt werden.
In dieser Arbeit wurde unter anderem der Einfluss der Welligkeitsparameter Amplitude und Wellenlänge auf die faserparallelen Kennwerte an unidirektional verstärkten Proben unter-sucht. Dafür wurden gezielt unterschiedliche Amplituden und Wellenlängen mit Hilfe von unidirektionalen Geweben in die Probekörper eingebracht. Der Einfluss der Rovingwelligkei-ten auf die Steifigkeiten war kleiner als auf die Festigkeiten. Bei Letzten war zu beobachten, dass die Druckfestigkeiten mehr von den Ondulationen beeinflusst wurden als die Zugfestig-keiten. Außerdem wurden die Welligkeiten und die mechanischen Kennwerte von textilen FKV-Geweben und -Gelegen bestimmt. Bei der Auswahl der untersuchten Halbzeuge war ein wichtiges Kriterium, dass diese auch in der Praxis Anwendung finden.
Im nächsten Schritt wurde ein vereinfachtes Finite-Elemente-Welligkeitsmodell entwickelt, welches es ermöglicht, die faserparallelen Kennwerte ohne zeit- und kostenintensive Materi-alversuche zu bestimmen. Speziell für Gewebe-Materialien mit großen Rovingwelligkeiten ist dieses Modell in der Lage, deutlich bessere Abschätzungen als vorhandene Methoden zu ge-ben. Weiterhin wurde auf dieser Basis ein Regressionsmodell für unidirektional verstärkte Materialien abgeleitet, welches auch dem Konstrukteur ohne Erfahrungen im Umgang mit Finiten-Elemente-Programmen die Anwendung des Welligkeitsmodells ermöglicht.
Der Vorteil des entwickelten Welligkeitsmodells wurde in einem dreistufigen Validierungs-programm nachgewiesen. Dieses beinhaltet den Übergang auf multidirektionale Laminate sowie komplexere Bauteilgeometrien. Die verbesserte Prognose mit Hilfe des Welligkeitsmo-dells zeigte sich vor allem bei Materialien mit großen Rovingwelligkeiten und bei Bauteilen die aufgrund eines Faserbruchs durch eine Druckbelastung versagten.
Im Rahmen dieser Arbeit sollte ein Beitrag zu der Frage geleistet werden, welche Bedeutung etheno-DNA-Addukte in der Karzinogenese und bei chronisch degenerativen Erkrankungen haben könnten. Zu diesem Zweck wurden etheno-DNA-Addukte mittels 2-Chloracetaldehyd (CAA), einem von zwei Metaboliten von Vinylchlorid und dem Krebstherapeutikum Ifosfamid, in einem humanen B-lymphoiden Zellsystem (Raji Zellen) induziert. Der subtoxische Konzentrationsbereich von CAA wurde mittels Wachstumskurven auf unter 100 microM eingegrenzt. Weiterhin wurde gezeigt, daß CAA in den in dieser Arbeit verwendeten Konzentrationen einen relativ großen Einfluß auf das Wachstumsverhalten von Raji Zellen hatte. Dieser Einfluß beruhte unter anderem auf der Hemmung der DNA-Replikation und damit indirekt auch auf die DNA-Reparatur, der CAA-abhängigen Kondensation der zellulären DNA aufgrund von DNA-DNA-Quervernetzungen und einem geringen Einfluß auf die Atmungskette in Mitochondrien aufgrund einer Hemmung des NADH-Dehydrogenase-Komplexes. Die weitere Arbeit verteilte sich daraufhin auf drei Teilprojekte : - Die Detektion und Quantifizierung von etheno-Desoxyadenosin-Addukten (edA) wurde unter Anwendung einer einfachen, nicht-radioaktiven Alternative zu der IPPA-Postlabeling-Methode auf HPLC-Basis mit Fluoreszenzdetektion durchgeführt, die im Rahmen dieser Arbeit etabliert wurde. Dabei konnte gezeigt werden, daß CAA bei Konzentrationen zwischen 30 und 100 microM eine Erhöhung von edA um den Faktor 3-4 in Raji Zell-DNA zur Folge hatte. Ferner konnte mit Hilfe dieser HPLC-Methode zum ersten Mal die Induktion von edA als Folge von Zigarettenrauch in diesem Zellsystem gezeigt werden, wobei es offen bleibt, ob diese DNA-Addukte direkt oder durch Induktion von Lipidperoxidation gebildet wurden. - Der Nachweis der genspezifischen Induktion von etheno-DNA-Addukten in einer "Hot-Spot"-Region der mitochondrialen DNA wurde auf Basis einer in unserer Abteilung von Yang und Hergenhahn entwickelten Methode zum genspezifischen Nachweis von DNA-Schäden durchgeführt. Dazu wurde diese Methode auf die in dieser Arbeit gestellten Anforderungen hin weiterentwickelt. Es konnte unter Zuhilfenahme dieser Methode eine signifikante Zunahme von edA in der mitochondrialen Zielregion, bei CAA-behandelten Proben gegenüber den Kontrollen, nachgewiesen werden. - Der Einfluß von CAA auf die Mutationsraten in mitochondrialer DNA aus Raji Zellen wurde mit Hilfe des RSM- und DPD-Tests untersucht. Der DPD-Test wurde im Laufe dieser Arbeit zu einem Festphasen-DPD-Test weiterentwickelt um den Hintergrund an nicht mutierten Sequenzen und die Gefahr von Kreuzkontaminationen zu minimieren. Im Rahmen dieser Experimente konnte eine Zunahme von Mutationen zwischen 10,5 und 14,5 % der CAA-behandelten Proben gegenüber den unbehandelten Kontrollen gezeigt werden. Die Art der Mutationen wurde durch Sequenzierung ermittelt und waren in allen CAA-behandelten Proben A G und T C Transitionen. Weiterhin wurde überprüft, ob CAA, als bifunktionelles Agens, neben Punktmutationen auch Deletionen auslösen könnte. Dabei wurde eine nahezu signifikante Zunahme an Deletionen in den CAA-behandelten Proben gegenüber den unbehandelten Kontrollen festgestellt. Die in dieser Arbeit angewendeten und weiterentwickelten Methoden könnten durchaus weitere praktische Anwendungen finden. So könnte die Bestimmung von edA mittels HPLC aus Blut von Krebspatienten, bei Behandlung mit dem Krebstherapeutikum Ifosfamid, ein nützliches Hilfsmittel für die Expositionskontrolle werden. Hierbei könnte edA als Marker für die interne Belastung des Patienten mit, dem Metabolit von Ifosfamid, CAA dienen. Die in dieser Arbeit entwickelte Festphasen-DPD-Methode ebnet den Weg, unselektierte durch edA-ausgelöste Mutationen in nukleären Genen wie z.B. p53 zu bestimmen, die aufgrund von erhöhter Lipidperoxidation unter pathologischen, präkarzinogenen Bedingungen wie Wilsons Syndrom oder Hämochromatose gebildet werden könnten. Da bisher keine mitochondrialen etheno-DNA-Addukt-spezifischen Reparaturenzyme beschrieben wurden, muß man davon ausgehen, daß etheno-DNA-Addukte auch einen Beitrag zu Mutationen im mitochondrialen Genom leisten und damit eine Rolle im Prozeß des Alterns bzw. in der Entwicklung von degenerativen Erkrankungen spielen könnten.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
A series of (oligo)phenthiazines, thiazolium salts and sulfonic acid functionalized organic/inorganic hybrid materials were synthesized. The organic groups were covalently bound on the inorganic surface through reactions of organosilane precursors with TEOS or with the silanol groups of material surface. These synthetic methods are called the co-condensation process and the post grafting. The structures and the textural parameters of the generated hybrid materials were characterized by XRD, N2 adsorption-desorption measurements, SEM and TEM. The incorporations of the organic groups were verified by elemental analysis, thermogravimetric analysis, FT-IR, UV-Vis, EPR, CV, as well as by 13C CP-MAS NMR and 29Si CP-MAS NMR spectroscopy. Introduction of various organic groups endow different phsysical, chemical properties to these hybrid materials. The (oligo)phenothiazines provide a group of novel redox acitive hybrid materials with special electronic and optic properties. The thiazolium salts modified materials were applied as heterogenized organo catalysts for the benzoin condensation and the cross-coupling of aldehydes with acylimines to yield a-amido ketones. The sulfonic acid containing materials can not only be used as Broensted acid catalysts, but also can serve as ion exchangable supports for further modifications and applications.
Nanoparticle-Filled Thermoplastics and Thermoplastic Elastomer: Structure-Property Relationships
(2012)
The present work focuses on the structure-property relationships of
particulate-filled thermoplastics and thermoplastic elastomer (TPE). In this work
two thermoplastics and one TPE were used as polymer matrices, i.e. amorphous
bisphenol-A polycarbonate (PC), semi-crystalline isotactic polypropylene (iPP),
and a block copolymer poly(butylene terephthalate)-block-poly(tetramethylene
glycol) TPE(PBT-PTMG). For PC, a selected type of various Aerosil® nano-SiO2
types was used as filler to improve the thermal and mechanical properties by
maintaining the transparency of PC matrix. Different types of SiO2 and TiO2
nanoparticles with different surface polarity were used for iPP. The goal was to
examine the influence of surface polarity and chemical nature of nanoparticles on
the thermal, mechanical and morphological properties of iPP composites. For
TPE(PBT-PTMG), three TiO2 particles were used, i.e. one grade with hydroxyl
groups on the particle surface and the other two grades are surface-modified with
metal and metal oxides, respectively. The influence of primary size and dispersion
quality of TiO2 particles on the properties of TPE(PBT-PTMG)/TiO2 composites
were determined and discussed.
All polymer composites were produced by direct melt blending in a twin-screw
extruder via masterbatch technique. The dispersion of particles was examined by
using scanning electron microscopy (SEM) and micro-computerized tomography
(μCT). The thermal and crystalline properties of polymer composites were characterized by using thermogravimetric analysis (TGA) and differential
scanning calorimetry (DSC). The mechanical and thermomechanical properties
were determined by using mechanical tensile testing, compact tension and
Charpy impact as well as dynamic-mechanical thermal analysis (DMTA).
The SEM results show that the unpolar-surface modified nanoparticles are better
dispersed in polymer matrices as iPP than polar-surface nanoparticles, especially
in case of using Aeroxide® TiO2 nanoparticles. The Aeroxide® TiO2 nanoparticles
with a polar surface due to Ti-OH groups result in a very high degree of
agglomeration in both iPP and TPE matrices because of strong van der Waals
interactions among particles (hydrogen bonding). Compared to unmodified
Aeroxide® TiO2 nanoparticles, the other grades of surface modified TiO2 particles
are very homogenously dispersed in used iPP and TPE(PBT-PTMG). The
incorporation of SiO2 nanoparticles into bisphenol-A PC significantly increases
the mechanical properties of PC/SiO2 nanocomposites, particularly the resistance
against environmental stress crazing (ESC). However, the transparency of
PC/SiO2 nanocomposites decreases with increasing nanoparticle content and
size due to a mismatch of infractive indices of PC and SiO2 particles. The different
surface polarity of nanoparticles in iPP shows evident influence on properties of
iPP composites. Among iPP/SiO2 nanocomposites, the nanocomposite
containing SiO2 nanoparticles with a higher degree of hydrophobicity shows
improved fracture and impact toughness compared to the other iPP/SiO2
composites. The TPE(PBT-PTMG)/TiO2 composites show much better thermal and mechanical properties than neat TPE(PBT-PTMG) due to strong chemical
interactions between polymer matrix and TiO2 particles. In addition, better
dispersion quality of TiO2 particles in used TPE(PBT-PTMG) leads to dramatically
improved mechanical properties of TPE(PBT-PTMG)/TiO2 composites.
Planar force or pressure is a fundamental physical aspect during any people-vs-people and people-vs-environment activities and interactions. It is as significant as the more established linear and angular acceleration (usually acquired by inertial measurement units). There have been several studies involving planar pressure in the discipline of activity recognition, as reviewed in the first chapter. These studies have shown that planar pressure is a promising sensing modality for activity recognition. However, they still take a niche part in the entire discipline, using ad hoc systems and data analysis methods. Mostly these studies were not followed by further elaborative works. The situation calls for a general framework that can help push planar pressure sensing into the mainstream.
This dissertation systematically investigates using planar pressure distribution sensing technology for ubiquitous and wearable activity recognition purposes. We propose a generic Textile Pressure Mapping (TPM) Framework, which encapsulates (1) design knowledge and guidelines, (2) a multi-layered tool including hardware, software and algorithms, and (3) an ensemble of empirical study examples. Through validation with various empirical studies, the unified TPM framework covers the full scope of application recognition, including the ambient, object, and wearable subspaces.
The hardware part constructs a general architecture and implementations in the large-scale and mobile directions separately. The software toolkit consists of four heterogeneous tiers: driver, data processing, machine learning, visualization/feedback. The algorithm chapter describes generic data processing techniques and a unified TPM feature set. The TPM framework offers a universal solution for other researchers and developers to evaluate TPM sensing modality in their application scenarios.
The significant findings from the empirical studies have shown that TPM is a versatile sensing modality. Specifically, in the ambient subspace, a sports mat or carpet with TPM sensors embedded underneath can distinguish different sports activities or different people's gait based on the dynamic change of body-print; a pressure sensitive tablecloth can detect various dining actions by the force propagated from the cutlery through the plates to the tabletop. In the object subspace, swirl office chairs with TPM sensors under the cover can be used to detect the seater's real-time posture; TPM can be used to detect emotion-related touch interactions for smart objects, toys or robots. In the wearable subspace, TPM sensors can be used to perform pressure-based mechanomyography to detect muscle and body movement; it can also be tailored to cover the surface of a soccer shoe to distinguish different kicking angles and intensities.
All the empirical evaluations have resulted in accuracies well-above the chance level of the corresponding number of classes, e.g., the `swirl chair' study has classification accuracy of 79.5% out of 10 posture classes and in the `soccer shoe' study the accuracy is 98.8% among 17 combinations of angle and intensity.
Whole-body vibrations (WBV) have adverse effects on ride comfort and human health. Suspension seats have an important influence on the WBV severity. In this study, WBV were measured on a medium-sized compact wheel loader (CWL) in its typical operations. The effect of short-term exposure to the WBV on the ride comfort was evaluated according to ISO 2631-1:1985 and ISO 2631-1:1997. ISO 2631-1:1997 and ISO 2631-5:2004 were adopted to evaluate the effect of long-term exposure to the WBV on the human health. Reasons for the different evaluation results obtained according to ISO 2631-1:1997 and ISO 2631-5:2004 were explained in this study. The WBV measurements were carried out in cases where the driver wore a lap belt or a four-point seat harness and in the case where the driver did not wear any safety belt. The seat effective amplitude transmissibility (SEAT) and the seat transmissibility in the frequency domain in these three cases were analyzed to investigate the effect of a safety belt on the seat transmissibility. Seat tests were performed on a multi-axis shaking table in laboratory to study the dynamic behavior of a suspension seat under the vibration excitations measured on the CWL. The WBV intensity was reduced by optimizing the vertical and the longitudinal seat suspension systems with the help of computational simulations. For the optimization multi-body models of the seat-dummy system in the laboratory seat tests and the seat-driver system in the field vibration measurements were built and validated.
The main purpose of the study was to improve the physical properties of the modelling of compressed materials, especially fibrous materials. Fibrous materials are finding increasing application in the industries. And most of the materials are compressed for different applications. For such situation, we are interested in how the fibre arranged, e.g. with which distribution. For given materials it is possible to obtain a three-dimensional image via micro computed tomography. Since some physical parameters, e.g. the fibre lengths or the directions for points in the fibre, can be checked under some other methods from image, it is beneficial to improve the physical properties by changing the parameters in the image.
In this thesis, we present a new maximum-likelihood approach for the estimation of parameters of a parametric distribution on the unit sphere, which is various as some well known distributions, e.g. the von-Mises Fisher distribution or the Watson distribution, and for some models better fit. The consistency and asymptotic normality of the maximum-likelihood estimator are proven. As the second main part of this thesis, a general model of mixtures of these distributions on a hypersphere is discussed. We derive numerical approximations of the parameters in an Expectation Maximization setting. Furthermore we introduce a non-parametric estimation of the EM algorithm for the mixture model. Finally, we present some applications to the statistical analysis of fibre composites.
In recent years, nanofiller-reinforced polymer composites have attracted considerable
interest from numerous researchers, since they can offer unique mechanical,
electrical, optical and thermal properties compared to the conventional polymer
composites filled with micron-sized particles or short fibers. With this background, the
main objective of the present work was to investigate the various mechanical
properties of polymer matrices filled with different inorganic rigid nanofillers, including
SiOB2B, TiOB2B, AlB2BOB3B and multi-walled carbon nanotubes (MWNT). Further, special
attention was paid to the fracture behaviours of the polymer nanocomposites. The
polymer matrices used in this work contained two types of epoxy resin (cycloaliphatic
and bisphenol-F) and two types of thermoplastic polymer (polyamide 66 and isotactic
polypropylene).
The epoxy-based nanocomposites (filled with nano-SiOB2B) were formed in situ by a
special sol-gel technique supplied by nanoresins AG. Excellent nanoparticle
dispersion was achieved even at rather high particle loading. The almost
homogeneously distributed nanoparticles can improve the elastic modulus and
fracture toughness (characterized by KBICB and GBICB) simultaneously. According to
dynamic mechanical and thermal analysis (DMTA), the nanosilica particles in epoxy
resins possessed considerable "effective volume fraction" in comparison with their
actual volume fraction, due to the presence of the interphase. Moreover, AFM and
high-resolution SEM observations also suggested that the nanosilica particles were
coated with a polymer layer and therefore a core-shell structure of particle-matrix was
expected. Furthermore, based on SEM fractography, several toughening
mechanisms were considered to be responsible for the improvement in toughness,
which included crack deflection, crack pinning/bowing and plastic deformation of
matrix induced by nanoparticles.
The PA66 or iPP-based nanocomposites were fabricated by a conventional meltextrusion
technique. Here, the nanofiller content was set constant as 1 vol.%. Relatively good particle dispersion was found, though some small aggregates still
existed. The elastic modulus of both PA66 and iPP was moderately improved after
incorporation of the nanofillers. The fracture behaviours of these materials were
characterized by an essential work fracture (EWF) approach. In the case of PA66
system, the EWF experiments were carried out over a broad temperature range
(23~120 °C). It was found that the EWF parameters exhibited high temperature
dependence. At most testing temperatures, a small amount of nanoparticles could
produce obvious toughening effects at the cost of reduction in plastic deformation of
the matrix. In light of SEM fractographs and crack opening tip (COD) analysis, the
crack blunting induced by nanoparticles might be the major source of this toughening.
The fracture behaviours of PP filled with MWNTs were investigated over a broad
temperature range (-196~80 °C) in terms of notched impact resistance. It was found
that MWNTs could enhance the notched impact resistance of PP matrix significantly
once the testing temperature was higher than the glass transition temperature (TBgB) of
neat PP. At the relevant temperature range, the longer the MWNTs, the better was
the impact resistance. SEM observation revealed three failure modes of nanotubes:
nanotube bridging, debonding/pullout and fracture. All of them would contribute to
impact toughness to a degree. Moreover, the nanotube fracture was considered as
the major failure mode. In addition, the smaller spherulites induced by the nanotubes
would also benefit toughness.
Nowadays, accounting, charging and billing users' network resource consumption are commonly used for the purpose of facilitating reasonable network usage, controlling congestion, allocating cost, gaining revenue, etc. In traditional IP traffic accounting systems, IP addresses are used to identify the corresponding consumers of the network resources. However, there are some situations in which IP addresses cannot be used to identify users uniquely, for example, in multi-user systems. In these cases, network resource consumption can only be ascribed to the owners of these hosts instead of corresponding real users who have consumed the network resources. Therefore, accurate accountability in these systems is practically impossible. This is a flaw of the traditional IP address based IP traffic accounting technique. This dissertation proposes a user based IP traffic accounting model which can facilitate collecting network resource usage information on the basis of users. With user based IP traffic accounting, IP traffic can be distinguished not only by IP addresses but also by users. In this dissertation, three different schemes, which can achieve the user based IP traffic accounting mechanism, are discussed in detail. The inband scheme utilizes the IP header to convey the user information of the corresponding IP packet. The Accounting Agent residing in the measured host intercepts IP packets passing through it. Then it identifies the users of these IP packets and inserts user information into the IP packets. With this mechanism, a meter located in a key position of the network can intercept the IP packets tagged with user information, extract not only statistic information, but also IP addresses and user information from the IP packets to generate accounting records with user information. The out-of-band scheme is a contrast scheme to the in-band scheme. It also uses an Accounting Agent to intercept IP packets and identify the users of IP traffic. However, the user information is transferred through a separated channel, which is different from the corresponding IP packets' transmission. The Multi-IP scheme provides a different solution for identifying users of IP traffic. It assigns each user in a measured host a unique IP address. Through that, an IP address can be used to identify a user uniquely without ambiguity. This way, traditional IP address based accounting techniques can be applied to achieve the goal of user based IP traffic accounting. In this dissertation, a user based IP traffic accounting prototype system developed according to the out-of-band scheme is also introduced. The application of user based IP traffic accounting model in the distributed computing environment is also discussed.
This thesis is devoted to deal with the stochastic optimization problems in various situations with the aid of the Martingale method. Chapter 2 discusses the Martingale method and its applications to the basic optimization problems, which are well addressed in the literature (for example, [15], [23] and [24]). In Chapter 3, we study the problem of maximizing expected utility of real terminal wealth in the presence of an index bond. Chapter 4, which is a modification of the original research paper joint with Korn and Ewald [39], investigates an optimization problem faced by a DC pension fund manager under inflationary risk. Although the problem is addressed in the context of a pension fund, it presents a way of how to deal with the optimization problem, in the case there is a (positive) endowment. In Chapter 5, we turn to a situation where the additional income, other than the income from returns on investment, is gained by supplying labor. Chapter 6 concerns a situation where the market considered is incomplete. A trick of completing an incomplete market is presented there. The general theory which supports the discussion followed is summarized in the first chapter.
Automata theory has given rise to a variety of automata models that consist
of a finite-state control and an infinite-state storage mechanism. The aim
of this work is to provide insights into how the structure of the storage
mechanism influences the expressiveness and the analyzability of the
resulting model. To this end, it presents generalizations of results about
individual storage mechanisms to larger classes. These generalizations
characterize those storage mechanisms for which the given result remains
true and for which it fails.
In order to speak of classes of storage mechanisms, we need an overarching
framework that accommodates each of the concrete storage mechanisms we wish
to address. Such a framework is provided by the model of valence automata,
in which the storage mechanism is represented by a monoid. Since the monoid
serves as a parameter to specifying the storage mechanism, our aim
translates into the question: For which monoids does the given
(automata-theoretic) result hold?
As a first result, we present an algebraic characterization of those monoids
over which valence automata accept only regular languages. In addition, it
turns out that for each monoid, this is the case if and only if valence
grammars, an analogous grammar model, can generate only context-free
languages.
Furthermore, we are concerned with closure properties: We study which
monoids result in a Boolean closed language class. For every language class
that is closed under rational transductions (in particular, those induced by
valence automata), we show: If the class is Boolean closed and contains any
non-regular language, then it already includes the whole arithmetical
hierarchy.
This work also introduces the class of graph monoids, which are defined by
finite graphs. By choosing appropriate graphs, one can realize a number of
prominent storage mechanisms, but also combinations and variants thereof.
Examples are pushdowns, counters, and Turing tapes. We can therefore relate
the structure of the graphs to computational properties of the resulting
storage mechanisms.
In the case of graph monoids, we study (i) the decidability of the emptiness
problem, (ii) which storage mechanisms guarantee semilinear Parikh images,
(iii) when silent transitions (i.e. those that read no input) can be
avoided, and (iv) which storage mechanisms permit the computation of
downward closures.
Weinbaukläranlagen werden während der Weinlese und -bereitung mit hohen organischen BSB5-Frachten zusätzlich zu den kommunalen Schmutzfrachten belastet. Die saisonal stark schwankende Belastung und unterschiedliche Abwasserzusammensetzung führte in der Vergangenheit zu Unsicherheiten bei der Bemessung, die entweder in zu großen Sicherheitsreserven mündeten oder sich durch ungenügende Reinigungsleistung und Betriebsstabilität offenbarten. Während für Weinbaukläranlagen mit dem Reinigungsziel "Kohlenstoffelimination" umfangreiche Untersuchungen vorliegen, besteht für Anlagen mit gezielter Stickstoffelimination ein erhebliches Wissensdefizit. Diese unbefriedigende Situation gab Anlaß zu eigenen Versuchen mit der Zielsetzung, Aufschluss über die Auswirkungen der saisonal hohen BSB5- Belastung auf die Stabilität der Nitrifikation und somit auf die Bemessung der Belebungsbecken zu erhalten. Eine Umfrage bei Betreibern von Weinbaukläranlagen bestätigte, dass für eine wirklichkeitsnahe Bemessung und wirtschaftliche Betriebsführung große Wissenslücken bestehen. Zudem erfordern die Belastungsschwankungen sehr flexible Betriebsführungs- und Regelstrategien, die oft bei der Planung nicht ausreichend bedacht wurden. Die allgemein anerkannten stationären Bemessungsansätze wie das ATV-Arbeitsblatt A 131 können für den Nachweis einer stabilen Nitrifikation nicht herangezogen werden, da aufgrund der erforderlichen Anpassungen der Biozönose an die veränderte Belastungsverhältnisse kein stationärer Zustand herrscht, der die Voraussetzung für die Gültigkeit der Ansätze ist. Während der Kampagne wird deutlich mehr Überschussschlamm produziert und abgezogen, was zur Folge hat, dass mehr Nitrifikanten aus der Belebung entfernt werden als nachwachsen können. Zur Optimierung der Bemessung bietet sich daher die dynamische Simulation an, welche die Nachbildung jeglicher instationärer Belastungsverhältnisse erlaubt. Es konnte gezeigt werden, dass das Activated Sludge Model No. 1 bei der Simulation von zwei Weinbaukläranlagen eine hinreichend gute Übereinstimmung zwischen den Simulationsergebnissen und den realen Messwerten liefert. Die Kalibrierung der Modelle muss in mehreren Stufen erfolgen. Eine dynamische Kalibrierung anhand der Stickstoffablaufkonzentrationen ist bei hoher CSB-Belastung nicht sinnvoll, da die Dynamik der Stickstoffkonzentrationsschwankungen im Ablauf im Wesentlichen durch den CSB-Abbau bestimmt werden. Im Rahmen dieser Arbeit wurde eine Vorgehensweise entwickelt, die es ermöglicht auch in der Planungsphase die Modelle so zu kalibrieren, dass aussagekräftige Ergebnisse für die Bemessung und Betriebsführung erhalten werden. Anhand eines Beispiels wurde gezeigt, wie die stationären Bemessungsansätze zu einer fehlerhaften Auslegung des Belebungsbeckens führen können. Mit Hilfe der dynamischen Simulation konnten das Bemessungsergebnis kontrolliert und Optimierungsmaßnahmen hinsichtlich ihres Nutzens bewertet sowie verschiedene Betriebsführungs- und Regelstrategien optimiert werden. Speziell angepasste Bemessungsempfehlungen lassen sich aus diesen Untersuchungen jedoch nicht ableiten, da die Auswirkungen der Kampagnebelastung auf die Prozessstabilität der Nitrifikation erheblich von der kommunalen Belastung und vom Verfahrenskonzept abhängig sind. So zeigen Anlagen, die für höhere Schlammalter bemessen sind wie z.B. simultane aerobe Stabilisierungsanlagen, eine deutlich höhere Prozessstabilität als Anlagen mit niedrigeren Schlammaltern. Die dynamische Simulation ist ein sehr hilfreiches Werkzeug, Kläranlagen wirtschaftlich zu bemessen. Es ist zu wünschen, dass die dynamische Simulation in naher Zukunft als "Standardwerkzeug" vom planenden Ingenieur eingesetzt wird.
Die Entwicklung von beta-Laktam-Resistenz in dem Pathogen Streptococcus pneumoniae (S. pneu-moniae) stellt einen komplexen Prozess dar, welcher auf einer Modifikation der Penicillin-Bindeproteine (PBP), der Targetstrukturen von beta-Laktam-Antibiotika beruht. PBP sind Membran-gebundene Enzyme, welche essentielle Reaktionen bei der bakteriellen Zellwand-Synthese katalysieren. Diese Proteine werden im Zuge der Resistenzentstehung so verändert, dass beta-Laktame nicht mehr oder nur noch mit geringer Affinität gebunden werden, das physiologische Substrat aber noch erkannt werden muß. Die vorliegende Arbeit befasst sich mit dem PBP2x von S. pneumoniae, das als essentielles PBP und wichtigste primäre Resistenzdeterminante einen hohen Stellenwert bei der Entstehung von beta-Laktam-Resistenz in diesem Organismus einnimmt. Obwohl dieses PBP zu den am besten untersuchten PBP gehört, bleiben die Resistenzrelevanz einzelner Punktmutationen und die mit der Veränderung des Proteins einhergehenden physiologischen Folgen für die Zelle weitgehend unklar. Zentraler Inhalt dieser Arbeit war die Untersuchung des Effekts von PBP2x-Mutationen auf die Resistenz, Funktionalität von PBP2x und Zellphysiologie im Kontext mit der sekundären Resistenzdeterminante PBP1a und den beiden Zwei-Komponenten-Systemen CiaRH, welches in die Cefotaxim-Resistenz, genetische Kompetenz und Virulenz involviert ist und ComDE, das die genetische Kompetenz reguliert. Besonderes Interesse galt dabei der Position Thr338, welche sich unmittelbar benachbart zum aktiven Serin befindet und in den meisten resistenten klinischen Isolaten zu Alanin, Prolin oder Glycin mutiert ist. Durch eine gerichtete Mutagenese dieser Position im Wildtyp R6 konnte zum ersten Mal gezeigt werden, dass eine Thr338-Punktmutation einen selektionierbaren Resistenz-Phänotyp in vivo vermittelt, wobei abhängig von dem jeweiligen Austausch unterschiedliche Resistenzniveaus und Kreuzresistenzspektren zu beobachten waren. Abgesehen von einem nur moderaten Beitrag zur Resistenz, betraf eine solche Substitution offenbar auch die Funktionalität von PBP2x, was sich auf dramatische Art und Weise in Abwesenheit eines intakten CiaRH-Regulationssystems äußerte: Es kam zu Wachstumsdefekten, insbesondere einer verfrühten und verstärkten Autolyse, morphologischen Aberrationen und einer verminderten Lebensfähigkeit. Entgegen aller Erwartungen führte die Präsens eines Mosaik-PBP1a in dem genetischen Hintergrund der Thr338-Mutation nicht zu einem weiteren Anstieg der Resistenz, sondern bewirkte sogar einen leichten Abfall. Dennoch komplementierte das Mosaik-PBP1a die durch das Fehlen eines funktionsfähigen CiaRH-Systems hervorgerufenen Wachstumsdefizienzen. Der Vergleich zwischen dem PBP2x mit Thr338-Punktmutation und einem Mosaik-PBP2x deckte gravierende Unterschiede im Hinblick auf das Resistenzpotential und die physiologischen Auswirkungen auf. Anders als bei der PBP2x-Punktmutation waren bei dem Mosaik-PBP2x fast keine Wachstumseinbußen zu verzeichnen, wenn es mit einem inaktiven Zwei-Komponenten-System CiaRH kombiniert wurde, und die Anwesenheit eines Mosaik-PBP1a brachte eine starke Erhöhung der Cefotaxim-Resistenz mit sich. Beiden pbp2x-Allelen war jedoch gemeinsam, dass die Abwesenheit eines PBP1a massive Defekte im Wachstum zur Folge hatte. Alle diese Beobachtungen deuteten auf eine mögliche Interaktion zwischen PBP2x und PBP1a hin. Die Analyse der Zellwand einer Mutante mit zwei PBP2x-Aminosäureaustauschen, von denen einer in resistenten klinischen Stämmen anzutreffen ist, ergab eine biochemisch modifizierte Zellwand, in der bei einem fast gleichbleibenden Anteil an verzweigten Dimeren, Monomere erhöht, und lineare Dimere und Trimere reduziert waren. Diese Befunde ließen auf eine enzymatische Beeinträchtigung dieses PBP2x schließen. Ein von CiaRH ausgehender Effekt konnte nicht festgestellt werden. Eine Inaktivierung des für den Export des Kompetenz-stimulierenden Peptids CSP verantwortlichen ABC-Transporters ComAB in Kombination mit einem nicht-funktionellen CiaRH-System bewirkte im Wildtyp eine vollständige, in PBP2x-Punktmutanten eine nur teilweise Aufhebung der vorzeitigen stationären Phase-Autolyse. Darüber hinaus machte sich bei einem der PBP2x-Derivate, welches zusätzlich über eine Cefotaxim-Resistenz-vermittelnde Aminosäuresubstitution in CiaH verfügte, bei ciaR-Inaktivierung sowohl ein Verlust der CiaH- als auch eine partielle Einbuße der PBP2x-Resistenz bemerkbar, bei comAB-Inaktivierung hingegen aber ausschließlich ersteres. Hieraus konnte zum einen auf einen direkten Bezug des Lyse-Phänotyps zu der Kompetenz und der CiaRH-Resistenz zu ComAB geschlossen werden, zum anderen auf einen CiaRH-unabhängigen Einfluss von PBP2x auf die Kompetenz und Autolyse. Tatsächlich bestätigte eine Bestimmung der Transformationseffizienz von Mutanten mit verschiedenen Konstellationen aus niederaffinen und unmodifizierten PBP, dass das Kompetenzmuster bzw. -ausmaß von der jeweiligen PBP-Ausstattung moduliert wird. Auch eine Microarray-basierte globale Transkriptomanalyse dieser Mutanten sowie spontan resistenter Labormutanten mit PBP2x- und CiaH-Mutationen suggerierte eine von CiaRH-entkoppelte Einflussnahme der PBP auf die Kompetenz. Zudem zeugten die Transkriptionsmuster von einem vielschichtigen Regulationsnetzwerk der Resistenzentwicklung unter Beteiligung von Kompetenz, Bakteriocinproduktion, Virulenz, Metabolismus, Transportprozessen und Energiestatus, was möglicherweise eine indirekte Folge einer gestörten Zellwand- und Membranintegrität darstellt. Durch die Extraktion von intergenen Bereichen, sowie potentiellen neuen Resistenzdeterminanten bzw. Resistenz-unterstützenden Genen, wie den Gen-Clustern spr1545-spr1549 und spr0096-spr0110 oder den Genen des Purinstoffwechsels wurde die Basis für weiterführende Untersuchungen geschaffen. Die hier vorgestellten Daten demonstrieren, dass der Erwerb von beta-Laktam-Resistenz nicht nur von Vorteil ist, sondern auch physiologische Konsequenzen für die Zelle hat, die sie kompensiert, um ein möglichst stabiles Wachstum zu gewährleisten. Über die Zellwand-Zusammensetzung und Kompetenz konnte erstmalig eine Verbindung von PBP2x zu CiaRH hergestellt werden. Eine konkrete kompensatorische Wirkung dieses Regulons hinsichtlich PBP2x-Mutationen wurde mit der Repression der Kompetenzlyse ausfindig gemacht. Im letzten Teil dieser Arbeit wurde basierend auf einer früheren Veröffentlichung, in der eine Inaktivierung des Gens für das PBP2b von S. pneumoniae erfolglos blieb, erneut versucht, eine solche Mutante herzustellen. Obwohl lebensfähige Transformanten generiert werden konnten, war es nicht möglich eine pbp2b-Inaktivierungs- bzw. Deletionsmutante zu isolieren, sodass PBP2b in diesem Organismus weiterhin als essentielles Protein angesehen werden kann.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
Continuum Mechanical Modeling of Dry Granular Systems: From Dilute Flow to Solid-Like Behavior
(2014)
In this thesis, we develop a granular hydrodynamic model which covers the three principal regimes observed in granular systems, i.e. the dilute flow, the dense flow and the solid-like regime. We start from a kinetic model valid at low density and extend its validity to the granular solid-like behavior. Analytical and numerical results show that this model reproduces a lot of complex phenomena like for instance slow viscoplastic motion, critical states and the pressure dip in sand piles. Finally we formulate a 1D version of the full model and develop a numerical method to solve it. We present two numerical examples, a filling simulation and the flow on an inclined plane where the three regimes are included.
Today, information systems are often distributed to achieve high availability and low latency.
These systems can be realized by building on a highly available database to manage the distribution of data.
However, it is well known that high availability and low latency are not compatible with strong consistency guarantees.
For application developers, the lack of strong consistency on the database layer can make it difficult to reason about their programs and ensure that applications work as intended.
We address this problem from the perspective of formal verification.
We present a specification technique, which allows specifying functional properties of the application.
In addition to data invariants, we support history properties.
These let us express relations between events, including invocations of the application API and operations on the database.
To address the verification problem, we have developed a proof technique that handles concurrency using invariants and thereby reduces the problem to sequential verification.
The underlying system semantics, technique and its soundness proof are all formalized in the interactive theorem prover Isabelle/HOL.
Additionally, we have developed a tool named Repliss which uses the proof technique to enable partially automated verification and testing of applications.
For verification, Repliss generates verification conditions via symbolic execution and then uses an SMT solver to discharge them.
Die vorliegende Arbeit befasst sich mit dem Thema der Fortentwicklung von Visualisierungs- und Simulationsmethoden in der städtebaulichen Gestaltungs-planung. Für einen Einstieg in die Materie ist eine tief gehende Auseinandersetzung mit dem Begriff der Planung und deren Prozesse im Allgemeinen und der Versuch der Abgrenzung von städtebaulicher Struktur – und Gestaltungsplanung im Besonderen unerlässlich, auch um das bisher zu Verfügung stehende Methodenrepertoire einer kritischen Untersuchung zu kommen zu lassen. Es wird deutlich, dass die Methoden in der städtebauliche Gestaltungsplanung in den letzten fünf Jahren einem radikalen Wechsel unterzogen worden: Neben der schnelleren Erstellung von virtuellen Umgebungsmodellen sind vor allem die Einflüsse aus der sogenannten Web 2.0 Bewegung und dem veränderten Nutzungsverhalten im Internet die treibenden Motoren, die die Arbeit und die damit verbundenen Methoden in der Gestaltungsplanung verändert haben. Für den Planer hat dies den Vorteil, dass zum Einen Planungsinhalte frühzeitig schneller und transparenter für eine erfolgreiche Plankommunikation aufbereitet werden können, und zum Anderen, dass der Planer diese ehemals sehr anspruchsvollen Arbeit bis zu einem gewissen Umfang auch selbstständig erledigen kann und nicht mehr auf die Hilfe von Spezialisten angewiesen ist. Die dafür benötigten Methoden sind in allen ihren Facetten in dieser Arbeit beleuchtet und zugleich in einem in sich konsistenten Workflow untereinander vernetzt, so dass alle vorgestellten Arbeitsweisen keine eindimensionale Lösungen darstellen, sondern immer wieder untereinander, ähnlich dem Mashup-Gedanken der Web2.0 Community, neu kombinierbar sind. Der Einsatz der Arbeitstechniken inklusiver des Workflows ist dann die Methode der Echtzeitplanung urban vis & sim, die auf die städtebauliche Gestaltungsplanung abgestimmt ist. Zur besseren Verständlichkeit wird die Methode im Laufe der Arbeit nur „Echtzeitplanung“ genannt. Anhand von verschiedenen Einsatzbereichen ist die Methode der Echtzeitplanung in der Praxis auf ihre Umsetzung hin überprüft worden, wobei Bereiche unterschieden werden, die entweder mit einer kurzen Einarbeitungszeit auch von „Visualisierungsneulingen“ bewältigt werden können oder in weiterführende Arbeitstechniken, die das hohe Maß der Flexibilität der Methode durch die Kombination von verschiedenen Techniken auslotet. Die Methode der Echtzeitplanung eignet sich beim Einsatz in der Planung für eine allseits transparente Kommunikation, sofern die in der Arbeit erläuterten Rahmenparameter eingehalten werden. Echtzeitplanungsmethoden sollten frühzeitig und in Abstimmung aller am Prozess beteiligten Akteure dazu verwendet werden, um die Kommunikation und das Verständnis zu stärken. Sie sollten nicht durch ihre beeindruckenden Grafikpräsentation dazu verwendet werden - bewusst oder unbewusst - bestimmte Elemente einer Planung zu überhöhen oder andere dadurch zu negieren.
Die Untersuchung der Induktion der Ethoxyresorufin-O-deethylase (EROD) Aktivität durch die "dioxinartigen" PCBs 77, 81, 105, 114, 118, 123, 126, 156, 157, 167, 169 und 189 in der Hepatoblastom-Zellinie HepG2 und, zur Vervollständigung bereits veröffentlichter Daten, in primären Rattenhepatozyten und in der Rattenhepatom-Zellinie H4IIE wurde im ersten Teil der Arbeit durchgeführt. Die Ergebnisse zeigten, daß die ausgewählten PCBs in HepG2 weniger potent sind als in H4IIE-Zellen bzw. primären Rattenhepatozyten. In HepG2-Zellen konnte lediglich für die PCBs 77, 81, 114 und 126 eine Induktion der EROD-Aktivität detektiert werden. Für PCB 169, eines der potentesten Kongenere in H4IIE-Zellen und primären Rattenhepatozyten, wurde keine EROD-Induktion in HepG2-Zellen gemessen. Diese und weitere Speziesunterschiede verdeutlichen, daß eine Extrapolation der Daten aus Experimenten mit Nager-Zellen zur Risikoabschätzung auf den Menschen nur bedingt möglich ist. PCB 81 zeigte in den vorliegenden Messungen einen REP-Wert von 0,02 und 0,05 in HepG2-Zellen bzw. primären Rattenhepatozyten. Die Beeinflussung der basalen und induzierten Apoptose durch die PCBs 81, 126 und 169 wurde im zweiten Teil der Arbeit untersucht. Es zeigte sich, daß die PCBs 81 und 126 in primären Rattenhepatozyten die basale Apoptose induzieren können. Für das PCB 169 wurde dagegen keine Veränderung der Apoptoseinzidenz im Rahmen der verwendeten Konzentrationen festgestellt. Wurde die Apoptose durch UV-Strahlung induziert, so hemmten die PCBs konzentrationsabhängig die Apoptoserate auf durchschnittlich 62% gegenüber der Kontrolle. Bei höheren Konzentrationen wurde die Inhibierung durch einen induzierenden Effekt aufgehoben.
Fucoidan is a class of biopolymers mainly found in brown seaweeds. Due to its diverse medical importance, homogenous supply as well as a GMP-compliant product is of a special interest. Therefore, in addition to optimization of its extraction and purification from classical resources, other techniques were tried (e.g., marine tissue culture and heterologous expression of enzymes involved in its biosynthesis). Results showed that 17.5% (w/w) crude fucoidan after pre-treatment and extraction was obtained from the brown macroalgae F. vesiculosus. Purification by affinity chromatography improved purity relative to the commercial purified product. Furthermore, biological investigations revealed improved anti-coagulant and anti-viral activities compared with crude fucoidan. Furthermore, callus-like and protoplast cultures as well as bioreactor cultivation were developed from F. vesiculosus representing a new horizon to produce fucoidan biotechnologically. Moreover, heterologous expression of several enzymes involved in its biosynthesis by E. coli (e.g., FucTs and STs) demonstrated the possibility to obtain active enzymes that could be utilized in enzymatic in vitro synthesis of fucoidan. All these competitive techniques could provide the global demands from fucoidan.
Anhand der Forschungserkenntnisse wird ein Untersuchungsdesign mit vier unterschiedlichen Bedingungen entwickelt, in dem die Probanden spielgerecht Strafstöße ausführen. Das Ziel der Untersuchung ist unter Einbezug der Strafstoßstrategien von Schützen mittels eines holistischen Verfahrens eine Mustererkennung über verlaufsorientierte komplexe Bewegungsmuster in der Strafstoßsituation auszuführen, um Individuen bezogene, richtungsspezifische und bedingungsabhängige Bewegungsmuster zu identifizieren. Die erste Aufgabenstellung erfasst die Strafstöße ungestört ohne Gegnereinwirkung (Baseline). In der zweiten und dritten Aufgabenstellung werden die Strafstöße jeweils gegen einen Torhüter unter Verwendung der Strategien Keeper-independent und Keeper-dependent ausgeführt. Die vierte Aufgabenstellung simuliert während der Ausführung des Schusses die Torwarthandlung am Point of no return. Die Ergebnisse zeigen, dass bezogen auf die Ziele Separierungen möglich sind. Zudem wird deutlich, dass die Ausführungsbedingungen (Strategiewahl, Torhüter) Einfluss auf die Bewegungsausführung haben und eine Veränderung in den Erkennungsraten von Bewegungsmustern festzustellen ist.
The fifth generation mobile networks (5G) will incorporate novel technologies such as network programmability and virtualization enabled by Software-Defined Networking (SDN) and Network Function Virtualization (NFV) paradigms, which have recently attracted major
interest from both academic and industrial stakeholders.
Building on these concepts, Network Slicing raised as the main driver of a novel business model where mobile operators may open, i.e., “slice”, their infrastructure to new business players and offer independent, isolated and self-contained sets of network functions
and physical/virtual resources tailored to specific services requirements. While Network Slicing has the potential to increase the revenue sources of service providers, it involves a number of technical challenges that must be carefully addressed.
End-to-end (E2E) network slices encompass time and spectrum resources in the radio access network (RAN), transport resources on the fronthauling/backhauling links, and computing and storage resources at core and edge data centers. Additionally, the vertical service requirements’ heterogeneity (e.g., high throughput, low latency, high reliability) exacerbates the need for novel orchestration solutions able to manage end-to-end network slice resources across different domains, while satisfying stringent service level agreements and specific traffic requirements. An end-to-end network slicing orchestration solution shall i) admit network slice requests
such that the overall system revenues are maximized, ii) provide the required resources across different network domains to fulfill the Service Level Agreements (SLAs) iii) dynamically adapt the resource allocation based on the real-time traffic load, endusers’ mobility and instantaneous wireless channel statistics. Certainly, a mobile network represents a fast-changing scenario characterized by complex
spatio-temporal relationship connecting end-users’ traffic demand with social activities and economy. Legacy models that aim at providing dynamic resource allocation based on traditional traffic demand forecasting techniques fail to capture these important aspects.
To close this gap, machine learning-aided solutions are quickly arising as promising technologies to sustain, in a scalable manner, the set of operations required by the network slicing context. How to implement such resource allocation schemes among slices, while
trying to make the most efficient use of the networking resources composing the mobile infrastructure, are key problems underlying the network slicing paradigm, which will be addressed in this thesis.
On the Extended Finite Element Method for the Elasto-Plastic Deformation of Heterogeneous Materials
(2015)
This thesis is concerned with the extended finite element method (XFEM) for deformation analysis of three-dimensional heterogeneous materials. Using the "enhanced abs enrichment" the XFEM is able to reproduce kinks in the displacements and therewith jumps in the strains within elements of the underlying tetrahedral finite element mesh. A complex model for the micro structure reconstruction of aluminum matrix composite AMC225xe and the modeling of its macroscopic thermo-mechanical plastic deformation behavior is presented, using the XFEM. Additionally, a novel stabilization algorithm is introduced for the XFEM. This algorithm requires preprocessing only.
Forschungsrelevanter Hintergrund: Mitunter die häufigsten Verletzungen im Sport
sind am Kniegelenk zu lokalisieren. Neben der hohen Prävalenzrate sind vor allem
ligamentäre Schädigungen wie eine Ruptur des vorderen Kreuzbandes besonders
schwerwiegend. Es sind lange Ausfallzeiten von durchschnittlich 7,5 Monaten zu verzeichnen,
wobei eine vollständige Rückkehr zum ursprünglichen Leistungsniveau
ungewiss ist. Auch die Wahrscheinlichkeit einer Reruptur ist deutlich erhöht und häufig
bedeutet eine schwere Knieverletzung das frühzeitige sportliche Karriereende.
Auch müssen betroffene Sportler oftmals mit schweren Folgeerscheinungen wie einer
Gelenksarthrose rechnen. Als Risikosportarten für diese Art von Verletzungen
gelten Ballsportspiele wie Fußball, Handball oder Basketball. Charakteristisch für das
Auftreten einer Knieverletzung in diesen von hoher Dynamik und Schnelligkeit geprägten
Mannschaftsspielen ist die Tatsache, dass sich diese mehrheitlich ohne direkten
Gegnerkontakt als „non-contact“ Trauma ereignen. In der Regel findet eine
Verletzung bei sportspieltypischen Manövern wie Landungen nach Sprüngen, spontanen
Richtungsänderungen oder plötzlichen Drehbewegungen statt. Als Verletzungsmechanismus
bei diesen Bewegungsformen ist in den meisten Fällen der sog.
„Dynamische Knievalgus“ verantwortlich. Dieser ist gekennzeichnet durch ein Abknicken
des Kniegelenks nach innen (Knieabduktion/Valgisierung) in Verbindung mit
einer Rotation der Tibia bei geringem Flexionsgrad des Kniegelenks. Die maximale
Kraftleistungsfähigkeit sowie das neuromuskuläre Aktivierungsverhalten der knieumschließenden
Muskelgruppen und der Hüftmuskulatur können den Verletzungsmechanismus
beeinflussen. Insbesondere die Hüftmuskulatur kann durch ihre Eigenschaften
korrigierend auf die Beinachse und damit auf die Kontrolle des Kniegelenks
einwirken. Die Forschungslage über die Zusammenhänge der Hüfte und deren muskulärer
Strukturen hinsichtlich ihrer protektiven Wirkungsweise bildet sich jedoch defizitär
und teilweise unspezifisch ab. Daher ist die Zielsetzung der vorliegenden Arbeit,
Kontrollmechanismen ausgehend vom Hüftgelenk in Bezug auf eine verbesserte
dynamische Kniegelenksstabilität mittels eines ganzheitlichen Ansatzes zu
evaluieren. Des Weiteren wird in der vorliegenden Arbeit die Wirkungsweise eines
apparativen Krafttrainings gegenüber eines koordinativen Sprungtrainings mit jeweiliger
Fokussierung des Hüftgelenks analysiert.
Methodik: Anhand relevanter Belastungsformen (uni- und bilaterale Drop Jumps,
einbeinige Landemanöver und reaktive laterale Sprungbewegungen) unter Belastungsstufen
wurden bei Ballspielsportlern Situationen simuliert, in denen der beschriebene
Verletzungsmechanismus auftreten kann. Dabei wurden im Sinne eines
ganzheitlichen, multimodularen Screening-Verfahrens die Knie- und Hüftgelenksbewegungen
mittels 3-D Kinematik erfasst. Die kinetische Analyse umfasst die Berechnung
der Gelenksmomente, Bodenreaktionskräfte und die Ermittlung der maximalen
Kraftfähigkeit der relevanten Hüftmuskulatur sowie der Oberschenkelstreckerkette.
Der Einfluss des neuromuskulären Aktivierungsverhaltens auf die dynamische Kniegelenkskontrolle
wurde über elektromyographische Verfahren abgebildet. Der Studienteil
1 untersuchte in einem Querschnittdesign die Auswirkungen der unterschiedlichen
Belastungsformen hinsichtlich der Determinanten der dynamischen Kniegelenksstabilität,
der Studienteil 2 diesbezügliche Zusammenhänge mit Hüftgelenksexkursionen
und deren (neuro-) muskulären Strukturen. Im Rahmen des Studienteils 3
wurden in einem Längsschnittdesign zwei Interventionsgruppen (apparatives Krafttraining
vs. koordinatives Sprungtraining) im Pre- zu-Posttest-Vergleich auf Unterschiede
der kniestabilisierenden Parameter sowie Indikatoren für eine Verletzungsexposition
hin untersucht.
Zentrale Ergebnisse: In der vorliegenden Studie kann gezeigt werden, dass laterale
Sprungmanöver im Vergleich zu vertikalen Sprung- oder Landemanövern größere
Knie- und Hüftgelenksexkursionen aufweisen und damit eine erhöhte Belastung für
diese spieltypischen Situationen einhergeht. Im Vergleich der Belastungsformen
scheinen Belastungssteigerungen innerhalb einer Belastungsform einen untergeordneten
Einfluss auf eine Verletzungsexposition zu haben. Vielmehr entscheidend ist
die verhältnismäßige Risikoeinordnung der Belastungsformen zueinander. Für alle
Bewegungen wird ein starker Zusammenhang der Hüftstellung in der Rotation mit
der dynamischen Kniegelenkskontrolle festgestellt. Um die Komplexität der Kniegelenkskontrolle
über die gesamte Belastungsphase abbilden zu können, wurde als
neue Messmethodik die „medio-laterale Knieschlackerbewegung“ erarbeitet und mit
den maximalen kinematischen Knieparametern als Indikator für die (In-)Stabilität des
Kniegelenks eingesetzt. Die (neuro-) muskulären Eigenschaften der Hüftmuskulatur
können insbesondere durch ihre außenrotatorische und abduzierende Wirkung Einfluss
auf die Ausrichtung der Gelenkachse und damit auf die Kniegelenkskontrolle
nehmen. Dabei scheinen Elemente eines koordinativen Sprungtrainings effektiver
als ein apparatives Krafttraining zu sein.
Fazit: Die Arbeit liefert einen Beitrag, um die komplexen Zusammenhänge der dynamischen
Kniegelenkskontrolle im Kontext verletzungsrelevanter Szenarien im Sport
zu evaluieren. Durch eine ganzheitliche Analyse der Knie- und Hüftgelenksbewegungen
sowie der dazugehörigen kinetischen sowie (neuro-)muskulären Parameter können
die gewonnenen Erkenntnisse helfen, Verletzungsmechanismen des Kniegelenks
besser zu kontrollieren. Diagnostische Verfahren und Trainingsprogramme
können auf dieser Basis weiterentwickelt werden, woraus durch ein tieferes Verständnis
die Möglichkeiten der Verletzungsprävention zukünftig optimiert gestaltet
werden können.
Diese Dissertation widmet sich der fertigungsintegrierten spektroskopischen Prozessanalytik
zur technischen Qualitätssicherung struktureller Glasklebungen. Glas als Werkstoff mit
seiner einzigartigen Eigenschaft der Transparenz ist in vielen Bereichen unverzichtbar. Wichtig
zur Verbesserung der Festigkeit und Langzeitbeständigkeit von Glasklebungen ist eine
Vorbehandlung der Oberfläche. Aufgrund des chemischen Aufbaus und der Reaktivität der
Glasoberfläche muss diese in einen für die Klebung geeigneten Zustand versetzt werden.
Die Applikation von Haftvermittlern und die Einhaltung der Prozessparameter sind für die
Qualität der Klebung entscheidend. Bislang fehlen Methoden zur zerstörungsfreien Qualitätssicherung
von Klebungen. Das Konzept zur prozessintegrierten Qualitätssicherung von
Glasklebungen soll Analyseverfahren zur Beurteilung der Reinigungswirkung (Kontaminationsfreiheit)
und zur Wirksamkeit der klebtechnischen Funktionalisierung bereitstellen. Die
Hypothese unterstellt, dass sich die Qualität der Oberflächenvorbehandlung und somit die
Qualität der Glasklebung hinsichtlich Zuverlässigkeit und Beständigkeit mit spektroskopischer
Analysetechnik überwachen lässt. Als spektroskopische zerstörungsfreie Analysemethoden
werden die UV-Fluoreszenzanalyse, die Infrarotspektroskopie und die Röntgenfluoreszenzanalyse
eingesetzt. Die Forschungsergebnisse bieten die Möglichkeit Klebprozesse mit
Glaswerkstoffen robust und qualitätssicher auszulegen.
Das Ziel der vorliegender Arbeit war es, nähere Informationen über den Zusammenhang zwischen den Konformationsänderungen des Chaperonin-GroEL/ES-Systems und den einzelnen Schritten im Faltungsprozess zu erhalten. Dabei wurde die ESR-Spektroskopie als kon-formationssensitive Methode eingesetzt. Im Rahmen dieser Arbeit wurde der Doppelmutant GroEL C138S/C519S, der nur noch in Position 458 jeder Untereinheit ein einzelnes Cystein enthält, mit drei verschiedenen thiol-spezifischen Spin-Labeln, nämlich 4-(3-Iodo-acetamido)-2,2,6,6- tetramethyl-piperidin-1-oxyl (IAAT), 4-Maleimido-2,2,6,6-tetramethyl-1-piperidinoxyl (MAL) und 4-(3?Iodo-2? oxopropyliden-1)?2,2,3,5,5? pentamethyl-[d15]? imidazolidin-1-oxyl (IOPI) modifiziert und untersucht. Um genaue Aussagen für die nun modifizierten Mutanten dmEL-IAAT, dmEL-MAL und dmEL-IOPI zu machen, wurden diese biochemisch charakterisiert und mit dem nicht spin-gelabeltem Doppelmutant GroEL (dmEL) und dem Wildtyp GroEL (wtEL) verglichen. Die biochemische Charakterisierung des nicht spingelabeltem dmEL und der modifizierten Mutanten erfolgte durch die Bestimmung von ATPase-Aktivität und Rückfaltungsaktivität. Zusätzlich wurde die Umgebung der kovalent eingebrachten Spin-Labeln (IAAT, MAL, IOPI) in Gegenwart und Abwesenheit von GroES und Substratproteins untersucht. Die verschiedenen Untersuchungen am dmEL und die entsprechenden experimentell erhalte-nen Ergebnisse deuten darauf hin, dass die ATPase-Aktivität des nicht spingelabelten dmEL leicht höher als die des wtEL ist, allerdings hat die Vorinkubation des dmEL mit ES in Anwesenheit von Nukleotiden keine Inhibierung der ATP-Hydrolyse im Falle des dmEL verursacht. Im Gegensatz dazu wurde im Falle des wtEL eine Inhibierung von etwa 25 % der ATP-Hydrolyse in Anwesenheit von ES im Vergleich zum wtEL-Wert in Abwesenheit von ES und Nukleotiden (wie auch in der Literatur [Viitanen et al., 1990; Langer et al., 1992; Chandrasekhar et al., 1986; Gray & Fersht, 1991; Jackson et al., 1993] beschrieben) bemerkt. Bei der Untersuchung der durch Chaperonin-GroEL unterstützten Rückfaltung von denaturierter LDH wurde eine deutliche Erhöhung der Ausbeute an zurückgefalteter LDH im vergleich zu der ?spontanen? nicht Chaperonin-abhängigen Rückfaltung von LDH bemerkt. Die ?spontane? nicht Chaperonin-abhängige Rückfaltung von LDH bei 25 °C zeigt eine Ausbeute an aktiven LDH von 23 %. In Gegenwart von dmEL und ATP wurden etwa 20 % der denaturierten LDH rückgefaltet. Die Zugabe von ES an dmEL in Anwesenheit von ATP hat die Ausbeute an Teil rückgefalteter LDH auf 42 % erhöht. Dies deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die Experimente am wtEL unter gleichen Bedingungen wie beim dmEL haben eine deutliche Erhöhung der Ausbeute an rückgefalteter LDH in Anwesenheit von wtEL und ATP auf 52 % gezeigt (wie auch schon bei [Guhr, 2000] beschrieben). Die Anwesenheit von ES hat die Ausbeute auf 65 % erhöht. Betrachtet man sich in diesem Zusammenhang den Unterschied zwischen den Ausbeuten an rückgefalteter LDH durch dmEL und wtEL, so ist anzunehmen, dass die gerin-gere Rückfaltungsaktivität des dmEL an der eingeführten Doppelmutation C138S/C519S liegt. Es liegt nahe, dass eine für die Rückfaltung eines Substratproteins benötigte Konformationsübertragung von der Doppelmutation beeinflusst wird. Das GroEL:GroES-Verhältnis war bei allen verschiedenen Untersuchungen 1:2. In unserem Arbeitskreis wurde schon bereits von P. Guhr (2000) gezeigt, dass unterschiedliche GroEL:GroES-Verhältnisse von entweder 1:1 oder 1:2 weder bei LDH noch bei MDH-Rückfaltung einen Einfluss auf die Ausbeute rückgefalteten Substratprotein hat. Diese Beobachtungen lassen den Schluss zu, dass unter den verwendeten Reaktionsbedingungen nur die asymmetrischen GroEL/GroES-Komplexe ?bullet? als aktive Komponenten auftraten. Die Bestimmung von zugänglichen Nukleotidbindungsstellen am GroEL wurde mit Hilfe der ESR-Spektroskopie und C8-SL-ATP durchgeführt. Sowohl bei dmEL als auch bei wtEL konnten alle Nukleotidbindungsstellen besetzt werden. Im Gegensatz zum wtEL zeigt der dmEL eine sigmoidale Bindungskurve. Die Bestimmung von Nukleotidbindungstellen in Anwesenheit von ES zeigte kein sigmoidales Verhalten. Die Bildung des GroEL/ES-Komplexes in Gegenwart von C8-SL-ATP konnte von P. Guhr (2000) nicht erfolgreich nachgewiesen werden, da Versuche zum Nachweis des Komplexes mit Hilfe der nativen Gelelektrophorese scheiterten. Die chemische Modifizierung des dmEL mit IAAT-SL und die durchgeführten Untersuchun-gen zur biochemischen Charakterisierung des dmEL-IAAT-SL und deren Vergleich mit dem nicht spingelabelten dmEL haben die folgenden Schlüsse gelassen: Der IAAT-SL beeinflusst die ATPase-Aktivität des dmEL relativ wenig im Vergleich zum dmEL-Wert. Ebenso wurde die Nukleotidbindung an dmEL-IAAT-SL relativ wenig beeinflusst, allerdings zeigt die Nukleotidbindungskurve des dmEL-IAAT-SL kein sigmoidales Verhalten im Gegensatz zum dmEL. Auch bei der Bestimmung der Nukleotidbindungsstellen in Anwesenheit von ES wurden alle Nukleotidbindungsstellen besetzt. Die experimentell beobachtete Rückfaltungsaktivität des dmEL nach Modifizierung mit IAAT-SL wurde stark beeinflusst. Während etwa 20 % der denaturierter LDH durch dmEL in Anwesenheit von ATP rückgefaltet wurden, wurden nur etwa 5 % der denaturierten LDH durch dmEL-IAAT in Anwesenheit von ATP rückgefaltet. Allerdings hat die Anwesenheit von ES die Ausbeute an Teil rückgefalteter LDH im Falle des dmEL-IAAT-SL in Anwesenheit von ATP auf 8 % erhöht. Die beobachtete normale ATPase-Aktivität und die niedrige Rückfaltungsaktivität des dmEL-IAAT-SL deuten darauf hin, dass diese von einander abgekoppelt erfolgen. Die ESR-Untersuchungen am dmEL-IAAT-SL haben in Anwesenheit von verschiedenen Nukleotiden, GroES, und Substratprotein keine Konformationsänderungen in der Umgebung des modifizierten mit IAAT-SL C458 nachgewiesen. Es wurde nur in einem Fall in Abwesenheit von Substratprotein aber in Gegenwart von ATP und ES ein Effekt der ES-Bindung auf die ESR-Spektren gezeigt. Dies deutet darauf hin, dass die Bindung von ES die Übertragung von strukturellen Änderung im Bereich des C458 beeinflusst hat. Im Gegensatz zum IAAT-SL hat der MAL-SL die ATPase-Aktivität des dmEL relativ stark beeinflusst, so dass die ATPase-Aktivität des dmEL-MAL nur 50 % der des dmEL-Wertes erreicht hat. Es besteht die Möglichkeit, dass durch eine Störung der Struktur der Nukleotid-bindungsstellen eine gestörte Konformationsübertragung verursacht wurde, so dass die ATPase-Aktivität zu tief abgefallen ist. Die Rückfaltungs-Untersuchungen am dmEL-MAL haben gezeigt, dass etwa 15 % der denaturierten LDH in Anwesenheit von dmEL-MAL und ATP seiner Ausgangs-Aktivität zurückgewinnt. Dieser Anteil an rückgefalteter LDH steigt auf etwa 25 % in Anwesenheit von dmEL-MAL, ATP und ES. Diese Erhöhung der Ausbeute deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die ESR-Untersuchungen an dmEL-MAL haben keine strukturellen Veränderungen im Bereich des mit MAL-SL modifizierten C458 des Proteins nachgewiesen. Der IOPI-SL hat bei der ATPase-Aktivität-Unteruschungen ein unterschiedliches Verhältnis im Vergleich zu IAAT-SL bzw. MAL-SL gezeigt. Bei Bestimmung der ATPase-Aktivität des dmEL-IOPI bei 30 °C wurde eine ATPase-Aktivität im selben Bereich wie beim dmEL gefunden. Bei 37 °C hat der dmEL-IOPI eine außergewöhnliche hohe ATPase-Aktivität mit fast 100 %iger Steigerung der des dmEL-Wertes gezeigt. Auch die ATPase-Aktivität des dmEL-IOPI nach Vorinkubation mit ATP oder ADP und in Anwesenheit von ES ist um etwa 166 % der des dmEL-Wertes gesteigert, anstatt abzufallen. Es konnten jedoch nur 4,8 % denaturierter LDH durch dmEL-IOPI in Anwesenheit von ATP rückfalten. Die Zugabe von ES hat diesen Anteil auf 21 % erhöht, jedoch liegt der Wert unterhalb der spontanen Rückfaltung (22 %). Wie in allen Fällen, wurde auch im Falle des dmEL-IOPI gezeigt, dass eine direkte Interaktion zwischen GroES und GroEL besteht. Auch die ATPase läuft zu schnell ab und kann den Faltungsprozess von Substratprotein nicht unter-stützen. Wenn man das Verhalten der drei modifizierten Mutanten in Bezug auf die ATPase-Aktivität und Rückfaltung betrachtet, deuten die Ergebnisse darauf, dass die ATPase-Aktivität und die Rückfaltungsaktivität von einander abgekoppelt erfolgen. Auch im Falle des dmEL-IOPI haben die ESR-Spektren keine strukturellen Änderungen im Bereich des C458 nachgewiesen. Ein weiterer Ansatzpunkt zur Untersuchung des Chaperonins GroEL wären die folgenden Doppelmutationen einzuführen: C138S/C458S bzw. C458S/C519S und die gleichen Unter-suchungen der vorliegender Arbeit durchzuführen. Anderer Vorschlag wäre die chemische Modifizierung des Substratproteins oder auch des Co-Chaperonin-GroES innerhalb des ?mobile loop? nach einer entsprechenden Cysteinmutation und mit Hilfe der ESR-Spektroskopie könnten noch genauen Aussagen über den Funktions-mechanismus gemacht werden. Einführung von Cysteinmutation innerhalb der apikalen Domäne des GroEL und mit Hilfe der ESR-Spektroskopie könnte auch ermöglichen, nähere Informationen über die GroES- bzw. Substratproteinbindung zu gewinnen.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Die vorliegende Arbeit beschreibt die Synthese neuartiger, substituierter N,N,N-tridentater Liganden auf der Basis der Stammverbindungen 2,6-Di(pyrazol-3-yl)pyridin und 2,6-Di(pyrimidin-4-yl)pyridin. Die katalytische Aktivität von Dichloroeisen- und Dichlorocobaltkomplexen dieser Liganden in der Olefinpolymerisation wurde getestet. Einen weiteren Schwerpunkt stellte die Synthese von Rutheniumkomplexen auf der Basis dieser neuartigen Liganden und deren Anwendbarkeit in homogen katalysierten Oxidations- und Epoxidationsreaktionen sowie der Hydrovinylierungsreaktion dar. Die Möglichkeit den Liganden 2,6-Di(pyrazol-3-yl)pyridin leicht chemisch modifizieren zu können, wurde genutzt, um Eigenschaften (z. B. die Löslichkeit in organischen Lösungsmitteln) des Liganden und der sich ableitenden Komplexe zu beeinflussen. Zur regioselektiven N-Funktionalisierung der Pyrazolringe wurden nucleophile Substitutionsreaktionen genutzt. Dieser einfache Zugangsweg zu substituierten 2,6-Di(pyrazol-3-yl)pyridinen wurde ebenso dazu verwendet, um funktionelle Gruppen, die eine Substraterkennung über Wasserstoffbrückenbindungen und eine Komplexierung von Lewis-Säuren ermöglichen sollte, in die Peripherie dieser Liganden anzubinden.
Die vorliegende Arbeit hat zum Ziel, Methoden zur Beschreibung der Quellung von (nichtionischen und ionischen) Hydrogelen in wässrigen Lösungen zu entwickeln und zu erproben. Die Modelle setzen sich aus einem Beitrag, der die Gibbssche Energie von Flüssigkeiten beschreibt und aus einem Beitrag für die Helmholtz-Energie des Netzwerks zusammen. Die Beschreibung der elastischen Eigenschaften des Netzwerks beruht auf der Phantom-Netzwerk-Theorie. Die Gibbssche Exzessenergie der Flüssigkeiten wurde mit verschiedenen Modellen, abhängig vom Typ der untersuchten Systeme (wässrig/salzhaltige Lösung oder wässrig/organische Lösung), beschrieben. Bei der Modellierung wurden der Einfluss der Zusammensetzung des Netzwerks (z.B. Konzentration von Vernetzer und/bzw. von ionischem Komonomeren) und der Einfluss der Zugabe von weiteren Komponenten in der das Gel umgebenden wässrigen Lösung auf den Quellungsgrad behandelt. Als weitere Komponenten wurden einerseits anorganische Salze (Natriumchlorid,Dinatriumhydrogenphosphat) und andererseits organische Lösungsmittel (Ethanol, Aceton, Essigsäure, 1-Butanol,Methylisobutylketon) behandelt. Zur Modellierung des Quellverhaltens von nichtionischen IPAAm-Gelen in NaCl bzw. Na2HPO4-haltigen Lösungen wurde das VERS-Modell in Kombination mit der Phanom-Netzwerk-Theorie verwendet. Bei der Erweiterung dieser Modelle auf ionische Gele wurde eine gute Beschreibung nur dann erzielt, wenn sowohl das Dissoziationsgleichgewicht des ionischen Komonomeren Natriummethacrylat als auch eine Korrektur im Phantom-Netzwerk-Modell berücksichtigt wurden. Wenn beide Korrekturen allein aus wenigen experimentellen Daten für die Quellung ionischer Gele in wässrigen Lösungen von NaCl bestimmt wurden, gelingen nicht nur eine gute Korrelation für den Quellungsgrad, sondern auch zuverlässige Vorhersagen (sowohl Erweiterung auf andere (IPAAm/NaMA)Gele als auch bei Verwendung von Na2HPO4 anstelle von NaCl). Die Modellierung der Einflüsse der untersuchten Salze (NaCl bzw. Na2HPO4) auf das Quellverhalten sowohl nichtionischer VP-Gele als auch ionischer (VP/NaMA)Gele erfolgt auch in Kombination des VERS-Modells mit der Phanom-Netzwerk-Theorie. Die vorgeschlagene Methode liefert sowohl für nichtionische VP-Gele als auch für ionische (VP/NaMA)Gele in wässrigen salzhaltigen Lösungen eine gute Übereinstimmung zwischen Experiment und Rechnung. Die Quellungsgleichgewichte nichtionischer IPAAm-Gele in Mischungen aus Wasser und einem organischen Lösungsmittel (Ethanol, Aceton, Essigsäure, Butanol, Methylisobutylketon) lassen sich mit Hilfe der Kombination aus dem UNIQUAC-Modell und einem Free-Volume-Beitrag mit der Phantom-Netwerk-Theorie beschreiben. Bei der Erweiterung des Modells auf ionische (IPAAm/NaMA)Gele wurde der Einfluss der Konzentration des organischen Lösungsmittels auf die Dissoziationskonstante von Natriummethacrylat berücksichtigt. Ähnlich zur Modellierung der Quellung im System (IPAAm/NaMA)Gel-Wasser-Salz wurden die Abweichungen von der Phantom-Netzwerk-Theorie mit Hilfe eines empirischen Faktors betrachtet. Mit diesen Modellvorstellungen gelingt sowohl eine gute Korrelation als auch zuverlässige Vorhersage des Quellungsgrades von ionischen Gelen in wässrig/organischen Lösungen. Bei den theoretischen Studien zur Quellung von Gelen auf Basis von Vinylpyrrolidon in wässrig/organischen Lösungsmittelgemischen erwies sich, dass eine Kombination aus dem UNIQUAC-Modell (jedoch ohne kombinatorischen Beitrag) und der Phantom-Netzwerk-Theorie die besten Ergebnisse bei der Beschreibung des Quellverhaltens der nichtionischen VP-Gele liefert. Bei der Erweiterung des Modells auf ionische (VP/NaMA)Gele wurde eine Abhängigkeit des Dissoziationsgrades von Natriummethacrylat von der Ethanol-, bzw. der Acetonkonzentration berücksichtigt.
This thesis focuses on novel methods to establish the utility of wearable devices along with machine learning and pattern recognition methods for formal education and address the open research questions posed by existing methods. Firstly, state-of-the-art methods are proposed to analyse the cognitive activities in the learning process, i.e., reading, writing, and their correlation. Furthermore, this thesis presents real-time applications in wearable space as an experimental tool in Physics education, and an air-writing system.
There are two critical components in analysing the reading behaviour, i.e., WHERE a person looks at (gaze analysis) and WHAT a person looks at (content analysis). This thesis proposes novel methods to classify the reading content to address the WHAT AT component. The proposed methods are based on a hybrid approach, which fuses the traditional computer vision methods with deep neural networks. These methods, when evaluated on publicly available datasets, yield state-of-the-art results to define the structure of the document images. Moreover, extensive efforts were made to refine and correct ICDAR2017-POD dataset along with a completely new FFD dataset.
Traditionally, handwriting research focuses on character and number recognition without looking into the type of writing, i.e. text, math, and drawing. This thesis reports multiple contributions for on-line handwriting classification. First, it presents a public dataset for on-line handwriting classification OnTabWriter, collected using iPen and an iPad. In addition, a new feature set is introduced for on-line handwriting classification to establish the benchmark on the proposed dataset to classify handwriting as plain text, mathematical expression, and plot/graph. An ablation study is made to evaluate the performance of the proposed feature set in comparison to existing feature sets. Lastly, this thesis evaluates the importance of context for on-line handwriting classification.
Analysing reading and writing activities individually is not enough to provide insights to identify the student's expertise unless their correlations are analysed. This thesis presents a study where reading data from wearable eye-trackers and writing data from sensor pen are analysed together in correlation to correlate the expertise of the users in Physics education with their actual knowledge. Initial results show a strong correlation between individual's expertise and understanding of the subject.
Augmented reality & virtual applications can play a vital role in making classroom environments more interactive and engaging both for teachers and learners. To validate the hypothesis, different applications are developed and evaluated. First, smart glasses are used as an experimental tool in Physics education to help the learners perform experiments by providing assistance and feedback on head mounted display in understanding acoustics concepts. Second, a real-time application of air-writing with the finger on an imaginary canvas using a single IMU as the FAirWrite system is also presented. FAirWrite system is further equipped with DL methods to classify the air-written characters.
Recent studies on the environmental performance of additive manufacturing (AM) have shown that AM exhibits both complex potentials and challenges at different life stages compared to conventional manufacturing. To assess and ensure the environmental benefits of AM during the design phase, an eco-design approach is required. Existing eco-design for AM approaches described in the literature mainly focus on the use of lifecycle assessment (LCA) to analyze the environmental impacts of AM-specific design solutions. However, since LCA requires a full-process chain model and detailed inventory data, it can only be performed after the design process or in a subsequent design stage. To integrate evaluation activities into the middle stage of the design process, energy performance assessment can be used as an alternative evaluation tool in eco-design for AM. However, the literature still lacks an eco-design for AM method based on energy performance quantification and assessment. By addressing this research problem, this dissertation contributes to the development of a holistic framework to implement eco-design for AM using energy performance assessment. This framework consists of the following three parts: a simulation tool for energy prediction in the design phase; an energy performance assessment model for AM; and a method for carrying out activities in eco-design for AM. To demonstrate the feasibility of the proposed method, three use cases are performed. Based on these use cases, it is concluded that with the use of the proposed method, AM designers will be able to select and develop optimal design solutions based on the energy performance of AM in the middle design stage.
Distributed Optimization of Constraint-Coupled Systems via Approximations of the Dual Function
(2024)
This thesis deals with the distributed optimization of constraint-coupled systems. This problem class is often encountered in systems consisting of multiple individual subsystems, which are coupled through shared limited resources. The goal is to optimize each subsystem in a distributed manner while still ensuring that system-wide constraints are satisfied. By introducing dual variables for the system-wide constraints the system-wide problem can be decomposed into individual subproblems. These resulting subproblems can then be coordinated by iteratively adapting the dual variables. This thesis presents two new algorithms that exploit the properties of the dual optimization problem. Both algorithms compute a quadratic surrogate function of the dual function in each iteration, which is optimized to adapt the dual variables. The Quadratically Approximated Dual Ascent (QADA) algorithm computes the surrogate function by solving a regression problem, while the Quasi-Newton Dual Ascent (QNDA) algorithm updates the surrogate function iteratively via a quasi-Newton scheme. Both algorithms employ cutting planes to take the nonsmoothness of the dual function into account. The proposed algorithms are compared to algorithms from the literature on a large number of different benchmark problems, showing superior performance in most cases. In addition to general convex and mixed-integer optimization problems, dual decomposition-based distributed optimization is applied to distributed model predictive control and distributed K-means clustering problems.
This work introduces a promising concept for the preparation of new nano-sized receptors. Mixed monolayer protected gold nanoparticles (AuNPs) for low molecular weight compounds were prepared featuring functional groups on their surfaces. It has been shown that these AuNPs can engage in interactions with peptides in aqueous media. Quantitative binding information was obtained from DOSY-NMR titrations indicating that nanoparticles containing a combination of three orthogonal functional groups are more efficient in binding to dipeptides than mono or difunctionalised analogues. The strategy is highly modular and easily allows adapting the receptor selectivity to a
given substrate by varying the type, number, and ratio of binding sites on the nanoparticle
surface.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
The safety of embedded systems is becoming more and more important nowadays. Fault Tree Analysis (FTA) is a widely used technique for analyzing the safety of embedded systems. A standardized tree-like structure called a Fault Tree (FT) models the failures of the systems. The Component Fault Tree (CFT) provides an advanced modeling concept for adapting the traditional FTs to the hierarchical architecture model in system design. Minimal Cut Set (MCS) analysis is a method that works for qualitative analysis based on the FTs. Each MCS represents a minimal combination of component failures of a system called basic events, which may together cause the top-level system failure. The ordinary representations of MCSs consist of plain text and data tables with little additional supporting visual and interactive information. Importance analysis based on FTs or CFTs estimates the contribution of each potential basic event to a top-level system failure. The resulting importance values of basic events are typically represented in summary views, e.g., data tables and histograms. There is little visual integration between these forms and the FT (or CFT) structure. The safety of a system can be improved using an iterative process, called the safety improvement process, based on FTs taking relevant constraints into account, e.g., cost. Typically, relevant data regarding the safety improvement process are presented across multiple views with few interactive associations. In short, the ordinary representation concepts cannot effectively facilitate these analyses.
We propose a set of visualization approaches for addressing the issues above mentioned in order to facilitate those analyses in terms of the representations.
Contribution:
1. To support the MCS analysis, we propose a matrix-based visualization that allows detailed data of the MCSs of interest to be viewed while maintaining a satisfactory overview of a large number of MCSs for effective navigation and pattern analysis. Engineers can also intuitively analyze the influence of MCSs of a CFT.
2. To facilitate the importance analysis based on the CFT, we propose a hybrid visualization approach that combines the icicle-layout-style architectural views with the CFT structure. This approach facilitates to identify the vulnerable components taking the hierarchies of system architecture into account and investigate the logical failure propagation of the important basic events.
3. We propose a visual safety improvement process that integrates an enhanced decision tree with a scatter plot. This approach allows one to visually investigate the detailed data related to individual steps of the process while maintaining the overview of the process. The approach facilitates to construct and analyze improvement solutions of the safety of a system.
Using our visualization approaches, the MCS analysis, the importance analysis, and the safety improvement process based on the CFT can be facilitated.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
The broad engineering applications of polymers and composites have become the
state of the art due to their numerous advantages over metals and alloys, such as
lightweight, easy processing and manufacturing, as well as acceptable mechanical
properties. However, a general deficiency of thermoplastics is their relatively poor
creep resistance, impairing service durability and safety, which is a significant barrier
to further their potential applications. In recent years, polymer nanocomposites have
been increasingly focused as a novel field in materials science. There are still many
scientific questions concerning these materials leading to the optimal property
combinations. The major task of the current work is to study the improved creep
resistance of thermoplastics filled with various nanoparticles and multi-walled carbon
nanotubes.
A systematic study of three different nanocomposite systems by means of
experimental observation and modeling and prediction was carried out. In the first
part, a nanoparticle/PA system was prepared to undergo creep tests under different
stress levels (20, 30, 40 MPa) at various temperatures (23, 50, 80 °C). The aim was
to understand the effect of different nanoparticles on creep performance. 1 vol. % of
300 nm and 21 nm TiO2 nanoparticles and nanoclay was considered. Surface
modified 21 nm TiO2 particles were also investigated. Static tensile tests were
conducted at those temperatures accordingly. It was found that creep resistance was
significantly enhanced to different degrees by the nanoparticles, without sacrificing
static tensile properties. Creep was characterized by isochronous stress-strain curves,
creep rate, and creep compliance under different temperatures and stress levels.
Orientational hardening, as well as thermally and stress activated processes were
briefly introduced to further understanding of the creep mechanisms of these
nanocomposites. The second material system was PP filled with 1 vol. % 300 nm and 21 nm TiO2
nanoparticles, which was used to obtain more information about the effect of particle
size on creep behavior based on another matrix material with much lower Tg. It was
found especially that small nanoparticles could significantly improve creep resistance.
Additionally, creep lifetime under high stress levels was noticeably extended by
smaller nanoparticles. The improvement in creep resistance was attributed to a very
dense network formed by the small particles that effectively restricted the mobility of
polymer chains. Changes in the spherulite morphology and crystallinity in specimens
before and after creep tests confirmed this explanation.
In the third material system, the objective was to explore the creep behavior of PP
reinforced with multi-walled carbon nanotubes. Short and long aspect ratio nanotubes
with 1 vol. % were used. It was found that nanotubes markedly improved the creep
resistance of the matrix, with reduced creep deformation and rate. In addition, the
creep lifetime of the composites was dramatically extended by 1,000 % at elevated
temperatures. This enhancement contributed to efficient load transfer between
carbon nanotubes and surrounding polymer chains.
Finally, a modeling analysis and prediction of long-term creep behaviors presented a
comprehensive understanding of creep in the materials studied here. Both the
Burgers model and Findley power law were applied to satisfactorily simulate the
experimental data. The parameter analysis based on Burgers model provided an
explanation of structure-to-property relationships. Due to their intrinsic difference, the
power law was more capable of predicting long-term behaviors than Burgers model.
The time-temperature-stress superposition principle was adopted to predict long-term
creep performance based on the short-term experimental data, to make it possible to
forecast the future performance of materials.
Estimation and Portfolio Optimization with Expert Opinions in Discrete-time Financial Markets
(2021)
In this thesis, we mainly discuss the problem of parameter estimation and
portfolio optimization with partial information in discrete-time. In the portfolio optimization problem, we specifically aim at maximizing the utility of
terminal wealth. We focus on the logarithmic and power utility functions. We consider expert opinions as another observation in addition to stock returns to improve estimation of drift and volatility parameters at different times and for the purpose of asset optimization.
In the first part, we assume that the drift term has a fixed distribution, and
the volatility term is constant. We use the Kalman filter to combine the two
types of observations. Moreover, we discuss how to transform this problem
into a non-linear problem of Gaussian noise when the expert opinion is uniformly distributed. The generalized Kalman filter is used to estimate the parameters in this problem.
In the second part, we assume that drift and volatility of asset returns are both driven by a Markov chain. We mainly use the change-of-measure technique to estimate various values required by the EM algorithm. In addition,
we focus on different ways to combine the two observations, expert opinions and asset returns. First, we use the linear combination method. At the same time, we discuss how to use a logistic regression model to quantify expert
opinions. Second, we consider that expert opinions follow a mixed Dirichlet distribution. Under this assumption, we use another probability measure to
estimate the unnormalized filters, needed for the EM algorithm.
In the third part, we assume that expert opinions follow a mixed Dirichlet distribution and focus on how we can obtain approximate optimal portfolio
strategies in different observation settings. We claim the approximate strategies from the dynamic programming equations in different settings and analyze the dependence on the discretization step. Finally we compute different
observation settings in a simulation study.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Entwicklung eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen
(2018)
Betreiber von Niederspannungsnetzen sind im Zuge der Energiewende durch den anhaltenden Ausbau dezentraler Erzeugungsanlagen und dem Aufkommen der Elektromobilität mit steigenden Netzauslastungen konfrontiert. Zukünftig wird ein sicherer Netzbetrieb ohne Leitungsüberlastungen grundsätzlich nur gewährleistet sein, wenn der Netzzustand durch geeignete Systeme ermittelt wird und auf dessen Basis ein intelligentes Netzmanagement mit regelnden Eingriffen erfolgt.
Diese Arbeit befasst sich mit der Entwicklung und dem Test eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen. Als Eingangsdaten dienen dabei Spannungs- und Strommesswerte, welche im Wesentlichen durch Smart Meter an Hausanschlusspunkten messtechnisch erfasst werden. Das Verfahren zielt darauf ab, Grenzwertverletzungen mit einer hohen Wahrscheinlichkeit zu erkennen.
Schwerpunkte der Betrachtung sind neben der Systemkonzeptionierung zum einen die Vorverarbeitung der Systemeingangsdaten im Rahmen der Generierung von Ersatzmesswerten sowie der Erkennung von Topologiefehlern und zum anderem die Entwicklung eines Schätzalgorithmus mit linearem Messmodell und der Möglichkeit zur Lokalisierung grob falscher Messdaten.