Refine
Year of publication
Document Type
- Doctoral Thesis (1864) (remove)
Language
- German (930)
- English (928)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (18)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (369)
- Kaiserslautern - Fachbereich Mathematik (291)
- Kaiserslautern - Fachbereich Informatik (229)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (63)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (35)
The aim of this dissertation is to explain processes in recruitment by gaining a better understanding of how perceptions evolve and how recruitment outcomes and perceptions are influenced. To do so, this dissertation takes a closer look at the formation of fit perceptions, the effects of top employer awards on pre-hire recruitment outcomes, and on how perceptions about external sources are influenced.
Die polymorphkernigen neutrophilen Granuolzyten (PMN) besitzten zur Abwehr mikrobieller Pathogene unter anderem einen vorgefertigten Pool an Serinproteasen (Elastase (HNE), Proteinase 3 (PR3) und Cathepsin G). Diese Proteasen werden in den primären Granula aufbewahrt. Stimulation der PMN bewirkt eine Verschmelzung der Granula mit der Zellmembran und somit einer Freisetzung der Proteasen in das Phagolysosom oder in den extrazellulären Raum. Bei Patienten mit chronischen Entzündungskrankheiten, wie der Wegener'schen Granulomatose, finden sich die Proteasen in katalytisch aktiver Form auf der Zellmembran der PMN. In vitro Versuche haben gezeigt, daß diese oberflächengebundenen Serinproteasen nicht mehr von den Plasmaproteaseinhibitoren, die die Aktivität der ins Plasma freigesetzten Enzyme regulieren, inaktiviert werden können. Somit könnten die Proteasen auf der Zelloberfläche einen wichtigen Beitrag in der Pathogenese der Zellschädigungen, wie sie bei Wegener Patienten gefunden werden beitragen. In der vorliegenden Arbeit konnte mittels kompetitiven Bindungsstudien die Zahl der Bindungsstellen auf PMN für exogene Elastase auf etwa 40000/Zelle bestimmt werden. Inhibtionsstudien mit monoklonalen Antikörpern und synthetischen Peptiden identifizierten die ß2-Integrine CD11b und in geringerem Maße CD11a und CD11c als Bindungsstellen auf der Zelloberfläche. Die Bindung der Elastase an PMN ist abhängig von Ca2+, einem typischen Merkmal der Ligandenbindung der ß2-Integrine. Diese Ergebnisse konnten mittels der direkten molekularen Interaktion von Elastase und CD11b des gereinigten CD11b/CD18-Komplexes bestätigt werden. Die Bindung von Elastase an den isolierten CD11b/CD18-Komplex läßt sich mit Antikörpern gegen CD11b, nicht jedoch gegen CD18 hemmen. Elastase kann mit Antikörpern gegen CD11a und CD11b von der Membran stimulierter PMN copräzipitiert werden. Dies zeigt, daß die endogene Elastase ebenfalls an die ß2-Integrine auf der Zellmembran der PMN bindet. Adhäsionsversuche mit Epithel- und Endothelzellenmonolayern zeigten, daß die oberflächengebundene Elastase keinen Einfluß auf die PMN-Epithelzell Wechselwirkung hat, die Adhäsion an Endothelien jedoch fast vollständig unterdrückt. Bei der Adhäsion der PMN an Epithelien ist die Wechselwirkung der ß2-Integrine mit einem Rezeptor auf den Epithelzellen nicht der bestimmende Schritt. Die feste Adhäsion der PMN an Endothelzellen erfolgt dagegen fast ausschließlich über die Bindung von CD11b an ICAM-1 auf dem Endothel. Elastase kann so die Bindungsstelle für ICAM-1 blockieren oder aber ICAM-1 angreifen und die Adhäsion der PMN verhindern. Eine weitere wichtige Funktion des CD11b-Moleküls der Granulozyten ist die Bindung an C3bi auf opsonierten Mikroben. Dies wurde mittels der Bindung von PMN an C3bi-opsonierte Schafserythrozyten untersucht. Es binden weitaus mehr PMN mit oberflächengebundener Elastase an die Schfaserythrozyten als PMN ohne Elastase auf der Zelloberfläche. In der Durchflußzytometrie konnte gezeigt werden, daß die Bindung exogener Elastase in CD11b eine Konformationsänderung hervorruft, was sich in der Expression des aktivierungsabhängigen Epitops zeigt. Dieses Epitop charakterisiert den hoch affinen Zustand der CD11b Moleküle, der für eine starke Bindung an viele Liganden verantwortlich ist. Es konnte ebenfalls gezeigt werden, daß die Serinproteasen keinen Einfluß auf die Zahl der exprimierten CD11a und CD11b-Moleküle haben. Lediglich das mit CD11 assoziierte Molekül CD18 zeigt bei einigen Spendern eine leichte Sensibiltät für proteolytische Spaltung, einhergehend mit einer leicht reduzierten Expression.
Ziel dieser Arbeit war, die Entwicklung von übergangsmetallkatalysierten Kreuzkupplungsreaktionen zur Kohlenstoff-Kohlenstoff-Bindungsknüpfungen, bei denen Carbonsäuren anstelle der traditionell verwendeten, jedoch ökologisch bedenklichen Organometall-verbindungen (z. B. metallorganische Verbindungen der Elemente Bor, Zinn, Zink, Kupfer oder Magnesium) als Startmaterialien eingesetzt werden. Der wesentlich Schwerpunkt dieser Arbeit bestand darin, die zu diesem Zeitpunkt neu entwickelte decarboxylierende Kreuzkupplungsreaktion von aromatischen Carbonsäuren mit Arylhalogeniden zur synthetischen Reife zu führen.
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
Bei der Herstellung hochbelasteter Strukturbauteile aus Faser-Kunststoff-Verbund (FKV) wird verbreitet auf textile Halbzeuge wie Gewebe oder vernähte Biaxial-Gelege zurückgegrif-fen. Diese Halbzeuge zeigen im Verbund mit Kunststoffen periodische out-of-plane Roving-welligkeiten. Die Größe der Welligkeiten hängt unter anderem von den Fertigungsparametern der trockenen Halbzeuge ab. Durch das Verständnis der effektiven Kausalitäten zwischen Rovingwelligkeiten und mechanischem Verhalten soll eine bessere rechnerische Abschätzung der Materialkennwerte erzielt werden.
In dieser Arbeit wurde unter anderem der Einfluss der Welligkeitsparameter Amplitude und Wellenlänge auf die faserparallelen Kennwerte an unidirektional verstärkten Proben unter-sucht. Dafür wurden gezielt unterschiedliche Amplituden und Wellenlängen mit Hilfe von unidirektionalen Geweben in die Probekörper eingebracht. Der Einfluss der Rovingwelligkei-ten auf die Steifigkeiten war kleiner als auf die Festigkeiten. Bei Letzten war zu beobachten, dass die Druckfestigkeiten mehr von den Ondulationen beeinflusst wurden als die Zugfestig-keiten. Außerdem wurden die Welligkeiten und die mechanischen Kennwerte von textilen FKV-Geweben und -Gelegen bestimmt. Bei der Auswahl der untersuchten Halbzeuge war ein wichtiges Kriterium, dass diese auch in der Praxis Anwendung finden.
Im nächsten Schritt wurde ein vereinfachtes Finite-Elemente-Welligkeitsmodell entwickelt, welches es ermöglicht, die faserparallelen Kennwerte ohne zeit- und kostenintensive Materi-alversuche zu bestimmen. Speziell für Gewebe-Materialien mit großen Rovingwelligkeiten ist dieses Modell in der Lage, deutlich bessere Abschätzungen als vorhandene Methoden zu ge-ben. Weiterhin wurde auf dieser Basis ein Regressionsmodell für unidirektional verstärkte Materialien abgeleitet, welches auch dem Konstrukteur ohne Erfahrungen im Umgang mit Finiten-Elemente-Programmen die Anwendung des Welligkeitsmodells ermöglicht.
Der Vorteil des entwickelten Welligkeitsmodells wurde in einem dreistufigen Validierungs-programm nachgewiesen. Dieses beinhaltet den Übergang auf multidirektionale Laminate sowie komplexere Bauteilgeometrien. Die verbesserte Prognose mit Hilfe des Welligkeitsmo-dells zeigte sich vor allem bei Materialien mit großen Rovingwelligkeiten und bei Bauteilen die aufgrund eines Faserbruchs durch eine Druckbelastung versagten.
Im Rahmen dieser Arbeit sollte ein Beitrag zu der Frage geleistet werden, welche Bedeutung etheno-DNA-Addukte in der Karzinogenese und bei chronisch degenerativen Erkrankungen haben könnten. Zu diesem Zweck wurden etheno-DNA-Addukte mittels 2-Chloracetaldehyd (CAA), einem von zwei Metaboliten von Vinylchlorid und dem Krebstherapeutikum Ifosfamid, in einem humanen B-lymphoiden Zellsystem (Raji Zellen) induziert. Der subtoxische Konzentrationsbereich von CAA wurde mittels Wachstumskurven auf unter 100 microM eingegrenzt. Weiterhin wurde gezeigt, daß CAA in den in dieser Arbeit verwendeten Konzentrationen einen relativ großen Einfluß auf das Wachstumsverhalten von Raji Zellen hatte. Dieser Einfluß beruhte unter anderem auf der Hemmung der DNA-Replikation und damit indirekt auch auf die DNA-Reparatur, der CAA-abhängigen Kondensation der zellulären DNA aufgrund von DNA-DNA-Quervernetzungen und einem geringen Einfluß auf die Atmungskette in Mitochondrien aufgrund einer Hemmung des NADH-Dehydrogenase-Komplexes. Die weitere Arbeit verteilte sich daraufhin auf drei Teilprojekte : - Die Detektion und Quantifizierung von etheno-Desoxyadenosin-Addukten (edA) wurde unter Anwendung einer einfachen, nicht-radioaktiven Alternative zu der IPPA-Postlabeling-Methode auf HPLC-Basis mit Fluoreszenzdetektion durchgeführt, die im Rahmen dieser Arbeit etabliert wurde. Dabei konnte gezeigt werden, daß CAA bei Konzentrationen zwischen 30 und 100 microM eine Erhöhung von edA um den Faktor 3-4 in Raji Zell-DNA zur Folge hatte. Ferner konnte mit Hilfe dieser HPLC-Methode zum ersten Mal die Induktion von edA als Folge von Zigarettenrauch in diesem Zellsystem gezeigt werden, wobei es offen bleibt, ob diese DNA-Addukte direkt oder durch Induktion von Lipidperoxidation gebildet wurden. - Der Nachweis der genspezifischen Induktion von etheno-DNA-Addukten in einer "Hot-Spot"-Region der mitochondrialen DNA wurde auf Basis einer in unserer Abteilung von Yang und Hergenhahn entwickelten Methode zum genspezifischen Nachweis von DNA-Schäden durchgeführt. Dazu wurde diese Methode auf die in dieser Arbeit gestellten Anforderungen hin weiterentwickelt. Es konnte unter Zuhilfenahme dieser Methode eine signifikante Zunahme von edA in der mitochondrialen Zielregion, bei CAA-behandelten Proben gegenüber den Kontrollen, nachgewiesen werden. - Der Einfluß von CAA auf die Mutationsraten in mitochondrialer DNA aus Raji Zellen wurde mit Hilfe des RSM- und DPD-Tests untersucht. Der DPD-Test wurde im Laufe dieser Arbeit zu einem Festphasen-DPD-Test weiterentwickelt um den Hintergrund an nicht mutierten Sequenzen und die Gefahr von Kreuzkontaminationen zu minimieren. Im Rahmen dieser Experimente konnte eine Zunahme von Mutationen zwischen 10,5 und 14,5 % der CAA-behandelten Proben gegenüber den unbehandelten Kontrollen gezeigt werden. Die Art der Mutationen wurde durch Sequenzierung ermittelt und waren in allen CAA-behandelten Proben A G und T C Transitionen. Weiterhin wurde überprüft, ob CAA, als bifunktionelles Agens, neben Punktmutationen auch Deletionen auslösen könnte. Dabei wurde eine nahezu signifikante Zunahme an Deletionen in den CAA-behandelten Proben gegenüber den unbehandelten Kontrollen festgestellt. Die in dieser Arbeit angewendeten und weiterentwickelten Methoden könnten durchaus weitere praktische Anwendungen finden. So könnte die Bestimmung von edA mittels HPLC aus Blut von Krebspatienten, bei Behandlung mit dem Krebstherapeutikum Ifosfamid, ein nützliches Hilfsmittel für die Expositionskontrolle werden. Hierbei könnte edA als Marker für die interne Belastung des Patienten mit, dem Metabolit von Ifosfamid, CAA dienen. Die in dieser Arbeit entwickelte Festphasen-DPD-Methode ebnet den Weg, unselektierte durch edA-ausgelöste Mutationen in nukleären Genen wie z.B. p53 zu bestimmen, die aufgrund von erhöhter Lipidperoxidation unter pathologischen, präkarzinogenen Bedingungen wie Wilsons Syndrom oder Hämochromatose gebildet werden könnten. Da bisher keine mitochondrialen etheno-DNA-Addukt-spezifischen Reparaturenzyme beschrieben wurden, muß man davon ausgehen, daß etheno-DNA-Addukte auch einen Beitrag zu Mutationen im mitochondrialen Genom leisten und damit eine Rolle im Prozeß des Alterns bzw. in der Entwicklung von degenerativen Erkrankungen spielen könnten.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
A series of (oligo)phenthiazines, thiazolium salts and sulfonic acid functionalized organic/inorganic hybrid materials were synthesized. The organic groups were covalently bound on the inorganic surface through reactions of organosilane precursors with TEOS or with the silanol groups of material surface. These synthetic methods are called the co-condensation process and the post grafting. The structures and the textural parameters of the generated hybrid materials were characterized by XRD, N2 adsorption-desorption measurements, SEM and TEM. The incorporations of the organic groups were verified by elemental analysis, thermogravimetric analysis, FT-IR, UV-Vis, EPR, CV, as well as by 13C CP-MAS NMR and 29Si CP-MAS NMR spectroscopy. Introduction of various organic groups endow different phsysical, chemical properties to these hybrid materials. The (oligo)phenothiazines provide a group of novel redox acitive hybrid materials with special electronic and optic properties. The thiazolium salts modified materials were applied as heterogenized organo catalysts for the benzoin condensation and the cross-coupling of aldehydes with acylimines to yield a-amido ketones. The sulfonic acid containing materials can not only be used as Broensted acid catalysts, but also can serve as ion exchangable supports for further modifications and applications.
Nanoparticle-Filled Thermoplastics and Thermoplastic Elastomer: Structure-Property Relationships
(2012)
The present work focuses on the structure-property relationships of
particulate-filled thermoplastics and thermoplastic elastomer (TPE). In this work
two thermoplastics and one TPE were used as polymer matrices, i.e. amorphous
bisphenol-A polycarbonate (PC), semi-crystalline isotactic polypropylene (iPP),
and a block copolymer poly(butylene terephthalate)-block-poly(tetramethylene
glycol) TPE(PBT-PTMG). For PC, a selected type of various Aerosil® nano-SiO2
types was used as filler to improve the thermal and mechanical properties by
maintaining the transparency of PC matrix. Different types of SiO2 and TiO2
nanoparticles with different surface polarity were used for iPP. The goal was to
examine the influence of surface polarity and chemical nature of nanoparticles on
the thermal, mechanical and morphological properties of iPP composites. For
TPE(PBT-PTMG), three TiO2 particles were used, i.e. one grade with hydroxyl
groups on the particle surface and the other two grades are surface-modified with
metal and metal oxides, respectively. The influence of primary size and dispersion
quality of TiO2 particles on the properties of TPE(PBT-PTMG)/TiO2 composites
were determined and discussed.
All polymer composites were produced by direct melt blending in a twin-screw
extruder via masterbatch technique. The dispersion of particles was examined by
using scanning electron microscopy (SEM) and micro-computerized tomography
(μCT). The thermal and crystalline properties of polymer composites were characterized by using thermogravimetric analysis (TGA) and differential
scanning calorimetry (DSC). The mechanical and thermomechanical properties
were determined by using mechanical tensile testing, compact tension and
Charpy impact as well as dynamic-mechanical thermal analysis (DMTA).
The SEM results show that the unpolar-surface modified nanoparticles are better
dispersed in polymer matrices as iPP than polar-surface nanoparticles, especially
in case of using Aeroxide® TiO2 nanoparticles. The Aeroxide® TiO2 nanoparticles
with a polar surface due to Ti-OH groups result in a very high degree of
agglomeration in both iPP and TPE matrices because of strong van der Waals
interactions among particles (hydrogen bonding). Compared to unmodified
Aeroxide® TiO2 nanoparticles, the other grades of surface modified TiO2 particles
are very homogenously dispersed in used iPP and TPE(PBT-PTMG). The
incorporation of SiO2 nanoparticles into bisphenol-A PC significantly increases
the mechanical properties of PC/SiO2 nanocomposites, particularly the resistance
against environmental stress crazing (ESC). However, the transparency of
PC/SiO2 nanocomposites decreases with increasing nanoparticle content and
size due to a mismatch of infractive indices of PC and SiO2 particles. The different
surface polarity of nanoparticles in iPP shows evident influence on properties of
iPP composites. Among iPP/SiO2 nanocomposites, the nanocomposite
containing SiO2 nanoparticles with a higher degree of hydrophobicity shows
improved fracture and impact toughness compared to the other iPP/SiO2
composites. The TPE(PBT-PTMG)/TiO2 composites show much better thermal and mechanical properties than neat TPE(PBT-PTMG) due to strong chemical
interactions between polymer matrix and TiO2 particles. In addition, better
dispersion quality of TiO2 particles in used TPE(PBT-PTMG) leads to dramatically
improved mechanical properties of TPE(PBT-PTMG)/TiO2 composites.
Planar force or pressure is a fundamental physical aspect during any people-vs-people and people-vs-environment activities and interactions. It is as significant as the more established linear and angular acceleration (usually acquired by inertial measurement units). There have been several studies involving planar pressure in the discipline of activity recognition, as reviewed in the first chapter. These studies have shown that planar pressure is a promising sensing modality for activity recognition. However, they still take a niche part in the entire discipline, using ad hoc systems and data analysis methods. Mostly these studies were not followed by further elaborative works. The situation calls for a general framework that can help push planar pressure sensing into the mainstream.
This dissertation systematically investigates using planar pressure distribution sensing technology for ubiquitous and wearable activity recognition purposes. We propose a generic Textile Pressure Mapping (TPM) Framework, which encapsulates (1) design knowledge and guidelines, (2) a multi-layered tool including hardware, software and algorithms, and (3) an ensemble of empirical study examples. Through validation with various empirical studies, the unified TPM framework covers the full scope of application recognition, including the ambient, object, and wearable subspaces.
The hardware part constructs a general architecture and implementations in the large-scale and mobile directions separately. The software toolkit consists of four heterogeneous tiers: driver, data processing, machine learning, visualization/feedback. The algorithm chapter describes generic data processing techniques and a unified TPM feature set. The TPM framework offers a universal solution for other researchers and developers to evaluate TPM sensing modality in their application scenarios.
The significant findings from the empirical studies have shown that TPM is a versatile sensing modality. Specifically, in the ambient subspace, a sports mat or carpet with TPM sensors embedded underneath can distinguish different sports activities or different people's gait based on the dynamic change of body-print; a pressure sensitive tablecloth can detect various dining actions by the force propagated from the cutlery through the plates to the tabletop. In the object subspace, swirl office chairs with TPM sensors under the cover can be used to detect the seater's real-time posture; TPM can be used to detect emotion-related touch interactions for smart objects, toys or robots. In the wearable subspace, TPM sensors can be used to perform pressure-based mechanomyography to detect muscle and body movement; it can also be tailored to cover the surface of a soccer shoe to distinguish different kicking angles and intensities.
All the empirical evaluations have resulted in accuracies well-above the chance level of the corresponding number of classes, e.g., the `swirl chair' study has classification accuracy of 79.5% out of 10 posture classes and in the `soccer shoe' study the accuracy is 98.8% among 17 combinations of angle and intensity.
Whole-body vibrations (WBV) have adverse effects on ride comfort and human health. Suspension seats have an important influence on the WBV severity. In this study, WBV were measured on a medium-sized compact wheel loader (CWL) in its typical operations. The effect of short-term exposure to the WBV on the ride comfort was evaluated according to ISO 2631-1:1985 and ISO 2631-1:1997. ISO 2631-1:1997 and ISO 2631-5:2004 were adopted to evaluate the effect of long-term exposure to the WBV on the human health. Reasons for the different evaluation results obtained according to ISO 2631-1:1997 and ISO 2631-5:2004 were explained in this study. The WBV measurements were carried out in cases where the driver wore a lap belt or a four-point seat harness and in the case where the driver did not wear any safety belt. The seat effective amplitude transmissibility (SEAT) and the seat transmissibility in the frequency domain in these three cases were analyzed to investigate the effect of a safety belt on the seat transmissibility. Seat tests were performed on a multi-axis shaking table in laboratory to study the dynamic behavior of a suspension seat under the vibration excitations measured on the CWL. The WBV intensity was reduced by optimizing the vertical and the longitudinal seat suspension systems with the help of computational simulations. For the optimization multi-body models of the seat-dummy system in the laboratory seat tests and the seat-driver system in the field vibration measurements were built and validated.
The main purpose of the study was to improve the physical properties of the modelling of compressed materials, especially fibrous materials. Fibrous materials are finding increasing application in the industries. And most of the materials are compressed for different applications. For such situation, we are interested in how the fibre arranged, e.g. with which distribution. For given materials it is possible to obtain a three-dimensional image via micro computed tomography. Since some physical parameters, e.g. the fibre lengths or the directions for points in the fibre, can be checked under some other methods from image, it is beneficial to improve the physical properties by changing the parameters in the image.
In this thesis, we present a new maximum-likelihood approach for the estimation of parameters of a parametric distribution on the unit sphere, which is various as some well known distributions, e.g. the von-Mises Fisher distribution or the Watson distribution, and for some models better fit. The consistency and asymptotic normality of the maximum-likelihood estimator are proven. As the second main part of this thesis, a general model of mixtures of these distributions on a hypersphere is discussed. We derive numerical approximations of the parameters in an Expectation Maximization setting. Furthermore we introduce a non-parametric estimation of the EM algorithm for the mixture model. Finally, we present some applications to the statistical analysis of fibre composites.
In recent years, nanofiller-reinforced polymer composites have attracted considerable
interest from numerous researchers, since they can offer unique mechanical,
electrical, optical and thermal properties compared to the conventional polymer
composites filled with micron-sized particles or short fibers. With this background, the
main objective of the present work was to investigate the various mechanical
properties of polymer matrices filled with different inorganic rigid nanofillers, including
SiOB2B, TiOB2B, AlB2BOB3B and multi-walled carbon nanotubes (MWNT). Further, special
attention was paid to the fracture behaviours of the polymer nanocomposites. The
polymer matrices used in this work contained two types of epoxy resin (cycloaliphatic
and bisphenol-F) and two types of thermoplastic polymer (polyamide 66 and isotactic
polypropylene).
The epoxy-based nanocomposites (filled with nano-SiOB2B) were formed in situ by a
special sol-gel technique supplied by nanoresins AG. Excellent nanoparticle
dispersion was achieved even at rather high particle loading. The almost
homogeneously distributed nanoparticles can improve the elastic modulus and
fracture toughness (characterized by KBICB and GBICB) simultaneously. According to
dynamic mechanical and thermal analysis (DMTA), the nanosilica particles in epoxy
resins possessed considerable "effective volume fraction" in comparison with their
actual volume fraction, due to the presence of the interphase. Moreover, AFM and
high-resolution SEM observations also suggested that the nanosilica particles were
coated with a polymer layer and therefore a core-shell structure of particle-matrix was
expected. Furthermore, based on SEM fractography, several toughening
mechanisms were considered to be responsible for the improvement in toughness,
which included crack deflection, crack pinning/bowing and plastic deformation of
matrix induced by nanoparticles.
The PA66 or iPP-based nanocomposites were fabricated by a conventional meltextrusion
technique. Here, the nanofiller content was set constant as 1 vol.%. Relatively good particle dispersion was found, though some small aggregates still
existed. The elastic modulus of both PA66 and iPP was moderately improved after
incorporation of the nanofillers. The fracture behaviours of these materials were
characterized by an essential work fracture (EWF) approach. In the case of PA66
system, the EWF experiments were carried out over a broad temperature range
(23~120 °C). It was found that the EWF parameters exhibited high temperature
dependence. At most testing temperatures, a small amount of nanoparticles could
produce obvious toughening effects at the cost of reduction in plastic deformation of
the matrix. In light of SEM fractographs and crack opening tip (COD) analysis, the
crack blunting induced by nanoparticles might be the major source of this toughening.
The fracture behaviours of PP filled with MWNTs were investigated over a broad
temperature range (-196~80 °C) in terms of notched impact resistance. It was found
that MWNTs could enhance the notched impact resistance of PP matrix significantly
once the testing temperature was higher than the glass transition temperature (TBgB) of
neat PP. At the relevant temperature range, the longer the MWNTs, the better was
the impact resistance. SEM observation revealed three failure modes of nanotubes:
nanotube bridging, debonding/pullout and fracture. All of them would contribute to
impact toughness to a degree. Moreover, the nanotube fracture was considered as
the major failure mode. In addition, the smaller spherulites induced by the nanotubes
would also benefit toughness.
Nowadays, accounting, charging and billing users' network resource consumption are commonly used for the purpose of facilitating reasonable network usage, controlling congestion, allocating cost, gaining revenue, etc. In traditional IP traffic accounting systems, IP addresses are used to identify the corresponding consumers of the network resources. However, there are some situations in which IP addresses cannot be used to identify users uniquely, for example, in multi-user systems. In these cases, network resource consumption can only be ascribed to the owners of these hosts instead of corresponding real users who have consumed the network resources. Therefore, accurate accountability in these systems is practically impossible. This is a flaw of the traditional IP address based IP traffic accounting technique. This dissertation proposes a user based IP traffic accounting model which can facilitate collecting network resource usage information on the basis of users. With user based IP traffic accounting, IP traffic can be distinguished not only by IP addresses but also by users. In this dissertation, three different schemes, which can achieve the user based IP traffic accounting mechanism, are discussed in detail. The inband scheme utilizes the IP header to convey the user information of the corresponding IP packet. The Accounting Agent residing in the measured host intercepts IP packets passing through it. Then it identifies the users of these IP packets and inserts user information into the IP packets. With this mechanism, a meter located in a key position of the network can intercept the IP packets tagged with user information, extract not only statistic information, but also IP addresses and user information from the IP packets to generate accounting records with user information. The out-of-band scheme is a contrast scheme to the in-band scheme. It also uses an Accounting Agent to intercept IP packets and identify the users of IP traffic. However, the user information is transferred through a separated channel, which is different from the corresponding IP packets' transmission. The Multi-IP scheme provides a different solution for identifying users of IP traffic. It assigns each user in a measured host a unique IP address. Through that, an IP address can be used to identify a user uniquely without ambiguity. This way, traditional IP address based accounting techniques can be applied to achieve the goal of user based IP traffic accounting. In this dissertation, a user based IP traffic accounting prototype system developed according to the out-of-band scheme is also introduced. The application of user based IP traffic accounting model in the distributed computing environment is also discussed.
This thesis is devoted to deal with the stochastic optimization problems in various situations with the aid of the Martingale method. Chapter 2 discusses the Martingale method and its applications to the basic optimization problems, which are well addressed in the literature (for example, [15], [23] and [24]). In Chapter 3, we study the problem of maximizing expected utility of real terminal wealth in the presence of an index bond. Chapter 4, which is a modification of the original research paper joint with Korn and Ewald [39], investigates an optimization problem faced by a DC pension fund manager under inflationary risk. Although the problem is addressed in the context of a pension fund, it presents a way of how to deal with the optimization problem, in the case there is a (positive) endowment. In Chapter 5, we turn to a situation where the additional income, other than the income from returns on investment, is gained by supplying labor. Chapter 6 concerns a situation where the market considered is incomplete. A trick of completing an incomplete market is presented there. The general theory which supports the discussion followed is summarized in the first chapter.
Automata theory has given rise to a variety of automata models that consist
of a finite-state control and an infinite-state storage mechanism. The aim
of this work is to provide insights into how the structure of the storage
mechanism influences the expressiveness and the analyzability of the
resulting model. To this end, it presents generalizations of results about
individual storage mechanisms to larger classes. These generalizations
characterize those storage mechanisms for which the given result remains
true and for which it fails.
In order to speak of classes of storage mechanisms, we need an overarching
framework that accommodates each of the concrete storage mechanisms we wish
to address. Such a framework is provided by the model of valence automata,
in which the storage mechanism is represented by a monoid. Since the monoid
serves as a parameter to specifying the storage mechanism, our aim
translates into the question: For which monoids does the given
(automata-theoretic) result hold?
As a first result, we present an algebraic characterization of those monoids
over which valence automata accept only regular languages. In addition, it
turns out that for each monoid, this is the case if and only if valence
grammars, an analogous grammar model, can generate only context-free
languages.
Furthermore, we are concerned with closure properties: We study which
monoids result in a Boolean closed language class. For every language class
that is closed under rational transductions (in particular, those induced by
valence automata), we show: If the class is Boolean closed and contains any
non-regular language, then it already includes the whole arithmetical
hierarchy.
This work also introduces the class of graph monoids, which are defined by
finite graphs. By choosing appropriate graphs, one can realize a number of
prominent storage mechanisms, but also combinations and variants thereof.
Examples are pushdowns, counters, and Turing tapes. We can therefore relate
the structure of the graphs to computational properties of the resulting
storage mechanisms.
In the case of graph monoids, we study (i) the decidability of the emptiness
problem, (ii) which storage mechanisms guarantee semilinear Parikh images,
(iii) when silent transitions (i.e. those that read no input) can be
avoided, and (iv) which storage mechanisms permit the computation of
downward closures.
Weinbaukläranlagen werden während der Weinlese und -bereitung mit hohen organischen BSB5-Frachten zusätzlich zu den kommunalen Schmutzfrachten belastet. Die saisonal stark schwankende Belastung und unterschiedliche Abwasserzusammensetzung führte in der Vergangenheit zu Unsicherheiten bei der Bemessung, die entweder in zu großen Sicherheitsreserven mündeten oder sich durch ungenügende Reinigungsleistung und Betriebsstabilität offenbarten. Während für Weinbaukläranlagen mit dem Reinigungsziel "Kohlenstoffelimination" umfangreiche Untersuchungen vorliegen, besteht für Anlagen mit gezielter Stickstoffelimination ein erhebliches Wissensdefizit. Diese unbefriedigende Situation gab Anlaß zu eigenen Versuchen mit der Zielsetzung, Aufschluss über die Auswirkungen der saisonal hohen BSB5- Belastung auf die Stabilität der Nitrifikation und somit auf die Bemessung der Belebungsbecken zu erhalten. Eine Umfrage bei Betreibern von Weinbaukläranlagen bestätigte, dass für eine wirklichkeitsnahe Bemessung und wirtschaftliche Betriebsführung große Wissenslücken bestehen. Zudem erfordern die Belastungsschwankungen sehr flexible Betriebsführungs- und Regelstrategien, die oft bei der Planung nicht ausreichend bedacht wurden. Die allgemein anerkannten stationären Bemessungsansätze wie das ATV-Arbeitsblatt A 131 können für den Nachweis einer stabilen Nitrifikation nicht herangezogen werden, da aufgrund der erforderlichen Anpassungen der Biozönose an die veränderte Belastungsverhältnisse kein stationärer Zustand herrscht, der die Voraussetzung für die Gültigkeit der Ansätze ist. Während der Kampagne wird deutlich mehr Überschussschlamm produziert und abgezogen, was zur Folge hat, dass mehr Nitrifikanten aus der Belebung entfernt werden als nachwachsen können. Zur Optimierung der Bemessung bietet sich daher die dynamische Simulation an, welche die Nachbildung jeglicher instationärer Belastungsverhältnisse erlaubt. Es konnte gezeigt werden, dass das Activated Sludge Model No. 1 bei der Simulation von zwei Weinbaukläranlagen eine hinreichend gute Übereinstimmung zwischen den Simulationsergebnissen und den realen Messwerten liefert. Die Kalibrierung der Modelle muss in mehreren Stufen erfolgen. Eine dynamische Kalibrierung anhand der Stickstoffablaufkonzentrationen ist bei hoher CSB-Belastung nicht sinnvoll, da die Dynamik der Stickstoffkonzentrationsschwankungen im Ablauf im Wesentlichen durch den CSB-Abbau bestimmt werden. Im Rahmen dieser Arbeit wurde eine Vorgehensweise entwickelt, die es ermöglicht auch in der Planungsphase die Modelle so zu kalibrieren, dass aussagekräftige Ergebnisse für die Bemessung und Betriebsführung erhalten werden. Anhand eines Beispiels wurde gezeigt, wie die stationären Bemessungsansätze zu einer fehlerhaften Auslegung des Belebungsbeckens führen können. Mit Hilfe der dynamischen Simulation konnten das Bemessungsergebnis kontrolliert und Optimierungsmaßnahmen hinsichtlich ihres Nutzens bewertet sowie verschiedene Betriebsführungs- und Regelstrategien optimiert werden. Speziell angepasste Bemessungsempfehlungen lassen sich aus diesen Untersuchungen jedoch nicht ableiten, da die Auswirkungen der Kampagnebelastung auf die Prozessstabilität der Nitrifikation erheblich von der kommunalen Belastung und vom Verfahrenskonzept abhängig sind. So zeigen Anlagen, die für höhere Schlammalter bemessen sind wie z.B. simultane aerobe Stabilisierungsanlagen, eine deutlich höhere Prozessstabilität als Anlagen mit niedrigeren Schlammaltern. Die dynamische Simulation ist ein sehr hilfreiches Werkzeug, Kläranlagen wirtschaftlich zu bemessen. Es ist zu wünschen, dass die dynamische Simulation in naher Zukunft als "Standardwerkzeug" vom planenden Ingenieur eingesetzt wird.
Die Entwicklung von beta-Laktam-Resistenz in dem Pathogen Streptococcus pneumoniae (S. pneu-moniae) stellt einen komplexen Prozess dar, welcher auf einer Modifikation der Penicillin-Bindeproteine (PBP), der Targetstrukturen von beta-Laktam-Antibiotika beruht. PBP sind Membran-gebundene Enzyme, welche essentielle Reaktionen bei der bakteriellen Zellwand-Synthese katalysieren. Diese Proteine werden im Zuge der Resistenzentstehung so verändert, dass beta-Laktame nicht mehr oder nur noch mit geringer Affinität gebunden werden, das physiologische Substrat aber noch erkannt werden muß. Die vorliegende Arbeit befasst sich mit dem PBP2x von S. pneumoniae, das als essentielles PBP und wichtigste primäre Resistenzdeterminante einen hohen Stellenwert bei der Entstehung von beta-Laktam-Resistenz in diesem Organismus einnimmt. Obwohl dieses PBP zu den am besten untersuchten PBP gehört, bleiben die Resistenzrelevanz einzelner Punktmutationen und die mit der Veränderung des Proteins einhergehenden physiologischen Folgen für die Zelle weitgehend unklar. Zentraler Inhalt dieser Arbeit war die Untersuchung des Effekts von PBP2x-Mutationen auf die Resistenz, Funktionalität von PBP2x und Zellphysiologie im Kontext mit der sekundären Resistenzdeterminante PBP1a und den beiden Zwei-Komponenten-Systemen CiaRH, welches in die Cefotaxim-Resistenz, genetische Kompetenz und Virulenz involviert ist und ComDE, das die genetische Kompetenz reguliert. Besonderes Interesse galt dabei der Position Thr338, welche sich unmittelbar benachbart zum aktiven Serin befindet und in den meisten resistenten klinischen Isolaten zu Alanin, Prolin oder Glycin mutiert ist. Durch eine gerichtete Mutagenese dieser Position im Wildtyp R6 konnte zum ersten Mal gezeigt werden, dass eine Thr338-Punktmutation einen selektionierbaren Resistenz-Phänotyp in vivo vermittelt, wobei abhängig von dem jeweiligen Austausch unterschiedliche Resistenzniveaus und Kreuzresistenzspektren zu beobachten waren. Abgesehen von einem nur moderaten Beitrag zur Resistenz, betraf eine solche Substitution offenbar auch die Funktionalität von PBP2x, was sich auf dramatische Art und Weise in Abwesenheit eines intakten CiaRH-Regulationssystems äußerte: Es kam zu Wachstumsdefekten, insbesondere einer verfrühten und verstärkten Autolyse, morphologischen Aberrationen und einer verminderten Lebensfähigkeit. Entgegen aller Erwartungen führte die Präsens eines Mosaik-PBP1a in dem genetischen Hintergrund der Thr338-Mutation nicht zu einem weiteren Anstieg der Resistenz, sondern bewirkte sogar einen leichten Abfall. Dennoch komplementierte das Mosaik-PBP1a die durch das Fehlen eines funktionsfähigen CiaRH-Systems hervorgerufenen Wachstumsdefizienzen. Der Vergleich zwischen dem PBP2x mit Thr338-Punktmutation und einem Mosaik-PBP2x deckte gravierende Unterschiede im Hinblick auf das Resistenzpotential und die physiologischen Auswirkungen auf. Anders als bei der PBP2x-Punktmutation waren bei dem Mosaik-PBP2x fast keine Wachstumseinbußen zu verzeichnen, wenn es mit einem inaktiven Zwei-Komponenten-System CiaRH kombiniert wurde, und die Anwesenheit eines Mosaik-PBP1a brachte eine starke Erhöhung der Cefotaxim-Resistenz mit sich. Beiden pbp2x-Allelen war jedoch gemeinsam, dass die Abwesenheit eines PBP1a massive Defekte im Wachstum zur Folge hatte. Alle diese Beobachtungen deuteten auf eine mögliche Interaktion zwischen PBP2x und PBP1a hin. Die Analyse der Zellwand einer Mutante mit zwei PBP2x-Aminosäureaustauschen, von denen einer in resistenten klinischen Stämmen anzutreffen ist, ergab eine biochemisch modifizierte Zellwand, in der bei einem fast gleichbleibenden Anteil an verzweigten Dimeren, Monomere erhöht, und lineare Dimere und Trimere reduziert waren. Diese Befunde ließen auf eine enzymatische Beeinträchtigung dieses PBP2x schließen. Ein von CiaRH ausgehender Effekt konnte nicht festgestellt werden. Eine Inaktivierung des für den Export des Kompetenz-stimulierenden Peptids CSP verantwortlichen ABC-Transporters ComAB in Kombination mit einem nicht-funktionellen CiaRH-System bewirkte im Wildtyp eine vollständige, in PBP2x-Punktmutanten eine nur teilweise Aufhebung der vorzeitigen stationären Phase-Autolyse. Darüber hinaus machte sich bei einem der PBP2x-Derivate, welches zusätzlich über eine Cefotaxim-Resistenz-vermittelnde Aminosäuresubstitution in CiaH verfügte, bei ciaR-Inaktivierung sowohl ein Verlust der CiaH- als auch eine partielle Einbuße der PBP2x-Resistenz bemerkbar, bei comAB-Inaktivierung hingegen aber ausschließlich ersteres. Hieraus konnte zum einen auf einen direkten Bezug des Lyse-Phänotyps zu der Kompetenz und der CiaRH-Resistenz zu ComAB geschlossen werden, zum anderen auf einen CiaRH-unabhängigen Einfluss von PBP2x auf die Kompetenz und Autolyse. Tatsächlich bestätigte eine Bestimmung der Transformationseffizienz von Mutanten mit verschiedenen Konstellationen aus niederaffinen und unmodifizierten PBP, dass das Kompetenzmuster bzw. -ausmaß von der jeweiligen PBP-Ausstattung moduliert wird. Auch eine Microarray-basierte globale Transkriptomanalyse dieser Mutanten sowie spontan resistenter Labormutanten mit PBP2x- und CiaH-Mutationen suggerierte eine von CiaRH-entkoppelte Einflussnahme der PBP auf die Kompetenz. Zudem zeugten die Transkriptionsmuster von einem vielschichtigen Regulationsnetzwerk der Resistenzentwicklung unter Beteiligung von Kompetenz, Bakteriocinproduktion, Virulenz, Metabolismus, Transportprozessen und Energiestatus, was möglicherweise eine indirekte Folge einer gestörten Zellwand- und Membranintegrität darstellt. Durch die Extraktion von intergenen Bereichen, sowie potentiellen neuen Resistenzdeterminanten bzw. Resistenz-unterstützenden Genen, wie den Gen-Clustern spr1545-spr1549 und spr0096-spr0110 oder den Genen des Purinstoffwechsels wurde die Basis für weiterführende Untersuchungen geschaffen. Die hier vorgestellten Daten demonstrieren, dass der Erwerb von beta-Laktam-Resistenz nicht nur von Vorteil ist, sondern auch physiologische Konsequenzen für die Zelle hat, die sie kompensiert, um ein möglichst stabiles Wachstum zu gewährleisten. Über die Zellwand-Zusammensetzung und Kompetenz konnte erstmalig eine Verbindung von PBP2x zu CiaRH hergestellt werden. Eine konkrete kompensatorische Wirkung dieses Regulons hinsichtlich PBP2x-Mutationen wurde mit der Repression der Kompetenzlyse ausfindig gemacht. Im letzten Teil dieser Arbeit wurde basierend auf einer früheren Veröffentlichung, in der eine Inaktivierung des Gens für das PBP2b von S. pneumoniae erfolglos blieb, erneut versucht, eine solche Mutante herzustellen. Obwohl lebensfähige Transformanten generiert werden konnten, war es nicht möglich eine pbp2b-Inaktivierungs- bzw. Deletionsmutante zu isolieren, sodass PBP2b in diesem Organismus weiterhin als essentielles Protein angesehen werden kann.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
Continuum Mechanical Modeling of Dry Granular Systems: From Dilute Flow to Solid-Like Behavior
(2014)
In this thesis, we develop a granular hydrodynamic model which covers the three principal regimes observed in granular systems, i.e. the dilute flow, the dense flow and the solid-like regime. We start from a kinetic model valid at low density and extend its validity to the granular solid-like behavior. Analytical and numerical results show that this model reproduces a lot of complex phenomena like for instance slow viscoplastic motion, critical states and the pressure dip in sand piles. Finally we formulate a 1D version of the full model and develop a numerical method to solve it. We present two numerical examples, a filling simulation and the flow on an inclined plane where the three regimes are included.
Today, information systems are often distributed to achieve high availability and low latency.
These systems can be realized by building on a highly available database to manage the distribution of data.
However, it is well known that high availability and low latency are not compatible with strong consistency guarantees.
For application developers, the lack of strong consistency on the database layer can make it difficult to reason about their programs and ensure that applications work as intended.
We address this problem from the perspective of formal verification.
We present a specification technique, which allows specifying functional properties of the application.
In addition to data invariants, we support history properties.
These let us express relations between events, including invocations of the application API and operations on the database.
To address the verification problem, we have developed a proof technique that handles concurrency using invariants and thereby reduces the problem to sequential verification.
The underlying system semantics, technique and its soundness proof are all formalized in the interactive theorem prover Isabelle/HOL.
Additionally, we have developed a tool named Repliss which uses the proof technique to enable partially automated verification and testing of applications.
For verification, Repliss generates verification conditions via symbolic execution and then uses an SMT solver to discharge them.
Die vorliegende Arbeit befasst sich mit dem Thema der Fortentwicklung von Visualisierungs- und Simulationsmethoden in der städtebaulichen Gestaltungs-planung. Für einen Einstieg in die Materie ist eine tief gehende Auseinandersetzung mit dem Begriff der Planung und deren Prozesse im Allgemeinen und der Versuch der Abgrenzung von städtebaulicher Struktur – und Gestaltungsplanung im Besonderen unerlässlich, auch um das bisher zu Verfügung stehende Methodenrepertoire einer kritischen Untersuchung zu kommen zu lassen. Es wird deutlich, dass die Methoden in der städtebauliche Gestaltungsplanung in den letzten fünf Jahren einem radikalen Wechsel unterzogen worden: Neben der schnelleren Erstellung von virtuellen Umgebungsmodellen sind vor allem die Einflüsse aus der sogenannten Web 2.0 Bewegung und dem veränderten Nutzungsverhalten im Internet die treibenden Motoren, die die Arbeit und die damit verbundenen Methoden in der Gestaltungsplanung verändert haben. Für den Planer hat dies den Vorteil, dass zum Einen Planungsinhalte frühzeitig schneller und transparenter für eine erfolgreiche Plankommunikation aufbereitet werden können, und zum Anderen, dass der Planer diese ehemals sehr anspruchsvollen Arbeit bis zu einem gewissen Umfang auch selbstständig erledigen kann und nicht mehr auf die Hilfe von Spezialisten angewiesen ist. Die dafür benötigten Methoden sind in allen ihren Facetten in dieser Arbeit beleuchtet und zugleich in einem in sich konsistenten Workflow untereinander vernetzt, so dass alle vorgestellten Arbeitsweisen keine eindimensionale Lösungen darstellen, sondern immer wieder untereinander, ähnlich dem Mashup-Gedanken der Web2.0 Community, neu kombinierbar sind. Der Einsatz der Arbeitstechniken inklusiver des Workflows ist dann die Methode der Echtzeitplanung urban vis & sim, die auf die städtebauliche Gestaltungsplanung abgestimmt ist. Zur besseren Verständlichkeit wird die Methode im Laufe der Arbeit nur „Echtzeitplanung“ genannt. Anhand von verschiedenen Einsatzbereichen ist die Methode der Echtzeitplanung in der Praxis auf ihre Umsetzung hin überprüft worden, wobei Bereiche unterschieden werden, die entweder mit einer kurzen Einarbeitungszeit auch von „Visualisierungsneulingen“ bewältigt werden können oder in weiterführende Arbeitstechniken, die das hohe Maß der Flexibilität der Methode durch die Kombination von verschiedenen Techniken auslotet. Die Methode der Echtzeitplanung eignet sich beim Einsatz in der Planung für eine allseits transparente Kommunikation, sofern die in der Arbeit erläuterten Rahmenparameter eingehalten werden. Echtzeitplanungsmethoden sollten frühzeitig und in Abstimmung aller am Prozess beteiligten Akteure dazu verwendet werden, um die Kommunikation und das Verständnis zu stärken. Sie sollten nicht durch ihre beeindruckenden Grafikpräsentation dazu verwendet werden - bewusst oder unbewusst - bestimmte Elemente einer Planung zu überhöhen oder andere dadurch zu negieren.
Die Untersuchung der Induktion der Ethoxyresorufin-O-deethylase (EROD) Aktivität durch die "dioxinartigen" PCBs 77, 81, 105, 114, 118, 123, 126, 156, 157, 167, 169 und 189 in der Hepatoblastom-Zellinie HepG2 und, zur Vervollständigung bereits veröffentlichter Daten, in primären Rattenhepatozyten und in der Rattenhepatom-Zellinie H4IIE wurde im ersten Teil der Arbeit durchgeführt. Die Ergebnisse zeigten, daß die ausgewählten PCBs in HepG2 weniger potent sind als in H4IIE-Zellen bzw. primären Rattenhepatozyten. In HepG2-Zellen konnte lediglich für die PCBs 77, 81, 114 und 126 eine Induktion der EROD-Aktivität detektiert werden. Für PCB 169, eines der potentesten Kongenere in H4IIE-Zellen und primären Rattenhepatozyten, wurde keine EROD-Induktion in HepG2-Zellen gemessen. Diese und weitere Speziesunterschiede verdeutlichen, daß eine Extrapolation der Daten aus Experimenten mit Nager-Zellen zur Risikoabschätzung auf den Menschen nur bedingt möglich ist. PCB 81 zeigte in den vorliegenden Messungen einen REP-Wert von 0,02 und 0,05 in HepG2-Zellen bzw. primären Rattenhepatozyten. Die Beeinflussung der basalen und induzierten Apoptose durch die PCBs 81, 126 und 169 wurde im zweiten Teil der Arbeit untersucht. Es zeigte sich, daß die PCBs 81 und 126 in primären Rattenhepatozyten die basale Apoptose induzieren können. Für das PCB 169 wurde dagegen keine Veränderung der Apoptoseinzidenz im Rahmen der verwendeten Konzentrationen festgestellt. Wurde die Apoptose durch UV-Strahlung induziert, so hemmten die PCBs konzentrationsabhängig die Apoptoserate auf durchschnittlich 62% gegenüber der Kontrolle. Bei höheren Konzentrationen wurde die Inhibierung durch einen induzierenden Effekt aufgehoben.
Fucoidan is a class of biopolymers mainly found in brown seaweeds. Due to its diverse medical importance, homogenous supply as well as a GMP-compliant product is of a special interest. Therefore, in addition to optimization of its extraction and purification from classical resources, other techniques were tried (e.g., marine tissue culture and heterologous expression of enzymes involved in its biosynthesis). Results showed that 17.5% (w/w) crude fucoidan after pre-treatment and extraction was obtained from the brown macroalgae F. vesiculosus. Purification by affinity chromatography improved purity relative to the commercial purified product. Furthermore, biological investigations revealed improved anti-coagulant and anti-viral activities compared with crude fucoidan. Furthermore, callus-like and protoplast cultures as well as bioreactor cultivation were developed from F. vesiculosus representing a new horizon to produce fucoidan biotechnologically. Moreover, heterologous expression of several enzymes involved in its biosynthesis by E. coli (e.g., FucTs and STs) demonstrated the possibility to obtain active enzymes that could be utilized in enzymatic in vitro synthesis of fucoidan. All these competitive techniques could provide the global demands from fucoidan.
Anhand der Forschungserkenntnisse wird ein Untersuchungsdesign mit vier unterschiedlichen Bedingungen entwickelt, in dem die Probanden spielgerecht Strafstöße ausführen. Das Ziel der Untersuchung ist unter Einbezug der Strafstoßstrategien von Schützen mittels eines holistischen Verfahrens eine Mustererkennung über verlaufsorientierte komplexe Bewegungsmuster in der Strafstoßsituation auszuführen, um Individuen bezogene, richtungsspezifische und bedingungsabhängige Bewegungsmuster zu identifizieren. Die erste Aufgabenstellung erfasst die Strafstöße ungestört ohne Gegnereinwirkung (Baseline). In der zweiten und dritten Aufgabenstellung werden die Strafstöße jeweils gegen einen Torhüter unter Verwendung der Strategien Keeper-independent und Keeper-dependent ausgeführt. Die vierte Aufgabenstellung simuliert während der Ausführung des Schusses die Torwarthandlung am Point of no return. Die Ergebnisse zeigen, dass bezogen auf die Ziele Separierungen möglich sind. Zudem wird deutlich, dass die Ausführungsbedingungen (Strategiewahl, Torhüter) Einfluss auf die Bewegungsausführung haben und eine Veränderung in den Erkennungsraten von Bewegungsmustern festzustellen ist.
The fifth generation mobile networks (5G) will incorporate novel technologies such as network programmability and virtualization enabled by Software-Defined Networking (SDN) and Network Function Virtualization (NFV) paradigms, which have recently attracted major
interest from both academic and industrial stakeholders.
Building on these concepts, Network Slicing raised as the main driver of a novel business model where mobile operators may open, i.e., “slice”, their infrastructure to new business players and offer independent, isolated and self-contained sets of network functions
and physical/virtual resources tailored to specific services requirements. While Network Slicing has the potential to increase the revenue sources of service providers, it involves a number of technical challenges that must be carefully addressed.
End-to-end (E2E) network slices encompass time and spectrum resources in the radio access network (RAN), transport resources on the fronthauling/backhauling links, and computing and storage resources at core and edge data centers. Additionally, the vertical service requirements’ heterogeneity (e.g., high throughput, low latency, high reliability) exacerbates the need for novel orchestration solutions able to manage end-to-end network slice resources across different domains, while satisfying stringent service level agreements and specific traffic requirements. An end-to-end network slicing orchestration solution shall i) admit network slice requests
such that the overall system revenues are maximized, ii) provide the required resources across different network domains to fulfill the Service Level Agreements (SLAs) iii) dynamically adapt the resource allocation based on the real-time traffic load, endusers’ mobility and instantaneous wireless channel statistics. Certainly, a mobile network represents a fast-changing scenario characterized by complex
spatio-temporal relationship connecting end-users’ traffic demand with social activities and economy. Legacy models that aim at providing dynamic resource allocation based on traditional traffic demand forecasting techniques fail to capture these important aspects.
To close this gap, machine learning-aided solutions are quickly arising as promising technologies to sustain, in a scalable manner, the set of operations required by the network slicing context. How to implement such resource allocation schemes among slices, while
trying to make the most efficient use of the networking resources composing the mobile infrastructure, are key problems underlying the network slicing paradigm, which will be addressed in this thesis.
On the Extended Finite Element Method for the Elasto-Plastic Deformation of Heterogeneous Materials
(2015)
This thesis is concerned with the extended finite element method (XFEM) for deformation analysis of three-dimensional heterogeneous materials. Using the "enhanced abs enrichment" the XFEM is able to reproduce kinks in the displacements and therewith jumps in the strains within elements of the underlying tetrahedral finite element mesh. A complex model for the micro structure reconstruction of aluminum matrix composite AMC225xe and the modeling of its macroscopic thermo-mechanical plastic deformation behavior is presented, using the XFEM. Additionally, a novel stabilization algorithm is introduced for the XFEM. This algorithm requires preprocessing only.
Forschungsrelevanter Hintergrund: Mitunter die häufigsten Verletzungen im Sport
sind am Kniegelenk zu lokalisieren. Neben der hohen Prävalenzrate sind vor allem
ligamentäre Schädigungen wie eine Ruptur des vorderen Kreuzbandes besonders
schwerwiegend. Es sind lange Ausfallzeiten von durchschnittlich 7,5 Monaten zu verzeichnen,
wobei eine vollständige Rückkehr zum ursprünglichen Leistungsniveau
ungewiss ist. Auch die Wahrscheinlichkeit einer Reruptur ist deutlich erhöht und häufig
bedeutet eine schwere Knieverletzung das frühzeitige sportliche Karriereende.
Auch müssen betroffene Sportler oftmals mit schweren Folgeerscheinungen wie einer
Gelenksarthrose rechnen. Als Risikosportarten für diese Art von Verletzungen
gelten Ballsportspiele wie Fußball, Handball oder Basketball. Charakteristisch für das
Auftreten einer Knieverletzung in diesen von hoher Dynamik und Schnelligkeit geprägten
Mannschaftsspielen ist die Tatsache, dass sich diese mehrheitlich ohne direkten
Gegnerkontakt als „non-contact“ Trauma ereignen. In der Regel findet eine
Verletzung bei sportspieltypischen Manövern wie Landungen nach Sprüngen, spontanen
Richtungsänderungen oder plötzlichen Drehbewegungen statt. Als Verletzungsmechanismus
bei diesen Bewegungsformen ist in den meisten Fällen der sog.
„Dynamische Knievalgus“ verantwortlich. Dieser ist gekennzeichnet durch ein Abknicken
des Kniegelenks nach innen (Knieabduktion/Valgisierung) in Verbindung mit
einer Rotation der Tibia bei geringem Flexionsgrad des Kniegelenks. Die maximale
Kraftleistungsfähigkeit sowie das neuromuskuläre Aktivierungsverhalten der knieumschließenden
Muskelgruppen und der Hüftmuskulatur können den Verletzungsmechanismus
beeinflussen. Insbesondere die Hüftmuskulatur kann durch ihre Eigenschaften
korrigierend auf die Beinachse und damit auf die Kontrolle des Kniegelenks
einwirken. Die Forschungslage über die Zusammenhänge der Hüfte und deren muskulärer
Strukturen hinsichtlich ihrer protektiven Wirkungsweise bildet sich jedoch defizitär
und teilweise unspezifisch ab. Daher ist die Zielsetzung der vorliegenden Arbeit,
Kontrollmechanismen ausgehend vom Hüftgelenk in Bezug auf eine verbesserte
dynamische Kniegelenksstabilität mittels eines ganzheitlichen Ansatzes zu
evaluieren. Des Weiteren wird in der vorliegenden Arbeit die Wirkungsweise eines
apparativen Krafttrainings gegenüber eines koordinativen Sprungtrainings mit jeweiliger
Fokussierung des Hüftgelenks analysiert.
Methodik: Anhand relevanter Belastungsformen (uni- und bilaterale Drop Jumps,
einbeinige Landemanöver und reaktive laterale Sprungbewegungen) unter Belastungsstufen
wurden bei Ballspielsportlern Situationen simuliert, in denen der beschriebene
Verletzungsmechanismus auftreten kann. Dabei wurden im Sinne eines
ganzheitlichen, multimodularen Screening-Verfahrens die Knie- und Hüftgelenksbewegungen
mittels 3-D Kinematik erfasst. Die kinetische Analyse umfasst die Berechnung
der Gelenksmomente, Bodenreaktionskräfte und die Ermittlung der maximalen
Kraftfähigkeit der relevanten Hüftmuskulatur sowie der Oberschenkelstreckerkette.
Der Einfluss des neuromuskulären Aktivierungsverhaltens auf die dynamische Kniegelenkskontrolle
wurde über elektromyographische Verfahren abgebildet. Der Studienteil
1 untersuchte in einem Querschnittdesign die Auswirkungen der unterschiedlichen
Belastungsformen hinsichtlich der Determinanten der dynamischen Kniegelenksstabilität,
der Studienteil 2 diesbezügliche Zusammenhänge mit Hüftgelenksexkursionen
und deren (neuro-) muskulären Strukturen. Im Rahmen des Studienteils 3
wurden in einem Längsschnittdesign zwei Interventionsgruppen (apparatives Krafttraining
vs. koordinatives Sprungtraining) im Pre- zu-Posttest-Vergleich auf Unterschiede
der kniestabilisierenden Parameter sowie Indikatoren für eine Verletzungsexposition
hin untersucht.
Zentrale Ergebnisse: In der vorliegenden Studie kann gezeigt werden, dass laterale
Sprungmanöver im Vergleich zu vertikalen Sprung- oder Landemanövern größere
Knie- und Hüftgelenksexkursionen aufweisen und damit eine erhöhte Belastung für
diese spieltypischen Situationen einhergeht. Im Vergleich der Belastungsformen
scheinen Belastungssteigerungen innerhalb einer Belastungsform einen untergeordneten
Einfluss auf eine Verletzungsexposition zu haben. Vielmehr entscheidend ist
die verhältnismäßige Risikoeinordnung der Belastungsformen zueinander. Für alle
Bewegungen wird ein starker Zusammenhang der Hüftstellung in der Rotation mit
der dynamischen Kniegelenkskontrolle festgestellt. Um die Komplexität der Kniegelenkskontrolle
über die gesamte Belastungsphase abbilden zu können, wurde als
neue Messmethodik die „medio-laterale Knieschlackerbewegung“ erarbeitet und mit
den maximalen kinematischen Knieparametern als Indikator für die (In-)Stabilität des
Kniegelenks eingesetzt. Die (neuro-) muskulären Eigenschaften der Hüftmuskulatur
können insbesondere durch ihre außenrotatorische und abduzierende Wirkung Einfluss
auf die Ausrichtung der Gelenkachse und damit auf die Kniegelenkskontrolle
nehmen. Dabei scheinen Elemente eines koordinativen Sprungtrainings effektiver
als ein apparatives Krafttraining zu sein.
Fazit: Die Arbeit liefert einen Beitrag, um die komplexen Zusammenhänge der dynamischen
Kniegelenkskontrolle im Kontext verletzungsrelevanter Szenarien im Sport
zu evaluieren. Durch eine ganzheitliche Analyse der Knie- und Hüftgelenksbewegungen
sowie der dazugehörigen kinetischen sowie (neuro-)muskulären Parameter können
die gewonnenen Erkenntnisse helfen, Verletzungsmechanismen des Kniegelenks
besser zu kontrollieren. Diagnostische Verfahren und Trainingsprogramme
können auf dieser Basis weiterentwickelt werden, woraus durch ein tieferes Verständnis
die Möglichkeiten der Verletzungsprävention zukünftig optimiert gestaltet
werden können.
Diese Dissertation widmet sich der fertigungsintegrierten spektroskopischen Prozessanalytik
zur technischen Qualitätssicherung struktureller Glasklebungen. Glas als Werkstoff mit
seiner einzigartigen Eigenschaft der Transparenz ist in vielen Bereichen unverzichtbar. Wichtig
zur Verbesserung der Festigkeit und Langzeitbeständigkeit von Glasklebungen ist eine
Vorbehandlung der Oberfläche. Aufgrund des chemischen Aufbaus und der Reaktivität der
Glasoberfläche muss diese in einen für die Klebung geeigneten Zustand versetzt werden.
Die Applikation von Haftvermittlern und die Einhaltung der Prozessparameter sind für die
Qualität der Klebung entscheidend. Bislang fehlen Methoden zur zerstörungsfreien Qualitätssicherung
von Klebungen. Das Konzept zur prozessintegrierten Qualitätssicherung von
Glasklebungen soll Analyseverfahren zur Beurteilung der Reinigungswirkung (Kontaminationsfreiheit)
und zur Wirksamkeit der klebtechnischen Funktionalisierung bereitstellen. Die
Hypothese unterstellt, dass sich die Qualität der Oberflächenvorbehandlung und somit die
Qualität der Glasklebung hinsichtlich Zuverlässigkeit und Beständigkeit mit spektroskopischer
Analysetechnik überwachen lässt. Als spektroskopische zerstörungsfreie Analysemethoden
werden die UV-Fluoreszenzanalyse, die Infrarotspektroskopie und die Röntgenfluoreszenzanalyse
eingesetzt. Die Forschungsergebnisse bieten die Möglichkeit Klebprozesse mit
Glaswerkstoffen robust und qualitätssicher auszulegen.
Das Ziel der vorliegender Arbeit war es, nähere Informationen über den Zusammenhang zwischen den Konformationsänderungen des Chaperonin-GroEL/ES-Systems und den einzelnen Schritten im Faltungsprozess zu erhalten. Dabei wurde die ESR-Spektroskopie als kon-formationssensitive Methode eingesetzt. Im Rahmen dieser Arbeit wurde der Doppelmutant GroEL C138S/C519S, der nur noch in Position 458 jeder Untereinheit ein einzelnes Cystein enthält, mit drei verschiedenen thiol-spezifischen Spin-Labeln, nämlich 4-(3-Iodo-acetamido)-2,2,6,6- tetramethyl-piperidin-1-oxyl (IAAT), 4-Maleimido-2,2,6,6-tetramethyl-1-piperidinoxyl (MAL) und 4-(3?Iodo-2? oxopropyliden-1)?2,2,3,5,5? pentamethyl-[d15]? imidazolidin-1-oxyl (IOPI) modifiziert und untersucht. Um genaue Aussagen für die nun modifizierten Mutanten dmEL-IAAT, dmEL-MAL und dmEL-IOPI zu machen, wurden diese biochemisch charakterisiert und mit dem nicht spin-gelabeltem Doppelmutant GroEL (dmEL) und dem Wildtyp GroEL (wtEL) verglichen. Die biochemische Charakterisierung des nicht spingelabeltem dmEL und der modifizierten Mutanten erfolgte durch die Bestimmung von ATPase-Aktivität und Rückfaltungsaktivität. Zusätzlich wurde die Umgebung der kovalent eingebrachten Spin-Labeln (IAAT, MAL, IOPI) in Gegenwart und Abwesenheit von GroES und Substratproteins untersucht. Die verschiedenen Untersuchungen am dmEL und die entsprechenden experimentell erhalte-nen Ergebnisse deuten darauf hin, dass die ATPase-Aktivität des nicht spingelabelten dmEL leicht höher als die des wtEL ist, allerdings hat die Vorinkubation des dmEL mit ES in Anwesenheit von Nukleotiden keine Inhibierung der ATP-Hydrolyse im Falle des dmEL verursacht. Im Gegensatz dazu wurde im Falle des wtEL eine Inhibierung von etwa 25 % der ATP-Hydrolyse in Anwesenheit von ES im Vergleich zum wtEL-Wert in Abwesenheit von ES und Nukleotiden (wie auch in der Literatur [Viitanen et al., 1990; Langer et al., 1992; Chandrasekhar et al., 1986; Gray & Fersht, 1991; Jackson et al., 1993] beschrieben) bemerkt. Bei der Untersuchung der durch Chaperonin-GroEL unterstützten Rückfaltung von denaturierter LDH wurde eine deutliche Erhöhung der Ausbeute an zurückgefalteter LDH im vergleich zu der ?spontanen? nicht Chaperonin-abhängigen Rückfaltung von LDH bemerkt. Die ?spontane? nicht Chaperonin-abhängige Rückfaltung von LDH bei 25 °C zeigt eine Ausbeute an aktiven LDH von 23 %. In Gegenwart von dmEL und ATP wurden etwa 20 % der denaturierten LDH rückgefaltet. Die Zugabe von ES an dmEL in Anwesenheit von ATP hat die Ausbeute an Teil rückgefalteter LDH auf 42 % erhöht. Dies deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die Experimente am wtEL unter gleichen Bedingungen wie beim dmEL haben eine deutliche Erhöhung der Ausbeute an rückgefalteter LDH in Anwesenheit von wtEL und ATP auf 52 % gezeigt (wie auch schon bei [Guhr, 2000] beschrieben). Die Anwesenheit von ES hat die Ausbeute auf 65 % erhöht. Betrachtet man sich in diesem Zusammenhang den Unterschied zwischen den Ausbeuten an rückgefalteter LDH durch dmEL und wtEL, so ist anzunehmen, dass die gerin-gere Rückfaltungsaktivität des dmEL an der eingeführten Doppelmutation C138S/C519S liegt. Es liegt nahe, dass eine für die Rückfaltung eines Substratproteins benötigte Konformationsübertragung von der Doppelmutation beeinflusst wird. Das GroEL:GroES-Verhältnis war bei allen verschiedenen Untersuchungen 1:2. In unserem Arbeitskreis wurde schon bereits von P. Guhr (2000) gezeigt, dass unterschiedliche GroEL:GroES-Verhältnisse von entweder 1:1 oder 1:2 weder bei LDH noch bei MDH-Rückfaltung einen Einfluss auf die Ausbeute rückgefalteten Substratprotein hat. Diese Beobachtungen lassen den Schluss zu, dass unter den verwendeten Reaktionsbedingungen nur die asymmetrischen GroEL/GroES-Komplexe ?bullet? als aktive Komponenten auftraten. Die Bestimmung von zugänglichen Nukleotidbindungsstellen am GroEL wurde mit Hilfe der ESR-Spektroskopie und C8-SL-ATP durchgeführt. Sowohl bei dmEL als auch bei wtEL konnten alle Nukleotidbindungsstellen besetzt werden. Im Gegensatz zum wtEL zeigt der dmEL eine sigmoidale Bindungskurve. Die Bestimmung von Nukleotidbindungstellen in Anwesenheit von ES zeigte kein sigmoidales Verhalten. Die Bildung des GroEL/ES-Komplexes in Gegenwart von C8-SL-ATP konnte von P. Guhr (2000) nicht erfolgreich nachgewiesen werden, da Versuche zum Nachweis des Komplexes mit Hilfe der nativen Gelelektrophorese scheiterten. Die chemische Modifizierung des dmEL mit IAAT-SL und die durchgeführten Untersuchun-gen zur biochemischen Charakterisierung des dmEL-IAAT-SL und deren Vergleich mit dem nicht spingelabelten dmEL haben die folgenden Schlüsse gelassen: Der IAAT-SL beeinflusst die ATPase-Aktivität des dmEL relativ wenig im Vergleich zum dmEL-Wert. Ebenso wurde die Nukleotidbindung an dmEL-IAAT-SL relativ wenig beeinflusst, allerdings zeigt die Nukleotidbindungskurve des dmEL-IAAT-SL kein sigmoidales Verhalten im Gegensatz zum dmEL. Auch bei der Bestimmung der Nukleotidbindungsstellen in Anwesenheit von ES wurden alle Nukleotidbindungsstellen besetzt. Die experimentell beobachtete Rückfaltungsaktivität des dmEL nach Modifizierung mit IAAT-SL wurde stark beeinflusst. Während etwa 20 % der denaturierter LDH durch dmEL in Anwesenheit von ATP rückgefaltet wurden, wurden nur etwa 5 % der denaturierten LDH durch dmEL-IAAT in Anwesenheit von ATP rückgefaltet. Allerdings hat die Anwesenheit von ES die Ausbeute an Teil rückgefalteter LDH im Falle des dmEL-IAAT-SL in Anwesenheit von ATP auf 8 % erhöht. Die beobachtete normale ATPase-Aktivität und die niedrige Rückfaltungsaktivität des dmEL-IAAT-SL deuten darauf hin, dass diese von einander abgekoppelt erfolgen. Die ESR-Untersuchungen am dmEL-IAAT-SL haben in Anwesenheit von verschiedenen Nukleotiden, GroES, und Substratprotein keine Konformationsänderungen in der Umgebung des modifizierten mit IAAT-SL C458 nachgewiesen. Es wurde nur in einem Fall in Abwesenheit von Substratprotein aber in Gegenwart von ATP und ES ein Effekt der ES-Bindung auf die ESR-Spektren gezeigt. Dies deutet darauf hin, dass die Bindung von ES die Übertragung von strukturellen Änderung im Bereich des C458 beeinflusst hat. Im Gegensatz zum IAAT-SL hat der MAL-SL die ATPase-Aktivität des dmEL relativ stark beeinflusst, so dass die ATPase-Aktivität des dmEL-MAL nur 50 % der des dmEL-Wertes erreicht hat. Es besteht die Möglichkeit, dass durch eine Störung der Struktur der Nukleotid-bindungsstellen eine gestörte Konformationsübertragung verursacht wurde, so dass die ATPase-Aktivität zu tief abgefallen ist. Die Rückfaltungs-Untersuchungen am dmEL-MAL haben gezeigt, dass etwa 15 % der denaturierten LDH in Anwesenheit von dmEL-MAL und ATP seiner Ausgangs-Aktivität zurückgewinnt. Dieser Anteil an rückgefalteter LDH steigt auf etwa 25 % in Anwesenheit von dmEL-MAL, ATP und ES. Diese Erhöhung der Ausbeute deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die ESR-Untersuchungen an dmEL-MAL haben keine strukturellen Veränderungen im Bereich des mit MAL-SL modifizierten C458 des Proteins nachgewiesen. Der IOPI-SL hat bei der ATPase-Aktivität-Unteruschungen ein unterschiedliches Verhältnis im Vergleich zu IAAT-SL bzw. MAL-SL gezeigt. Bei Bestimmung der ATPase-Aktivität des dmEL-IOPI bei 30 °C wurde eine ATPase-Aktivität im selben Bereich wie beim dmEL gefunden. Bei 37 °C hat der dmEL-IOPI eine außergewöhnliche hohe ATPase-Aktivität mit fast 100 %iger Steigerung der des dmEL-Wertes gezeigt. Auch die ATPase-Aktivität des dmEL-IOPI nach Vorinkubation mit ATP oder ADP und in Anwesenheit von ES ist um etwa 166 % der des dmEL-Wertes gesteigert, anstatt abzufallen. Es konnten jedoch nur 4,8 % denaturierter LDH durch dmEL-IOPI in Anwesenheit von ATP rückfalten. Die Zugabe von ES hat diesen Anteil auf 21 % erhöht, jedoch liegt der Wert unterhalb der spontanen Rückfaltung (22 %). Wie in allen Fällen, wurde auch im Falle des dmEL-IOPI gezeigt, dass eine direkte Interaktion zwischen GroES und GroEL besteht. Auch die ATPase läuft zu schnell ab und kann den Faltungsprozess von Substratprotein nicht unter-stützen. Wenn man das Verhalten der drei modifizierten Mutanten in Bezug auf die ATPase-Aktivität und Rückfaltung betrachtet, deuten die Ergebnisse darauf, dass die ATPase-Aktivität und die Rückfaltungsaktivität von einander abgekoppelt erfolgen. Auch im Falle des dmEL-IOPI haben die ESR-Spektren keine strukturellen Änderungen im Bereich des C458 nachgewiesen. Ein weiterer Ansatzpunkt zur Untersuchung des Chaperonins GroEL wären die folgenden Doppelmutationen einzuführen: C138S/C458S bzw. C458S/C519S und die gleichen Unter-suchungen der vorliegender Arbeit durchzuführen. Anderer Vorschlag wäre die chemische Modifizierung des Substratproteins oder auch des Co-Chaperonin-GroES innerhalb des ?mobile loop? nach einer entsprechenden Cysteinmutation und mit Hilfe der ESR-Spektroskopie könnten noch genauen Aussagen über den Funktions-mechanismus gemacht werden. Einführung von Cysteinmutation innerhalb der apikalen Domäne des GroEL und mit Hilfe der ESR-Spektroskopie könnte auch ermöglichen, nähere Informationen über die GroES- bzw. Substratproteinbindung zu gewinnen.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Die vorliegende Arbeit beschreibt die Synthese neuartiger, substituierter N,N,N-tridentater Liganden auf der Basis der Stammverbindungen 2,6-Di(pyrazol-3-yl)pyridin und 2,6-Di(pyrimidin-4-yl)pyridin. Die katalytische Aktivität von Dichloroeisen- und Dichlorocobaltkomplexen dieser Liganden in der Olefinpolymerisation wurde getestet. Einen weiteren Schwerpunkt stellte die Synthese von Rutheniumkomplexen auf der Basis dieser neuartigen Liganden und deren Anwendbarkeit in homogen katalysierten Oxidations- und Epoxidationsreaktionen sowie der Hydrovinylierungsreaktion dar. Die Möglichkeit den Liganden 2,6-Di(pyrazol-3-yl)pyridin leicht chemisch modifizieren zu können, wurde genutzt, um Eigenschaften (z. B. die Löslichkeit in organischen Lösungsmitteln) des Liganden und der sich ableitenden Komplexe zu beeinflussen. Zur regioselektiven N-Funktionalisierung der Pyrazolringe wurden nucleophile Substitutionsreaktionen genutzt. Dieser einfache Zugangsweg zu substituierten 2,6-Di(pyrazol-3-yl)pyridinen wurde ebenso dazu verwendet, um funktionelle Gruppen, die eine Substraterkennung über Wasserstoffbrückenbindungen und eine Komplexierung von Lewis-Säuren ermöglichen sollte, in die Peripherie dieser Liganden anzubinden.
Die vorliegende Arbeit hat zum Ziel, Methoden zur Beschreibung der Quellung von (nichtionischen und ionischen) Hydrogelen in wässrigen Lösungen zu entwickeln und zu erproben. Die Modelle setzen sich aus einem Beitrag, der die Gibbssche Energie von Flüssigkeiten beschreibt und aus einem Beitrag für die Helmholtz-Energie des Netzwerks zusammen. Die Beschreibung der elastischen Eigenschaften des Netzwerks beruht auf der Phantom-Netzwerk-Theorie. Die Gibbssche Exzessenergie der Flüssigkeiten wurde mit verschiedenen Modellen, abhängig vom Typ der untersuchten Systeme (wässrig/salzhaltige Lösung oder wässrig/organische Lösung), beschrieben. Bei der Modellierung wurden der Einfluss der Zusammensetzung des Netzwerks (z.B. Konzentration von Vernetzer und/bzw. von ionischem Komonomeren) und der Einfluss der Zugabe von weiteren Komponenten in der das Gel umgebenden wässrigen Lösung auf den Quellungsgrad behandelt. Als weitere Komponenten wurden einerseits anorganische Salze (Natriumchlorid,Dinatriumhydrogenphosphat) und andererseits organische Lösungsmittel (Ethanol, Aceton, Essigsäure, 1-Butanol,Methylisobutylketon) behandelt. Zur Modellierung des Quellverhaltens von nichtionischen IPAAm-Gelen in NaCl bzw. Na2HPO4-haltigen Lösungen wurde das VERS-Modell in Kombination mit der Phanom-Netzwerk-Theorie verwendet. Bei der Erweiterung dieser Modelle auf ionische Gele wurde eine gute Beschreibung nur dann erzielt, wenn sowohl das Dissoziationsgleichgewicht des ionischen Komonomeren Natriummethacrylat als auch eine Korrektur im Phantom-Netzwerk-Modell berücksichtigt wurden. Wenn beide Korrekturen allein aus wenigen experimentellen Daten für die Quellung ionischer Gele in wässrigen Lösungen von NaCl bestimmt wurden, gelingen nicht nur eine gute Korrelation für den Quellungsgrad, sondern auch zuverlässige Vorhersagen (sowohl Erweiterung auf andere (IPAAm/NaMA)Gele als auch bei Verwendung von Na2HPO4 anstelle von NaCl). Die Modellierung der Einflüsse der untersuchten Salze (NaCl bzw. Na2HPO4) auf das Quellverhalten sowohl nichtionischer VP-Gele als auch ionischer (VP/NaMA)Gele erfolgt auch in Kombination des VERS-Modells mit der Phanom-Netzwerk-Theorie. Die vorgeschlagene Methode liefert sowohl für nichtionische VP-Gele als auch für ionische (VP/NaMA)Gele in wässrigen salzhaltigen Lösungen eine gute Übereinstimmung zwischen Experiment und Rechnung. Die Quellungsgleichgewichte nichtionischer IPAAm-Gele in Mischungen aus Wasser und einem organischen Lösungsmittel (Ethanol, Aceton, Essigsäure, Butanol, Methylisobutylketon) lassen sich mit Hilfe der Kombination aus dem UNIQUAC-Modell und einem Free-Volume-Beitrag mit der Phantom-Netwerk-Theorie beschreiben. Bei der Erweiterung des Modells auf ionische (IPAAm/NaMA)Gele wurde der Einfluss der Konzentration des organischen Lösungsmittels auf die Dissoziationskonstante von Natriummethacrylat berücksichtigt. Ähnlich zur Modellierung der Quellung im System (IPAAm/NaMA)Gel-Wasser-Salz wurden die Abweichungen von der Phantom-Netzwerk-Theorie mit Hilfe eines empirischen Faktors betrachtet. Mit diesen Modellvorstellungen gelingt sowohl eine gute Korrelation als auch zuverlässige Vorhersage des Quellungsgrades von ionischen Gelen in wässrig/organischen Lösungen. Bei den theoretischen Studien zur Quellung von Gelen auf Basis von Vinylpyrrolidon in wässrig/organischen Lösungsmittelgemischen erwies sich, dass eine Kombination aus dem UNIQUAC-Modell (jedoch ohne kombinatorischen Beitrag) und der Phantom-Netzwerk-Theorie die besten Ergebnisse bei der Beschreibung des Quellverhaltens der nichtionischen VP-Gele liefert. Bei der Erweiterung des Modells auf ionische (VP/NaMA)Gele wurde eine Abhängigkeit des Dissoziationsgrades von Natriummethacrylat von der Ethanol-, bzw. der Acetonkonzentration berücksichtigt.
This thesis focuses on novel methods to establish the utility of wearable devices along with machine learning and pattern recognition methods for formal education and address the open research questions posed by existing methods. Firstly, state-of-the-art methods are proposed to analyse the cognitive activities in the learning process, i.e., reading, writing, and their correlation. Furthermore, this thesis presents real-time applications in wearable space as an experimental tool in Physics education, and an air-writing system.
There are two critical components in analysing the reading behaviour, i.e., WHERE a person looks at (gaze analysis) and WHAT a person looks at (content analysis). This thesis proposes novel methods to classify the reading content to address the WHAT AT component. The proposed methods are based on a hybrid approach, which fuses the traditional computer vision methods with deep neural networks. These methods, when evaluated on publicly available datasets, yield state-of-the-art results to define the structure of the document images. Moreover, extensive efforts were made to refine and correct ICDAR2017-POD dataset along with a completely new FFD dataset.
Traditionally, handwriting research focuses on character and number recognition without looking into the type of writing, i.e. text, math, and drawing. This thesis reports multiple contributions for on-line handwriting classification. First, it presents a public dataset for on-line handwriting classification OnTabWriter, collected using iPen and an iPad. In addition, a new feature set is introduced for on-line handwriting classification to establish the benchmark on the proposed dataset to classify handwriting as plain text, mathematical expression, and plot/graph. An ablation study is made to evaluate the performance of the proposed feature set in comparison to existing feature sets. Lastly, this thesis evaluates the importance of context for on-line handwriting classification.
Analysing reading and writing activities individually is not enough to provide insights to identify the student's expertise unless their correlations are analysed. This thesis presents a study where reading data from wearable eye-trackers and writing data from sensor pen are analysed together in correlation to correlate the expertise of the users in Physics education with their actual knowledge. Initial results show a strong correlation between individual's expertise and understanding of the subject.
Augmented reality & virtual applications can play a vital role in making classroom environments more interactive and engaging both for teachers and learners. To validate the hypothesis, different applications are developed and evaluated. First, smart glasses are used as an experimental tool in Physics education to help the learners perform experiments by providing assistance and feedback on head mounted display in understanding acoustics concepts. Second, a real-time application of air-writing with the finger on an imaginary canvas using a single IMU as the FAirWrite system is also presented. FAirWrite system is further equipped with DL methods to classify the air-written characters.
Recent studies on the environmental performance of additive manufacturing (AM) have shown that AM exhibits both complex potentials and challenges at different life stages compared to conventional manufacturing. To assess and ensure the environmental benefits of AM during the design phase, an eco-design approach is required. Existing eco-design for AM approaches described in the literature mainly focus on the use of lifecycle assessment (LCA) to analyze the environmental impacts of AM-specific design solutions. However, since LCA requires a full-process chain model and detailed inventory data, it can only be performed after the design process or in a subsequent design stage. To integrate evaluation activities into the middle stage of the design process, energy performance assessment can be used as an alternative evaluation tool in eco-design for AM. However, the literature still lacks an eco-design for AM method based on energy performance quantification and assessment. By addressing this research problem, this dissertation contributes to the development of a holistic framework to implement eco-design for AM using energy performance assessment. This framework consists of the following three parts: a simulation tool for energy prediction in the design phase; an energy performance assessment model for AM; and a method for carrying out activities in eco-design for AM. To demonstrate the feasibility of the proposed method, three use cases are performed. Based on these use cases, it is concluded that with the use of the proposed method, AM designers will be able to select and develop optimal design solutions based on the energy performance of AM in the middle design stage.
Distributed Optimization of Constraint-Coupled Systems via Approximations of the Dual Function
(2024)
This thesis deals with the distributed optimization of constraint-coupled systems. This problem class is often encountered in systems consisting of multiple individual subsystems, which are coupled through shared limited resources. The goal is to optimize each subsystem in a distributed manner while still ensuring that system-wide constraints are satisfied. By introducing dual variables for the system-wide constraints the system-wide problem can be decomposed into individual subproblems. These resulting subproblems can then be coordinated by iteratively adapting the dual variables. This thesis presents two new algorithms that exploit the properties of the dual optimization problem. Both algorithms compute a quadratic surrogate function of the dual function in each iteration, which is optimized to adapt the dual variables. The Quadratically Approximated Dual Ascent (QADA) algorithm computes the surrogate function by solving a regression problem, while the Quasi-Newton Dual Ascent (QNDA) algorithm updates the surrogate function iteratively via a quasi-Newton scheme. Both algorithms employ cutting planes to take the nonsmoothness of the dual function into account. The proposed algorithms are compared to algorithms from the literature on a large number of different benchmark problems, showing superior performance in most cases. In addition to general convex and mixed-integer optimization problems, dual decomposition-based distributed optimization is applied to distributed model predictive control and distributed K-means clustering problems.
This work introduces a promising concept for the preparation of new nano-sized receptors. Mixed monolayer protected gold nanoparticles (AuNPs) for low molecular weight compounds were prepared featuring functional groups on their surfaces. It has been shown that these AuNPs can engage in interactions with peptides in aqueous media. Quantitative binding information was obtained from DOSY-NMR titrations indicating that nanoparticles containing a combination of three orthogonal functional groups are more efficient in binding to dipeptides than mono or difunctionalised analogues. The strategy is highly modular and easily allows adapting the receptor selectivity to a
given substrate by varying the type, number, and ratio of binding sites on the nanoparticle
surface.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
The safety of embedded systems is becoming more and more important nowadays. Fault Tree Analysis (FTA) is a widely used technique for analyzing the safety of embedded systems. A standardized tree-like structure called a Fault Tree (FT) models the failures of the systems. The Component Fault Tree (CFT) provides an advanced modeling concept for adapting the traditional FTs to the hierarchical architecture model in system design. Minimal Cut Set (MCS) analysis is a method that works for qualitative analysis based on the FTs. Each MCS represents a minimal combination of component failures of a system called basic events, which may together cause the top-level system failure. The ordinary representations of MCSs consist of plain text and data tables with little additional supporting visual and interactive information. Importance analysis based on FTs or CFTs estimates the contribution of each potential basic event to a top-level system failure. The resulting importance values of basic events are typically represented in summary views, e.g., data tables and histograms. There is little visual integration between these forms and the FT (or CFT) structure. The safety of a system can be improved using an iterative process, called the safety improvement process, based on FTs taking relevant constraints into account, e.g., cost. Typically, relevant data regarding the safety improvement process are presented across multiple views with few interactive associations. In short, the ordinary representation concepts cannot effectively facilitate these analyses.
We propose a set of visualization approaches for addressing the issues above mentioned in order to facilitate those analyses in terms of the representations.
Contribution:
1. To support the MCS analysis, we propose a matrix-based visualization that allows detailed data of the MCSs of interest to be viewed while maintaining a satisfactory overview of a large number of MCSs for effective navigation and pattern analysis. Engineers can also intuitively analyze the influence of MCSs of a CFT.
2. To facilitate the importance analysis based on the CFT, we propose a hybrid visualization approach that combines the icicle-layout-style architectural views with the CFT structure. This approach facilitates to identify the vulnerable components taking the hierarchies of system architecture into account and investigate the logical failure propagation of the important basic events.
3. We propose a visual safety improvement process that integrates an enhanced decision tree with a scatter plot. This approach allows one to visually investigate the detailed data related to individual steps of the process while maintaining the overview of the process. The approach facilitates to construct and analyze improvement solutions of the safety of a system.
Using our visualization approaches, the MCS analysis, the importance analysis, and the safety improvement process based on the CFT can be facilitated.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
The broad engineering applications of polymers and composites have become the
state of the art due to their numerous advantages over metals and alloys, such as
lightweight, easy processing and manufacturing, as well as acceptable mechanical
properties. However, a general deficiency of thermoplastics is their relatively poor
creep resistance, impairing service durability and safety, which is a significant barrier
to further their potential applications. In recent years, polymer nanocomposites have
been increasingly focused as a novel field in materials science. There are still many
scientific questions concerning these materials leading to the optimal property
combinations. The major task of the current work is to study the improved creep
resistance of thermoplastics filled with various nanoparticles and multi-walled carbon
nanotubes.
A systematic study of three different nanocomposite systems by means of
experimental observation and modeling and prediction was carried out. In the first
part, a nanoparticle/PA system was prepared to undergo creep tests under different
stress levels (20, 30, 40 MPa) at various temperatures (23, 50, 80 °C). The aim was
to understand the effect of different nanoparticles on creep performance. 1 vol. % of
300 nm and 21 nm TiO2 nanoparticles and nanoclay was considered. Surface
modified 21 nm TiO2 particles were also investigated. Static tensile tests were
conducted at those temperatures accordingly. It was found that creep resistance was
significantly enhanced to different degrees by the nanoparticles, without sacrificing
static tensile properties. Creep was characterized by isochronous stress-strain curves,
creep rate, and creep compliance under different temperatures and stress levels.
Orientational hardening, as well as thermally and stress activated processes were
briefly introduced to further understanding of the creep mechanisms of these
nanocomposites. The second material system was PP filled with 1 vol. % 300 nm and 21 nm TiO2
nanoparticles, which was used to obtain more information about the effect of particle
size on creep behavior based on another matrix material with much lower Tg. It was
found especially that small nanoparticles could significantly improve creep resistance.
Additionally, creep lifetime under high stress levels was noticeably extended by
smaller nanoparticles. The improvement in creep resistance was attributed to a very
dense network formed by the small particles that effectively restricted the mobility of
polymer chains. Changes in the spherulite morphology and crystallinity in specimens
before and after creep tests confirmed this explanation.
In the third material system, the objective was to explore the creep behavior of PP
reinforced with multi-walled carbon nanotubes. Short and long aspect ratio nanotubes
with 1 vol. % were used. It was found that nanotubes markedly improved the creep
resistance of the matrix, with reduced creep deformation and rate. In addition, the
creep lifetime of the composites was dramatically extended by 1,000 % at elevated
temperatures. This enhancement contributed to efficient load transfer between
carbon nanotubes and surrounding polymer chains.
Finally, a modeling analysis and prediction of long-term creep behaviors presented a
comprehensive understanding of creep in the materials studied here. Both the
Burgers model and Findley power law were applied to satisfactorily simulate the
experimental data. The parameter analysis based on Burgers model provided an
explanation of structure-to-property relationships. Due to their intrinsic difference, the
power law was more capable of predicting long-term behaviors than Burgers model.
The time-temperature-stress superposition principle was adopted to predict long-term
creep performance based on the short-term experimental data, to make it possible to
forecast the future performance of materials.
Estimation and Portfolio Optimization with Expert Opinions in Discrete-time Financial Markets
(2021)
In this thesis, we mainly discuss the problem of parameter estimation and
portfolio optimization with partial information in discrete-time. In the portfolio optimization problem, we specifically aim at maximizing the utility of
terminal wealth. We focus on the logarithmic and power utility functions. We consider expert opinions as another observation in addition to stock returns to improve estimation of drift and volatility parameters at different times and for the purpose of asset optimization.
In the first part, we assume that the drift term has a fixed distribution, and
the volatility term is constant. We use the Kalman filter to combine the two
types of observations. Moreover, we discuss how to transform this problem
into a non-linear problem of Gaussian noise when the expert opinion is uniformly distributed. The generalized Kalman filter is used to estimate the parameters in this problem.
In the second part, we assume that drift and volatility of asset returns are both driven by a Markov chain. We mainly use the change-of-measure technique to estimate various values required by the EM algorithm. In addition,
we focus on different ways to combine the two observations, expert opinions and asset returns. First, we use the linear combination method. At the same time, we discuss how to use a logistic regression model to quantify expert
opinions. Second, we consider that expert opinions follow a mixed Dirichlet distribution. Under this assumption, we use another probability measure to
estimate the unnormalized filters, needed for the EM algorithm.
In the third part, we assume that expert opinions follow a mixed Dirichlet distribution and focus on how we can obtain approximate optimal portfolio
strategies in different observation settings. We claim the approximate strategies from the dynamic programming equations in different settings and analyze the dependence on the discretization step. Finally we compute different
observation settings in a simulation study.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Entwicklung eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen
(2018)
Betreiber von Niederspannungsnetzen sind im Zuge der Energiewende durch den anhaltenden Ausbau dezentraler Erzeugungsanlagen und dem Aufkommen der Elektromobilität mit steigenden Netzauslastungen konfrontiert. Zukünftig wird ein sicherer Netzbetrieb ohne Leitungsüberlastungen grundsätzlich nur gewährleistet sein, wenn der Netzzustand durch geeignete Systeme ermittelt wird und auf dessen Basis ein intelligentes Netzmanagement mit regelnden Eingriffen erfolgt.
Diese Arbeit befasst sich mit der Entwicklung und dem Test eines Verfahrens zur dreiphasigen Zustandsschätzung in vermaschten Niederspannungsnetzen. Als Eingangsdaten dienen dabei Spannungs- und Strommesswerte, welche im Wesentlichen durch Smart Meter an Hausanschlusspunkten messtechnisch erfasst werden. Das Verfahren zielt darauf ab, Grenzwertverletzungen mit einer hohen Wahrscheinlichkeit zu erkennen.
Schwerpunkte der Betrachtung sind neben der Systemkonzeptionierung zum einen die Vorverarbeitung der Systemeingangsdaten im Rahmen der Generierung von Ersatzmesswerten sowie der Erkennung von Topologiefehlern und zum anderem die Entwicklung eines Schätzalgorithmus mit linearem Messmodell und der Möglichkeit zur Lokalisierung grob falscher Messdaten.
The objective of this thesis consists in developing systematic event-triggered control designs for specified event generators, which is an important alternative to the traditional periodic sampling control. Sporadic sampling inherently arising in event-triggered control is determined by the event-triggering conditions. This feature invokes the desire of
finding new control theory as the traditional sampled-data theory in computer control.
Developing controller coupling with the applied event-triggering condition to maximize the control performance is the essence for event-triggered control design. In the design the stability of the control system needs to be ensured with the first priority. Concerning variant control aims they should be clearly incorporated in the design procedures. Considering applications in embedded control systems efficient implementation requires a low complexity of embedded software architectures. The thesis targets at offering such a design to further complete the theory of event-triggered control designs.
Retentionsbodenfilter (RBF) werden in den letzten Jahren zunehmend zur weitergehenden Mischwasserbehandlung eingesetzt. Insbesondere bei empfindlichen Gewässern haben sich Retentionsbodenfilter als eine wertvolle Maßnahme zur Erfüllung der immissionsorientierten Anforderungen erwiesen, die sich vermehrt aus neuen europäischen Regelungen (EU WRRL, 2000) ergeben. Der überwiegend hohe Wirkungsgrad von RBF hinsichtlich der Elimi-nation von C-Verbindungen (CSB) und Ammonium (NH4) wurde mittlerweile an verschiede-nen Anlagen nachgewiesen. Es bestehen weiterhin Unsicherheiten hinsichtlich des Einflus-ses unterschiedlicher Beschickungs- und Betriebssituationen auf die Reinigungsleistung von Bodenfiltern. Die vorliegende Arbeit soll einen Beitrag zur Verbesserung des Kenntnisstan-des zur Belastbarkeit von RBF liefern. Im Vordergrund steht die Ermittlung des maximalen Frachtrückhaltes hinsichtlich organischen Kohlenstoffverbindungen und Stickstoffverbindun-gen unter hohen hydraulischen und stofflichen Belastungen. Die Untersuchungen wurden im Labormaßstab an Säulenmodellen mit zwei unterschiedli-chen Filtersubstraten durchgeführt. Durch die gezielte Variierung der Beschickungsmengen und Filtergeschwindigkeit wurde ein breites Spektrum unterschiedlicher Belastungszustände untersucht. Ferner wurden Sauerstoff- und Redoxpotential im Säulenablauf sowie im Filter-körper gemessen. In Anschluss an die Versuchsreihen wurden die Säulen abgebaut und ergänzende bodenkundliche und mikrobiologische Untersuchungen durchgeführt. Die Ergebnisse einer ergänzenden Volumenbilanz zeigen, dass selbst in einem überstauten Filterkörper nicht alle Poren im mit Wasser gefüllt sind. Der in der eingeschlossenen Boden-luft enthaltene Sauerstoff trägt zur Wiederbelüftung des infiltrierenden Beschickungswassers bei. Die mikrobiell bedingten Unterschiede des O2-Verbrauchs im vertikalen Filterprofil haben zur Folge, dass in einem Filterkörper gleichzeitig aerobe, anoxische und anaerobe Zonen existieren können. Der Rückhalt von Ammonium hat sich als signifikant abhängig von der Filtrationsgeschwin-digkeit und der substratspezifischen Sorptionskapazität erwiesen. Die Gesamtbetrachtung der Stickstoffkomponenten und insbesondere NO3-Konzentrationsganglinien in Säulenablauf führt im Zusammenhang mit der Sauerstoffverfügbarkeit im Filterkörper zur Folgerung, dass NH4-Rückhalt nicht wie bisher als streng zweistufiger Prozess mit Teilschritten Sorption (in der Betriebsphase) und Nitrifikation (in der Trockenphase) angesehen werden kann. Die Er-gebnisse der Arbeit zeigen erstmals, dass unter bestimmten Bedingungen die Nitrifikation schon während der Betriebsphase stattfindet. Die Analyse des Sauerstoffverbrauchs in den Filterkörpern der untersuchten Säulen in Ver-bindung mit der CSB-Reinigungsleistung belegt, dass während der Betriebsphase auch für die CSB-Verbindungen ein unmittelbarer Abbau stattfindet. Unter aeroben Verhältnissen ist die Reinigungsleistung in allen untersuchten Säulen – unabhängig von Substrat und Filter-geschwindigkeit - weitgehend stabil.
Agricultural intensification has increased substantially in the last century to meet the globally growing demand for food, fodder, and bioenergy, thus agricultural cropland became the largest terrestrial biome globally. Pesticides became a central tool to this intensification strategy, thus pesticide application rose drastically over the last sixty years to secure or increase crop yields. However, pesticides are by design biologically active and known to contaminate non-target ecosystems, thereby adversely affecting their function or structure. Even though ecotoxicological knowledge about probable fate and effects has grown, little remains known about the spatiotemporal occurrence, potential effects, and risk drivers of pesticides on larger, i.e. macro, scales.
Consequently, the thesis gathered primarily pesticide exposure data via meta-analysis and from public monitoring databases to describe (i) detailed risks in aquatic ecosystems, (ii) the underlying risk drivers, (iii) associated spatiotemporal trends, (iv) the effect of land use and land-protection and (v) the protectiveness of regulatory frameworks. First, a meta-analysis of insecticides occurring in US surface waters (n = 5,817, 259 studies) revealed large-scale risks for aquatic ecosystems based on the exceedance of regulatory threshold levels (RTL) and identified high-risk substances, particularly pyrethroids, with increasing application trends (publication I). Following this, spatiotemporal factors driving insecticide risks were identified via model-building demonstrating that toxicity-weighted pesticide use was the primary driver in surface waters with subsequent model application generating a spatially comprehensive risk assessment for the United States (publication II). The toxicity-weighted pesticide use was subsequently expanded to an ongoing project covering additional species groups and all pesticides used in the US from 1992 – 2016, highlighting a drastic shift of toxic pressures from vertebrates to aquatic invertebrates. Large-scale monitoring data from European surface waters (n > 8.3 million) of 352 organic chemicals identified pesticides as the main class or organic contaminants causing risks in aquatic ecosystems. Additional analyses established links between agricultural intensity and resulting environmental risks for aquatic invertebrates and plants on this macro scale (publication III). Finally, high-resolution monitoring data from Saxony, Germany, provided, for the first time, detailed insights into the occurrence and resulting risks of organic contaminants (primarily pesticides) in protected surface waters of nature conservation areas (publication IV).
In summary, the thesis gathered and used large-scale datasets to analyze the impact of agricultural intensification – and later anthropogenic land use – on ecosystems to reduce knowledge deficits in ecotoxicology on macro scales. Insecticides were shown to be important and spatially extensive agents of impairments to surface water quality and being directly linked to their use in respective landscapes. Changes in the pesticide use composition over time shifted environmental risks from vertebrates to other central species groups (e.g. aquatic invertebrates), highlighting a new challenge to the integrity of aquatic environments. The thesis provided novel insights into contaminants' individual risk characteristics, their interaction with various spatiotemporal drivers and their relevance on various macro scales. Overall, a discrepancy remains evident between estimated environmental impacts of pesticides derived during regulatory approval processes contrasted by a posteriori field measurements detailing larger than assumed adverse exposures and effects. This discrepancy led to pesticides being the most impactful chemical stressor for aquatic ecosystems compared to other organic contaminants on a continental scale; a threat that even increased for some species groups. The extensive use of pesticides has reached levels where even strictly protected surface waters in Germany are regularly exposed adversely, hence threatening conservation areas’ function as ecological refugia. Taken together, the thesis provides new macro-scale evidence regarding the contribution of pesticides (and associated drivers) to large-scale changes in biological systems evidenced over the last decades, underlining their likely contribution to the ongoing freshwater biodiversity crisis globally. Particularly agricultural systems will require substantial changes going forward to protect or reestablish the integrity of aquatic ecosystems and their provision of vital ecological services.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
In this thesis, a new concept to prove Mosco convergence of gradient-type Dirichlet forms within the \(L^2\)-framework of K.~Kuwae and T.~Shioya for varying reference measures is developed.
The goal is, to impose as little additional conditions as possible on the sequence of reference measure \({(\mu_N)}_{N\in \mathbb N}\), apart from weak convergence of measures.
Our approach combines the method of Finite Elements from numerical analysis with the topic of Mosco convergence.
We tackle the problem first on a finite-dimensional substructure of the \(L^2\)-framework, which is induced by finitely many basis functions on the state space \(\mathbb R^d\).
These are shifted and rescaled versions of the archetype tent function \(\chi^{(d)}\).
For \(d=1\) the archetype tent function is given by
\[\chi^{(1)}(x):=\big((-x+1)\land(x+1)\big)\lor 0,\quad x\in\mathbb R.\]
For \(d\geq 2\) we define a natural generalization of \(\chi^{(1)}\) as
\[\chi^{(d)}(x):=\Big(\min_{i,j\in\{1,\dots,d\}}\big(\big\{1+x_i-x_j,1+x_i,1-x_i\big\}\big)\Big)_+,\quad x\in\mathbb R^d.\]
Our strategy to obtain Mosco convergence of
\(\mathcal E^N(u,v)=\int_{\mathbb R^d}\langle\nabla u,\nabla v\rangle_\text{euc}d\mu_N\) towards \(\mathcal E(u,v)=\int_{\mathbb R^d}\langle\nabla u,\nabla v\rangle_\text{euc}d\mu\) for \(N\to\infty\)
involves as a preliminary step to restrict those bilinear forms to arguments \(u,v\) from the vector space spanned by the finite family \(\{\chi^{(d)}(\frac{\,\cdot\,}{r}-\alpha)\) \(|\alpha\in Z\}\) for
a finite index set \(Z\subset\mathbb Z^d\) and a scaling parameter \(r\in(0,\infty)\).
In a diagonal procedure, we consider a zero-sequence of scaling parameters and a sequence of index sets exhausting \(\mathbb Z^d\).
The original problem of Mosco convergence, \(\mathcal E^N\) towards \(\mathcal E\) w.r.t.~arguments \(u,v\) form the respective minimal closed form domains extending the pre-domain \(C_b^1(\mathbb R^d)\), can be solved
by such a diagonal procedure if we ask for some additional conditions on the Radon-Nikodym derivatives \(\rho_N(x)=\frac{d\mu_N(x)}{d x}\), \(N\in\mathbb N\). The essential requirement reads
\[\frac{1}{(2r)^d}\int_{[-r,r]^d}|\rho_N(x)- \rho_N(x+y)|d y \quad \overset{r\to 0}{\longrightarrow} \quad 0 \quad \text{in } L^1(d x),\,
\text{uniformly in } N\in\mathbb N.\]
As an intermediate step towards a setting with an infinite-dimensional state space, we let $E$ be a Suslin space and analyse the Mosco convergence of
\(\mathcal E^N(u,v)=\int_E\int_{\mathbb R^d}\langle\nabla_x u(z,x),\nabla_x v(z,x)\rangle_\text{euc}d\mu_N(z,x)\) with reference measure \(\mu_N\) on \(E\times\mathbb R^d\) for \(N\in\mathbb N\).
The form \(\mathcal E^N\) can be seen as a superposition of gradient-type forms on \(\mathbb R^d\).
Subsequently, we derive an abstract result on Mosco convergence for classical gradient-type Dirichlet forms
\(\mathcal E^N(u,v)=\int_E\langle \nabla u,\nabla v\rangle_Hd\mu_N\) with reference measure \(\mu_N\) on a Suslin space $E$ and a tangential Hilbert space \(H\subseteq E\).
The preceding analysis of superposed gradient-type forms can be used on the component forms \(\mathcal E^{N}_k\), which provide the decomposition
\(\mathcal E^{N}=\sum_k\mathcal E^{N}_k\). The index of the component \(k\) runs over a suitable orthonormal basis of admissible elements in \(H\).
For the asymptotic form \(\mathcal E\) and its component forms \(\mathcal E^k\), we have to assume \(D(\mathcal E)=\bigcap_kD(\mathcal E^k)\) regarding their domains, which is equivalent to the Markov uniqueness of \(\mathcal E\).
The abstract results are tested on an example from statistical mechanics.
Under a scaling limit, tightness of the family of laws for a microscopic dynamical stochastic interface model over \((0,1)^d\) is shown and its asymptotic Dirichlet form identified.
The considered model is based on a sequence of weakly converging Gaussian measures \({(\mu_N)}_{N\in\mathbb N}\) on \(L^2((0,1)^d)\), which are
perturbed by a class of physically relevant non-log-concave densities.
Production, purification and analysis of novel peptide antibiotics from terrestrial cyanobacteria
(2024)
Cyanobacteria are a known source for bioactive compounds, of which several also show antibiotic activity. In regard to the growing number of multi-resistant pathogens, the search for novel antibiotic substances is of great importance and unexploited sources should be explored. So, this thesis initially dealt with the identification of productive strains, especially within the group of the terrestrial cyanobacteria, which are less well studied than marine and freshwater strains. Amongst these, Chroococcidiopsis cubana, an extremely desiccation and radiation tolerant, unicellular cyanobacterium was found to produce an extracellular antimicrobial metabolite effective against the Gram-positive indicator bacterium Micrococcus luteus as well as the pathogenic yeast Candida auris. However, as the sole identification of a productive cyanobacterium is not sufficient for further analysis and a future production scale-up, the second part of this thesis targeted the identification of compound synthesis prerequisites. As a result, a limitation of nitrogen was shown to be the production trigger, a finding that was used for the establishment of a continuous production system. The increased compound formation was then used for purification and analysis steps. As a second approach, in silico identified bacteriocin gene clusters from C. cubana were cloned and heterologously expressed in Escherichia coli. By this, the bacteriocin B135CC was identified as a strong bacteriolytic agent, active predominantly against the Gram-positive strains Staphylococcus aureus and Mycobacterium phlei. The peptide showed no cytotoxic effects against mouse neuroblastoma (N2a-) cells and a high temperature tolerance up to 60 °C. In order to facilitate the whole project, two standard protocols, specifically adapted for the work with cyanobacteria, were established. First, a method for a quick and easy in vivo vitality estimation of phototrophic cells and second, an approach for a high throughput determination of nitrate concentrations in microalgal cultures. Both methods greatly helped to proceed the main objectives of this work, the first one by simplifying the development of suitable cryopreservation protocols for individual cyanobacteria strains and the second one by accelerating the determination of the optimal nitrate concentration for the production of the antimicrobial compound from C. cubana. In the course of this cultivation optimization, the ability of cyanobacteria to utilize organic carbon sources for an accelerated cell growth was examined in greater detail. It could be shown that C. cubana reaches significantly higher growth rates when mixotrophically cultivated with fructose or glucose. Interestingly, this effect was even further enhanced when light intensity was decreased. Under these low-light conditions, phototrophically cultivated C. cubana cells showed a clearly decreased cell growth. This effect might be extremely useful for a quick and economic preparation of precultures.
Modern digital imaging technologies, such as digital microscopy or micro-computed tomography, deliver such large amounts of 2D and 3D-image data that manual processing becomes infeasible. This leads to a need for robust, flexible and automatic image analysis tools in areas such as histology or materials science, where microstructures are being investigated (e.g. cells, fiber systems). General-purpose image processing methods can be used to analyze such microstructures. These methods usually rely on segmentation, i.e., a separation of areas of interest in digital images. As image segmentation algorithms rarely adapt well to changes in the imaging system or to different analysis problems, there is a demand for solutions that can easily be modified to analyze different microstructures, and that are more accurate than existing ones. To address these challenges, this thesis contributes a novel statistical model for objects in images and novel algorithms for the image-based analysis of microstructures. The first contribution is a novel statistical model for the locations of objects (e.g. tumor cells) in images. This model is fully trainable and can therefore be easily adapted to many different image analysis tasks, which is demonstrated by examples from histology and materials science. Using algorithms for fitting this statistical model to images results in a method for locating multiple objects in images that is more accurate and more robust to noise and background clutter than standard methods. On simulated data at high noise levels (peak signal-to-noise ratio below 10 dB), this method achieves detection rates up to 10% above those of a watershed-based alternative algorithm. While objects like tumor cells can be described well by their coordinates in the plane, the analysis of fiber systems in composite materials, for instance, requires a fully three dimensional treatment. Therefore, the second contribution of this thesis is a novel algorithm to determine the local fiber orientation in micro-tomographic reconstructions of fiber-reinforced polymers and other fibrous materials. Using simulated data, it will be demonstrated that the local orientations obtained from this novel method are more robust to noise and fiber overlap than those computed using an established alternative gradient-based algorithm, both in 2D and 3D. The property of robustness to noise of the proposed algorithm can be explained by the fact that a low-pass filter is used to detect local orientations. But even in the absence of noise, depending on fiber curvature and density, the average local 3D-orientation estimate can be about 9° more accurate compared to that alternative gradient-based method. Implementations of that novel orientation estimation method require repeated image filtering using anisotropic Gaussian convolution filters. These filter operations, which other authors have used for adaptive image smoothing, are computationally expensive when using standard implementations. Therefore, the third contribution of this thesis is a novel optimal non-orthogonal separation of the anisotropic Gaussian convolution kernel. This result generalizes a previous one reported elsewhere, and allows for efficient implementations of the corresponding convolution operation in any dimension. In 2D and 3D, these implementations achieve an average performance gain by factors of 3.8 and 3.5, respectively, compared to a fast Fourier transform-based implementation. The contributions made by this thesis represent improvements over state-of-the-art methods, especially in the 2D-analysis of cells in histological resections, and in the 2D and 3D-analysis of fibrous materials.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung und Analyse von Faktoren der haus-ärztlichen Standortfaktoren im ländlichen Raum.
Lebensqualität gerade auch in ländlichen Räumen in Deutschland ist vor allem daran geknüpft, welche Angebote der Daseinsvorsorge vor Ort bestehen. Die ambulante medizinische Versorgung nimmt dabei eine Schlüsselstellung ein, gerade vor dem Hintergrund einer im Zuge des demographischen Wandels immer älter werdenden Gesellschaft, insbesondere auf dem Land.
Niedergelassene Ärzte bilden dabei das Rückgrat einer bedarfsgerechten flächenhaften Versorgung, von denen wiederum die Hausärzte als Generalisten mit bislang sehr kleinräumiger Verteilungsstruktur erster Ansprechpartner für Patienten sind. Allerdings werden in Zukunft viele Hausarztsitze nicht mehr adäquat nachbesetzt werden können, da es zu wenige Nachfolger gibt. Unter dem gegenwärtigen Ungleichgewicht von Angebot und Nachfrage an Hausarztpraxen existiert kein funktionsfähiges Verteilungssystem zur Erreichung einer möglichst homogenen Flächenversorgung. Umso wichtiger ist es, den Prozess der Standortentscheidung von Hausärzten möglichst gut nachvollziehen zu können, um festzustellen anhand welcher Kriterien Hausärzte ihren Standort festlegen. In dieser Arbeit werden darum zunächst auf Expertenaussagen gestützte unternehmerische und private Faktoren ermittelt, die bei der hausärztlichen Standortwahl von Relevanz sein können.
Die Gründe für den bevorstehenden und bereits in manchen Regionen bemerkbaren Hausarztmangel liegen dabei zum einen im Ausbildungssystem, wo im langjährigen Verlauf Schwankungen in der Ausbildungsmenge und Missverhältnisse zur Bedarfsmenge an Ärzten zur einer aktuelle Verknappung beigetragen haben. Ebenso wurde die frühere Dominanz an männlichen Medizinstudenten durch eine Dominanz weiblicher Nachwuchsmediziner abgelöst, mit neuen Standortansprüchen und gewünschten Arbeitsformen. Allerdings nicht nur weibliche Nachwuchsmediziner bevorzugen heute Arbeitsmodelle, in denen sie ein Höchstmaß an Flexibilität haben, was vor allem in immer begehrter werdende Teamarbeit, Teilzeittätigkeiten, Anstellungs- anstelle von freiberuflichen Tätigkeitsformen und damit insgesamt in vor allem präferierte Tätigkeiten im stationären Versorgungsbereich hinausläuft. Die eher unattraktiven Arbeitsbedingungen als Hausarzt mit hoher Arbeitsbelastung mit im Vergleich zu anderen Facharztgruppen wenig attraktivem Gehalt tun ihr Übriges zur zunehmenden Verschmähung der allgemeinmedizinischen Weiterbildung zum Hausarzt bei, stattdessen findet immer häufiger eine Spezialisierung unter Nachwuchsmedizinern statt.
Alle angedachten bzw. in Umsetzung begriffene Maßnahmen zur Attraktivierung des Haus- bzw. Landarztberufs, vor allem finanzielle Anreize und Imagekampagnen, aber auch der Aufbau größerer Versorgungseinrichtungen, telemedizinischer Behandlungsmöglichkeiten und nicht-ärztlicher Delegationsformen, haben bislang nicht den erhofften Effekt einer Stabilisierung der Versorgungssituation. Dies gilt besonders auch im ländlichen Raum, wo die Ausstattung an Einrichtungen der Daseinsvorsorge in aller Regel nicht mit städtischen Qualitätsstandards mithalten kann. Bei einer relativ großen Wahlfreiheit durch nicht besetzbare Stellen und Posten älterer Ärzte bestehen für Nachwuchsmediziner jedoch heute gerade auch in dieser räumlichen Hinsicht größtmögliche Entscheidungsfreiheiten. Dies führt bereits heute zu einer Bevorzugung städtischer Räume als Arbeitsstandort und verschärft so zusätzlich die hausärztliche Versorgungslage im ländlichen Raum.
Im Rahmen einer empirischen Untersuchung an standardisiert befragten Hausärzten der zuvor gebildeten Modellräume Eifel und Unterfranken wurde dazu untersucht, welche unternehmerischen und privaten Faktoren überhaupt Hausärzte in die ländlichen Räume ziehen und ob diese im zeitlichen Verlauf sind. Neben den ökonomisch günstigen Voraussetzungen für Hausärzte mit leicht verfügbarer Kassenzulassung und großer Patientenzahl spricht dabei vor allem der landschaftliche Reiz für eine Niederlassung im ländlichen Raum. Von besonderer Relevanz war bislang auch immer das kinderfreundliche Lebensumfeld mit entsprechend vorgehaltenen Bildungseinrichtungen, allerdings verliert dieser Faktor durch den immer seltener werdenden Kin-der Wunsch langsam an Bedeutung unter den Hausärzten.
Jedoch bestehen zudem eine Reihe von sekundär bedeutsamen Faktoren, die auch vor Ort gestaltbar sein und so von innen heraus die Nachwuchsmediziner in Richtung ländlicher Räume ziehen können. Dazu zählen medizinische Einrichtungen (v.a. Fachärzte und Kliniken), Einkaufsmöglichkeiten, Sportstätten und das kulturelle Angebot.
Diese Faktoren gilt es zu stärken bzw. etwaige Schwächen ländlicher Räume in dieser Hinsicht mit kompensatorischen Maßnahmen inner- und überregional zu begegnen. Insbesondere wird es für eine zukünftig adäquate hausärztliche Versorgung unerlässlich sein, stärker auf die Interessen und Standortanforderungen weiblicher Mediziner mit besseren Betreuungsangeboten für Kinder, beruflichen Entfaltungsmöglichkeiten für Ehepartner, aber auch gewünschten Arbeitsorganisationsformen mit einem Mehr an Teamarbeit und flexiblen Arbeitsmodellen und -zeiten an zentraleren Standorten einzugehen.
Bei einem Stent handelt es sich um ein medizinisches Implantat, das zur Behandlung von Gefäßverengungen (Stenosen) eingesetzt wird. Ein implantierter Stent verbleibt in der Regel lebenslang im Gefäß und muss alle auftretenden Belastungen dauerhaft ertragen ohne zu brechen. Für die Auslegung eines Stents und zur Beurteilung des Ermüdungsverhaltens können durch die Finite Element Methode (FEM) schon im Vorfeld die auftretenden Spannungen und Dehnungen berechnet werden. Im Rahmen dieser Arbeit wird ein (Referenz-) Stent anhand unterschiedlicher Simulationen und Experimente analysiert und untersucht. Dabei wird sowohl der Herstellungsprozess des Stents betrachtet, als auch dessen Verhalten in unterschiedlich komplexen Gefäßen. In experimentellen Untersuchungen wird die Radialkraft bestimmt und das Ermüdungsverhalten des Stents bei einer simulierten Kniebeuge von 90° ermittelt. Mit der gewonnenen Erfahrung wird eine Vergleichsrechnung zweier neuer Stent-Designs durchgeführt. Auf Basis der Simulationen wird ein Prototyp hergestellt. Mit Hilfe der Computational Fluid Dynamics (CFD) Simulation wird der Einfluss des Referenz-Stents auf die Blutströmung durch die Berechnung der Strömungsverhältnisse in unterschiedlich komplexen Gefäßen näher betrachtet. Die Interaktion zwischen Stent, dem umgebenden Gefäß und der Blutströmung wird durch die gekoppelte FEM-CFD-Simulation untersucht.
Bei den Flüssigimprägnierverfahren wird ein trockenes Textil mit einem Harzsystem imprägniert, wodurch Faser-Kunststoff-Verbunde hergestellt werden. Bei der Betrachtung von üblichen Faser-Kunststoff-Verbund-Bauteilen wie z. B. Motorhauben an Kraftfahrzeugen, Verkleidungsstrukturen für die Luft- und Raumfahrt oder Sportgeräte wie Ski wird deutlich, dass es sich meist um „schalenförmige“ Bauteile handelt. Hierdurch wird klar, dass bei einer Imprägnierung in transversaler Richtung, also senkrecht zur Bauteil- bzw. Textilebene, der Fließweg deutlich kürzer ist als in der Bauteilebene. Somit birgt eine transversale Imprägnierung ein großes Potenzial zur Fließweg- und somit zu einer Zykluszeitreduktion. Um das volle Potenzial bei einer Imprägnierung in transversaler Richtung nutzen zu können, müssen die Textileigenschaften für eine akkurate Prozessauslegung so genau wie möglich bekannt sein. Hierzu gehören die faservolumengehaltsabhängige Tränkbarkeit (Dickenpermeabilität), der Kapillardruck sowie die Kompaktierungseigenschaften von Textilien. Um diese Eigenschaften zu ermitteln, wurden im Zuge dieser Arbeit mehrere Bestimmungsmethoden entwickelt, realisiert und validiert. Kern dieser Bestimmungsmethoden ist ein System welches neben dem Sättigungsvorgang, die Dickenpermeabilität sowie die strömungsinduzierte Textildeformation aufzeichnen kann. Ersteres durch die Verfolgung des Fließfrontfortschritts und Letzteres durch Verfolgung der Gesamtdickenänderung des zu messenden Textilstapels als auch der Änderung der Position einer einzelnen Lage im Textilstapel. Zur Berechnung der Dickenpermeabilität werden zusätzlich noch Druck- und Volumenstrommessungen durchgeführt. Um die Validität von ungesättigten Permeabilitätsmessungen nachzuweisen, wurde ein Kapillardruckmesssystem für eine reine transversale Strömung entwickelt. Hier wird die Fließfront in Abhängigkeit der Zeit dazu genutzt um den Kapillardruck zu bestimmen. Alle Methoden und Verfahren ermöglichen ein tieferes Verständnis der Vorgänge bei einer transversalen Imprägnierung von Textilien. Die gewonnenen Daten können zusätzlich als Eingangsparameter für Prozesssimulationen genutzt werden. Die Grundlagen einer solchen Simulation wurden erfasst und erste Simulationen zur Ermittlung einer Umsetzbarkeit bei der ungesättigten Dickenpermeabilität sowie der hydrodynamischen Kompaktierung durchgeführt.
The thesis at hand deals with the numerical solution of multiscale problems arising in the modeling of processes in fluid and thermo dynamics. Many of these processes, governed by partial differential equations, are relevant in engineering, geoscience, and environmental studies. More precisely, this thesis discusses the efficient numerical computation of effective macroscopic thermal conductivity tensors of high-contrast composite materials. The term "high-contrast" refers to large variations in the conductivities of the constituents of the composite. Additionally, this thesis deals with the numerical solution of Brinkman's equations. This system of equations adequately models viscous flows in (highly) permeable media. It was introduced by Brinkman in 1947 to reduce the deviations between the measurements for flows in such media and the predictions according to Darcy's model.
Metallacetylide sind Verbindungen aus Metallen und Liganden, die durch Deprotonierung terminaler Alkine entstehen. Komplexe dieser Art weisen eine Vielzahl verschiedener Eigenschaften und Verwendungsmöglichkeiten auf. Der lineare Charakter der Acetylideinheit und ihre π-ungesättigte Natur macht sie zu geeigneten Bildungskomponenten für die Herstellung molekularer Leiter oder organometallischer oligo- sowie polymerer Materialien mit Eigenschaften wie z. B. optischer Nichtlinearität, Lumineszenz, elektrischer Leitfähigkeit und Flüssigkristallinität. Zwar existieren zahlreiche Arbeiten zur Herstellung von Metall-acetylidkomplexen, die Möglichkeit Liganden zu synthetisieren, die eine mehrzähnige, sogenannte chelatisierende Funktion mit einer terminalen Alkinyleinheit kombinieren, wurde jedoch nur von wenigen Gruppen verfolgt. Mit Hilfe solcher Liganden ist es nicht nur möglich, durch kovalente Anbindung eines Metalls an die C-C-Dreifachbindung Metallacetylide zu erhalten, sondern diese durch Koordination weiterer Metallzentren an die Chelatfunktion effizient zu stabilen, mehrkernigen Metallkomplexen zu erweitern. Im Rahmen dieser Arbeit wurden zwei Liganden synthetisiert, die derartige Eigenschaften besitzen: Das zweizähnige Alkin 2-(1-(Prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin und das dreizähnige Diin 2,6-Bis(1(prop-2-yn-1-yl)-1H-pyrazol-3-yl)pyridin. Die Liganden wurden unter steter Optimierung der Reaktionsbedingungen durch Propargylierung von 2-Pyrazolylpyridin bzw. 2,6-Bispyrazolylpyridin synthetisiert. In einer Reihe von Versuchen mit verschiedenen Übergangsmetallen wurde das Monoalkin auf seine Fähigkeit hin untersucht, sowohl Metallacetylide als auch Komplexe durch Koordination an die chelatisierenden Stickstoffatome zu bilden. Dabei wurden ein Gold(I)monoacetylid mit Triphenylphosphan als Neutralligand sowie zwei Platindiacetylide erhalten. Die Platinkomplexe unterscheiden sich durch ihre Neutralliganden: es wurde einerseits Triphenylphosphan, andererseits ein dppe eingesetzt. Die unterschiedliche Natur der Phosphanliganden wirkt sich auf die Konformation der Komplexe aus: Während die einzähnigen Triphenylphosphanmoleküle die Positionierung der Alkinylliganden in trans-Stellung erlauben, liegt der dppe-haltige Komplex in einer cis-Konformation vor. Aus beiden Komplexen wurden durch Koordination weiterer Metallzentren dreikernige Verbindungen synthetisiert. Dabei konnte das Produkt aus trans-Komplex mit Ruthenium(II) isoliert und charakterisiert werden, während das cis-Produkt nur analytisch nachgewiesen, jedoch nicht erfolgreich von den Nebenprodukten abgetrennt werden konnte. Für das dppe-haltige Platindiacetylid wurde die Fähigkeit Zink zu koordinieren in verschiedenen Versuchsreihen überprüft, die unter Variation der Zinkkonzentration und auch des Lösungsmittels durchgeführt wurden. Mit Hilfe von ESI-MS-Messungen konnte belegt werden, dass Zink(II)-Kationen an das Diacetylid koordinieren und in Abhängigkeit der
Zinkkonzentration verschiedene Produkte erhalten werden. Das Lösungsmittel zeigt ebenfalls einen Einfluss auf Produktbildung. Während in Aceton nur zwei verschiedene Zinkaddukte beobachtet werden können, wird in Acetonitril sogar die Bildung von Ketten und Clustern beobachtet. Der dreizähnige Diinligand wurde erfolgreich mit Ruthenium umgesetzt, sodass ein oktaedrischer Komplex entsand, bei dem der Ruthenium(II)-Kern dreifach an den von mir synthetisierten Liganden koordiniert war und neben einem Triphenylphosphan auch zwei Chloridoliganden trug. Mit diesem wurde die katalytische Transferhydrierung von Acetophenon mit Isopropanol durchgeführt, wobei die zur Deprotonierung des Alkohols zugegebene Menge an Base variiert wurde. Die Aktivität des Komplexes in der Transferhydrierung konnte bewiesen werden. Die zugegebene Basenmenge zeigte bei der angewendeten Versuchsdurchführung nur einen geringen Einfluss auf den Umsatz.
Most of today’s wireless communication devices operate on unlicensed bands with uncoordinated spectrum access, with the consequence that RF interference and collisions are impairing the overall performance of wireless networks. In the classical design of network protocols, both packets in a collision are considered lost, such that channel access mechanisms attempt to avoid collisions proactively. However, with the current proliferation of wireless applications, e.g., WLANs, car-to-car networks, or the Internet of Things, this conservative approach is increasingly limiting the achievable network performance in practice. Instead of shunning interference, this thesis questions the notion of „harmful“ interference and argues that interference can, when generated in a controlled manner, be used to increase the performance and security of wireless systems. Using results from information theory and communications engineering, we identify the causes for reception or loss of packets and apply these insights to design system architectures that benefit from interference. Because the effect of signal propagation and channel fading, receiver design and implementation, and higher layer interactions on reception performance is complex and hard to reproduce by simulations, we design and implement an experimental platform for controlled interference generation to strengthen our theoretical findings with experimental results. Following this philosophy, we introduce and evaluate a system architecture that leverage interference.
First, we identify the conditions for successful reception of concurrent transmissions in wireless networks. We focus on the inherent ability of angular modulation receivers to reject interference when the power difference of the colliding signals is sufficiently large, the so-called capture effect. Because signal power fades over distance, the capture effect enables two or more sender–receiver pairs to transmit concurrently if they are positioned appropriately, in turn boosting network performance. Second, we show how to increase the security of wireless networks with a centralized network access control system (called WiFire) that selectively interferes with packets that violate a local security policy, thus effectively protecting legitimate devices from receiving such packets. WiFire’s working principle is as follows: a small number of specialized infrastructure devices, the guardians, are distributed alongside a network and continuously monitor all packet transmissions in the proximity, demodulating them iteratively. This enables the guardians to access the packet’s content before the packet fully arrives at the receiver. Using this knowledge the guardians classify the packet according to a programmable security policy. If a packet is deemed malicious, e.g., because its header fields indicate an unknown client, one or more guardians emit a limited burst of interference targeting the end of the packet, with the objective to introduce bit errors into it. Established communication standards use frame check sequences to ensure that packets are received correctly; WiFire leverages this built-in behavior to prevent a receiver from processing a harmful packet at all. This paradigm of „over-the-air“ protection without requiring any prior modification of client devices enables novel security services such as the protection of devices that cannot defend themselves because their performance limitations prohibit the use of complex cryptographic protocols, or of devices that cannot be altered after deployment.
This thesis makes several contributions. We introduce the first software-defined radio based experimental platform that is able to generate selective interference with the timing precision needed to evaluate the novel architectures developed in this thesis. It implements a real-time receiver for IEEE 802.15.4, giving it the ability to react to packets in a channel-aware way. Extending this system design and implementation, we introduce a security architecture that enables a remote protection of wireless clients, the wireless firewall. We augment our system with a rule checker (similar in design to Netfilter) to enable rule-based selective interference. We analyze the security properties of this architecture using physical layer modeling and validate our analysis with experiments in diverse environmental settings. Finally, we perform an analysis of concurrent transmissions. We introduce a new model that captures the physical properties correctly and show its validity with experiments, improving the state of the art in the design and analysis of cross-layer protocols for wireless networks.
Der Anteil an regenerativen Energien am Strommarkt in Deutschland steigt kontinuierlich. Dies führt bereits heute zu Problemen bei der Energiespeicherung, da die Stromproduktion aus regenerativen Energien stark von Wind und Wetter abhängt. Hierbei sind die derzeitigen Energiespeicher wie Schwungräder, Batterien oder Pumpspeicherkraftwerke in ihrer Kapazität stark begrenzt. Eine mögliche Lösung für die Problematik der Energiespeicherung bietet das Power-to-Gas-Verfahren, indem die elektrische Energie in chemische Energie (z. B. synthetisches Erdgas) umgewandelt und im Erdgasnetz gespeichert wird. Darüber hinaus kann durch die Umwandlung von Kohlendioxid als C₁-Baustein in funktionalisierte Grundchemikalien die Abhängigkeit von Rohöl vermindert werden. Hierfür sind Katalysatoren notwendig, die eine wirtschaftliche Hydrierung von Kohlendioxid zu Wertprodukten ermöglichen. Die Schwierigkeit liegt in der Überwindung der hohen Aktivierungsenergie von Kohlendioxid, wodurch es sehr reaktionsträge ist. In der Literatur wurden bereits einige Katalysatorsysteme untersucht; nur wenige beschäftigen sich mit kinetischen Untersuchungen. Ein Problem der zahlreichen Publikationen ist die häufig fehlende Vergleichbarkeit. Dies liegt im Wesentlichen an der Vielzahl der variablen Reaktionsbedingungen, wie Reaktionstemperatur, Reaktionsdruck, Verweilzeit sowie dem Verhältnis von Wasserstoff zu Kohlendioxid. Außerdem wird in kinetischen Studien oft für ein vorliegendes Katalysatorsystem eine individuelle Berechnungsmethode zur Ermittlung der kinetischen Daten verwendet, die sich nicht auf andere Katalysatorsysteme oder Aktivkomponenten anwenden lässt.
Die zuvor genannten Probleme waren eine wesentliche Motivation, verschiedene Aktivkomponenten unter gleichen Reaktionsbedingungen zu untersuchen. Die hierbei gewonnenen Informationen sind in die nachfolgenden Studien zur Modifikation des Trägermaterials und der Aktivkomponenten eingeflossen. Zum Schluss wurde versucht, ein synthetisches Erdgas mittels Brennwertanpassung herzustellen. Hierfür wurde ein Fischer-Tropsch-Katalysator mit Methanisierungskatalysatoren kombiniert. Die hergestellten Katalysatoren wurden jeweils mithilfe von N₂-Physisorption, Pulver-Röntgendiffraktometrie, thermogravimetrischer Analyse, Rasterelektronenmikroskopie, temperaturprogrammierter Reduktion sowie durch H₂-Chemisorption charakterisiert. Die katalytischen Eigenschaften der hergestellten Katalysatoren wurden in einer Hochdruck-Strömungsapparatur erprobt. Im Fokus der Untersuchungen standen die Stabilität der Katalysatoren sowie der Einfluss der Reaktionstemperatur und der modifizierten Verweilzeit auf Umsatz und Produktausbeuten.
Zu Beginn wurden zehn verschiedene Aktivkomponenten jeweils auf γ-Aluminiumoxid als Träger (Puralox SCFa 230) untersucht. Dabei waren der Einfluss der Reaktionstemperatur auf den Umsatz von Kohlendioxid und die Zusammensetzung des Produktgases als auch die kinetischen Parameter von besonderem Interesse. Die Ergebnisse zeigten einen deutlichen Einfluss der Aktivkomponente auf das Produktspektrum der katalytischen Hydrierung von Kohlendioxid. Hierbei traten insbesondere die Metalle Kupfer, Nickel, Rhodium und Eisen hervor. Ersteres zeigte eine hohe Selektivität zu Kohlenmonoxid. Nickel und Rhodium produzierten Methan mit sehr hohen Selektivitäten und hohen Umsätzen, die nahe am thermodynamischen Gleichgewicht liegen. Die Vorteile von Eisen als Aktivkomponente liegen in der Produktion von signifikanten Mengen an C₂₊-Kohlenwasserstoffen. Alle anderen Aktivkomponenten zeigten eine gemischte Produktzusammensetzung (d. h. bestehend aus Kohlenmonoxid, Methan, C₂₊-Kohlenwasserstoffen). Anhand von kinetischen Untersuchungen konnten die Temperaturabhängigkeit der Reaktionsgeschwindigkeit in Form einer scheinbaren Aktivierungsenergie sowie die Abhängigkeit vom Partialdruck an Kohlendioxid ermittelt werden. Für beide Parameter werden möglichst kleine Werte angestrebt. Dies bedeutet, dass bereits bei kleineren Partialdrücken und niedrigeren Reaktionstemperaturen signifikante Umsätze von Kohlendioxid zu beobachten sein sollten. Die Partialdruckabhängigkeit der Reaktionskinetik nimmt in folgender Reihenfolge der Aktivkomponenten zu: Ni, Rh < Ru < Co < Pt < Cu, Pd, <Re << Fe300-375°C. Die kinetischen Untersuchungen zeigten hierbei für die Methanisierungskatalysatoren die niedrigste Partial-druckabhängigkeit der Reaktionskinetik, gefolgt von den Katalysatoren für die umgekehrte Wassergas-Shift-Reaktion. Die größte Kohlendioxid-Partialdruckabhängigkeit der Reaktionskinetik konnte an den Katalysatoren mit gemischter Produktzusammensetzung und am eisenhaltigen Fischer-Tropsch-Katalysator beobachtet werden. Die Reihenfolge der Temperaturabhängigkeit der Reaktionskinetik an den Aktivkomponenten lautet wie folgt: Pd < Cu < Ru < Pt, Co < Ni < Fe300-375°C < Rh, Re. Um auch die wirtschaftlichen Aspekte bei der Auswahl der Aktivkomponenten zu berücksichtigen, wurden die Marktpreise für die untersuchten Metalle verglichen. Die Preise für die Metalle wurden für eine Tonne Katalysator mit entsprechender Beladung berechnet. Anhand der Preise für die Aktivkomponenten und unter Einbeziehung der Ergebnisse der katalytischen Untersuchungen ist Nickel der Favorit für einen Methanisierungskatalysator und Eisen bevorzugt als Fischer-Tropsch-Katalysator.
Aufgrund der hohen Aktivität von Nickel wurde diese Aktivkomponente ausgewählt, um mit unterschiedlichen Trägermaterialien auf der Basis von Titandioxid das katalytische Potenzial zu evaluieren. Als Trägermaterialien wurden Lithiumtitanat, makro-/mesoporöse Titan-Aluminium-Mischoxide und mit Titandioxid beschichtetes Puralox SCFa-230 eingesetzt. Hierbei konnten an den makro-/mesoporösen Titan-Aluminium-Mischoxiden der unterschiedliche Einfluss von Titan und Aluminium auf die Eigenschaften des resultierenden Mischoxids beobachtet werden. Es zeigte sich, dass die strukturelle Stabilität und höhere spezifische Oberfläche von Aluminiumoxid sowie die höhere katalytische Aktivität durch Titandioxid im Mischoxid von Bedeutung sind. Zugleich bieten die Makro- und Mesoporen in den Mischoxiden einen verbesserten Stofftransport. Es konnte gezeigt werden, dass der titanhaltige Träger eine sehr geringe spezifische Oberfläche im Vergleich zum aluminiumhaltigen Träger aufweist. Bei den Mischoxiden beginnt ab einem Titangehalt von 50 mol-% die spezifische Oberfläche mit steigendem Titananteil stetig zu sinken. Anhand der temperaturprogrammierten Reduktion konnte eine zunehmende Reduzierbarkeit des Nickels mit steigendem Titangehalt im Trägermaterial beobachtet werden. Generell wurde an nickelhaltigen Katalysatoren Kohlendioxid mit sehr hohen Selektivitäten zu Methan umgewandelt. Im direkten Vergleich sind die Umsätze am Katalysator mit reinem Titandioxid deutlich höher als an dem Katalysator mit reinem γ-Aluminiumoxid als Träger. Dies zeigt die höhere katalytische Aktivität mit Titanoxid als Trägermaterial. Die niedrigsten Umsätze wurden am nickelbeladenen Mischoxid mit einem Titangehalt von 50 mol-% beobachtet, was wahrscheinlich mit der amorphen Struktur dieses Trägermaterials zusammenhängt. Die größte Aktivität für die Methanisierung von Kohlendioxid konnte an dem Mischoxid mit einem Titangehalt von 80 mol-% im Trägermaterial beobachtet werden. Anscheinend liegt hier ein Optimum zwischen der strukturellen Stabilität von Aluminium und der katalytischen Aktivität durch Titan im Mischoxid vor. Die spezifische Oberfläche des Titan-Aluminium-Mischoxids mit 80 mol-% Titan liegt mit 115 m²·g⁻¹ verglichen mit dem reinen Titanoxid mit 20 m²·g⁻¹ deutlich höher. Diese ist jedoch geringer als die spezifische Oberfläche des γ-Aluminiumoxids mit 225 m²·g⁻¹.
Die Modifizierung der Aktivkomponente wurde mit drei verschiedenen Klassen von Katalysatoren untersucht. Es wurden Mischungen zwischen Nickel und Rhodium, den beiden aktivsten Metallen aus Kapitel 4, sowie Mischungen aus Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid untersucht. Für die Fischer-Tropsch-Synthese wurden eisenhaltige Katalysatoren modifiziert. Bei den Untersuchungen von Nickel und Rhodium sowie Palladium, Nickel und Magnesium als Aktivkomponente auf Puralox SCFa-230 wurde gefunden, dass bei Verwendung von Nickel als reiner Aktivkomponente die besten katalytischen Ergebnisse erzielt wurden. An allen untersuchten Katalysatoren wurde bei der katalytischen Umwandlung von Kohlendioxid eine hohe Selektivität zu Methan beobachtet. Hinweise auf eine positive Wirkung der Mischung der Aktivkomponenten konnten nicht gefunden werden. Mittels temperaturprogrammierter Reduktion wurde gefunden, dass – anders als zunächst vermutet – Nickel und Rhodium als voneinander isolierte Spezies vorliegen und nicht etwa als Legierung.
Aufbauend auf der Arbeit von Park und McFarland [38] wurden die Metalle Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid kombiniert. Die Katalysatoren wurden schrittweise synthetisiert und ihre katalytische Aktivität untersucht. Bei allen Katalysatoren ist die katalytische Aktivität deutlich geringer als bei dem Katalysator mit reinem Nickel auf Puralox SCFa-230. Die katalytische Aktivität der Hochtemperatur-reduzierten Katalysatoren liegt noch einmal deutlich unter der katalytischen Aktivität der kalzinierten und danach reduzierten Katalysatoren. Dies liegt wahrscheinlich in einer geringeren Dispersion der Aktivkomponente begründet. Ursachen für eine geringe Dispersion können sein: (i) die direkte Reduktion der imprägnierten Metallkomponente ohne Kalzination als Zwischenschritt oder (ii) eine Be-günstigung der Metallsinterung durch die Hochtemperatur-Reduktion. Basierend auf den erzielten Ergebnissen stellt die Verwendung von Nickel auf γ-Aluminiumoxid als Träger ein Optimum hinsichtlich Aktivität, Selektivität, Stabilität und Preis dar.
Bei der Modifizierung der Fischer-Tropsch-Katalysatoren wurden verschiedene Promotoren zusammen mit Eisen auf Puralox SCFa-230 aufgebracht. Als Promotoren für Eisen wurden Zink oder Mangan eingesetzt und mit einem promotorfreien Eisenkatalysator verglichen. Hierzu wurden zum einen die Metalle in Form der entsprechenden Nitratsalze auf das γ-Aluminiumoxid imprägniert. Zum anderen wurden eisen- und eisen-/promotorhaltige Nanopartikel zur Im-prägnierung verwendet. Alle Katalysatoren lieferten bei der Hydrierung von Kohlendioxid ein Produktgemisch bestehend aus Kohlenmonoxid, Methan und C₂₊-Kohlenwasserstoffen. Die Ausbeuten an C₂₊-Kohlenwasserstoffen sind bei 400 °C am größten, wobei mit steigender Temperatur eine Abnahme der Kettenlänge beobachtet werden kann. Die Unterschiede der Metallsalz-imprägnierten Katalysatoren im Vergleich zu den Nanopartikel-imprägnierten Katalysatoren sind relativ gering. Die Nanopartikel-imprägnierten Katalysatoren bilden geringfügig kleinere Mengen an Kohlenmonoxid zugunsten von Methan. Beim Vergleich der Promotoren hat sich eine Dotierung mit Mangan gegenüber den zinkhaltigen- sowie den promotorfreien eisenhaltigen Katalysatoren als vorteilhaft herausgestellt. Die manganhaltigen Katalysatoren produzieren den größten Anteil an Olefinen in den einzelnen Fraktionen. Außer-dem liegt die Kettenwachstumswahrscheinlichkeit α bei niedrigeren Temperaturen höher als bei den anderen Katalysatoren.
In weiteren Untersuchungen wurden ungeträgerte Fischer-Tropsch-Katalysatoren betrachtet. Hierfür wurden zwei Fällungskatalysatoren hergestellt. Es wurde ein Katalysator, der ausschließlich aus Eisenoxid besteht, als Referenz untersucht sowie ein eisenhaltiger Katalysator mit den Promotoren Aluminium, Mangan und Kalium. Am reinen Eisenoxid konnte eine etwas höhere Kettenwachstumswahrscheinlichkeit α sowie ein höheres Verhältnis von Olefinen zu Paraffinen im Vergleich zu den geträgerten Katalysatoren beobachtet werden. Mit dem Fällungskatalysator, der promotiert war, wurden die besten Ergebnisse erzielt: Die Umsätze von Kohlendioxid, die Ausbeuten an C₂₊-Kohlenwasserstoffen sowie die Kettenwachstumswahr-scheinlichkeiten α und die Verhältnisse der Summe von Olefinen / sauerstoffhaltigen Verbin-dungen zu den Paraffinen sind bei allen Reaktionstemperaturen am größten. Die Ergebnisse zeigen, dass Vollkatalysatoren für die Fischer-Tropsch-Synthese besser geeignet sind als Trägerkatalysatoren.
Um den eingangs erläuterten Kapazitätsengpass bei der Speicherung von regenerativen Energien entgegen zu treten, stellt das Power-to-Gas-Verfahren einen interessanten Lösungsansatz dar. In diesem Zusammenhang wurde eine Modifizierung des Power-to-Gas-Verfahrens näher untersucht. Es wurde anhand von Modellrechnungen gezeigt, weshalb eine Brennwertanpassung mit kombinierter Fischer-Tropsch-Synthese notwendig erscheint. Die Katalysatoren wurden anhand der zuvor erlangten Erkenntnisse ausgewählt. Als Methanisierungskatalysatoren wurde jeweils ein cobalt , nickel- oder rhodiumhaltiger Katalysator mit dem promotorhaltigen Fällungskatalysator für die Fischer-Tropsch-Synthese kombiniert. Die Kom-bination eines Methanisierungskatalysators mit dem Fischer-Tropsch-Katalysator führte jedoch nicht wie erwartet zu einem Produktgas mit einem hohen Anteil von Methan sowie zusätzlich C₂₊-Kohlenwasserstoffen. Stattdessen wurde fast ausschließlich Methan gebildet. Die Variation der Verweilzeit am cobalthaltigen Katalysatorsystem und eine längere Laufzeituntersuchung am nickelhaltigen Katalysatorsystem zeigten zudem das Auftreten einer Desaktivierung des Methanisierungskatalysators. Nach dessen vollständiger Desaktivierung wurde die Produktzusammensetzung ausschließlich durch den Fischer-Tropsch-Katalysator bestimmt. Diese Beobachtungen können folgendermaßen erklärt werden: Zu Beginn der Katalysatorlaufzeit werden die entstandenen C₂₊-Kohlenwasserstoffe mittels Hydrogenolyse am Methanisierungskatalysator zu Methan umgewandelt. Das bei der Fischer-Tropsch-Synthese gebildete Kohlenmonoxid und ein Teil des restlichen Kohlendioxids werden ebenfalls zu Methan umgesetzt. Mit fortschreitender Verweilzeit desaktiviert der Methanisierungskatalysator durch Verkoken. Die Hydrogenolyse, welche vermutlich ebenfalls an den für die Methanisierung aktiven Zentren stattfindet, kommt vollständig zum Erliegen. Die Produktzusammensetzung wird nun vollständig durch die Katalyse am Fischer-Tropsch-Katalysator dominiert. Vor diesem Hintergrund erscheint die Suche nach Methanisierungskatalysatoren, die keine Hydrogenolyse von C₂₊-Kohlenwasserstoffen bewirken, als lohnenswert.
Externe elektrische Gleichspannungsfelder können sowohl den physikalischen, als auch den reaktiven Stoffaustausch bei der Flüssig-Flüssig Extraktion signifikant beeinflussen, wodurch eine Steigerung des Stoffüberganges im elektrischen Feld erzielt werden kann. Die Gründe hierfür sind im elektrischen Feld gesteigerte Grenzflächenturbulenzen und feldinduzierte Konzentrationspolarisationen im Phasengrenzflächenbereich, welche durch Migrationswechselwirkungen verursacht werden. Das elektrische Feld hat bezüglich des reaktiven Stoffübergangs sowohl in Einzel- als auch im Mehrkomponentensystem keinen Einfluss auf das chemische Gleichgewicht. Jedoch wird durch das Feld die Kinetik beschleunigt und das Gleichgewicht schneller erreicht. Auch die maximale Trennselektivität im Mehrkomponentensystem, welche im Gleichgewicht erreicht wird, wird nicht durch das Feld verändert. Diese ist primär von der Konzentration und der Säurestärke abhängig. Lediglich im Falle sehr schwacher Säuren ist das Gleichgewicht über das natürliche hinaus verschiebbar. Diese Stoffaustauscherhöhung ist durch die im elektrischen Feld erhöhte Dissoziation der Übergangskomponente gemäß dem 2. Wien’schen Effekt erklärbar. Zudem ist die feldinduzierte Stoffaustauscherhöhung stark von der Feldwirkrichtung abhängig. Der Feldeinfluss ist dann maximal, wenn das Feld direkt in Stoffübergangs-richtung wirkt. Dies ist bei unbewegten (z. B. planaren) Grenzflächen erreichbar. So konnte in planaren Stoffübergangszellen und am hängenden Tropfen eine starke Stoffaus-tauschbeschleunigung in der Größenordnung von ca. 1000 % erzielt werden. Am bewegten Tropfen konnte zwar eine Stoffaustauscherhöhung durch die im Feld geänderten hydrodynamischen Betriebsgrößen (wie Tropfengröße und Verweilzeit) erzielt werden, jedoch konnte darüber hinaus keine weitere Stoffaustauschbeschleunigung erzielt werden. Dies kann damit erklärt werden, dass bei bewegter sphärischer Grenzflächengeometrie das Feld nicht nur in Stoffübergangsrichtung wirkt und feldinduzierte Polarisations-erscheinungen sich weitgehend kompensieren. Daher gelingt in klassischen Extraktionsapparaten, welche mit Dispergierung und Tropfen-bildung arbeiten, die Verfahrensumsetzung der kontinuierlich betriebenen Extraktion im Hochspannungsfeld nicht effizient. Diese gelingt in einem speziellen Zentrifugalextraktor, dem Taylor-Couette Elektroextraktor, in wessen Ringsspalt zwischen zwei als Elektroden fungierenden, konzentrischen Zylindern auf Grund der Rotationsbewegung sich eine planaranaloge, zylindrische Phasengrenzfläche ausbildet und das Feld somit direkt in Stoffübergangsrichtung wirken kann. Auch wird der stationäre Betriebszustand binnen weniger Minuten erreicht. Zudem entstehen im Phasengrenzbereich Taylorverwirblungen, welche ebenfalls den Stoffaustausch erhöhen. Zur theoretischen Beschreibung konnten Stoffübergangsmodelle entwickelt werden, welche die feldinduzierten Polarisationseffekte berücksichtigen. So gelingt die Berechnung des reaktiven Stoffaustauschs über ein elektrostatisch erweitertes Kinetikmodell, welches neben der chemischen Reaktion, der Grenzflächenadsorption des Ionenaustauschers und dem Reaktionsgleichgewicht, auch die Migration über die Nernst Planck Gleichung, sowie auch die Elektrodissoziation über einen Ansatz nach Onsager berücksichtigt. Die Berücksichtigung der im elektrischen gesteigerten Grenzflächenturbulenz gelingt über einen elektrostatisch erweiterten Ansatz nach Maroudas und Sawistowski. Auch wurde ein Modell zur Berechnung des Stoffübergangs im Taylor-Couette Extraktors vorgestellt. Die Berechnung der anliegenden elektrischen Felder gelingt über die Finite Elemente Methode basierend auf den Maxwell’schen Gleichungen oder vereinfacht über die Laplace Gleichung. Wesentlich ist, dass nicht die Elektrodenpotentialdifferenz, sondern das berechnete Potential an der Phasengrenzfläche den Stofftransfer im elektrischen Feld bestimmt, was durch die Simulationsrechnungen bestätigt wurde.
Dual-Pivot Quicksort and Beyond: Analysis of Multiway Partitioning and Its Practical Potential
(2016)
Multiway Quicksort, i.e., partitioning the input in one step around several pivots, has received much attention since Java 7’s runtime library uses a new dual-pivot method that outperforms by far the old Quicksort implementation. The success of dual-pivot Quicksort is most likely due to more efficient usage of the memory hierarchy, which gives reason to believe that further improvements are possible with multiway Quicksort.
In this dissertation, I conduct a mathematical average-case analysis of multiway Quicksort including the important optimization to choose pivots from a sample of the input. I propose a parametric template algorithm that covers all practically relevant partitioning methods as special cases, and analyze this method in full generality. This allows me to analytically investigate in depth what effect the parameters of the generic Quicksort have on its performance. To model the memory-hierarchy costs, I also analyze the expected number of scanned elements, a measure for the amount of data transferred from memory that is known to also approximate the number of cache misses very well. The analysis unifies previous analyses of particular Quicksort variants under particular cost measures in one generic framework.
A main result is that multiway partitioning can reduce the number of scanned elements significantly, while it does not save many key comparisons; this explains why the earlier studies of multiway Quicksort did not find it promising. A highlight of this dissertation is the extension of the analysis to inputs with equal keys. I give the first analysis of Quicksort with pivot sampling and multiway partitioning on an input model with equal keys.
Aufgrund ihrer Besonderheiten und Merkmalen ist die Innenstadt als wichtigster Stadtteil einer Stadt zu charakterisieren. Aufgrund der Zerstörungen durch den Zweiten Weltkrieg und den anschließenden Entwicklungen hat die Innenstadt an urbaner Qualität eingebüßt. Dies ist unter anderem darin begründet, dass eine Verdrängung der Wohnfunktion aus der Innenstadt an den Stadtrand oder ins Umland stattfindet. Die Stärkung der Wohnfunktion ist eine Grundvoraussetzung zur Wiedergewinnung urbaner Qualitäten und zur nachhaltigen Revitalisierung und Stabilisierung der Innenstadt. Das Wohnen an sich ist ein multidimensionales Phänomen mit vielfältigen Wirkungsgefügen und Verflechtungen. Zur Ableitung von Konzepten und Handlungsmaßnahmen sind die Wohnbedürfnisse der Bevölkerung durch verschiedene Klassifizierungen zu erheben und mit den so genannten Megatrends -allen voran der demografischen Entwicklung- und den spezifischen Kommunalsituationen zu überlagern. An diesem Prozess ist mit steigender Tendenz eine Vielzahl von öffentlichen und privaten Akteuren beteiligt. Gängige Darstellungsmethoden der Stadtplanung sind nur bedingt geeignet, die komplexen Wirkungsgefüge sowie die Ein- auf und Auswirkungen von Vorhaben als Informationen transparent und nachvollziehbar abzubilden. Der Einsatz von Mixed Reality-Techniken und von immersiven Szenarien zur Unterstützung von Entscheidungssituationen in stadtplanerischen Aufgabenfeldern ist als qualifizierend für diese einzustufen. Durch Mixed Reality-Techniken, die reale Gegebenheiten und virtuelle Objekte gleichzeitig überlagert abbilden, ist es im Sinne einer Ergebnisvisualisierung möglich, sowohl Handlungsbedarfe in der Bestandssituation zu identifizieren als auch die visuellen Ein- und Auswirkungen von Vorhaben originalmaßstäblich und dreidimensional zu simulieren. Darüber hinaus können auch originär nicht visuell wahrnehmbare Informationen visuell abgebildet werden. Neben den technischen Ausstattungen ist hierfür ein virtueller, generischer Datenschatten notwendig, der ein digitales Abbild der Realität und der geplanten Vorhaben darstellt. Der bislang theoretische Ansatz der immersiven Szenarien ist der nächste Schritt im Bereich der computergestützten Daten- und Informationsvisualisierung beziehungsweise -darstellung. Über die Ergebnisvisualisierung hinaus sind immersionserzeugende Systeme in der Lage, einen Benutzer in eine Situationsdarstellung zu versetzen, in der er nicht mehr zwischen realen und virtuellen Objekten unterscheiden kann. Zugleich bedeutet dies, dass er mit allen virtuellen Objekten intuitiv interagieren kann. Der Benutzer wird dadurch Teil des Szenarios. Seine Aktionen wirken sich wahrnehmbar rekursiv auf das Szenario aus. Sowohl Mixed Reality-Techniken als auch immersive Szenarien können für Entscheidungssituationen im Bereich des thematisierten Wirkungsgefüge ‚innerstädtisches Wohnen’ die Entscheidungsgrundlagen auf den Betrachtungsebenen Wohnstandort, Wohnanlage und Wohnung für alle beteiligten Akteure qualifizieren. Sie sind geeignet, um Handlungserfordernisse transparent und nachvollziehbar abzubilden sowie die visuell wahrnehmbaren und originär nicht visuell wahrnehmbaren Konsequenzen von Wohnbauvorhaben abzuschätzen. Anhand des innerstädtischen Projektes „Glockencarré Kaiserslautern“ wurden hierzu die Möglichkeiten der Augmented Reality-Technik (als eine Ausprägung der Mixed Reality-Techniken) aufgezeigt und die Einsatzmöglichkeiten für unterschiedliche Akteursgruppen charakterisiert.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
In Deutschland und einigen anderen Ländern ist das Mischsystem weit verbreitet. Aus diversen Gründen (z.B. aus Kostenaspekten) ist es aber bei Regenwetter nicht immer möglich, den gesamten Mischwasserabfluss auch zur Kläranlage weiter zu leiten. Ein gewisser Anteil des Mischwasserabflusses muss daher entweder im Kanalnetz zwischengespeichert oder aber über Entlastungsbauwerke direkt in die Einleitgewässer abgeschlagen werden, woraus erhebliche Gewässerbelastungen resultieren können. Hinzu kommt, dass die Teilsysteme "Kanalnetz" und "Kläranlage" meist noch unabhängig voneinander betrieben werden, sodass es zu Entlastungsereignissen kommen kann, obwohl zur gleichen Zeit an anderer Stelle im Gesamtsystem noch freie Speicher- und/oder Behandlungskapazitäten zur Verfügung stehen. Deshalb gewinnen seit einigen Jahren sog. integrierte Ansätze an Bedeutung, die versuchen, Kanalnetz und Kläranlage mit Hilfe von MSR-Technik in Abhängigkeit der jeweils aktuellen Leistungsfähigkeit dieser Teilsysteme zu betreiben, um dadurch die Emissionen und ggf. die Kosten zu verringern. Man kann daher in der neueren Literatur zahlreiche Veröffentlichungen zu diesem Themenkomplex finden, die sich jedoch bisher praktisch nur mit Durchlaufkläranlagen beschäftigt haben. SBR-Kläranlagen wurden diesbezüglich bisher vernachlässigt, obwohl diese Technologie prinzipiell durch eine ganze Reihe von Vorteilen gekennzeichnet ist. Zahlreiche großtechnische SBR-Kläranlagen belegen zudem, dass sich dieses Verfahren auch sehr gut zur Mischwasserbehandlung eignet. Wegen dieser Randbedingungen erschien es sinnvoll, auch integrierte MSR-Strategien für SBR-Anlagen zu entwickeln. Im Rahmen dieser Arbeit wurden daher auf der 2000 in Betrieb genommenen SBR-Kläranlage Messel (5.500 EW) zahlreiche Untersuchungen durchgeführt, um den Nutzen und die Machbarkeit derartiger Konzepte zu untersuchen. Diese nach den üblichen Regelwerken für Nitrifikation, Denitrifikation, biologische Phosphorelimination und aerobe Schlammstabilisierung bemessene Kläranlage ist typisch für eine Reihe weiterer ähnlicher Anlagen. Um das Potenzial eines integrierten Ansatzes zu ermitteln, wurden detaillierte Kanalnetz- und Kläranlagenmodelle erstellt und kalibriert, mit denen zahlreiche Untersuchungen durchgeführt wurden. Ferner wurden die umfangreichen Betriebsdaten ausgewertet. Dabei konnte festgestellt werden, dass die Anlage über beachtliche Reserven verfügt, die z.B. für Zwecke einer erhöhten Mischwasserbehandlung genutzt werden könnten. Mit Hilfe der Modelle und ergänzender großtechnischer Untersuchungen wurden anschließend verschiedene integrierte MSR-Strategien am Computer entwickelt und bezüglich ihres Nutzens bewertet. Die Ergebnisse der integrierten Simulation zeigen beispielsweise, dass es mit Hilfe dieser Strategien möglich erscheint, die Zuflussmenge zur Kläranlage um bis zu 50 % über den Planungswert zu erhöhen, ohne die strengen Überwachungswerte zu überschreiten. Die Ergebnisse zeigen weiterhin, dass es durch eine Erhöhung der Zuflussmenge möglich ist, die Gesamtemissionen aus Kanalnetz und Kläranlage - v.a. bezüglich CSB - und die Anzahl der Entlastungsereignisse deutlich zu verringern. Eine durchgeführte Kostenbetrachtung verdeutlicht, dass ein derartiger Ansatz - trotz der geringen Größe dieser Anlage - nicht nur ökologisch, sondern auch ökonomisch sinnvoll ist. Damit erscheint es wünschenswert, dass zukünftig auch die großtechnische Umsetzung integrierter Ansätze für SBR-Kläranlagen und Mischkanalisationen in Angriff genommen wird, um die bisher gewonnenen Erkenntnisse in der Praxis zu verifizieren.
Wärmedämm-Verbundsysteme (WDVS) zählen gegenwärtig zu den am meisten eingesetzten Fassadenkonstruktionen, dennoch oder gerade deswegen stoßen die Systeme in der Architektur auf Ablehnung. Auf der technischen Seite wird mit der Anfälligkeit für Algen-/Pilzwuchs, Spechtlöchern oder dem Brandschutz argumentiert. Die architektonische Seite wettert gegen das unwahrhaftige Erscheinungsbild einer massiven Putzwand und äußert Bedenken beim Einsatz im Bestand. Auch im Feuilleton regt sich Widerstand und Angst gewohnte Stadtbilder zu verlieren. Trotz der Probleme können sich Architekten unter den gegebenen politischen Rahmenbedingungen und Kostenzwängen nicht mehr dem WDV-System entziehen. Die Moraldiskussion, die sich unmittelbar an der Fassade abarbeitet und ebenso problematische Verbundbauweisen ausblendet, verdeutlicht, dass es sich vorwiegend um ein Wahrnehmungsproblem handelt. WDV-Systeme gelten als unecht, billig und gestaltungsarm. Damit sich diese architektonische Wahrnehmung von WDV-Systemen nachhaltig verändert, werden systematisch Möglichkeiten und Potenziale vorgestellt, um WDVS zur Bedingung der Gestaltung werden zu lassen. In diesem Sinne interpretiert die Arbeit WDV-Systeme als architektonisches Mittel, das einer gestalterischen Logik folgt, welche sich unmittelbar aus den Gegebenheiten des Systems heraus entwickelt.
In the first part of the thesis we develop the theory of standard bases in free modules over (localized) polynomial rings. Given that linear equations are solvable in the coefficients of the polynomials, we introduce an algorithm to compute standard bases with respect to arbitrary (module) monomial orderings. Moreover, we take special care to principal ideal rings, allowing zero divisors. For these rings we design modified algorithms which are new and much faster than the general ones. These algorithms were motivated by current limitations in formal verification of microelectronic System-on-Chip designs. We show that our novel approach using computational algebra is able to overcome these limitations in important classes of applications coming from industrial challenges.
The second part is based on research in collaboration with Jason Morton, Bernd Sturmfels and Anne Shiu. We devise a general method to describe and compute a certain class of rank tests motivated by statistics. The class of rank tests may loosely be described as being based on computing the number of linear extensions to given partial orders. In order to apply these tests to actual data we developed two algorithms and used our implementations to apply the methodology to gene expression data created at the Stowers Institute for Medical Research. The dataset is concerned with the development of the vertebra. Our rankings proved valuable to the biologists.
Anwenderunterstützung bei der Nutzung und Überprüfung von optischen 3D-Oberflächenmessgeräten
(2019)
Technische Oberflächen werden mit immer komplexeren, dreidimensionalen Strukturen hergestellt, um gewünschte Funktionseigenschaften zu erhalten. Mit taktilen Rauheitsmessgeräten lassen sich diese allerdings nur schwer charakterisieren. Besser eignen sich hierfür optische Rauheitsmessgeräte, die die Oberfläche flächenhaft erfassen können. Diese unterscheiden sich allerdings in ihren Eigenschaften und Einstellungen von den in der Industrie bekannten und bewährten taktilen Systemen. Daher wird in dieser Arbeit ein Assistenzsystem vorgestellt, das die Anwender unterstützt, ihr optisches Rauheitsmessgerät sicher und normgerecht nach DIN EN ISO 25178 einzusetzen.Das Assistenzsystem führt Schritt für Schritt durch die Planung einer Messaufgabe, durch die Überprüfung zur Kontrolle der korrekten Funktion des Gerätes und der Eignung für die Messaufgabe, und im letzten Schritt durch die normgerechte Auswertung der Messung, um die gewünschten 3D-Oberflächenkennwerte zu erhalten.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
Esse aut non esse - Affirmation und Subversion intergeschlechtlicher Existenzen in der Schule
(2024)
Am 10.10.17 beschloss das Bundesverfassungsgericht in Karlsruhe, ein sog. drittes Geschlecht für den Eintrag im Geburtenregister einzuführen. Intersexuellen Menschen sollte damit ermöglicht werden, ihre geschlechtliche Identität eintragen zu lassen und damit Teilhabe am gesellschaftlichen Leben zu ermöglichen. Zur Begründung verwies das Gericht auf das im Grundgesetz geschützte Persönlichkeitsrecht. Die aktuell geltende Regelung sei mit den grundgesetzlichen Anforderungen insoweit nicht vereinbar, als dass es neben „weiblich" oder „männlich" keine dritte Möglichkeit bietet, ein Geschlecht eintragen zu lassen. Der Gesetzgeber musste nun bis Ende 2018 eine Neuregelung schaffen, in der sie eine Bezeichnung für ein drittes Geschlecht aufnimmt – „divers“.
Schulen als bedeutende soziale Einrichtungen sind nun gefordert, will man die Leitperspektiven der Diversität im Bildungsbereich und damit in der Gesellschaft beibehalten. Schulen stellen Arbeitsfeld, Lebenswelt und Lernumfeld für viele Generationen dar und besitzen damit immer eine gesellschaftliche Vorbildfunktion, wobei Diversität zum stets allgegenwärtigen Imperativ geworden ist. Als Avantgarde müssen Schulen deshalb gerade in gesellschaftlichen Fragen voranschreiten und gleichsam Verantwortung für die Entwicklungen und Lösung wichtiger ethischer Fragen übernehmen ohne dabei die Vermittlung traditioneller Werte und Normen als eine ihrer zentralen Funktionen aufzugeben. Diesen anspruchsvollen Spagat zu vollziehen bleibt konstante Herausforderung der Schulentwicklung.
Mit Vielfalt umgehen bedeutet im schulischen Kontext vor allem neben gegenseitiger Anerkennung und Respekt auch, dass das Zusammenleben der Menschen durch die Eröffnung alternativer Wahrnehmungs-, Denk- und Handlungsansätze bereichert wird. Der Beschluss des Bundesverfassungsgerichts ist folglich in besonderer Weise an Schulen gerichtet.
Doch wie kann dieser Weg erfolgreich und nachhaltig eingeschlagen werden?
Bei Betrachtung der zahlreichen Publikationen zum Thema Gender und Schule sowie der wenigen Entwicklungen in den letzten Jahren wird augenscheinlich, dass das deutsche Schulsystem für die Umsetzung der Entscheidung des Bundesverfassungsgerichts vom 10.10.2017 (1BvR 2019/16) systemisch und strukturell nicht vorbereitet ist.
Daraus lassen sich die Forschungsfragen dieser Promotionsarbeit formulieren:
- Wie verhält sich Schule zum Diskurs des dritten Geschlechts?
- Was sind aus Sicht schulischer Akteure Gelingensbedingungen für eine erfolgreiche Sichtbarmachung des dritten Geschlechts an Schulen?
Es soll in der Arbeit mittels empirischer Untersuchungen eingehend verdeutlicht werden, welche Gelingens- bzw. Misslingensfaktoren bei der Implementierung eines dritten Geschlechts eine Rolle spielen und unter welchen Voraussetzungen überhaupt Schule als Organisation auf die Sichtbarmachung intergeschlechtlicher Kinder und Jugendliche vorbereit ist.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
Within toxicology, reproductive toxicology is a highly relevant and socially particularly sensitive field.
It encompasses all toxicological processes within the reproductive cycle and therefore includes many effects and modes of action. This makes the assessment of reproductive toxicity very challenging despite the established in vivo studies. In addition, the in vivo studies are very demanding both in terms of their conduct and interpretation, and there is scope for decision-making on both aspects. As a result, the interpretation of study results may vary from laboratory to laboratory. For the final classification, the assessment of relevance for men is decisive. The problem here is that relatively little is known about the species differences between men and the
usual test animals (rat and rabbit). The rabbit in particular has hardly been researched in molecular biology. The aim of the dissertation was to develop approaches for a better assessment of
reproductive toxicity, with two different foci: The first aim was to investigate species differences, focusing on the expression of xenobiotic transporters during ontogeny. Xenobiotic transporters, of the superfamily of ATP-binding cassette transporters (ABC) or solute carriers (SLC), are known to transport exogenous substances in
addition to their endogenous substrates and therefore play an important role in the absorption, distribution and excretion of xenobiotics. Species differences in kinetics can in turn have a major
impact on toxic effects. In the study, the expression of 20 xenobiotic transporters during ontogeny was investigated at the mRNA level in the liver, kidney and placenta of rats and rabbits and compared with that of men. This revealed major differences in the expression of the transporters between the species. However, further studies on the functionality and activity of the xenobiotic transporters are needed to fully assess the kinetic impact of the observed species differences. Overall, the study provides a valid starting point for further systematic investigations of species differences at the protein level. Furthermore, it provides previously unavailable data on the expression of xenobiotic transporters during ontogeny in rabbits, which is an important step in the molecular biological study of this species.
The second part focused on investigating the predictive power of in silico models for reproductive
toxicology in relation to pesticides. Both the commercial and the freely available models did not
perform adequately in the evaluation. Three reasons could be identified for this: 1. many pesticides
are outside the chemical space of the models, 2. different definition/assessment of reproductive
toxicity and 3. problems in detecting similarity between molecules. To solve these problems, an
extension of the databases on reproductive toxicity in relation to pesticides, respecting a uniform
nomenclature, is needed. Furthermore, endpoint-specific models should be developed which, in
addition to the usual structure-based fingerprints, use descriptors for, for example, biological
activity.
Overall, the dissertation shows how essential it is to further research the modes of action of
reproductive toxicity. This knowledge is necessary to correctly assess in vivo studies and their
relevance to men, as well as to improve the predictive power of in silico models by incorporating
this information.
Mechanische Eigenschaften von Nanoverbundwerkstoffen aus Epoxydharz und keramischen Nanoparktikeln
(2006)
Diese Arbeit zielt auf die Entwicklung duroplastischer Nanoverbundwerkstoffe mit hoher
mechanischer und tribologischer Leistungsfähigkeit. Die Basismaterialien sind
Epoxydharz als Matrix sowie keramische Nanopartikel aus Aluminiumoxid und Titandioxid
als Verstärkungsmaterial. Die systematische Variation von Partikelvolumengehalten
und die Herstellung von Nanoverbundwerkstoffen in Serien führen zum Ziel.
Aus diesen Serien lassen sich die für ein gewünschtes Eigenschaftsprofil optimalen
Partikelgehalte ableiten.
Die praxisorientierte Herstellung von Nanoverbundwerkstoffen erfordert die Anwendung
industrienaher und skalierbarer Methoden zur Einarbeitung der pulverförmigen,
agglomerierten Nanopartikel in das flüssige Harz, gefolgt von deren Dispergierung. Dazu
wurden mechanische Dispergiertechnologien ausgewählt und eingesetzt, welche
die Agglomerate durch Einwirkung hoher Kräfte zerkleinern. Dissolver und Tauchmühlen
erwiesen sich als geeignete Maschinen, denn sie erlauben die Dispergierung unter
exakt kontrollierbaren Prozessbedingungen und bewirken eine homogene Verteilung
kleiner Teilchen im flüssigen Epoxydharz, ein Zustand, der auch im ausgehärteten
Material erhalten bleibt. Diese Arbeit stellt geeignete Dispergierprozesse für Dissolver
und Tauchmühle zur Verfügung.
Die so hergestellten Serien an Nanoverbundwerkstoffen wurden umfangreich materialwissenschaftlich
charakterisiert und nach Ursachen für die Wirkung der eingebrachten
Nanopartikel gesucht. Es ergeben sich bei guter Dispergierung deutliche Verbesserungen
der mechanischen Eigenschaften, wobei geringe Nanopartikelgehalte (<5 Vol.%)
bereits ausreichen, um diese zu erzielen. Abhängig vom Partikelgehalt demonstrieren
die Materialien Steigerungen des Elastizitätsmoduls und der Festigkeit bei sehr geringen
Einbußen an Duktilität. Die eingehende Untersuchung der bruchmechanischen
Eigenschaften mittels LEBM liefert Zähigkeitsanstiege (KIc, GIc, CTOD), die mit einer
üblichen Kautschuk-Modifizierung durchaus vergleichbar sind, ohne jedoch deren
Nachteile in Form eines Modulabfalles in Kauf nehmen zu müssen. Keramische Nanopartikel
leisten damit die Auflösung des Steifigkeit-/Zähigkeits-Paradigmas, wodurch
nun Werkstoffe entwickelbar sind, die sich durch verbesserte Bruchzähigkeit bei gleichzeitiger
Steifigkeits- und Festigkeitserhöhung auszeichnen. Mit diesen Charakteristiken
geht auch die Erhöhung der Glasübergangstemperatur und Temperaturstabilität einher.
Unter dynamischer Belastung behindern Nanopartikel sogar die Ausbreitung von
Rissen im Kunststoff und heben damit den Widerstand gegen Ermüdungsrissausbreitung
auf ein höheres Niveau. Weiterhin verbessern geringe Nanopartikelgehalte (0,5-2
Vol%) den Verschleißwiderstand von Epoxydharz unter Gleitverschleißbedingungen.
Fraktographische Untersuchungen ergaben Hinweise auf die verantwortlichen Verstärkungsmechanismen.
Die Nanopartikel bewirken eine Superposition verschiedener
energiedissipativer Mechanismen im Epoxydharz, z.B. Crack pinning, Debonding,
plastische Deformation der Matrix, Mikrorissbildung, Rissablenkung und Ausrundung
der Riss-Spitze. Diese stehen in engem Zusammenhang zur Mikrostruktur der Materialien.
Den Fingerabdruck dieser Mikrostruktur lieferten mikroskopische Methoden
(REM, TEM, AFM). Sie beweisen, dass bereits das Epoxydharz eine komplexe Struktur
aufweist, die sich freilich durch den Einfluss der Nanopartikel und die resultierenden
Grenzflächenwechselwirkungen stark ändert. Um Zusammenhänge zu verdeutlichen,
wurden mikrostrukturelle und mechanische Eigenschaften korreliert, und teilweise
analytisch modelliert (Young’scher Modul). Als hilfreich erwiesen sich hier ergänzende
Untersuchungen der mikromechanischen Eigenschaften in kleinsten Bereichen der
Werkstoffe mittels Nanoindentation.
Im Hinblick auf traditionelle und seit langem bewährte Verbundwerkstoff-Rezepturen
hat sich gezeigt, dass Nanopartikeln ihre Verstärkungswirkung auch in Kombination
mit Mikropartikel (Glaskugeln, CaSiO3) bewahren, sodass bei vergleichbarem oder
erhöhtem Nutzen der Mikropartikelanteil reduziert werden kann.
Aufgrund der überzeugenden Eigenschaften bieten duroplastische Nanoverbundwerkstoffe
ein großes Anwendungspotenzial. Sie sind als tribologisch und mechanisch widerstandsfähige
Beschichtungen, als Matrizes in faserverstärkten Kompositen oder per
se einsetzbar.
This work focuses on the development of thermosetting nanocomposites with high
mechanical and tribological performance. The materials were chosen to be epoxy
resin as a matrix and ceramic nanoparticles (aluminium oxide and titanium dioxide)
as modifiers. The method of choice for reaching the aim is the systematic variation of
particle volume amounts and the manufacturing of series of nanocomposites, which
allow deducing the wished formulations.
The application oriented manufacturing of nanocomposites necessitates the use of
scalable industrial Methods for working the powdery nanoparticle agglomerates into
the liquid resin, followed by dispersion processes. For this purpose, mechanical dispersion
technologies have been chosen and applied, which break the agglomerates
under high shear forces. The Dissolver and the Torus Mill turned out to be suitable
devices allowing to disperse the particles under controlled processing conditions. This
results in a homogeneous distribution of particles in the liquid epoxy. In fact, the state
of well distributed the particles is preserved also in the cured resin. This work provides
suitable dispersion processes for both the Dissolver and the Torus Mill.
The newly developed nanocomposites were extensively characterized with respect to
their mechanical performance, and also with special attention to the reinforcing effects.
Provided that nanoparticles are well dispersed within the polymer, the mechanical
properties have proved to be strongly enhanced by the particles. Low filler amounts
(< 5 Vol.%) are already sufficient to gain the wished effects. Depending on the filler
volume fraction, the materials demonstrate improvements in modulus and strength
without reducing ductility. The detailed examination of fracture mechanical properties
by means of LEFM revealed toughness increases (KIc, GIc, CTOD) which are comparable
to that of rubber tougheners in epoxy. However, the traditional loss in modulus
in the latter systems is avoided by the use of nanoparticles. Accordingly, the ceramic
nanofillers are able to overcome the stiffness-toughness paradigm, so that materials
feature improved fracture toughness, stiffness and strength simultaneously can now be
developed. These characteristics are accompanied at the same time by an increase in
the glass transition temperature and the temperature stability. Besides, the nanoparticles hinder the propagation of small cracks within the matrix and increase the resistance
to fatigue crack propagation. As a matter of fact, one finds also the wear resistance
being improved under sliding wear conditions.
Examinations on fractured specimen surfaces provided information about the mechanisms
responsible for reinforcement. The nanoparticles generate a superposition of several energy dissipating mechanisms in the epoxy, e.g. crack pinning, debonding,
plastic deformation of the matrix, microcracking, crack deflection and crack tip blunting.
These are closely related to the microstructure of the materials. The characteristic
finger prints of the microstructure could be verified by microscopy methods (SEM,
TEM, AFM). It was proved true, that even in neat epoxy resin a complex microstructure
exists, which is, however, strongly influenced by the nanoparticles and the resulting
interfacial interactions. In order to clarify the relevant relationships, the microstructural
and mechanical properties were correlated. On the basis of the latter, the Young’s
modulus was modelled analytically. It proved to be helpful to supplementary conduct
micromechanical properties examinations by nanoindentation in small areas of the
material.
With respect to traditional and approved composite formulations, it was shown that the
nanoparticles preserve their reinforcing capabilities if combined with micro-fillers (glass
spheres, CaSiO3). Therefore, the absolute amount of micro-fillers might now be reduced
at comparable or even improved level of the material’s mechanical performance.
The persuasive properties of epoxy nanocomposites offer a great potential to be applied
in parts and components. They serve well as coatings with high wear resistance,
as matrices in fibre reinforced composites, and as bulk materials.
Model uncertainty is a challenge that is inherent in many applications of mathematical models in various areas, for instance in mathematical finance and stochastic control. Optimization procedures in general take place under a particular model. This model, however, might be misspecified due to statistical estimation errors and incomplete information. In that sense, any specified model must be understood as an approximation of the unknown "true" model. Difficulties arise since a strategy which is optimal under the approximating model might perform rather bad in the true model. A natural way to deal with model uncertainty is to consider worst-case optimization.
The optimization problems that we are interested in are utility maximization problems in continuous-time financial markets. It is well known that drift parameters in such markets are notoriously difficult to estimate. To obtain strategies that are robust with respect to a possible misspecification of the drift we consider a worst-case utility maximization problem with ellipsoidal uncertainty sets for the drift parameter and with a constraint on the strategies that prevents a pure bond investment.
By a dual approach we derive an explicit representation of the optimal strategy and prove a minimax theorem. This enables us to show that the optimal strategy converges to a generalized uniform diversification strategy as uncertainty increases.
To come up with a reasonable uncertainty set, investors can use filtering techniques to estimate the drift of asset returns based on return observations as well as external sources of information, so-called expert opinions. In a Black-Scholes type financial market with a Gaussian drift process we investigate the asymptotic behavior of the filter as the frequency of expert opinions tends to infinity. We derive limit theorems stating that the information obtained from observing the discrete-time expert opinions is asymptotically the same as that from observing a certain diffusion process which can be interpreted as a continuous-time expert. Our convergence results carry over to convergence of the value function in a portfolio optimization problem with logarithmic utility.
Lastly, we use our observations about how expert opinions improve drift estimates for our robust utility maximization problem. We show that our duality approach carries over to a financial market with non-constant drift and time-dependence in the uncertainty set. A time-dependent uncertainty set can then be defined based on a generic filter. We apply this to various investor filtrations and investigate which effect expert opinions have on the robust strategies.
In the presented work, I evaluate if and how Virtual Reality (VR) technologies can be used to support researchers working in the geosciences by providing immersive, collaborative visualization systems as well as virtual tools for data analysis. Technical challenges encountered in the development of theses systems are identified and solutions for these are provided.
To enable geologists to explore large digital terrain models (DTMs) in an immersive, explorative fashion within a VR environment, a suitable terrain rendering algorithm is required. For realistic perception of planetary curvature at large viewer altitudes, spherical rendering of the surface is necessary. Furthermore, rendering must sustain interactive frame rates of about 30 frames per second to avoid sensory confusion of the user. At the same time, the data structures used for visualization should also be suitable for efficiently computing spatial properties such as height profiles or volumes in order to implement virtual analysis tools. To address these requirements, I have developed a novel terrain rendering algorithm based on tiled quadtree hierarchies using the HEALPix parametrization of a sphere. For evaluation purposes, the system is applied to a 500 GiB dataset representing the surface of Mars.
Considering the current development of inexpensive remote surveillance equipment such as quadcopters, it seems inevitable that these devices will play a major role in future disaster management applications. Virtual reality installations in disaster management headquarters which provide an immersive visualization of near-live, three-dimensional situational data could then be a valuable asset for rapid, collaborative decision making. Most terrain visualization algorithms, however, require a computationally expensive pre-processing step to construct a terrain database.
To address this problem, I present an on-the-fly pre-processing system for cartographic data. The system consists of a frontend for rendering and interaction as well as a distributed processing backend executing on a small cluster which produces tiled data in the format required by the frontend on demand. The backend employs a CUDA based algorithm on graphics cards to perform efficient conversion from cartographic standard projections to the HEALPix-based grid used by the frontend.
Measurement of spatial properties is an important step in quantifying geological phenomena. When performing these tasks in a VR environment, a suitable input device and abstraction for the interaction (a “virtual tool”) must be provided. This tool should enable the user to precisely select the location of the measurement even under a perspective projection. Furthermore, the measurement process should be accurate to the resolution of the data available and should not have a large impact on the frame rate in order to not violate interactivity requirements.
I have implemented virtual tools based on the HEALPix data structure for measurement of height profiles as well as volumes. For interaction, a ray-based picking metaphor was employed, using a virtual selection ray extending from the user’s hand holding a VR interaction device. To provide maximum accuracy, the algorithms access the quad-tree terrain database at the highest available resolution level while at the same time maintaining interactivity in rendering.
Geological faults are cracks in the earth’s crust along which a differential movement of rock volumes can be observed. Quantifying the direction and magnitude of such translations is an essential requirement in understanding earth’s geological history. For this purpose, geologists traditionally use maps in top-down projection which are cut (e.g. using image editing software) along the suspected fault trace. The two resulting pieces of the map are then translated in parallel against each other until surface features which have been cut by the fault motion come back into alignment. The amount of translation applied is then used as a hypothesis for the magnitude of the fault action. In the scope of this work it is shown, however, that performing this study in a top-down perspective can lead to the acceptance of faulty reconstructions, since the three-dimensional structure of topography is not considered.
To address this problem, I present a novel terrain deformation algorithm which allows the user to trace a fault line directly within a 3D terrain visualization system and interactively deform the terrain model while inspecting the resulting reconstruction from arbitrary perspectives. I demonstrate that the application of 3D visualization allows for a more informed interpretation of fault reconstruction hypotheses. The algorithm is implemented on graphics cards and performs real-time geometric deformation of the terrain model, guaranteeing interactivity with respect to all parameters.
Paleoceanography is the study of the prehistoric evolution of the ocean. One of the key data sources used in this research are coring experiments which provide point samples of layered sediment depositions at the ocean floor. The samples obtained in these experiments document the time-varying sediment concentrations within the ocean water at the point of measurement. The task of recovering the ocean flow patterns based on these deposition records is a challenging inverse numerical problem, however.
To support domain scientists working on this problem, I have developed a VR visualization tool to aid in the verification of model parameters by providing simultaneous visualization of experimental data from coring as well as the resulting predicted flow field obtained from numerical simulation. Earth is visualized as a globe in the VR environment with coring data being presented using a billboard rendering technique while the
time-variant flow field is indicated using Line-Integral-Convolution (LIC). To study individual sediment transport pathways and their correlation with the depositional record, interactive particle injection and real-time advection is supported.
In this dissertation we consider complex, projective hypersurfaces with many isolated singularities. The leading questions concern the maximal number of prescribed singularities of such hypersurfaces in a given linear system, and geometric properties of the equisingular stratum. In the first part a systematic introduction to the theory of equianalytic families of hypersurfaces is given. Furthermore, the patchworking method for constructing hypersurfaces with singularities of prescribed types is described. In the second part we present new existence results for hypersurfaces with many singularities. Using the patchworking method, we show asymptotically proper results for hypersurfaces in P^n with singularities of corank less than two. In the case of simple singularities, the results are even asymptotically optimal. These statements improve all previous general existence results for hypersurfaces with these singularities. Moreover, the results are also transferred to hypersurfaces defined over the real numbers. The last part of the dissertation deals with the Castelnuovo function for studying the cohomology of ideal sheaves of zero-dimensional schemes. Parts of the theory of this function for schemes in P^2 are generalized to the case of schemes on general surfaces in P^3. As an application we show an H^1-vanishing theorem for such schemes.
Accurate path tracking control of tractors became a key technology for automation in agriculture. Increasingly sophisticated solutions, however, revealed that accurate path tracking control of implements is at least equally important. Therefore, this work focuses on accurate path tracking control of both tractors and implements. The latter, as a prerequisite for improved control, are equipped with steering actuators like steerable wheels or a steerable drawbar, i.e. the implements are actively steered. This work contributes both new plant models and new control approaches for those kinds of tractor-implement combinations. Plant models comprise dynamic vehicle models accounting for forces and moments causing the vehicle motion as well as simplified kinematic descriptions. All models have been derived in a systematic and automated manner to allow for variants of implements and actuator combinations. Path tracking controller design begins with a comprehensive overview and discussion of existing approaches in related domains. Two new approaches have been proposed combining the systematic setup and tuning of a Linear-Quadratic-Regulator with the simplicity of a static output feedback approximation. The first approach ensures accurate path tracking on slopes and curves by including integral control for a selection of controlled variables. The second approach, instead, ensures this by adding disturbance feedforward control based on side-slip estimation using a non-linear kinematic plant model and an Extended Kalman Filter. For both approaches a feedforward control approach for curved path tracking has been newly derived. In addition, a straightforward extension of control accounting for the implement orientation has been developed. All control approaches have been validated in simulations and experiments carried out with a mid-size tractor and a custom built demonstrator implement.
To support scientific work with large and complex data the field of scientific visualization emerged in computer science and produces images through computational analysis of the data. Frameworks for combination of different analysis and visualization modules allow the user to create flexible pipelines for this purpose and set the standard for interactive scientific visualization used by domain scientists.
Existing frameworks employ a thread-parallel message-passing approach to parallel and distributed scalability, leaving the field of scientific visualization in high performance computing to specialized ad-hoc implementations. The task-parallel programming paradigm proves promising to improve scalability and portability in high performance computing implementations and thus, this thesis aims towards the creation of a framework for distributed, task-based visualization modules and pipelines.
The major contribution of the thesis is the establishment of modules for Merge Tree construction and (based on the former) topological simplification. Such modules already form a necessary first step for most visualization pipelines and can be expected to increase in importance for larger and more complex data produced and/or analysed by high performance computing.
To create a task-parallel, distributed Merge Tree construction module the construction process has to be completely revised. We derive a novel property of Merge Tree saddles and introduce a novel task-parallel, distributed Merge Tree construction method that has both good performance and scalability. This forms the basis for a module for topological simplification which we extend by introducing novel alternative simplification parameters that aim to reduce the importance of prior domain knowledge to increase flexibility in typical high performance computing scenarios.
Both modules lay the groundwork for continuative analysis and visualization steps and form a fundamental step towards an extensive task-parallel visualization pipeline framework for high performance computing.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
Crowd condition monitoring concerns the crowd safety and concerns business performance metrics. The research problem to be solved is a crowd condition estimation approach to enable and support the supervision of mass events by first-responders and marketing experts, but is also targeted towards supporting social scientists, journalists, historians, public relations experts, community leaders, and political researchers. Real-time insights of the crowd condition is desired for quick reactions and historic crowd conditions measurements are desired for profound post-event crowd condition analysis.
This thesis aims to provide a systematic understanding of different approaches for crowd condition estimation by relying on 2.4 GHz signals and its variation in crowds of people, proposes and categorizes possible sensing approaches, applies supervised machine learning algorithms, and demonstrates experimental evaluation results. I categorize four sensing approaches. Firstly, stationary sensors which are sensing crowd centric signals sources. Secondly, stationary sensors which are sensing other stationary signals sources (either opportunistic or special purpose signal sources). Thirdly, a few volunteers within the crowd equipped with sensors which are sensing other surrounding crowd centric device signals (either individually, in a single group or collaboratively) within a small region. Fourthly, a small subset of participants within the crowd equipped with sensors and roaming throughout a whole city to sense wireless crowd centric signals.
I present and evaluate an approach with meshed stationary sensors which were sensing crowd centric devices. This was demonstrated and empirically evaluated within an industrial project during three of the world-wide largest automotive exhibitions. With over 30 meshed stationary sensors in an optimized setup across 6400m2 I achieved a mean absolute error of the crowd density of just 0.0115
people per square meter which equals to an average of below 6% mean relative error from the ground truth. I validate the contextual crowd condition anomaly detection method during the visit of chancellor Mrs. Merkel and during a large press conference during the exhibition. I present the approach of opportunistically sensing stationary based wireless signal variations and validate this during the Hannover CeBIT exhibition with 80 opportunistic sources with a crowd condition estimation relative error of below 12% relying only on surrounding signals in influenced by humans. Pursuing this approach I present an approach with dedicated signal sources and sensors to estimate the condition of shared office environments. I demonstrate methods being viable to even detect low density static crowds, such as people sitting at their desks, and evaluate this on an eight person office scenario. I present the approach of mobile crowd density estimation by a group of sensors detecting other crowd centric devices in the proximity with a classification accuracy of the crowd density of 66 % (improvement of over 22% over a individual sensor) during the crowded Oktoberfest event. I propose a collaborative mobile sensing approach which makes the system more robust against variations that may result from the background of the people rather than the crowd condition with differential features taking information about the link structure between actively scanning devices, the ratio between values observed by different devices, ratio of discovered crowd devices over time, team-wise diversity of discovered devices, number of semi- continuous device visibility periods, and device visibility durations into account. I validate the approach on multiple experiments including the Kaiserslautern European soccer championship public viewing event and evaluated the collaborative mobile sensing approach with a crowd condition estimation accuracy of 77 % while outperforming previous methods by 21%. I present the feasibility of deploying the wireless crowd condition sensing approach to a citywide scale during an event in Zurich with 971 actively sensing participants and outperformed the reference method by 24% in average.
Diese Arbeit beschreibt die Entwicklung, Realisierung und Optimierung eines hochempfindlichen, derivativen Laserabsorptionsspektrometers zur Messung extrem schwacher Absorptionslinien von Molekülen in der Gasphase. Der zugängliche Wellenlängenbereich im nahen Infrarot erstreckt sich von etwa 800nm bis 1600nm. Als Lasersystem für das Spektrometer wurde ein Diodenlaser mit externem Littman-Resonator und einem großen, modensprungfreien Durchstimmbereich verwendet. Zur Erreichung der bestmöglichen Empfindlichkeit wurden die drei existierenden modulationsspektroskopischen Methoden, die 1-Ton-, die 2-Ton- und die Wellenlängen-Modulationsspektroskopie, miteinander verglichen. Dieser Vergleich wurde erstmals nicht nur im Hinblick auf die Linienform, Signalgröße und Detektionsfrequenz durchgeführt, sondern auch unter Berücksichtigung der möglichen Modulationstechniken (Laserdiodenstrom, externer elektrooptischer Modulator und Verstimmen des Laserresonators) und der Unterdrückung des Untergrundes, hervorgerufen durch Interferenzstrukturen (Fringes). Durch eine elektronische Normierung des Detektorsignals auf einen Referenzlichtstrahl wird das Meßsignal unabhängig von der Intensität und dem Intensitätsrauschen des Lasers. Weiterhin wurde die Möglichkeit untersucht, die Vielfachreflexionszelle mit 50m Absorptionsweg durch einen optischen Resonator hoher Güte zu ersetzen. Dieses Verfahren, ähnlich der Cavity-Ring-Down-Spektroskopie (CRDS), konnte mit der Wellenlängen-Modulationstechnik kombiniert werden. Mit diesem Laserabsorptionsspektrometer gelang es erstmals, das Absorptionsspektrum von Ozon im Bereich von 6433 bis 6669 Wellenzahlen mit mehr als 3000 Linien aufzunehmen. Um diese Messung zu ermöglichen wurde eine Methode zur Präparation und Handhabung von reinem Ozon gefunden und ein Verfahren zur Unterscheidung der Ozon-Linien von den Absorptionslinien der Reaktionsprodukte und Verunreinigungen wie z.B. CO2, H2O, H2O2 und verschiedenen Kohlenwasserstoffen entwickelt.
In der vorliegenden Arbeit wurden die Verbesserungsmöglichkeiten der Mikro- und Ultrafiltration durch Ultraschall untersucht. Für die Analyse möglicher Mechanismen der Ultraschalleinkopplung, die zu einer Verbesserung der Membranfiltration führen könnten, wurden wichtige Erkenntnisse aus den beiden Technologiefeldern (Ultraschalltechnik und Membranfiltration) zusammengetragen. Für die Vielzahl der Ansätze zur Nutzung des Ultraschalls in der Membranfiltration wurde eine Systematik entwickelt. Zahlreiche Ansätze wurden in orientierenden Experimenten untersucht und bewertet. Ein wichtiger Aspekt bei der Bewertung der Methoden bestand in der Skalierbarkeit der Technologiekombinationen. Als Hauptakteure der Reinigungswirkung wurden gut sichtbare Bläschen in der Größenordnung von 10-500 µm identifiziert. Die erfolgreichste Methode stellt die durch Ultraschallreinigung unterstützte Rückspülung dar. Auf Basis dieser Erkenntnisse wurde eine Übertragung der Ultraschallreinigung auf ein handelsübliches Kapillarmembranmodul durchgeführt. Bei ersten Filtrationsversuchen mit natürlichem Oberflächenwasser konnten Schäden an der Membran festgestellt werden, die auf eine lokale Kavitationsstruktur an der Ankopplungsstelle des Ultraschallwandlers zurückzuführen waren. Bei geringeren Ultraschallleistungen und bei der Nutzung höherer Frequenzen traten keine Schäden an der Membran auf. Im Vergleich zu einem Referenzmodul konnten deutliche Verbesserungen durch die Einkopplung des Ultraschalls an verschiedenen Stoffsystemen nachgewiesen werden. Die Arbeit schließt mit Vorschlägen für Membranmodule mit integriertem Leistungsultraschall, die aus technischer Sicht empfehlenswert erscheinen.
Im Rahmen dieser Doktorarbeit wurden neue katalytische Methoden zur Aktivierung von Kohlenstoffdioxid und dessen Derivate entwickelt, die eine abfallfreie Nutzung von CO2 als C1-Baustein in C-C-Bindungsknüpfungen erlauben.
Die Entwicklung einer abfallfreien Hydroxymethylierung terminaler Alkine demonstriert ein innovatives Konzept zur nachhaltigen Nutzung von CO2 als C1-Baustein, ohne die damit einhergehende Salzabfallbildung konventioneller Verfahren. Hierbei wurden terminale Alkine in einem ersten Schritt in Gegenwart der milden Aminbase 2,2,6,6-Tetramethylpiperidin katalytisch C-H-carboxyliert. Durch eine anschließende katalytische Hydrierung der Ammoniumpropiolate zu den korrespondierenden Alkoholen unter Freisetzung der eingesetzten Aminbase stellt Wasser das einzige Abfallprodukt dieser Umsetzung dar. Die industrielle Anwendbarkeit dieses neuen Konzepts wurde in einem Kooperationsprojekt mit der BASF SE durch die Entwicklung eines neuen, nachhaltigen Verfahrens zur Darstellung von 1,4-Butandiol aus Acetylen und CO2 gezeigt. Essentieller Schritt bei diesem Verfahren ist die Veresterung des Dikaliumsuccinats unter CO2-Druck mit Methanol, wobei je zwei Äquivalente KHCO3 und HK2PO4 anfallen. Durch thermische Behandlung lässt sich aus diesem Gemisch die ursprüngliche Base K3PO4 regenerieren, sodass wiederum kein Salzabfall anfällt.
Darüber hinaus wurde durch die Entwicklung einer hocheffizienten Methode zur stereoselektiven Darstellung biologisch aktiver (E)-beta-Alkoxyacrylate ausgehend von terminalen Alkinen und Dialkylcarbonaten die nachhaltige Nutzung eines Kohlensäurederivats demonstriert. Diese Alkoxid-katalysierte Transformation zeichnet sich durch eine vollständige Atomeffizienz und einen hervorragenden E-Faktor von 5.2 aus.
Des Weiteren konnte ein Protokoll zur Darstellung langkettiger unsymmetrischer Alkylether mittels einer reduktiven Veretherung aus nachwachsenden Rohstoffen ausgearbeitet werden. Die entwickelte Methode erlaubt auch Umsetzungen von Fettsäure-/ester-Gemischen wie Rapsölmethylester (RME) oder Tallöl. Hierdurch lassen sich komplexe Stoffgemische aus nachwachsenden Rohstoffen in einheitliche Produkte überführen.
Im letzten Teilprojekt dieser Arbeit wurde eine effiziente und minutenschnelle Methode zur Spaltung von 8-Aminochinolinamiden (Daugulis-Amide) unter Mikrowellen-Bedingungen entwickelt. In Kombination mit der vorab von Herrn Katayev und Herrn Pfister entwickelten Methode zur ortho-C-H-Nitrierung aromatischer 8-Aminochinolinamide erlaubt diese den Einsatz von 8-Aminochinolin (Q-NH2) als temporäre dirigierende Schutzgruppe.
Mineralische Dichtungen werden in Kombination mit Kunststoffdichtungsbahnen als Deponieabdichtungen verwendet, um eine umweltverträgliche Ablagerung der Abfälle sicherzustellen. Diese Abdichtungsfunktion kann durch Austrocknung beeinträchtigt werden. Im Rahmen der vorliegenden Arbeit werden Untersuchungen zur Entstehung von Austrocknungsrissen in mineralischen Deponiebasisabdichtungen durchgeführt. Diese Untersuchungen befassen sich einerseits mit dem Wassertransport in der mineralischen Dichtung und andererseits mit dem Zugverhalten des Bodens. Daraus wird ein Risskriterium entwickelt, das zusammen mit den Ergebnissen der numerischen Berechnungen für die Vorhersage der Rissentstehung infolge Austrocknung einer mineralischen Dichtung verwendet wird. Einer der ersten Untersuchungsschritte ist die experimentelle Ermittlung der pF-Kurve. Danach folgen experimentelle Untersuchungen zur Ermittlung der Transportkenngrößen. Der Einfluss einer Änderung der Porenzahl von \Delta e \approx 0.1, einer Temperatur von T=40°C sowie der Änderung des Einbauwassergehaltes auf die Transportkenngrößen wird untersucht. Für die experimentellen Untersuchungen zum Schrumpf- und Zugverhalten werden eigene, neu entwickelte Versuchsstände verwendet. In den Versuchen zum Schrumpfverhalten ergibt sich ein Zusammenhang zwischen den Schrumpfdehnungen der Bodenproben und deren Sättigungsgraden. In den Versuchen zum Zugverhalten werden die Zugeigenschaften des verwendeten bindigen Bodens untersucht. Einflussgrößen sind dabei der Wassergehalt, die Porenzahl, die Temperatur und der Spannungszustand. In den numerischen Berechnungen wird zuerst ein Versuch zur Ermittlung der ungesättigten Wasserleitfähigkeit simuliert. Die numerischen Ergebnisse werden mit den Versuchsergebnissen verglichen, um die Güte der verwendeten hydraulischen Beziehungen zu überprüfen. Danach wird beispielhaft eine numerische Berechnung für die Lösung eines Randwertproblems durchgeführt, in der die Rissentstehung infolge Verdunstung in einer mineralischen Dichtung vorausgesagt wird. Aus den berechneten Beispielen wird ersichtlich, dass die Voraussage der infolge Austrocknung entstehenden Risse numerisch möglich ist und die Risstiefen berechenbar sind.
Die Qualität hoch beanspruchter Oberflächen wird durch ihre Funktion festgelegt. Sogenannte Funktionsflächen sind dabei in vielen Bereichen der modernen Industrie zu finden. Zur Überwachung des Herstellungsprozesses dieser Flächen besteht daher stets ein Bedarf an sensitiver, genauer an die Bedürfnisse der Messaufgabe angepasster, Messtechnik. Ein Verfahren, welches aufgrund seines winkelmessenden Prinzips unempfindlich gegenüber Vibrationen ist und gleichzeitig eine flächige Beurteilung von Oberflächen ermöglicht, ist die winkelaufgelöste Streulichtmesstechnik. Sie nutzt das von einer rauen Oberfläche zurückgestreute Licht zur Charakterisierung. Während der Erwartungswert der gemessenen Streulichtverteilung Aufschluss über die Makrogestalt der Oberfläche liefert, enthält die Breite der Verteilung Informationen über die Mikrostruktur.
Die vorliegende Arbeit betrachtet zwei Themenkomplexe dieser Messtechnik: Zunächst wird die Qualifizierung einer bereits bestehenden Messeinrichtung zur zweidimensionalen Erfassung von Streulicht mittels linearem Diodenarray durchgeführt. Im Anschluss erfolgt die Erweiterung der Messeinrichtung zur Erfassung der dritten Dimension. Dieses Ziel wird durch Verfolgung zweier Ansätze, einem rotierenden Prisma sowie einem flächigen Detektor, erreicht.
The present work investigated three important constructs in the field of psychology: creativity, intelligence and giftedness. The major objective was to clarify some aspects about each one of these three constructs, as well as some possible correlations between them. Of special interest were: (1) the relationship between creativity and intelligence - particularly the validity of the threshold theory; (2) the development of these constructs within average and above-average intelligent children and throughout grade levels; and (3) the comparison between the development of intelligence and creativity in above-average intelligent primary school children that participated in a special program for children classified as “gifted”, called Entdeckertag (ET), against an age-class- and-IQ matched control group. The ET is a pilot program which was implemented in 2004 by the Ministry for Education, Science, Youth and Culture of the state of Rhineland-Palatinate, Germany. The central goals of this program are the early recognition of gifted children and intervention, based on the areas of German language, general science and mathematics, and also to foster the development of a child’s creativity, social ability, and more. Five hypotheses were proposed and analyzed, and reported separately within five chapters. To analyze these hypotheses, a sample of 217 children recruited from first to fourth grade, and between the ages of six and ten years, was tested for intelligence and creativity. Children performed three tests: Standard Progressive Matrices (SPM) for the assessment of classical intelligence, Test of Creative Thinking – Drawing Production (TCT-DP) for the measurement of classical creativity, and Creative Reasoning Task (CRT) for the evaluation of convergent and divergent thinking, both in open problem spaces. Participants were divided according to two general cohorts: Intervention group (N = 43), composed of children participating in the Entdeckertag program, and a non-intervention group (N = 174), composed of children from the regular primary school. For the testing of the hypotheses, children were placed into more specific groups according to the particular hypothesis that was being tested. It could be concluded that creativity and intelligence were not significantly related and the threshold theory was not confirmed. Additionally, intelligence accounted for less than 1% of the variance within creativity; moreover, scores on intelligence were unable to predict later creativity scores. The development of classical intelligence and classical creativity throughout grade levels also presented a different pattern; intelligence grew increasingly and continually, whereas creativity stagnated after the third grade. Finally, the ET program proved to be beneficial for classical intelligence after two years of attendance, but no effect was found for creativity. Overall, results indicate that organizations and institutions such as schools should not look solely to intelligence performance, especially when aiming to identify and foster gifted or creative individuals.
Backward compatibility of class libraries ensures that an old implementation of a library can safely be replaced by a new implementation without breaking existing clients.
Formal reasoning about backward compatibility requires an adequate semantic model to compare the behavior of two library implementations.
In the object-oriented setting with inheritance and callbacks, finding such models is difficult as the interface between library implementations and clients are complex.
Furthermore, handling these models in a way to support practical reasoning requires appropriate verification tools.
This thesis proposes a formal model for library implementations and a reasoning approach for backward compatibility that is implemented using an automatic verifier. The first part of the thesis develops a fully abstract trace-based semantics for class libraries of a core sequential object-oriented language. Traces abstract from the control flow (stack) and data representation (heap) of the library implementations. The construction of a most general context is given that abstracts exactly from all possible clients of the library implementation.
Soundness and completeness of the trace semantics as well as the most general context are proven using specialized simulation relations on the operational semantics. The simulation relations also provide a proof method for reasoning about backward compatibility.
The second part of the thesis presents the implementation of the simulation-based proof method for an automatic verifier to check backward compatibility of class libraries written in Java. The approach works for complex library implementations, with recursion and loops, in the setting of unknown program contexts. The verification process relies on a coupling invariant that describes a relation between programs that use the old library implementation and programs that use the new library implementation. The thesis presents a specification language to formulate such coupling invariants. Finally, an application of the developed theory and tool to typical examples from the literature validates the reasoning and verification approach.
Wie entwickelte sich der europäische Stadtblock von der Antike bis in die Gegenwart und was bedeutet er heute für den urbanen Raum? Dies sind die zentralen Fragestellungen dieser Arbeit. Aufbauend auf den methodischen Werkzeugen der diachronischen und synchronischen Linien nach Carl E. Schorske, mit deren Hilfe parallele Entwicklungsströme zwischen Architektur und Gesellschaft aufgezeigt werden können, sowie dem Prinzip der Paradigmenwechsel nach Thomas S. Kuhn, welches den Übergang eines Gedankenmodells zum nächsten mittels revolutionären Vorgängen beschreibt, wird die Chronik des europäischen Stadtblocks auf die Korrelation zwischen Gebautem und Gedachtem analysiert. Der Fokus liegt hierbei auf der Entwicklung und den Eigenschaften des urbanen Stadtblocks innerhalb der europäischen Stadt. Dieser definiert sich über das Dreigespann »Straße – Haus – Hof« als zusammenhängendes, städtebauliches Konstrukt, welches von öffentlichem Raum umgeben ist und einen gemeinschaftlichen Raum einschließt.
Die Evolution des Stadtblocks entlang der gesellschaftlichen Entwicklungen führt unweigerlich in die Gegenwart. Auf diesem Weg lädt sich der Block mit epochenspezifischen Inhalten auf, welche er kontinuierlich weiterführt. So erfährt er aus der Antike den sozialen Grundgedanken der Gemeinschaft. Mit dem gesellschaftlichen Paradigmenwechsel der aufkommenden Bürgerlichkeit erhält der Stadtblock im Mittelalter eine wirtschaftliche Komponente auf Grundlage der Multifunktionalität. Aufklärung und Absolutismus überführen die Typologie schließlich in die Renaissance und den Barock, aus denen wiederum ein repräsentativer Charakter sowie ein grundlegendes städtebauliches Prinzip resultiert. Die politischen, sozialen wie technischen Revolutionen der Neuzeit geben dem Stadtblock einen programmatischen Charakter, da er nicht nur zum Programm erhoben, sondern gleichzeitig auch Grundtyp der gegenwärtigen Blockbebauungen wird. Die Weltkriege sowie die Abkehr vom traditionellen Stadtbild lassen die Planer von der Blocktypologie abkommen hin zu einem vom Kontext gelösten, aufgelockerten Städtebau der Moderne. Hieraus entsteht weniger ein städtebaulicher Mehrwert für den Block, durchaus aber ein funktionaler im Hinblick auf Bautechnik und Organisation. Die Auswirkungen der autogerechten und funktionalen Stadt bewirken den Paradigmenwechsel zur Nachmoderne, in welcher Multifunktionalität und Dichte erneut zum Leitbild des Baugeschehens erhoben werden.
Am Ende der Untersuchung erweist sich die These der Korrelation zwischen Gebautem und Gedachtem als belegt. Wenn sich Gesellschaft und Architektur nun von der Antike an parallel entwickelten, so ist es nur folgerichtig anzunehmen, dass der Stadtblock als kontinuierlich gewachsenes Konstrukt auch eine Analogie zur Gesellschaft der Gegenwart darstellen kann. Als regressiver Stadtbaustein, also als Typologie, die dank ihrer fortdauernden Weiterentwicklung die Bedingung vom Bedingten abzuleiten vermag, ist es dem Stadtblock möglich auf die immanenten Inhalte seines Werdeganges zurückzugreifen und diese gleich der Gesellschaft für die Gegenwart und Zukunft zu nutzen.
Im Rahmen dieser Arbeit wurden mehr als 50 Verbindungen aus der Klasse der TADDOLe oder ihrer Analoga bzgl. ihrer HTP und ihrer UV- und CD-Spektroskopie untersucht. Dabei wurde für alle Verbindungen die HTP im Flüssigkristall ZLI-1695 temperaturabhängig bestimmt. Für 30 dieser Verbindungen wurde als Vergleich die HTP temperaturabhängig auch in K15 gemessen. Es ist erstmals möglich innerhalb einer Verbindungsklasse die HTP von neuen Verbindungen mit Hilfe von empirischen Regeln vorherzusagen. Somit konnte die bislang höchste bekannte HTP durch eine gezielte Synthese um mehr als 100% gesteigert werden (56 in K15). Es besteht nun die Möglichkeit, TADDOLe je nach gewünschter HTP maßzuschneidern. Aufgrund des hohen Verdrillungsvermögens von einigen TADDOLen wurde die Substanzklasse als Chirale Verbindungen gemeinsam mit Seebach und der BASF patentiert [7-1] sowie an weiteren Stellen veröffentlicht [7-2,3-8]. Das Vorzeichen der HTP der TADDOLe kann mit dem Vorzeichen bei der enantioselektiven Synthese korreliert werden und mit einer einfachen Regel vorhergesagt werden. Alle hier untersuchten TADDOLe mit einer R,R-Konfiguration induzieren eine Rechtshelix. Der Vergleich von HTP-Werten mit Ergebnissen aus der NMR-, anisotropen UV- und CD-Spektroskopie und Exziton-Theorie geben Ansätze, mit denen man verschiedene Einflüsse auf die HTP der TADDOLe diskutieren kann. Die Orientierungsachse bei den TADDOLen liegt senkrecht zur C2-Achse. Dies wurde mit Hilfe von 2 H-NMR für die Verbindungen 2, 3, 4 und mit Hilfe von 13 C-NMR für die Verbindungen 2, 13, 43, 45, 46 von I. Kiesewalter [7-9] gezeigt. Aus anisotropen UV-Messungen folgt diese Lage der Orientierungsachse für 3, 4, 5, 6, 8, 60, 61. Selbst bei den in C2-Richtung stark verlängerten Molekülen 60, 61 ändert sich der Anisotropiegrad und der ACD im Vergleich zu 3, 8 nur unwesentlich, was ein starkes Argument dafür ist, daß die Orientierungsachse bei den hier untersuchten TADDOLen immer senkrecht zur C2-Achse liegt. Die Mittlere Stellung der Arylgruppen zueinander hat einen Einfluß auf die Parameter der empirischen Regeln für die HTP. Verbindungen 58 und 63 unterscheiden sich nur durch den Austausch Wasserstoff-Methyl im Acetalbereich von den Verbindungen 3, 8. Die HTP ändert sich drastisch, ebenso der UV und der CD. Daraus folgt, daß die Arylgruppen im Mittel anders stehen. Anders ist der Fall beim Vergleich 3 mit 5 und 8 mit 6. Hier gibt es kaum Änderung im CD und kaum Änderung in der HTP. Ein Fall, der in der Mitte liegt sind 3 und 4. Eine Änderung im CD führt zu Änderung in der HTP bei gleichem Chromophor. Durch die Drehbarkeit um 4 C-Arylachsen besitzen die TADDOLe Konformere. Jedoch sind die Konformere sich sehr ähnlich. MM2-Rechnungen zeigen, daß sich die Konformere nur aufgrund von 180°-Drehungen der Arylgruppen um die C-Arylachse unterscheiden. Die MM2-Rechnungen wurden von Plattner [7-10] durchgeführt. Viele TADDOLe zeigen ein ähnliches konformatives Verhalten. Sie besitzen ca. 37% Temperaturabhängigkeit im CD zwischen 5°C und 75°C. Für diese Untersuchungen wurde im Rahmen dieser Arbeit eine neue Meßzelle konstruiert, die Langzeitmessungen bei Temperaturen erlaubt, die nur ca. 7°C unterhalb des Siedepunktes des Lösungsmittels liegen ohne, daß das Lösungsmittel während der Messung verdampft. Man kann es somit vermeiden, daß man eine zeitabhängige Konzentrationszunahme erhält. Weiterhin muß das verwendete Uvasol-Acetonitril gereinigt werden, um eine Zersetzung der TADDOLe während der Messung zu verhindern. Für die Bestimmung des Ordnungstensors werden bei der NMR-Methode Geometrien benötigt. Dazu wurden von den Verbindungen 4, 13, 46 Röntgenstrukturen angefertigt [7-11]. Die Verbindungen 4 und 46 bilden wegen der Überbrückung gleichzeit ig einen guten Vergleich zu den Metallkomplexen, wie sie bei der enantioselektiven Synthese eingesetzt werden. Mit der Geometrie aus der Röntgenstruktur von 4 wurde mit Hilfe der Exziton-Theorie das CD- und UV-Spektrum berechnet. Durch den Vergleich von gemessenen und nach der Exziton-Methode berechneten UV- und CD-Spektren ist man in der Lage mehr über eine mögliche Geometrie in Lösung zu sagen als nur mit der Röntgengeometrie und MM2-Rechnungen. Hierbei wurden Rechnungen an den Verbindungen 3, 4, 6 durchgeführt. Die Exziton-Methode wurde erstmals auf ein 4-Körperproblem eines organischen Nicht-Polymer-Moleküls angewendet. Das 3-Körperproblem [7-12] sowie die Beschreibung von Polymermolekülen sind in der Literatur bekannt[7-13]. Einige TADDOLe wurden, um große Effekte von kleinsten Verunreinigungen auszuschließen, ausgehend von einer Reinheit größer 99% (HPLC) so weit aufgereinigt, daß mit HPLC keine Verunreinigung mehr nachweisbar war. Verbindung 4 wurde im Rahmen dieser Arbeit synthetisiert. Die AHTP konnte erstmals für ein chirales Molekül außerhalb des experimentellen Fehlers nachgewiesen werden.
Ausgehend von einem donorfreien und einem DME-haltigen Eisenhalbsandwich-bromid des sperrigen Pentaisopropylcyclopentadienids, erhält man durch Substitution des Bromids gegen den 2,6-Diisopropylphenylrest einen sigma-Aryl-Eisencyclopentadienid-Komplex, der eine erstaunliche Stabilität aufweist. Dieser ist der erste vollständig charakterisierte Vertreter seiner Art und besitzt bei tiefer Temperatur die Eigenschaften eines molekularen Magneten. Durch Reaktion mit koordinativ ungesättigten Metallzentren lassen sich eine Vielzahl von Additions- und Substitutionsreaktionen beobachten. Eine Substitution des Bromids in den Eisenhalbsandwich-bromiden gegen ein Phenolat, bzw. Thiophenolat ist ebenfalls möglich. Die Resultate dieser Umsetzungen zeigen interessante strukturelle Ergebnisse bezüglich der Bindungsmöglichkeiten zwischen Eisen und Phenolaten sowie Thiophenolaten. Der Phenolatkomplex zeigt eine erstaunliche Stabilität und zersetzt sich auch in verdünnten Säuren und Basen nicht. Es ist erstmalig gelungen, das Pentaisopropylcyclopentadienid an ein Nickelzentrum zu koordinieren. Der resultierende Halbsandwichkomplex mit zwei verbrückenden Bromiden kann wie beim Eisen als Ausgangsverbindung zur Darstellung einer Vielzahl von neuen Komplexen dienen. Durch Addition von 1-Naphthyllithium an das 1,2,3,4-Tetraisopropyl-6-(dimethylamino)pentafulven gelingt die Synthese eines neuen sperrigen chiralen Cyclopentadienids. Dieses lässt sich an ein Nickelbromid-Fragment koordinieren und bildet den ersten im festen Zustand monomeren Vertreter eines Cyclopentadienyl-Nickelbromids. Durch Reduktion der beiden Halbsandwich-Bromide des Eisens und des Nickels in Gegenwart von Stickstoff erhält man Nitrido-Komplexe, die noch nicht eindeutig charakterisiert sind. Die Reaktivität dieser Verbindungen ist jedoch eindeutig. Sie sind in der Lage, mit elementarem Wasserstoff hochreaktive Amide zu bilden und ein Alkyl-H-Atom gegen eine Aminogruppe auszutauschen. Diese metallvermittelte Bildung von Alkylaminen aus Alkan, Stickstoff und Wasserstoff ist bislang nicht bekannt.
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Im Rahmen dieser Arbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden dargestellt und die korrespondierenden Rutheniumkomplexe hinsichtlich ihrer Aktivität in homogenkatalytischen Hydrierungs- und Dehydrierungsreaktionen untersucht. Durch Anwendung des Prinzips von Le Chatelier konnte die katalytische Transferhydrierung verschiedener Substrate mit Isopropanol, dem gängigen Lösungsmittel und Wasserstoffdonor dieser Umsetzung, optimiert werden. Zusätzlich gelang die Substitution dieses sekundären Alkohols gegen preiswertes Ethanol, welches aus nachwachsenden Rohstoffen gewonnen werden kann. Dabei nahm die rasche Entfernung des gebildeten Acetaldehyds aus dem Gleichgewicht eine Schlüsselrolle zur Vermeidung unerwünschter Nebenreaktionen und zum Erzielen hoher Produktausbeuten ein. Selektive Funktionalisierungen der Katalysatorstruktur lieferten grundlegende Einblicke in die Struktur-Eigenschafts-Beziehungen des Systems und trugen somit zu dessen Verständnis bei. Unter Berücksichtigung ökonomischer Aspekte wurden darüber hinaus zwei praktische, sehr effiziente Varianten der Ley-Griffith-Oxidation zur Dehydrierung unterschiedlicher Alkohole und Amine erarbeitet. Der zugrundeliegende Reaktionsmechanismus wurde anhand von DFT-Rechnungen eingehend erforscht.
For many decades, the search for language classes that extend the
context-free laguages enough to include various languages that arise in
practice, while still keeping as many of the useful properties that
context-free grammars have - most notably cubic parsing time - has been
one of the major areas of research in formal language theory. In this thesis
we add a new family of classes to this field, namely
position-and-length-dependent context-free grammars. Our classes use the
approach of regulated rewriting, where derivations in a context-free base
grammar are allowed or forbidden based on, e.g., the sequence of rules used
in a derivation or the sentential forms, each rule is applied to. For our
new classes we look at the yield of each rule application, i.e. the
subword of the final word that eventually is derived from the symbols
introduced by the rule application. The position and length of the yield
in the final word define the position and length of the rule application and
each rule is associated a set of positions and lengths where it is allowed
to be applied.
We show that - unless the sets of allowed positions and lengths are really
complex - the languages in our classes can be parsed in the same time as
context-free grammars, using slight adaptations of well-known parsing
algorithms. We also show that they form a proper hierarchy above the
context-free languages and examine their relation to language classes
defined by other types of regulated rewriting.
We complete the treatment of the language classes by introducing pushdown
automata with position counter, an extension of traditional pushdown
automata that recognizes the languages generated by
position-and-length-dependent context-free grammars, and we examine various
closure and decidability properties of our classes. Additionally, we gather
the corresponding results for the subclasses that use right-linear resp.
left-linear base grammars and the corresponding class of automata, finite
automata with position counter.
Finally, as an application of our idea, we introduce length-dependent
stochastic context-free grammars and show how they can be employed to
improve the quality of predictions for RNA secondary structures.