Refine
Year of publication
- 2023 (146)
- 2021 (117)
- 2022 (109)
- 2015 (100)
- 2020 (99)
- 2016 (92)
- 2017 (84)
- 2018 (79)
- 2014 (78)
- 2009 (76)
- 2019 (74)
- 2006 (69)
- 2012 (66)
- 2013 (65)
- 2007 (64)
- 2008 (63)
- 2011 (62)
- 2010 (61)
- 2005 (58)
- 2004 (55)
- 2002 (50)
- 2003 (50)
- 2024 (49)
- 2001 (35)
- 2000 (34)
- 1999 (28)
- 1998 (7)
- 1995 (3)
- 1996 (2)
- 1997 (2)
- 1994 (1)
Document Type
- Doctoral Thesis (1878) (remove)
Language
- English (941)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (235)
- Kaiserslautern - Fachbereich Biologie (134)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
Tandembeschaufelungen werden in Axialverdichtern dort eingesetzt, wo große Strömungsumlenkungen
realisiert werden müssen. Beschaufelungen, bei denen die gesamte Umlenkung
mit nur einem Schaufelprofil realisiert wird, stoßen dabei schnell an ihre aerodynamischen
Grenzen, da es bei hohen Umlenkungen zu Grenzschichtablösung kommen kann.
In Tandembeschaufelungen wird die Umlenkaufgabe auf zwei Schaufelprole aufgeteilt.
An der Vorderkante des in Strömungsrichtung liegenden hinteren Schaufelprofils existiert
eine frische, dünne und ungestörte Grenzschicht für die restliche Umlenkung.
Die Auslegung einer Verdichterbeschaufelung erfolgt gewöhnlich in mehreren koaxialen
Schnitten. Wickelt man einen solchen koaxialen Schnitt in eine Ebene ab, so erhält man ein
sogenanntes Schaufelgitter. Die Überlegenheit von Tandemgittern bezüglich Einzelgittern
bei großen Umlenkungen wurde für zweidimensionale Strömungen bereits häufig in der
Literatur gezeigt. Ebenso sind für zweidimensionale Strömungen durch Tandemgitter die
idealen Parameter für die relative Position der einzelnen Schaufelreihen zueinander und
die Aufteilung der aerodynamischen Last auf die einzelnen Schaufelreihen bekannt. Da
hohe Umlenkungen meist in den letzten Stufen von mehrstufigen Axialverdichtern gefordert
sind, wo die Schaufelhöhenverhältnisse klein sind, wird der Einfluss der Seitenwände
(Nabe und Gehäuse) groß und kann deshalb nicht mehr vernachlässigt werden. Bisher
gibt es allerdings wenig Informationen über die Strömungsstruktur in Tandemgittern an
der Seitenwand und das dreidimensionale Strömungsverhalten. Es ist daher nicht klar, ob
Tandemgitterkonfigurationen, die für zweidimensionale Strömungen die geringsten Verluste
erzeugen, auch in dreidimensionalen Strömungen minimale Verluste verursachen.
In dieser Arbeit werden die experimentellen und numerischen Ergebnisse von vier Tandemgitterkonfigurationen und einem Referenz-Einzelgitter vorgestellt. Die Gitter bestehen
aus NACA 65 Profilen mit kleinem Schaufelhöhenverhältnis. Die Auslegung der Gitter
erfolgte unter Berücksichtigung empirischer Korrelationen von Lieblein und Lei. Die Tandemgitter
unterscheiden sich im Teilungsverhältnis der einzelnen Schaufelreihen und im
Percent Pitch (PP). Alle Gitter bewirken eine Strömungsumlenkung von annähernd 50 Grad
bei einer Reynoldszahl von 8x10^5.
In dieser Arbeit wird gezeigt, wie die Strömung in Tandemgittern strukturiert ist und
insbesondere wie die Sekundärströmung in Tandemgittern entsteht. Anhand der Strömungsstruktur, die mit Hilfe von numerischen und experimentellen Ölanstrichbildern der
Seitenwand und der Profiloberflächen sichtbar gemacht wurde, wird die Verlustentstehung
identifiziert und diskutiert. Corner Stall wird als zentrales Strömungsphänomen in
Tandemgittern ausführlich auf dessen Entstehung und Ausprägung hin untersucht. Strömungsmechanische Kenngrößen, die numerisch und anhand von Messungen ermittelt wurden,
werden miteinander verglichen und der Einfluss der Tandemkonfigurationen auf das
Strömungsfeld im Nachlauf der Gitter wird aufgezeigt. Schließlich werden Empfehlungen gegeben, wie das Teilungsverhältnis der einzelnen Schaufelreihen und der Percent Pitch
(PP) in einem Tandemgitter zu wählen ist, um minimale Strömungsverluste zu realisieren.
Zum Nachweis der Tragfähigkeit bestehender Tragwerke benötigt der Tragwerksplaner charakteristische Werkstoffeigenschaften der verwendeten Baustoffe. Diese Werte können meist nicht direkt und ohne weitere Überlegungen aus älteren Normen, Richtlinien, Zulassungen oder von geprüften Bestandsunterlagen übernommen werden. Da die Neuberechnung grundsätzlich immer nach aktuellem Normenwerk zu erfolgen hat, sind die Werkstoffkennwerte gemäß der seinerzeits gültigen Normfestlegungen an die aktuellen Bezugswerte anzupassen.
Auf der Grundlage einer umfangreichen Literaturrecherche sind für die Baustoffe Beton und Betonstahl charakteristische Kenngrößen der maßgeblichen mechanischen Werkstoffeigenschaften in der vorliegenden Arbeit bestimmt worden. Die Darstellung der Ergebnisse erfolgt anhand von Tabellen, welchen die charakteristischen Kennwerte für die Werkstoffgüten einzelner Zeitperioden entnommen werden können.
In Fällen, in denen keine oder nur unzureichende Informationen über ein zu bewertendes Bauwerk vorliegen, sind die charakteristischen Werkstoffkennwerte anhand von Bauwerksuntersuchungen zu bestimmen.
In der vorliegenden Arbeit werden Konzepte beschrieben, welche die zu beachtenden Besonderheiten bei der Bestimmung der charakteristischen Werkstoffeigenschaften von Beton und Betonstahl anhand von Prüfergebnissen aus Bauwerksuntersuchungen berücksichtigen. Diese Konzepte enthalten unter anderem Empfehlungen für die Festlegung von Prüfbereichen und Stichprobenumfängen sowie Hinweise für die Probenentnahme von Betonbohrkernen und Stahlbetonstäben.
Durch den Einsatz von Hohlkörpern in Stahlbetondecken können Beton, Stahl und folglich Gewicht eingespart werden. Die Materialeinsparung reduziert den Primärenergiebedarf sowie die Treibhausgasemissionen bei der Herstellung. Hierdurch stellen Hohlkörperdecken im Vergleich zu konventionellen Massivdecken eine ressourcenschonendere Bauweise dar. Infolge der deutlich reduzierten Eigenlast und einem im Verhältnis geringeren Steifigkeitsabfall können zudem Decken mit großen Spannweiten realisiert werden.
Die einzelnen Traganteile der Decken werden durch die Hohlkörper grundsätzlich nachteilig beeinflusst. Die Tragfähigkeit von Hohlkörperdecken mit abgeflachten rotationssymmetrischen Hohlkörpern wurde in der vorliegenden Dissertationsschrift im Detail analysiert. Auf Grundlage experimenteller und theoretischer Untersuchungen wurden Bemessungskonzepte für die Biegetragfähigkeit, die Querkrafttragfähigkeit, die Schubkraftübertragung in der Verbundfuge und das lokale Durchstanzen des Deckenspiegels oberhalb der Hohlkörper entwickelt. Unter Berücksichtigung der Bemessungskonzepte können die Hohlkörperdecken auf dem bauaufsichtlich geforderten Sicherheitsniveau hergestellt werden.
Für die Querkrafttragfähigkeit von Stahlbetondecken ohne Querkraftbewehrung steht derzeit kein allgemein anerkanntes mechanisch begründetes Bemessungskonzept zur Verfügung. Der Einfluss der einzelnen Traganteile auf das Versagen wurde experimentell analysiert. Hierzu wurden Versuche mit verlagerter Druckzone sowie mit ausgeschalteter Rissuferverzahnung und mit ausgeschalteter Dübelwirkung durchgeführt. Der rechnerische Einfluss der einzelnen Traganteile an der Gesamttragfähigkeit konnte durch die Nachrechnung von Versuchen zu Hohlkörper- und Installationsdecken unter Verwendung eines bestehenden mechanisch begründeten Rechenmodells visualisiert und verifiziert werden. Hierdurch wird ein Beitrag zum besseren Verständnis der Querkrafttragfähigkeit geleistet.
This thesis is devoted to the computational aspects of intersection theory and enumerative geometry. The first results are a Sage package Schubert3 and a Singular library schubert.lib which both provide the key functionality necessary for computations in intersection theory and enumerative geometry. In particular, we describe an alternative method for computations in Schubert calculus via equivariant intersection theory. More concretely, we propose an explicit formula for computing the degree of Fano schemes of linear subspaces on hypersurfaces. As a special case, we also obtain an explicit formula for computing the number of linear subspaces on a general hypersurface when this number is finite. This leads to a much better performance than classical Schubert calculus.
Another result of this thesis is related to the computation of Gromov-Witten invariants. The most powerful method for computing Gromov-Witten invariants is the localization of moduli spaces of stable maps. This method was introduced by Kontsevich in 1995. It allows us to compute Gromov-Witten invariants via Bott's formula. As an insightful application, we computed the numbers of rational curves on general complete intersection Calabi-Yau threefolds in projective spaces up to degree six. The results are all in agreement with predictions made from mirror symmetry.
Anorganisch-organische Hybridmaterialien basierend auf photolumineszierenden Sol-Gel-Vorstufen
(2014)
In den vergangenen Jahrzehnten haben sich periodisch strukturierte Organosilika (PMO) und metallorganische Netzwerke (MOFs) mit poröser Struktur als äußerst vielseitige Materialien mit interessanten physikalischen und chemischen Eigenschaften erwiesen. Neben ihrer Anwendung in der Katalyse und der Gasadsorption wurden verschiedene Hybridmaterialien in jüngerer Vergangenheit auch hinsichtlich Photoumineszenz, Energiekonversion und Halbleitereigenschaften untersucht. Die Bandbreite möglicher Applikationen reicht dabei von Sensoren über Beschichtungen und dekorative Keramiken bis hin zu elektronischen Bauteilen, wie etwa Transistoren (OFETs) und optischen Fasern (POFs). In der vorliegenden Arbeit werden auf Grundlage der bisher bekannten Forschung neue Ansätze zur Darstellung anorganisch-organischer Hybridmaterialien, insbesondere mikro- und mesoporöser Organosilika, vorgestellt. Ausgangspunkt für neuartige PMO und andere organisch modifizierte mesoporöse Silika vom MCM41- oder SBA-15-Typ ist die Synthese der hier erstmals präsenterten Organosilane, welche je nach Verwendungszweck über eine oder mehrere hydrolysierbare Trialkokysilylfunktionen verfügen. Während Alkylsiloxane mit Pyren, Acridon oder Dithien-2-ylphenothiazin als fluoreszierender Endgruppe über „klassische“ organische Synthesewege, wie z. B. die Knüpfung von Amid- und Sulfonamidfunktionen dargestellt werden, lassen sich komplex funktionalisierte Arylsiloxane nicht über die sonst übliche Grignard-Reaktion erhalten. Im Rahmen dieser Arbeit wird eine dreistufige Reaktionssequenz vorgestellt, mit deren Hilfe stark fluoreszierende, arylenverbrückte Trimethoysilylthiophene in sehr guten bis quantitativen Ausbeuten zugänglich sind. Den ersten Schritt bei der Darstellung der Zielmoleküle bildet die sehr schnelle und effiziente Suzuki- Myaura-Kupplung der Aryliodide oder -bromide mit Thiophen-2-boronsäure in basischen Alkohol/Wasser-Gemischen. Dieser C-C-Verknüpfung folgt die Wohl-Ziegler-Halogenierung der Thienylreste in der C-H-aziden 5-Position mittels N-Brom- oder N-Iodsuccinimid. Die abschließende, Pd(0)-vermittelte Bildung von C-Si-Bindungen, welche bei Einsatz eines Buchwald-Hartwig-Liganden sehr selektiv das gewünschte Arylsiloxan liefert, ermöglicht letztlich die problemlose Aufarbeitung der hydrolyseempfindlichen Produkte. Sowohl bei Verwendung der pyrenhaltigen Organosilane als auch mit den thiophenhaltigen Vorstufen lassen sich in templat-gesteuerten Sol-Gel-Ansätzen keine mesoporösen Materialien erhalten. Ursache dafür ist in den meisten Fällen vermutlich die Aggregationsneigung der recht großen aromatischen Chromophore und ihre damit verbundene schlechte Wasserlöslichkeit. Im Falle der thiophensubstituierten Arene wurde zudem im alkalischen Medium die von Inagaki et al. vorhergesagte Protodesilylierung des Chromophors zum reduzierten Aromaten gefunden. Durch Umesterung der Thienylsiloxane in Triethylenglykol-Monomethylether (TGM) lassen sich jedoch mit Wasser sehr gut mischbare Stammlösungen der Chromophore erzeugen. Mit Hilfe dieser Lösungen sind in niedriger Verdünnung zwar ebenfalls keine geordneten Organosilika zugänglich, allerdings wurden in einer Eintopfreaktion unter Säurekatalyse transparente Xerogele dargestellt, die selbst bei minimalen Farbstoffkonzentrationen von ca. 6 • 10E-6 mol/g intensiv lumineszieren und spezifische BET-Oberflächen von bis zu 360 m2/g besitzen. Die Analyse der CIE-Farbkoordinaten der resultierenden Fluorogele wurde mit Hilfe ihrer Festkörper Fluoreszenzspektren durchgeführt und offenbart, dass die Darstellung nahezu „ideal“ weiß emittierender Organosilika durch Mischung verschieden emittierender Chromophore realisiert werden kann. Ein umgeestertes, silyliertes Derivat des 5,8-Dithien-2-yl-quinoxalins erweist sich zudem als eigenständig weiß photolumineszierendes Molekül, das Licht mit einer Farbtemperatur von ca. 5.500 K nahe der Schwarzkörper-Kurve emittiert. Die hierin vorgestellten amorphen Fluorogele sind insbesondere im Hinblick auf eine „Verglasung“ von Farbstoffen für Beleuchtungsanwendungen von Interesse. Im Gegensatz zu den geschilderten Versuchen zur Darstellung neuartiger PMOs verliefen sowohl die basenkatalysierte Darstellung eines Acridon-haltigen MCM-41-Derivates als auch die NH4F-abhängige Synthese eines phenothiazinhaltigen SBA-15-Analogons bei stark saurem pH erfolgreich. Beide Materialien weisen sowohl hohe spezifische BET-Oberflächen als auch eine geordnete, hexagonale Porenstruktur auf und wurden unter anderem mit Hilfe von Röntgen-Pulverdiffraktometrie (XRD), N2-Physisorptionsmessungen (BET) und Festkörper Kernresonanzspektroskopie (MAS-NMR) charakterisiert. Mit Hilfe unterschiedlicher Additive können die Absorptions- sowie die Fluoreszenzeigenschaften dieser Festkörper reversibel oder irreversibel modifiziert werden. So lässt sich die intensive bläuliche Fluoreszenz des immobilisierten Acridonchromophors durch Komplexbildung der Carbonylfunktion mit stark lewis-aziden Metallsalzen wie Sc(III)- oder Bi(III)triflat bathochrom um Δλ = 20 nm ins Grünliche verschieben. Das phenothiazinhaltige Organokieselgel, in dessen Poren sowohl die Chromophore als auch organische Ammoniumspezies kovalent verankert sind, wird durch Behandlung NOBF4 quasi-reversibel oxidiert, wobei sich paramagnetische, stark farbige Radikalkationen innerhalb des Festkörpers ausbilden. Sowohl die Oxidation als auch die Rereduktion des Materials mit Hilfe von Ascorbinsäure wurden mittels Elektronenspinresonanz- (ESR), Infrarot- (ATR-IR) und Fluoreszenzspektroskopie verfolgt. Aus der Charakterisierung der organischen Chromophore sowie der darauf basierenden Hybridmaterialien ergeben sich Anknüpfungspunkte zu weiteren Verbindungsklassen und deren möglichen Anwendungen. Die zuvor beschriebenen Thienylhalogenide können mit Hilfe einer Heck-Carboalkoxylierung in die entsprechenden n-Alkylester überführt werden. Die Synthese der sich daraus ableitenden MOF-Linker sowie stark fluoreszierender Phosphonate für die Beschichtung von keramischen Oberflächen wurde in einem Kooperationsprojekt mit Frau Dr. E. Keceli bearbeitet und wird im Rahmen dieser Arbeit ebenfalls beschrieben. Gleiches gilt für die Erforschung der Bandlücken verschiedener thienylierter Phenothiazine, welche als Modellverbindungen für die Entwicklung farbstoffhaltiger organischer UV-Solarzellen (UV-DSCs) dienen könnten. Die hierfür notwendigen Experimente sind Gegenstand einer laufenden Kooperation mit der AG Ziegler (Fachbereich Physik, TU Kaiserslautern). Künftiges Ziel dieser Forschung soll es sein, unter Berücksichtigung der in dieser Arbeit vorgestellten Ergebnisse, sowohl Polymere auf Basis p-dotierter Phenothiazine als auch weitere Hybridsilika mit erhöhtem Farbstoffgehalt und verbesserter thermischer und mechanischer Stabilität zu entwicken. Bei der Materialsynthese sollte insbesondere der Einfluss von Parametern wie Präformationszeit, pH-Wert und der Natur der eingesetzten Sol-Gel-Vorstufen näher beleuchtet werden, um ggf. zu einem systematischen Verständnis der Strukturbildung der hierin vorgestellten Organosilika zu gelangen.
Schon bei seiner Entdeckung konnte eine Verbindung des Zwei-Komponenten Systems CiaRH mit der natürlichen Kompetenzentwicklung und der β-Laktamresistenz in S. pneumoniae beobachtet werden. Mutationen in der Histidinkinase CiaH bewirken eine sogenannte Hyperaktivierung dieses Systems, welche zu einem vollständigen Verlust der Kompetenz und einem Anstieg der β-Laktamresistenz führen. Der über das CiaRH System vermittelte Kompetenzphänotyp ist dabei abhängig von der Serinprotease HtrA und den csRNAs. Die Serinprotease HtrA reduziert hierbei, durch Proteolyse, die Menge des Kompetenz spezifische Peptid CSP.
In dieser Arbeit konnte nun erstmals gezeigt werden, dass die csRNAs ihre negative Wirkung auf die Kompetenz ausüben, indem sie comC post-transkriptionell reprimieren. Wahrscheinlich wird hierbei die Initiation der Transaltion inhibiert, wobei die Stabilität der mRNA zusätzlich verringert werden könnte. ComC kodiert für das CSP Vorläuferpeptid. Daher üben die csRNAs noch vor der proteolytischen Wirkung von HtrA einen negativen Effekt auf die CSP Produktion aus. Anhand von comC-Translationsfusionen in S. pneumoniae Stämmen mit und ohne csRNAs, sowie in dem Stamm mit hyperaktivem ciaH202-Allel konnte eindeutig gezeigt werden, dass die csRNAs negativ auf die comC-Translation wirken.
Mittels weiterer comC-Translationsfusionen, in Stämmen mit einzelnen csRNAs, ließ sich eine additive Wirkung der einzelnen csRNAs auf die comC-Translation nachweisen. Das bedeutet, dass eine csRNA alleine nicht in der Lage ist die Kompetenz zu reprimieren. Eine Kombination aus csRNA1, csRNA2 und csRNA3 allerdings ist sogar ohne die Anwesenheit von HtrA in der Lage, die Kompetenzentwicklung vollständig zu unterdrücken.
Der Effekt der csRNAs auf die comC-Translation hat Auswirkungen auf die sich entwickelnde Kompetenz, was anhand von β-Galaktosidasemessungen des frühen Kompetenzpromotors PcomX gezeigt wurde. Hier konnte allerdings ein stark positiver Effekt der csRNA4 und csRNA5 auf diesen Promotor beobachtet werden. Weitere Versuche zeigten, dass dieser Effekt auch auf den frühen Kompetenzpromotor PcomC, aber nicht auf den späten Kompetenzpromotor Pcib zu beobachten ist.
Hierbei scheint es sich um einen Regulationsmechanismus der csRNAs zu handeln, welcher die CSP-Produktion erhöht, ohne die Expression der Gene, die für die DNA Aufnahme und den Einbau verantwortlich sind, zu verändern. Der einerseits negative Effekt aller csRNAs auf die comC-Translation und andererseits positive Effekt der csRNA4 und csRNA5 sprechen dafür, dass die csRNAs an der Feinabstimmung der Kompetenzentwicklung beteiligt sind. Tatsächlich lassen sich Unterschiede im Zeitverlauf der Stämme mit einzelnen csRNAs erkennen. Vor allem kann ein Kompetenzpeak, wie im Wildtyp beobachtet, nicht mehr im csRNA-Deletionsstamm nachgewiesen werden.
Die csRNAs scheinen die Kompetenzentwicklung bis zu einem gewissen Grad zu reprimieren. Ist aber der Schwellenwert überschritten, wirkt ein Teil positiv und trägt somit dazu bei, dass die Kompetenzentwicklung ohne Einschränkungen abläuft.
Des Weiteren konnten, durch gezielte Mutationen in der comC mRNA, Bereiche in dieser identifiziert werden, welche für die Bindung der csRNAs an die mRNA essentiell sind. Hierzu gehört zum einen der Bereich zwischen der Shine-Dalgarno Sequenz und dem Startkodon sowie der Bereich direkt nach dem Startkodon AUG. Zum anderen gibt es Hinweise darauf, dass Mutationen, welche die Stabilität der mRNA beeinflussen könnten, die Regulation durch die csRNAs aufheben.
Anhand einer komplementären Veränderung der csRNA4 konnte der negative Effekt dieser csRNA auf die Translation der veränderten comC mRNA wieder hergestellt werden.
Die hier erbrachten Ergebnisse konnten einen weiteren kompetenzregulierenden Faktor identifizieren. Außerdem ergaben sich einige Hinweise, die dazu beitragen können, in weiteren Studien die komplexe Regulation der Kompetenzentwicklung besser zu verstehen.
Ein weiterer Teil dieser Arbeit beschäftigt sich mit dem, ebenfalls schon bei der Entdeckung des CiaRH Systems beschriebenen, Anstieg der β-Laktamresistenz. Für diesen, durch ein hyperaktives CiaRH System vermittelten Anstieg konnte, wie schon bei der Kompetenz, ein wesentlicher Effekt der csRNAs nachgewiesen werden. Eine Deletion aller csRNAs in einem Stamm mit hyperaktivem CiaRH System bewirkt einen Zusammenbruch der Resistenz auf Wildtyp Niveau. Im Gegensatz zur Kompetenz konnte hier aber kein deutlicher Effekt der Serinprotease HtrA beobachtet werden.
Wie schon bei der Kompetenz lag das Augenmerk dieser Arbeit auf dem Effekt der einzelnen csRNAs auf den Anstieg der β-Laktamresistenz. Hier konnte eine größtenteils additive Wirkung der csRNAs nachgewiesen werden. Allerdings wurden Stämme isoliert, in welchen die β-Laktamresistenz um das 10-fache im Vergleich zu dem Stamm mit hyperaktivem CiaRH System anstieg. Hierbei handelt es sich um Stämme, die csRNA4 oder csRNA5 enthalten. Da eine starke Instabilität in diesen Stämmen zu beobachten war, ist davon auszugehen, dass es hier zu Zusatzmutationen kam, welche den Resistenzanstieg bewirken. Allerdings konnte nachgewiesen werden, dass der beobachtete Resistenzanstieg nur im Zusammenhang mit csRNA4 vermittelt wird. Falls es hier zu Zusatzmutationen im Genom kam, wäre deren vermittelter Resistenzanstieg von csRNA4 abhängig.
Da im Falle der β-Laktamresistenz die computerbasierte Zielgensuche keinen geeigneten Kandidaten erbrachte und keines der bekannten csRNA regulierten Gene die Resistenz beeinflusst, wurde hier eine globale Transkriptomanalyse zur Zielgensuche durchgeführt.
Anhand dieser globalen Transkriptomanalyse konnten zwei neue potenzielle CiaR regulierte Gene, pavB und spr0091, identifiziert werden.
Des Weiteren konnten zwei Gene, spr0264 und oxlT, identifiziert werden, deren Translation negativ durch die csRNAs reguliert wird. Hier konnte gezeigt werden, dass der UTP Metabolismus der Zelle betroffen ist. Hierrüber könnte die Menge an UDP verändert werden, welches zur Aktivierung von Vorläuferstufen der Zellwandbiosynthese benötigt wird. Ob diese beiden Transporter an dem Anstieg der Resistenz beteiligt sind, wurde bisher nicht untersucht.
Die innerhalb dieser Arbeit durchgeführten globalen Transkriptomanalysen stellen allerdings eine gute Basis zur weiteren Identifikation von möglichen potenziellen csRNA Zielgenen dar. Hierüber könnte eventuell auch das β-Laktam spezifische Zielgen identifiziert werden. Das der deutliche Effekt der csRNAs, sekundär auf ein schon bekanntes β-Laktamresistenzgen zurückzuführen ist, ist dabei durchaus denkbar.
Die in dieser Arbeit nachgewiesenen Regulationen der csRNAs bezüglich der Kompetenz- und β-Laktamresistenz konnten einen großen Beitrag zum besseren Verständnis dieser Regulations-mechanismen in S. pneumoniae leisten. Des Weiteren bilden die hier ermittelten Ergebnisse eine gute Basis für weitere Experimente.
According to the domain specific models of speech perception, speech is supposed to be processed distinctively compared to non-speech. This assumption is supported by many studies dealing with the processing of speech and non-speech stimuli. However, the complexity of both stimulus classes is not matched in most studies, which might be a confounding factor, according to the cue specific models of speech perception. One solution is spectrally rotated speech, which has already been used in a range of fMRI and PET studies. In order to be able to investigate the role of stimulus complexity, vowels, spectrally rotated vowels and a second non-speech condition with two bands of sinusoidal waves, representing the first two formants of the vowels, were used in the present thesis. A detailed description of the creation and the properties of the whole stimulus set are given in Chapter 2 (Experiment 1) of this work. These stimuli were used to investigate the auditory processing of speech and non-speech sounds in a group of dyslexic adults and age matched controls (Experiment 2). The results support the assumption of a general auditory deficit in dyslexia. In order to compare the sensory processing of speech and non-speech in healthy adults on the electrophysiological level, stimuli were also presented within a multifeature oddball paradigm (Experiment 3). Vowels evoked a larger mismatch negativity (MMN) compared to both non-speech stimulus types. The MMN evoked by tones and spectrally rotated tones were compared in Experiment 4, to investigate the role of harmony. No difference in the area of MMN was found, indicating that the results found in Experiment 3 were not moderated by the harmonic structure of the vowels. All results are discussed in the context of the domain and cue specific models of speech perception.
Carbonsäuren sind in einer breiten strukturellen Vielfalt aus natürlichen Quellen oder über präparative Wege zugänglich und stellen daher attraktive Ausgangsverbindungen für die Erforschung neuer Reaktionen dar. Der Schwerpunkt dieser Arbeit liegt in der Entwicklung nachhaltiger katalytischer Verfahren zur Erschließung neuer Einsatzmöglichkeiten von Carbonsäuren und deren Derivaten. Im Rahmen dieser Arbeit konnte ein rhodiumkatalysiertes Verfahren zur ortho-Acylierung von Carbonsäuren mit Carbonsäureanhydriden entwickelt werden, wodurch ein neuer Zugang zu 2-Acylbenzoesäuren geschaffen wurde. Durch die Kombination mit einem nachfolgenden Protodecarboxylierungsschritt ließen sich dadurch auch Arylketone mit einem definierten Substitutionsmuster synthetisieren. Mit der Weiterentwicklung dieses Verfahrens zu einer Eintopfmethode basierend auf einer C-H-Acylierung / Acylalisierung / Eliminierungskaskade wurde zusätzlich ein neuer Zugang zu 3-Alkylidenphthaliden eröffnet.
Eine alternative Darstellungsmöglichkeit von Arylketonen wurde durch die Entwicklung einer eisenkatalysierten decarboxylierenden Kreuzketonisierung von aromatischen mit aliphatischen Carbonsäuren erreicht. TEM- und STEM-Untersuchungen des Eisenkatalysators nach der Reaktion zeigten, dass dieses Verfahren auch zur Synthese von magnetischen Nanopartikeln genutzt werden kann. Die Weiterentwicklung dieses Verfahrens führte schließlich zu einer effizienten Synthesemethode für monodisperse Maghemit- und Ferrit-Nanokristalle ausgehend von elementaren Metallen.
Zuletzt wurde ein Verfahren zur Aktivierung von Carbonsäuren mittels Isomerisierung von Allylestern zu Enolestern entwickelt. Der dimere Palladium(I)komplex [Pd(μ-Br)P(tBu)3]2 wurde dabei erstmals als geeigneter Katalysator für Doppelbindungsmigrationen identifiziert. Katalysatorbeladungen von bis zu 0.25 mol% reichten bereits aus, um eine vollständige Umsetzung der Allylester zu Enolestern bei sehr milden Temperaturen von bis zu 25 °C zu ermöglichen. Als ein Beispiel für die breite Einsetzbarkeit von Enolestern wurden verzweigte Enolester über eine rhodiumkatalysierte asymmetrische Hydrierung in gesättigte chirale Ester mit hohem Enantiomerenüberschuss überführt. Zusätzlich wurden erste NMR-spektroskopische Untersuchungen und DFT-Berechnungen zur mechanistischen Aufklärung der katalytisch aktiven Spezies aus dem Pd(I)-Dimer angefertigt.
An huge amount of computational models and programming languages have been proposed
for the description of embedded systems. In contrast to traditional sequential programming
languages, they cope directly with the requirements for embedded systems: direct support for
concurrent computations and periodic interaction with the environment are only some of the
features they offer. Synchronous languages are one class of languages for the development of
embedded systems and they follow the fundamental principle that the execution is divided into
a sequence of logical steps. Thereby, each step follows the simplification that the computation
of the outputs is finished directly when the inputs are available. This rigorous abstraction leads
to well-defined deterministic parallel composition in general, and to deterministic abortion
and suspension in imperative synchronous languages in particular. These key features also
allow to translate programs to hardware and software, and also formal verification techniques
like model checking can be easily applied.
Besides the advantages of imperative synchronous languages, also some drawbacks can
be listed. Over-synchronization is an effect being caused by parallel threads which have to
synchronize for each execution step, even if they do not communicate, since the synchronization
is implicitly forced by the control-flow. This thesis considers the idea of clock refinement to
introduce several abstraction layers for communication and synchronization in addition to the
existing single-clock abstraction. Thereby, clocks can be refined by several independent clocks
so that a controlled amount of asynchrony between subsequent synchronization points can be
exploited by compilers. The declarations of clocks form a tree, and clocks can be defined within
the threads of the parallel statement, which allows one to do independent computations based
on these clocks without synchronizing the threads. However, the synchronous abstraction is
kept at each level of the abstraction.
Clock refinement is introduced in this thesis as an extension to the imperative synchronous
language Quartz. Therefore, new program statements are introduced which allow to define
a new clock as a refinement of an existing one and to finish a step based on a certain clock.
Examples are considered to show the impact of the behavior of the new statements to
the already existing statements, before the semantics of this extension is formally defined.
Furthermore, the thesis presents a compile algorithm to translate programs to an intermediate
format, and to translate the intermediate format to a hardware description. The advantages
obtained by the new modeling feature are finally evaluated based on examples.
Enhanced information processing of phobic natural images in participants with specific phobias
(2014)
From an evolutionary point of view, it can be assumed that visual processing and rapid detection of potentially dangerous stimuli in the environment (e.g., perilous animals) is highly adaptive for all humans. In the present dissertation, I address three research questions; (1) Is information processing of threatening stimuli enhanced in individuals with specific phobias? (2) Are there any differences between the different types of phobia (e.g., spider phobia vs. snake phobia)? (3) Is the frequently reported attentional bias of individuals with specific phobias - which may contribute to an enhancement in information processing – also detectable in a prior entry paradigm? In Experiments 1 to 3 of the present thesis non-anxious control, spider-fearful, snake-fearful, and blood-injection-injury-fearful participants took part in the study. We applied in each experiment a response priming paradigm which has a strong theoretical (cf. rapid-chase theory; Schmidt, Niehaus, & Nagel, 2006; Schmidt, Haberkamp, Veltkamp et al., 2011) as well as empirical background (cf. Schmidt, 2002). We show that information processing in fearful individuals is indeed enhanced for phobic images (i.e., spiders for spider-fearful participants; injuries for blood-injury-injection(BII)-fearful individuals). However, we found marked differences between the different types of phobia. In Experiment 1 and 2 (Chapter 2 and 3), spiders had a strong and specific influence in the group of spider-fearful individuals: Phobic primes entailed the largest priming effects, and phobic targets accelerated responses, both effects indicating speeded response activation by phobic images. In snake-fearful participants (Experiment 1, Chapter 2), this processing enhancement for phobic material was less pronounced and extended to both snake and spider images. In Experiment 3 (Chapter 4), we demonstrated that early information processing for pictures of small injuries is also enhanced in BII-fearful participants, even though BII fear is unique in that BII-fearful individuals show opposite physiological reactions when confronted with the phobic stimulus compared to individuals with animal phobias. These results show that already fast visuomotor responses are further enhanced in spider- and BII-fearful participants. Results give evidence that responses are based on the first feedforward sweep of neuronal activation proceeding through the visuomotor system. I propose that the additional enhancement in spider- and BII-fearful individuals depend on a specific hardwired binding of elementary features belonging to the phobic object in fearful individuals (i.e., effortless recognition of the respective phobic object via hardwired neuronal conjunctions). I suggest that these hardwired conjunctions developed due to long-term perceptual learning processes. We also investigate the frequently reported attentional bias of phobic individuals and showed that this bias is detectable in temporal order judgments using a prior entry paradigm. I assume that perceptual learning processes might also strengthen the attentional bias, for example, by providing a more salient bottom-up signal that draws attention involuntarily. In sum, I conclude that (1) early information processing of threatening stimuli is indeed enhanced in individuals with specific phobias but that (2) differences between divers types of phobia exist (i.e., spider- and BII-fearful participants show enhanced information of the respective phobic object; though, snake-fearful participants show no specific information processing enhancement of snakes); (3) the frequently reported attentional bias of spider-fearful individuals is also detectable in a prior entry paradigm.
Das Konzept des Fairen Handels fußt auf der Umsetzung der Ziele ökonomischer, ökologischer und sozialer Nachhaltigkeit. In dieser Arbeit sollte, komplementär zur bisherigen Forschung und Literatur, mit Methoden der Verhaltensökonomik analysiert werden, inwieweit Verteilungspräferenzen hinsichtlich des Einkommens den Kauf von fair gehandelten Produkten beeinflussen.
In 2006 Jeffrey Achter proved that the distribution of divisor class groups of degree 0 of function fields with a fixed genus and the distribution of eigenspaces in symplectic similitude groups are closely related to each other. Gunter Malle proposed that there should be a similar correspondence between the distribution of class groups of number fields and the distribution of eigenspaces in ceratin matrix groups. Motivated by these results and suggestions we study the distribution of eigenspaces corresponding to the eigenvalue one in some special subgroups of the general linear group over factor rings of rings of integers of number fields and derive some conjectural statements about the distribution of \(p\)-parts of class groups of number fields over a base field \(K_{0}\). Where our main interest lies in the case that \(K_{0}\) contains the \(p\)th roots of unity, because in this situation the \(p\)-parts of class groups seem to behave in an other way like predicted by the popular conjectures of Henri Cohen and Jacques Martinet. In 2010 based on computational data Malle has succeeded in formulating a conjecture in the spirit of Cohen and Martinet for this case. Here using our investigations about the distribution in matrixgroups we generalize the conjecture of Malle to a more abstract level and establish a theoretical backup for these statements.
In the present work, the phase transitions in different Fe/FeC systems were studied by using the molecular dynamics simulation and the Meyer-Entel interaction potential (also the Johnson potential for Fe-C interaction). Fe-bicrystal, thin film, Fe-C bulk and Fe-C nanowire systems were investigated to study the behaviour of the phase transition, where the energetics, dynamics and transformations pathways were analysed.
Die vorliegende Arbeit befasst sich mit der Frage nach der zukünftigen Gestalt schrumpfender Städte in untrennbarer Verbindung mit möglichen Entwicklungsrichtungen und daraus ableitbarer städtebaulicher Leitbilder mit dem Ziel, bisherige fachliche Erkenntnisse zusammenzuführen, den Überblick über die anstehenden Gestaltungsaufgaben aufzuzeigen sowie diese Aspekte in die vorhandene wissenschaftliche Methodik einer Stadtgestaltplanung zu überfuhren.
Im Ergebnis zeigt die vorliegende Arbeit die Einordnung der gestalterischen Aspekte und Problemfelder im Stadtumbau in eine entsprechende Stadtgestaltplanung unter Schrumpfungsbedingungen, die sich hinsichtlich ihrer Inhalte kaum von bisherigen Stadtbildplanungen von Michael Trieb oder Seog-Jeong Lee unterscheidet, schließlich steht sowohl für die Stadtentwicklung unter Wachstumsvorzeichen als auch unter Schrumpfungsbedingungen die Bewahrung der stadträumlichen Qualität der Europäischen Stadt im Vordergrund, die in der jeweiligen Stadtentwicklung stets Gefahr laufen, abgerissen oder überformt zu werden.
Schwerpunktmäßig kommt der Teilbereichsplanung eine primäre Bedeutung zu, um für Stadtteile mit
unterschiedlichen Entwicklungsperspektiven stadträumliche Qualitäten zu erhalten oder auszubilden.
Andererseits geht es allgemein in einer Gestaltungsaufgabe von Stadt um die Erhaltung, Erzeugung oder Weiterentwicklung eines identitätsstiftenden Stadtbildes. Die damit verbundenen Zielvorstellungen zukünftiger Stadtentwicklung zeigen eine verwirrende Vielfalt an Begriffen, die eine Stadtstruktur zwischen kompakter Europäischer Stadt und aufgelockerter, perforierter Zwischenstadt beschreiben. In der Stadtumbaupraxis wird die Umsetzung dieser Ziele, entsprechend der vorgefundenen stadtstrukturellen Ausgangslage bzw. besonderen örtlichen Rahmenbedingungen, meist in einer dualen und stadtgestalterisch nicht ins Letzte konsequenten Strategie der möglichst weitgehenden Erhaltung der historischen Stadtstrukturen bei gleichzeitiger Anerkennung der polyzentralen Entwicklung der vergangenen Jahrzehnte verfolgt. Die Konsequenz der parallelen Anwendung bisher gegensätzlicher Zielvorstellungen ist die Fortführung unscharfer Stadtbilder, die in Verbindung mit dem Bild der Stadt im Kopf meist nur in den historisch geprägten Innenstädten in eindeutige und ästhetisch ansprechende Erscheinungen konkretisiert werden können. So lasst sich die Gestalt der Stadt unter Schrumpfungsbedingungen charakterisieren als eine „perforierte bis fragmentierte Stadt mit historische Mitte und zukünftigen Konzentrationsinseln“ bzw. in Rückgriff auf bereits vorhandene Begriffe: „Zwischenstadt mit historischer Mitte“ bzw. „Zwischenstadt mit
Konzentrationsinseln“. Inwieweit das entstehende Stadtbild mit positiven Gestaltwahrnehmungen verknüpft sein wird, hängt davon ab, in welcher Intensität Schrumpfung bzw. Stadtumbau in den jeweiligen Stadtteilen zum Tragen kommen wird. Eine baulich geschlossene und kompakte Europäische Stadt kann, sofern sie das erhaltenswerte Gut bzw. städtebauliche Leitbild der zukünftigen Stadt darstellt, nur bewahrt werden, wenn Lücken und Rückbau beschrankt oder gar unterbunden werden. Das bedeutet angesichts negativer Entwicklungsperspektiven gleichzeitig verstärkter Ruckbau in den Bereichen der heutigen Zwischenstadt und die Akzeptanz entsprechend fragmentierten Stadtstrukturen, die zukünftig vor allem landschaftlich geprägt sein werden. Andersherum muss eine polyzentrale Entwicklung mit gleichzeitig fortschreitender
Außenentwicklung zu stadträumlichen Verlusten in den kompakten innerstädtischen Bereichen führen. Auch die Strategie des „sanften Stadtumbaus“, der den Rückbau auf historische und neuzeitliche Stadtstrukturen gemeinsam zu verteilen sucht, kann diesbezüglich zu keinen befriedigenden Losungen gelangen und verfestigt das Bild der Zwischenstadt auch in den bisher baulich-räumlich geschlossenen innerstädtischen Bereichen. Die Forderung einer Stadtstruktur, deren endgültige Bewertung noch immer aussteht und für deren schwer fassbares heterogenes Stadtbild aktuell Möglichkeiten zur positiven Wahrnehmung und Qualifizierung gesucht werden, kann jedoch eigentlich nicht das Ziel einer städtebaulichen Gestaltungsplanung im Rahmen der Stadtplanung sein. Die stadtgestalterische Herausforderung liegt neben einer eindeutigen Positionierung bezüglich eines städtebaulichen Leitbildes für die Stadtentwicklung in den
Rand- bzw. Grenzbereichen, den Schnittpunkten zwischen geschlossener historischer Struktur und
landschaftlich geprägter Zwischenstadt. Angesichts der Eingriffe in die Stadtstruktur und der drohenden Verfestigung bzw. räumlichen Vergrößerung der Zwischenstadt soll die hier vorliegende Auseinandersetzung mit der Gestalt der Stadt als ein Plädoyer für eine Stadtentwicklung unter Schrumpfungsbedingungen als verstärkt stadtgestalterische städtebauliche Aufgabe verstanden werden.
Die Klimaveränderung und die damit einhergehende verstärkte Fäulnisdynamik auf Trauben stellt eine Herausforderung für die nördlichen Weinbauregionen Europas dar. Daher wurde die vollautomatisch-optische Traubensortierung, eine innovative Verfahrenstechnik bei der Traubenverarbeitung, im zugrundeliegenden Projekt erstmals zur maschinellen Selektion fauler Beeren aus Hand- und Maschinenlesegut unter Praxisbedingungen in den Jahrgängen 2010 und 2011 eingesetzt. Hierzu wurden 15 Sortierversuche mit durchschnittlich zwei Tonnen Lesegut unterschiedlicher Rebsorten des Weinanbaugebietes Mosel mit unterschiedlichen Fäulnisarten und intensitäten durchgeführt, wobei Selektionsquoten bis zu 99 % erreicht wurden. Durch die Sortierung erfolgte eine Fraktionierung des Lesegutes in Saftvorlauf (aus geöffneten Beeren austretender Saft), Positivfraktion (gesunde Beeren) und Negativfraktion (faule Beeren), die im Vergleich zur unsortierten Kontrolle repräsentative Aussagen über den Fäulniseinfluss von Beeren auf die standardisiert verarbeiteten Moste und Weine lieferten.
Ziel dieser Arbeit war es, mittels vielseitiger analytischer und sensorischer Untersuchungen der einzelnen Fraktionen die vollautomatisch-optische Traubensortierung als Maßnahme zur Qualitätssicherung, -steigerung und -sicherheit der Moste und korrelierenden Weine zu bewerten. Im Rahmen der analytischen Untersuchungen wurden die Gehalte an Mykotoxinen, biogenen Aminen, Phenolen, Gluconsäure, Glycerin, organischen Säuren, Kationen, Schwefelbindungspartnern und Off-flavour-Verbindungen sowie das Mostgewicht bestimmt. Die notwendigen Methoden zur Bestimmung der Mykotoxine mittels HPLC-MS/MS sowie der phenolischen Verbindungen mittels HPLC-UV wurden entwickelt und validiert. Sensorisch wurden deskriptive sowie diskriminative Untersuchungen durchgeführt.
Die Ergebnisse der analytischen und sensorischen Untersuchungen aller Versuche zeigten, dass die Art und Entwicklung der auf Trauben auftretenden Fäulnis überwiegend zu qualitativ negativen Beeinflussungen der rebsortentypischen Weinstilistik führte. Die effiziente Selektion fäulnisbelasteter Beeren mittels vollautomatisch-optischer Traubensortierung und die hierdurch ermöglichte, individuelle Handhabung der einzelnen Sortierfraktionen tragen zur Sicherung, Steigerung und Sicherheit der Qualität von Weinen bei.
Es muss jedoch berücksichtigt werden, dass diese Ergebnisse nur den Zustand zweier Jahrgänge widerspiegeln. Zukünftige Untersuchungen über mehrere Jahre sollten daher angestrebt werden, um die beobachteten Trends zu bestätigen.
Continuum Mechanical Modeling of Dry Granular Systems: From Dilute Flow to Solid-Like Behavior
(2014)
In this thesis, we develop a granular hydrodynamic model which covers the three principal regimes observed in granular systems, i.e. the dilute flow, the dense flow and the solid-like regime. We start from a kinetic model valid at low density and extend its validity to the granular solid-like behavior. Analytical and numerical results show that this model reproduces a lot of complex phenomena like for instance slow viscoplastic motion, critical states and the pressure dip in sand piles. Finally we formulate a 1D version of the full model and develop a numerical method to solve it. We present two numerical examples, a filling simulation and the flow on an inclined plane where the three regimes are included.
The work presented in this thesis discusses the thermal and power management of multi-core processors (MCPs) with both two dimensional (2D) package and there dimensional (3D) package chips. The power and thermal management/balancing is of increasing concern and is a technological challenge to the MCP development and will be a main performance bottleneck for the development of MCPs. This thesis develops optimal thermal and power management policies for MCPs. The system thermal behavior for both 2D package and 3D package chips is analyzed and mathematical models are developed. Thereafter, the optimal thermal and power management methods are introduced.
Nowadays, the chips are generally packed in 2D technique, which means that there is only one layer of dies in the chip. The chip thermal behavior can be described by a 3D heat conduction partial differential equation (PDE). As the target is to balance the thermal behavior and power consumption among the cores, a group of one dimensional (1D) PDEs, which is derived from the developed 3D PDE heat conduction equation, is proposed to describe the thermal behavior of each core. Therefore, the thermal behavior of the MCP is described by a group of 1D PDEs. An optimal controller is designed to manage the power consumption and balance the temperature among the cores based on the proposed 1D model.
3D package is an advanced package technology, which contains at least 2 layers of dies stacked in one chip. Different from 2D package, the cooling system should be installed among the layers to reduce the internal temperature of the chip. In this thesis, the micro-channel liquid cooling system is considered, and the heat transfer character of the micro-channel is analyzed and modeled as an ordinary differential equation (ODE). The dies are discretized to blocks based on the chip layout with each block modeled as a thermal resistance and capacitance (R-C) circuit. Thereafter, the micro-channels are discretized. The thermal behavior of the whole system is modeled as an ODE system. The micro-channel liquid velocity is set according to the workload and the temperature of the dies. Under each velocity, the system can be described as a linear ODE model system and the whole system is a switched linear system. An H-infinity observer is designed to estimate the states. The model predictive control (MPC) method is employed to design the thermal and power management/balancing controller for each submodel.
The models and controllers developed in this thesis are verified by simulation experiments via MATLAB. The IBM cell 8 cores processor and water micro-channel cooling system developed by IBM Research in collaboration with EPFL and ETHZ are employed as the experiment objects.
Regular physical activity is essential to maintain or even improve an individual’s health. There exist various guidelines on how much individuals should do. Therefore, it is important to monitor performed physical activities during people’s daily routine in order to tell how far they meet professional recommendations. This thesis follows the goal to develop a mobile, personalized physical activity monitoring system applicable for everyday life scenarios. From the mentioned recommendations, this thesis concentrates on monitoring aerobic physical activity. Two main objectives are defined in this context. On the one hand, the goal is to estimate the intensity of performed activities: To distinguish activities of light, moderate or vigorous effort. On the other hand, to give a more detailed description of an individual’s daily routine, the goal is to recognize basic aerobic activities (such as walk, run or cycle) and basic postures (lie, sit and stand).
With recent progress in wearable sensing and computing the technological tools largely exist nowadays to create the envisioned physical activity monitoring system. Therefore, the focus of this thesis is on the development of new approaches for physical activity recognition and intensity estimation, which extend the applicability of such systems. In order to make physical activity monitoring feasible in everyday life scenarios, the thesis deals with questions such as 1) how to handle a wide range of e.g.
everyday, household or sport activities and 2) how to handle various potential users. Moreover, this thesis deals with the realistic scenario where either the currently performed activity or the current user is unknown during the development and training
phase of activity monitoring applications. To answer these questions, this thesis proposes and developes novel algorithms, models and evaluation techniques, and performs thorough experiments to prove their validity.
The contributions of this thesis are both of theoretical and of practical value. Addressing the challenge of creating robust activity monitoring systems for everyday life the concept of other activities is introduced, various models are proposed and validated. Another key challenge is that complex activity recognition tasks exceed the potential of existing classification algorithms. Therefore, this thesis introduces a confidence-based extension of the well known AdaBoost.M1 algorithm, called ConfAdaBoost.M1. Thorough experiments show its significant performance improvement compared to commonly used boosting methods. A further major theoretical contribution is the introduction and validation of a new general concept for the personalization of physical activity recognition applications, and the development of a novel algorithm (called Dependent Experts) based on this concept. A major contribution of practical value is the introduction of a new evaluation technique (called leave-one-activity-out) to simulate when performing previously unknown activities in a physical activity monitoring system. Furthermore, the creation and benchmarking of publicly available physical activity monitoring datasets within this thesis are directly benefiting the research community. Finally, the thesis deals with issues related to the implementation of the proposed methods, in order to realize the envisioned mobile system and integrate it into a full healthcare application for aerobic activity monitoring and support in daily life.
Traubenerzeugende Betriebe fordern eine faire Bezahlung, bei der arbeitsintensive qualitätsfördernde Maßnahmen honoriert werden und nicht ausschließlich hohe Erträge den betriebswirtschaftlichen Erfolg garantieren. Traubenabnehmer andererseits fordern nicht nur die Einhaltung vertraglich festgelegter Erträge und Qualitäten, sondern benötigen auch eine möglichst genaue analytische Charakterisierung des Leseguts, auf deren Basis eine differenzierte Auszahlung begründet und objektiv vorgenommen werden kann. Gängige und vor Ort rasch bestimmbare Parameter, wie etwa der Zuckergehalt, sind als alleinige Qualitätsparameter jedoch nicht in der Lage, die gesamte Komplexität der Traubenqualität ausreichend wiederzugeben. Auch die häufig zum Einsatz kommende visuelle Einschätzung greift zu kurz, da Qualitäts- mindernde Veränderungen, wie etwa ein Wachstum von Botrytis cinerea bzw. Sekundärinfektanten, oftmals erst bei Ausbildung der Fruchtstände erkennbar werden. Die Infrarotspektroskopie wässriger Proben ist, unter anderem aufgrund der raschen Durchführung der entsprechenden Analysen, eine Technik, die geeignet scheint, für diese Problemstellung einen entsprechenden Lösungsansatz zu bieten.
Vorliegende Arbeit beschreibt die umfangreiche Erstellung und Validierung einer FT-MIR Kalibrierung auf Basis mehrerer Jahrgänge deutscher Trauben- und Mostproben. Dabei werden insbesondere jene Parameter, welche unmittelbare Aussagen über den Reife- und Gesundheitszustand des Untersuchungsmaterials erlauben, identifiziert, charakterisiert und validiert. Dargestellt wird die Kalibration von Minor- und Majorbestandteilen sowie nachfolgend die Validierung mit den jeweiligen Folgejahrgängen. Ein Abgleich der in verschiedenen Genossenschaften ermittelten analytischen Kenndaten mit rein visuell ermittelten Qualitätseinschätzungen zeigt die Plausibilität und Validität der FT-MIR Analysendaten, wie auch die Limitationen der optischen Qualitätseinschätzung, klar auf. Ebenso werden auch die regional sehr unterschiedlichen Anforderungen bzw. Charakteristika deutlich. Um mögliche Geräte- spezifische Unterschiede zwischen den vor-Ort Messungen der einzelnen Anwender der Technik evaluieren zu können, werden als Abschluss und finaler „Proof-of-Concept“ der vorliegenden Arbeit Kenndaten von entsprechenden Ringversuchen mehrerer Jahrgänge dargestellt und bewertet. Ergänzend werden die ermittelten Kenndaten mit Kenndaten der wissenschaftlich publizierten Literatur abgeglichen, um die Leistungsfähigkeit für relevante Analysenparameter der wichtigsten Traubeninhaltsstoffe, aber auch für Minorbestandteile, aufzuzeigen.
Das übergeordnete Ziel der Arbeit stellt eine nachhaltige Qualitätsverbesserung der resultierenden Weine durch Honorierung guter Qualitäten des Ausgangs- Leseguts dar. Um letztlich die Umsetzbarkeit dieses Zieles zu belegen werden Berechnungsmodelle zur Gestaltung möglicher alternativer Auszahlungsmodelle auf Basis realer Datensätze Süddeutscher Genossenschaften vorgestellt und evaluiert.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
Backward compatibility of class libraries ensures that an old implementation of a library can safely be replaced by a new implementation without breaking existing clients.
Formal reasoning about backward compatibility requires an adequate semantic model to compare the behavior of two library implementations.
In the object-oriented setting with inheritance and callbacks, finding such models is difficult as the interface between library implementations and clients are complex.
Furthermore, handling these models in a way to support practical reasoning requires appropriate verification tools.
This thesis proposes a formal model for library implementations and a reasoning approach for backward compatibility that is implemented using an automatic verifier. The first part of the thesis develops a fully abstract trace-based semantics for class libraries of a core sequential object-oriented language. Traces abstract from the control flow (stack) and data representation (heap) of the library implementations. The construction of a most general context is given that abstracts exactly from all possible clients of the library implementation.
Soundness and completeness of the trace semantics as well as the most general context are proven using specialized simulation relations on the operational semantics. The simulation relations also provide a proof method for reasoning about backward compatibility.
The second part of the thesis presents the implementation of the simulation-based proof method for an automatic verifier to check backward compatibility of class libraries written in Java. The approach works for complex library implementations, with recursion and loops, in the setting of unknown program contexts. The verification process relies on a coupling invariant that describes a relation between programs that use the old library implementation and programs that use the new library implementation. The thesis presents a specification language to formulate such coupling invariants. Finally, an application of the developed theory and tool to typical examples from the literature validates the reasoning and verification approach.
Polychlorinated dibenzo-p-dioxins, dibenzofurans, and polychlorinated biphenyls are persistent environmental pollutants which ubiquitously occur as complex mixtures and accumulate in the food and feed chain due to their high lipophilic properties. Of the 419 possible congeners, only 29 share a common mechanism of action and cause similar effects, the so called dioxin-like compounds. Dioxin-like compounds evoke a broad spectrum of biochemical and toxic responses, i.e. enzyme induction, dermal toxicity, hepatotoxicity, immunotoxicity, carcinogenicity as well as adverse effects on reproduction, development, and the endocrine system in laboratory animals and in humans. Most, if not all, of the aforementioned responses, are mediated by the aryl hydrocarbon receptor. In the present work, the elicited biochemical effects of a selection of dioxin-like compounds and the non dioxin-like PCB 153 were examined in mouse (in vivo) and in human liver cell models (in vitro). Emphasis was given to the main contributors to the total toxic equivalents in human blood and tissues TCDD, 1-PnCDD, 4-PnCDF, PCB 118, PCB 126, and PCB 156, which likewise contribute about 90 % to the dioxin-like activity in the human food chain.
Three mouse in vivo studies were carried out aiming to characterize the alterations in hepatic gene expression as well as the induction of hepatic xenobiotic metabolizing enzymes after single oral dose. Based on the results obtained from mouse 3-day and 14-day studies, the seven test compounds can be categorized into three classes; the ones which are 'pure' AhR ligands (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) or solely CAR inducers (PCB 153), and the ones which are AhR/CAR mixed-type inducers (PCB 118, PCB 156). Moreover, the analysis of hepatic gene expression patterns after a single oral dose of either TCDD or PCB 153 revealed that the altered genes fundamentally differed. Profiling of significantly altered genes led to the conclusion that changes in gene expression were associated with different signalling pathways, in fact by AhR and CAR.
For investigating the role of the AhR in mediating biological responses, several experimental approaches were carried out, such as the analysis of blood plasma metabolites in Ahr knockout and wild-type mice. Genotype specifics and similarities were determined by HPLC-MS/MS analysis. Several plasma metabolites could be identified in both genotypes, but also differences were detected. Furthermore, an in vivo experiment was performed aiming to characterize AhR-dependent and -independent effects in female Ahr knockout and wild-type mice. For this purpose, mice received a single oral dose of TCDD and were killed 96 h later. Microarray analysis of mouse livers revealed that although the Ahr gene was knocked out in Ahr-/- mice, the quantity of affected genes were in the same order of magnitude as for Ahr+/+ mice, but the pattern of altered genes distinctly differed. In addition, the relative liver weights of TCDD-treated Ahr+/+ mice were significantly increased which led to the conclusion, that TCDD induced the development of hepatic steatosis in female Ahr wild-type.
The performed in vitro experiments aimed to characterize the effects elicited by selected DLCs and PCB 153 in human liver cell models by the use of HepG2 cells and primary human hepatocytes. In general, primary human hepatocytes were less responsive than HepG2 cells. This was not only observed in EC values derived from EROD assay, but also regarding microarray analysis in terms of differently regulated genes. In vitro REPs gained from both liver cell models widely confirmed the current TEFs, but some deviations occurred. The comparison of the TCDD-altered genes in both human cell types revealed that only a considerably small number of genes was in common up regulated by both human liver cell models, such as the established AhR-regulated highly inducible cytochrome P450s 1A1, 1A2, and 1B1 as well as other AhR target genes. Although the overlap was rather small, the TCDD-induced genes could be consistently associated with the broad spectrum of established dioxin-related biological responses. The gene expression pattern in primary human hepatocytes after treatment with selected DLCs (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) and PCB 153 was additionally characterized by microarray analysis. The highest response in terms of significantly altered genes was determined for TCDD, followed by 4-PnCDF, 1-PnCDD, and PCB 126, whereas exposure to PCB 153 did not evoke any significant changes in gene expression. The pattern of significantly altered genes was very homogenous among the four congeners. Genes associated with well-established DLC-related biological responses as well as novel dioxin-inducible target genes were identified, whereby an extensive overlap in terms of up regulated genes by all four DLCs occurred. In conclusion, the results from the in vitro experiments performed in primary human hepatocytes provided fundamental insight into the congeners' potencies and caused alterations in gene expression patterns. The obtained findings implicate that although the extent of enzyme inducibilities varied, the gene expression patterns are coincidental. Microarray analysis identified species-specific (mouse vs. human) as well as model-specific (in vitro vs. in vivo and transformed cells vs. untransformed cells) differences. In order to identify novel biomarkers for AhR activation due to treatment with dioxin-like compounds, five candidates were selected based on the microarray results i.e. ALDH3A1, TIPARP, HSD17B2, CD36, and AhRR. Eventually, ALDH3A1 turned out to be the most reliable and suitable marker for exposure to DLCs in both human liver cell models eliciting the highest mRNA inducibility among the five chosen candidates. In which way these species- and cell type-specific markers are involved in the dioxin-elicited toxic responses should be further characterized in vivo and in vitro.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der "Plug and Play"-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein "FMControl" demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins "FMControl" können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Die Auslegung trockenverdichtender Schraubenvakuumpumpen erfordert die genaue Kenntnis der schädlichen Rückströmung über die inneren Maschinenspalte. Eine herausragende Bedeutung kommt aufgrund der großen Querschnittsfläche dem Gehäusespalt zu. Zusätzlich stellt dieser eine relativ große Oberfläche für den Wärmeaustausch mit dem durchströmenden Gas zur Verfügung, was für das thermische Verhalten der Maschine wichtig ist.
In der vorliegenden Arbeit wird anhand eines vereinfachten Ersatzspaltes ein Modell entwickelt, das die Berechnung des Spaltmassenstroms und der resultierenden Wärmeströme an Rotor- und Gehäuseseite ermöglicht.
Durch die Analyse der in Schraubenvakuumpumpen typischerweise auftretenden Größenverhältnisse und Drücken wird gezeigt, dass die Strömungsform im Spalt von viskoser, schwach turbulenter bis hin zur molekularen Strömung reichen kann. Da der Gehäusespalt von zwei Maschinenteilen gebildet wird, weisen beide Spaltberandungen i.A. deutlich verschiedene Temperaturen auf, was für die Modellierung des Wärmeübergangs berücksichtigt werden muss.
Um das Modell allgemeingültig zu gestalten, wird die Analyse auf der Basis von dimensionslosen Werten für die Wandreibung und die Wärmeströme durchgeführt. Zur Bestimmung werden im Bereich der viskosen Strömung CFD- Methoden eingesetzt, die eine detaillierte Auswertung der Reibwert- und Wärmestromverläufe ermöglichen. Zur Modellierung der turbulenten bzw. transitionellen Strömung kommt in dieser Arbeit das SST-Turbulenzmodell unter Anbindung eines Transitionsmodells zum Einsatz.
Für verdünnte Strömungen sind diese Methoden nicht einsetzbar; es kann jedoch gezeigt werden, dass hier die Einlauf- und Kompressibilitätseffekte nur eine untergeordnete Rolle spielen. Dies erlaubt eine einfache Modellierung durch Anpassung des Reibungsgesetzes und der effektiven Wärmeleitfähigkeit des Gases als Funktion der Gasverdünnung.
Mit den für alle Strömungsbereiche bekannten Reib- und Wärmeübertragungsgesetzen wird ein Berechnungsalgorithmus formuliert, der unter Vorgabe von Gasart, Spaltgeometrie, Druck vor und hinter dem Spalt sowie der Temperaturen eine effektive Berechnung des gesuchten Spaltmassenstroms sowie der Wärmestromverläufe in die Bauteile ermöglicht.
Die Validierung des entwickelten Modells erfolgt anhand von Versuchen mit einem Spaltkonturkörper, der zwischen zwei Rezipienten mit unterschiedlichen Drücken positioniert wird. Die Oberflächen des Konturkörpers sind ungleich temperiert und mit Wärmestromsensoren ausgestattet. Der Abgleich der gemessenen mit den berechneten Werte zeigt für alle Strömungsbereiche gute Übereinstimmung, was die Gültigkeit des vorgestellten Modells belegt.
This thesis is divided into two parts. Both cope with multi-class image segmentation and utilize
non-smooth optimization algorithms.
The topic of the first part, namely unsupervised segmentation, is the application of clustering
to image pixels. Therefore, we start with an introduction of the biconvex center-based clustering
algorithms c-means and fuzzy c-means, where c denotes the number of classes. We show that
fuzzy c-means can be seen as an approximation of c-means in terms of power means.
Since noise is omnipresent in our image data, these simple clustering models are not suitable
for its segmentation. To this end, we introduce a general and finite dimensional segmentation
model that consists of a data term stemming from the aforementioned clustering models plus a
continuous regularization term. We tackle this optimization model via an alternating minimiza-
tion approach called regularized c-centers (RcC). Thereby, we fix the centers and optimize the
segment membership of the pixels and vice versa. In this general setting, we prove convergence
in the sense of set-valued algorithms using Zangwill’s Theory [172].
Further, we present a segmentation model with a total variation regularizer. While updating
the cluster centers is straightforward for fixed segment memberships of the pixels, updating the
segment membership can be solved iteratively via non-smooth, convex optimization. Thereby,
we do not iterate a convex optimization algorithm until convergence. Instead, we stop as soon as
we have a certain amount of decrease in the objective functional to increase the efficiency. This
algorithm is a particular implementation of RcC providing also the corresponding convergence
theory. Moreover, we show the good performance of our method in various examples such as
simulated 2d images of brain tissue and 3d volumes of two materials, namely a multi-filament
composite superconductor and a carbon fiber reinforced silicon carbide ceramics. Thereby, we
exploit the property of the latter material that two components have no common boundary in
our adapted model.
The second part of the thesis is concerned with supervised segmentation. We leave the area
of center based models and investigate convex approaches related to graph p-Laplacians and
reproducing kernel Hilbert spaces (RKHSs). We study the effect of different weights used to
construct the graph. In practical experiments we show on the one hand image types that
are better segmented by the p-Laplacian model and on the other hand images that are better
segmented by the RKHS-based approach. This is due to the fact that the p-Laplacian approach
provides smoother results, while the RKHS approach provides often more accurate and detailed
segmentations. Finally, we propose a novel combination of both approaches to benefit from the
advantages of both models and study the performance on challenging medical image data.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der „Plug and Play“-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein „FMControl“ demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins „FMControl“ können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
In the last few years a lot of work has been done in the investigation of Brownian motion with point interaction(s) in one and higher dimensions. Roughly speaking a Brownian motion with point interaction is nothing else than a Brownian motion whose generator is disturbed by a measure supported in just one point.
The purpose of the present work is the introducing of curve interactions of the two dimensional Brownian motion for a closed curve \(\mathcal{C}\). We will understand a curve interaction as a self-adjoint extension of the restriction of the Laplacian to the set of infinitely often continuously differentiable functions with compact support in \(\mathbb{R}^{2}\) which are constantly 0 at the closed curve. We will give a full description of all these self-adjoint extensions.
In the second chapter we will prove a generalization of Tanaka's formula to \(\mathbb{R}^{2}\). We define \(g\) to be a so-called harmonic single layer with continuous layer function \(\eta\) in \(\mathbb{R}^{2}\). For such a function \(g\) we prove
\begin{align}
g\left(B_{t}\right)=g\left(B_{0}\right)+\int\limits_{0}^{t}{\nabla g\left(B_{s}\right)\mathrm{d}B_{s}}+\int\limits_{0}^{t}\eta\left(B_{s}\right)\mathrm{d}L\left(s,\mathcal{C}\right)
\end{align}
where \(B_{t}\) is just the usual Brownian motion in \(\mathbb{R}^{2}\) and \(L\left(t,\mathcal{C}\right)\) is the connected unique local time process of \(B_{t}\) on the closed curve \(\mathcal{C}\).
We will use the generalized Tanaka formula in the following chapter to construct classes of processes related to curve interactions. In a first step we get the generalization of point interactions in a second step we get processes which behaves like a Brownian motion in the complement of \(\mathcal{C}\) and has an additional movement along the curve in the time- scale of \(L\left(t,\mathcal{C}\right)\). Such processes do not exist in the one point case since there we cannot move when the Brownian motion is in the point.
By establishing an approximation of a curve interaction by operators of the form Laplacian \(+V_{n}\) with "nice" potentials \(V_{n}\) we are able to deduce the existence of superprocesses related to curve interactions.
The last step is to give an approximation of these superprocesses by a sytem of branching particles. This approximation gives a better understanding of the related mass creation.
The research presented in this PhD thesis is a contribution to the field of anion recognition in competitive aqueous solvent mixtures. Neutral anion receptors having a cage-type architecture have been developed on the basis of triply-linked bis(cyclopeptides) and their binding properties toward various inorganic anions have been studied.
The synthetic approaches chosen to assemble the targeted container molecules rely on dynamic chemistry under the template effects of anions such as sulfate and halides. As reversible reactions metal-ligand exchange and thiol-disulfide exchange were used. Disulfide exchange has previously provided singly- and doubly-linked bis(cyclopeptide) receptors whose anion affinities in 2:1 acetonitrile/water mixtures approached the nanomolar range. Metal-ligand interactions have so far not been used to assemble bis(cyclopeptides) in our group. The cyclopeptide building blocks required for both approaches, namely cyclic hexapeptides containing alternating 6-aminopicolinic acid and either (2S,4S)-4-cyanoproline or (2S,4S)-4-thioproline subunits could be synthesized successfully.
Self-assembly of the bis(cyclopeptide) held together by coordinative interactions has been attempted by treating the cyclopeptide trinitrile with square-planar palladium (II) complexes. The reaction was followed with different NMR spectroscopic techniques. Unfortunately, none of the experiments provides conclusive evidence that the targeted triply-linked cage was indeed formed.
Bis(cyclopeptides) containing three dithiol derived linkers between the cyclopeptide rings could be synthesizes successfully. Two complexes were isolated, albeit in small amounts, one containing linkers derived from 1,2-ethanedithiol and the other one from 1,3-benzenedithiol that contain a sulfate anion incorporated in the cavity between the cyclopeptide rings. Formation of triply-linked bis(cyclopeptides) containing different types of linkers could be achieved by performing the synthesis in the presence of different dithiols. Unfortunately, the two C3 symmetrical bis(cyclopeptides) containing a single linker type could not be isolated in analytically pure form so that only qualitative binding studies could be performed. Investigations in this context indicate extraordinary sulfate affinity for these bis(cyclopeptides). In particular, affinity of the receptor containing the 1,2-ethanedithiol linkers for sulfate anions is so high that is even able to dissolve barium sulfate under appropriate conditions and presumably exceeds the sulfate affinity of the doubly-linked bis(cyclopeptides). The sulfate anion present in the cavity of this bis(cyclopeptide) can be replaced by a large number of other anions, i.e. by selenate, perrhenate, nitrate, tetrafluoroborate, hexafluorophosphate and halides. None of these complexes proved to be as stable as the corresponding sulfate complex. In addition, 1H-NMR spectroscopic investigations provided information about the solution structure of the bis(cyclopeptide) anion complexes. Sulfate release from the cavity of the receptor is a slow process while exchange of other anions is significantly faster. Another interesting feature that has been observed for sulfate and selenate complexes of the 1,2-ethanedithiol-containing bis(cyclopeptide) is the very slow H/D rate with which protons on amide groups located inside the cavity of the cage are replaced by deuterium atoms in protic deuterated solvents. This effect in combination with the observation that the different deuterated bis(cyclopeptide) species exhibit individual amide NH signals in the 1H-NMR spectrum are indicative for well defined complex geometries with strong hydrogen-bonding interactions between the anion and the amide NH groups of the receptor. Following the H/D exchange rate in the presence of various salts indicated that anion exchange proceeds via the dissociated complex and not by direct replacement of one anion by another one.
Auf dem Weg zu einer nachhaltigen Entwicklung spielen die Unternehmen eine wichtige Rolle durch ihren großen und zum Teil internationalen Einfluss. Dabei ist es jedoch für jedes Unternehmen eine Herausforderung, sich von dem rein ökonomischen Denken und Handeln zu lösen und zusätzlich die Vorteile in der Unterstützung und Nachverfolgung der beiden anderen Säulen der Nachhaltigkeit, nämlich dem ökologischen und sozialen Aspekt, zu sehen. Denn Investitionen z.B. in Mitarbeiter, als ein sozialer Bereich, oder in umwelttechnische Innovationen bieten ebenso Chancen für den Wettbewerb und ermöglichen eine langfristige Sicherung des Unternehmenserfolgs.Ziel dieser Arbeit ist es herauszufinden, inwieweit die von den Mitarbeitern wahrge-nommene Nachhaltigkeit ihres Standortes von dem veröffentlichten Nachhaltigkeitsbericht des gesamten Unternehmens abweicht und wie der aktuelle Status der Berichterstattung unter Berücksichtigung aller drei Aspekte der Nachhaltigkeit ist.
Tire-soil interaction is important for the performance of off-road vehicles and the soil compaction in the agricultural field. With an analytical model, which is integrated in multibody-simulation software, and a Finite Element model, the forces and moments generated on the tire-soil contact patch were studied to analyze the tire performance. Simulations with these two models for different tire operating conditions were performed to evaluate the mechanical behaviors of an excavator tire. For the FE model validation a single wheel tester connected to an excavator arm was designed. Field tests were carried out to examine the tire vertical stiffness, the contact pressure on the tire – hard ground interface, the longitudinal/vertical force and the compaction of the sandy clay from the test field under specified operating conditions. The simulation and experimental results were compared to evaluate the model quality. The Magic Formula was used to fit the curves of longitudinal and lateral forces. A simplified tire-soil interaction model based on the fitted Magic Formula could be established and further applied to the simulation of vehicle-soil interaction.
Aim of this work was the extension and development of a coupled Computational Fluid Dynamics (CFD) and population balance model (PBM) solver to enable a simulation aided design of stirred liquid-liquid extraction columns. The principle idea is to develop a new design methodology based on a CFD-PBM approach and verify it with existing data and correlations. On this basis, the separation performance in any apparatus geometry should be possible to predict without any experimental input. Reliable “experiments in silico” (computer calculations) should give the engineer a valuable and user-friendly tool for early design studies at minimal costs.
The layout of extraction columns is currently based on experimental investigations from miniplant to pilot plant and a scale-up to the industrial scale. The hydrodynamic properties can be varied by geometrical adjustments of the stirrer diameter, the stirrer height, the free cross sectional area of the stator, the compartment height as well as the positioning and the size of additional baffles. The key parameter for the liquid–liquid extraction is the yield which is mainly determined at the in- and outlets of the column. Local phenomena as the swirl structure are influenced by geometry changes. However, these local phenomena are generally neglected in state-of-the are design methodologies due to the complex required measurement techniques. A geometrical optimization of the column therefore still results in costs for validation experiments as assembly and operation of the column, which can be reduced by numerical investigations. The still mainly in academics used simulation based layout of counter-current extraction columns is based at the beginning of this work on one dimensional simulations of extraction columns and first three dimensional simulations. The one dimensional simulations are based on experimental derived, geometrical dependent correlations for the axial backmixing (axial dispersion), the hold-up, the phase fraction, the droplet sedimentation and the energy dissipation. A combination of these models with droplet population balance modeling resulted in a description of the complex droplet-droplet interactions (droplet size) along the column height. The three dimensional CFD simulations give local information about the flow field (velocity, swirl structure) based on the used numerical mesh corresponding to the real geometry. A coupling of CFD with population balance modeling further provides information about the local droplet size. A backcoupling of the droplet size with the CFD (drag model) results in an enhancement of the local hydrodynamics (e.g. hold-up, dispersed phase velocity). CFD provided local information about the axial dispersion coefficient of simple geometrical design (e.g. Rotating Disc Contactor (RDC) column). First simulations of the RDC column using a two dimensional rotational geometry combined with population balance modeling were performed and gave local information about the droplet size for different boundary conditions (rotational speed, different column sizes).
In this work, two different column types were simulated using an extended OpenSource CFD code. The first was the RDC column, which were mainly used for code development due to its simple geometry. The Kühni DN32 column is equipped with a six-baffled stirring device and flat baffles for disturbing the flow and requires a full three dimensional description. This column type was mainly used for experimental validation of the simulations due to the low required volumetric flow rate. The Kühni DN60 column is similar to the Kühni DN32 column with slight changes to the stirring device (4-baffles) and was used for scale up investigations. For the experimental validation of the hydrodynamics, laser based measurement techniques as Particle Image Velocimetry (PIV) and Laser Induced Fluorescence (LIF) were used. A good agreement between the experimental derived values for velocity, hold-up and energy dissipation, experimentally derived correlations from literature and the simulations with a modified Euler-Euler based OpenSource CFD code could be found. The experimental derived axial dispersion coefficient was further compared to Euler-Lagrange simulations. The experimental derived correlations for the Kühni DN32 in literature fit to the simulated values. Also the axial dispersion coefficient for the dispersed phase satisfied a correlation from literature. However, due to the complexity of the dispersed phase axial dispersion coefficient measurement, the available correlations gave no distinct agreement to each other.
A coupling of the modified Euler-Euler OpenSource CFD code was done with a one group population balance model. The implementation was validated to the analytical solution of the population balance equation for constant breakage and coalescence kernels. A further validation of the population balance transport equation was done by comparing the results of a five compartment section to the results of the commercial CFD code FLUENT using the Quadrature Method of Moments (QMOM).
For the simulation of the droplet-droplet interactions in liquid-liquid extraction columns, several breakage and coalescence models are available in the literature. The models were compared to each other using the one-group population balance model in Matlab which allows the determination of the minimum stable droplet diameter at a certain energy dissipation. Based on this representation, it was possible to determine the parameters for a specific breakage and coalescence model combination which allowed the simulation of a Kühni miniplant column at different rotational speeds. The resulting simulated droplet size was in very good agreement to the experimental derived droplet size from literature. Several column designs of the DN32 were investigated by changing the compartment height and the axial stirrer position. It could be shown that a decrease of the stirrer position increases the phase fraction inside the compartment. At the same time, the droplet size decreases inside the compartment, which allows a higher mass transfer due to a higher available interfacial area. However, the shifting results in an expected earlier flooding of the column due to a compressed flow structure underneath the stirring device. In a next step, the code was further extended by mass transfer equations based on the two-film theory. Mass transfer coefficient models for the dispersed and continuous phase were investigated for the RDC column design.
A first mass transfer simulation of a full miniplant column was done. The change in concentration was accounted by the mixture density, viscosity and interfacial tension in dependence of the concentration, which affects the calculation of the droplet size. The results of the column simulation were compared to own experimental data of the column. It could be shown that the concentration profile along the column height can be predicted by the presented CFD/population balance/mass transfer code. The droplet size decreases corresponding to the interfacial tension along the column height. Compared to the experimental derived droplet size at the outlet, the simulation is in good agreement.
Besides the occurrence of a mono dispersed droplet size, high breakage may lead to the generation of small satellite droplets and coalescence underneath the stator leads to larger droplets inside the column and hence to a change of the hold-up and of the flooding point. A multi-phase code was extended by the Sectional Quadrature Method of Moment (SQMOM) allowing a modeling of the droplet interactions of bimodal droplet interactions or multimodal distributions. The implementations were in good agreement to the analytical solution. In addition, the simulation of an RDC column section showed the different distribution of the smaller droplets and larger droplets. The smaller droplets tend to follow the continuous phase flow structure and show a higher distribution of inside the column. The larger droplets tend to rise directly through the column and show only a low influence to the continuous phase flow.
The current results strengthen the use of CFD for the layout of liquid-liquid extraction columns in future. The coupling of CFD/PBM and mass transfer using an OpenSource CFD code allows the investigation of computational intensive column designs (e.g. pilot plant columns). Furthermore the coupled code enhances the accuracy of the hydrodynamics simulations and leads to a better understanding of counter-current liquid-liquid extraction columns. The gained correlation were finally used as an input for one dimensional mass transfer simulations, where a perfect fit of the concentration profiles at varied boundary conditions could be obtained. By using the multi-scale approach, the computational time for mass transfer simulations could be reduced to minutes. In future, with increasing computational power, a further extend of the multiphase CFD/SQMOM model including mass transfer equation will provide an efficient tool to model multimodal and multivariate systems as bubble column reactors.
Die vorliegende Arbeit beschreibt die Entwicklung eines Konzeptes und einer Online-Plattform für die Integration von onlinegestütztem Peer Feedback in Präsenzlehrangeboten an der Technischen Universität Kaiserslautern.
Feedback ist ein wichtiges Instrument im Lernprozess, insbesondere im aktiven Lernen, das für eine moderne Didaktik kennzeichnend ist. Außerdem ist Feedbackgeben eine zentrale Aufgabe des professionellen Handelns als Lehrer, so dass sich Peer Feedback Prozesse auf natürliche Art kompetenzentwickelnd in die Lehrerbildung einbetten lassen.
Auf Grundlage der existierenden Literatur wurde ein onlinegestützter Peer Feedback Prozess entworfen, implementiert, in verschiedenen Veranstaltungen umgesetzt und zugleich qualitativ beforscht. Die Forschung orientierte sich dabei an der Methodik der Design Based Research, die eine iterative Entwicklungsforschung in komplexen Strukturen ermöglicht und dabei Raum für den Umgang mit emergenten Phänomenen lässt, zugleich aber eine Generalisierung aus den konkreten Artefakten anstrebt.
Es stellt sich heraus, dass Peer Feedback mit der Online-Plattform PeerGynt eine wertvolle Ergänzung für Präsenzseminare ist: Durch einen dedizierten zeitlichen und organisatorischen Raum wird Feedback aufgewertet und hilfreicher für die Teilnehmenden.
Kaskaden aus Aerober Oxidation und Radikalischer Funktionalisierung zum Aufbau Cyclischer Ether
(2013)
Die aerobe Cobalt-katalysierte Oxidation von Alkenolen ist eine zweistufige Reaktionssequenz,
die zum stereoselektiven Aufbau funktionalisierter Tetrahydrofurane genutzt
werden kann. Im ersten, katalytisch verlaufenden Teil der Reaktion werden 4-Pentenole
mit Hilfe von Luftsauerstoff und β-Diketonat-abgeleiteten Cobalt(II)-Komplexen mit hoher
Diastereoselektivität in nucleophile Tetrahydrofurylmethyl-Radikale überführt. Diese
können im zweiten Teil der Reaktion mit einer Reihe von Reagenzien abgefangen werden:
Durch radikalische Addition an Akzeptor-substituierte Olefine und anschließenden H-Atom-Transfer können Seitenketten-funktionalisierte Tetrahydrofurane in Ausbeuten bis 67% erhalten werden, wobei die durch direkte H-Atom-Übertragung gebildeten reduktiv terminierten Tetrahydrofurane als Nebenprodukte gebildet werden. Anhand der Produktverhältnisse konnten relative Geschwindigkeitsfaktoren bestimmt werden, die den Radikal-Charakter der Zwischenstufe bestätigen. Im Gegensatz zu klassischen Radikalreaktionen verläuft auch die Addition an Alkine mit ausreichend hoher Geschwindigkeit um Tetrahydrofurane mit ungesättigter Seitenkette in synthetisch sinnvollen Ausbeuten darzustellen. Diese Eigenschaft konnte zum Aufbau eines diastereomerenreinen Bistetrahydrofurans in einer Kaskade von zwei Cyclisierungen genutzt werden.
Durch radikalische Substitution an Disulfiden können in Cobalt-katalysierten Oxidationen Alkylsufanyl-funktionalisierte Tetrahydrofurane aufgebaut werden, ohne dass die so gebildeten Thioether selbst zu Sulfoxiden und Sulfonen oxidiert werden. Die Einführung der Methylsulfanyl-Gruppe konkurriert dabei mit der direkten H-Atom-
Übertragung und eröffnete so die Möglichkeit aus einer Reihe konkurrenzkinetischer
Experimente die Geschwindigkeitskonstante für die Übertragung der Methylsulfanyl-
Gruppe zu ermitteln. Die Methode ermöglichte die Vereinfachung und Verbesserung der Synthese eines Wirkstoff-Derivats sowie die Darstellung eines 2,6- trans-konfigurierten Tetrahydropyrans.
Darauf aufbauend wurde eine generelle Methode zum Aufbau von Tetrahydropyranen ausgehend von Hexenolen entwickelt, die die hohe Diastereoselektivität, die bei der Cyclisierung von Pentenolen beaobachtet wird, beibehält. Es wurde ein stereochemisches Modell für die Cyclisierung abgeleitet, das die beobachteten Selektivitäten erklärt und Voraussagen zu noch nicht getesteten Substraten ermöglicht. Mit der Synthese von nichtcyclischen Ethern ausgehend von Alkoholen und Alkenen konnte gezeigt werden, dass der Mechanismus der aeroben Cobalt-katalysierten Oxidation über die Synthese von Tetrahydrofuranen und Tetrahydropyranen hinaus anwendbar ist und für die Erforschung weiterer Transformationen unter veränderten Reaktionsbedingungen bereit steht.
Der Abbau des essentiellen Penicillin-Bindeproteins 2x in S. pneumoniae durch die Serinprotease HtrA
(2013)
Im Fokus dieser Arbeit stand der Abbau des essentiellen Zellteilungsproteins PBP2x aus S. pneumoniae durch die Serinprotease HtrA. Die PBP2x-Molekülmenge des Wildtypsatmms R6 wurde mit Hilfe einer quantitativen Methode ermittelt und ergab einen Wert von ca. 20.000 Molekülen. Für den Laborstamm C405, der unter anderem die zwei AS-Austausche L403F und T526S innerhalb der Transpep-tidase-Domäne von PBP2x beinhaltet, konnte eine 6,3fach geringere Menge im Vergleich zum Wildtypstamm R6 nachgewiesen werden. Der Laborstamm C606, der vier AS-Austausche in der Transpep-tidase-Domäne von PBP2x aufweist, besitzt sogar eine noch geringere PBP2x-Menge und ist gene-tisch instabil. Die geringe Menge des essentiellen PBP2x in den beiden Stämmen C405 und C606 konnte jeweils auf die proteolytische Aktivität der Serinprotease HtrA zurückgeführt werden. Die alleinige Auswirkung der PBP2x-Mutationen aus C405 und C606 auf die PBP2x-Menge wurden im definierten genetischen Hintergrund des Wildtypstamms R6 untersucht. Dabei konnte bewiesen werden, dass auch hier schon geringere Mengen an PBP2x vorliegen, die Mutationen also direkt Einfluß auf die Struktur von PBP2x haben und somit durch HtrA abgebaut werden. Diese Mutanten besitzen einen temperatursensitiven Resistenzphänotyp, wobei das Wachstum bei 30 °C zu verlängerten Zellen führte.
Innerhalb umfassender Komplementationsstudien wurde die htrA-Expression in unterschiedlichen Stämmen stufenweise erhöht, wobei korrelierend mit den steigenden HtrA-Mengen in den Zellen jeweils stufenweise verringerte PBP2x-Menge erwartet wurden. Die Ergebnisse zeigen eindeutig, dass die Serinprotease HtrA je nach genetischem Hintergrund nur bis zu einem bestimmten Level bzw. überhaupt nicht überexprimiert werden kann. Sobald dieser Level überschritten wird, wehrt sich die Zelle mit gravierenden Mutationen, die sowohl die proteolytische Aktivität, als auch die vollständige Proteinsynthese der Serinprotease HtrA inhibieren.
Im Wildtypstamm R6 wurde die Serinprotease HtrA anhand von Temperaturshiftexperimenten als nicht temperatursensitiv nachgewiesen. Dagegen benötigen Stämme mit verändertem PBP2x bei Hitzestress die Serinprotease HtrA, die durch den Abbau von falsch gefalteten Proteinen ein besseres Wachstum ermöglicht.
Die Auswirkung der verringerten PBP2x-Menge auf die Lokalisation des veränderten und niederaffinen PBP2x aus C405 wurde mittels Fluoreszenzmikroskopie in verschiedenen genetischen Hinter-gründen untersucht. Das GFP-PBP2xC405-Fusionsprotein wurde hierbei durch die Serinprotease HtrA, je nach genetischem Hintergrund, unterschiedlich stark abgebaut, was wiederum in einem höheren Anteil an zytoplasmatisch leuchtenden Zellen resultiert. Sobald die Serinprotease HtrA in diesen Stämmen fehlte, wurde das Fusionsprotein nicht mehr abgebaut und eine korrekte septale bzw. äquato-riale Lokalisation wurde sichtbar. Demnach befindet sich die geringe PBP2x-Menge immer in der Region, in der sie am dringensten benötigt wird - dem Zellseptum.
Das GFP-PBP2x-OT-Fusionsprotein, dem die Transpeptidasedomäne fehlt, wird ebenfalls durch die Serinprotease HtrA abgebaut. Sobald htrA jedoch deletiert wurde, zeigte sich eine septale bzw. äquato-riale Lokalisation des Fusionsproteins. Somit konnte zum ersten Mal eindeutig bewiesen werden, dass ausschließlich die PASTA-Domänen des PBP2x für die Lokalisation dieses essentiellen Enzyms am Zellseptum verantwortlich sind.
Die Größen der detektierten Abbauprodukte der GFP-Fusionsproteine gaben zudem Aufschluss über die ungfähre Position zweier Schnittstellen der Serinprotease HtrA, nämlich kurz nach der Transmembrandomäne von PBP2x und am Ende der N-terminalen Domäne.
Die Rolle des essentiellen PBP2x aus R6 und C405 bei der Zellteilung wurde anhand von Depletionsexperimenten eingehend untersucht. Dabei zeigte sich, dass sich die kontinuierliche Dezimierung des GFP-PBP2x bzw. GFP-PBP2xC405 in allen drei konditionalen Stämmen negativ auf das Wachstum und die Zellmorphologie auswirkte. Die Stämme waren in der Lage mehrere Generationen in Abwesenheit des Induktors zu wachsen, da sich innerhalb der Zelle noch ausreichend synthetisiertes Fusionsprotein aus der Vorkultur befand, bevor sich ein Wachstumsstopp einstellte.
Die Aufreinigung eines proteolytisch aktiven HtrA-Proteins und einer Form mit (S234A) im aktiven Zentrum von HtrA aus S. pneumoniae gelang im Rahmen dieser Arbeit. Die proteolytische Aktivität des HtrA-Proteins konnte anhand von ß-Casein Assays bestätigt werden. Der Abbau des Proteins PBP2xC405 und sogar der PBP2xwt konnten erstmals unter in vitro-Bedingungen als Substrate von HtrA nachgewiesen werden.
Die Daten dieser Arbeit bestärkt die Hypothese, dass ungefaltene PBP2x-Proteine durch die Sec-Translokase exportiert und anschließend in die Membran integriert werden. Dabei führt die Serinprotease HtrA die Proteinqualitätskontrolle durch und baut falsch gefaltete Proteine, oder Proteine, die sich nicht im Komplex befinden, ab.
Due to tremendous improvements of high-performance computing resources as well
as numerical advances computational simulations became a common tool for modern
engineers. Nowadays, simulation of complex physics is more and more substituting a
large amount of physical experiments. While the vast compute power of large-scale
high-performance systems enabled for simulating more complex numerical equations,
handling the ever increasing amount of data with spatial and temporal resolution
burdens new challenges to scientists. Huge hardware and energy costs desire for
ecient utilization of high-performance systems. However, increasing complexity of
simulations raises the risk of failing simulations resulting in a single simulation to be
restarted multiple times. Computational Steering is a promising approach to interact
with running simulations which could prevent simulation crashes. The large amount
of data expands gaps in the amount of data that can be calculated and the amount of
data that can be processed. Extreme-scale simulations produce more data that can
even be stored. In this thesis, I propose several methods that enhance the process
of steering, exploring, visualizing, and analyzing ongoing numerical simulations.
In einer dreijährigen Längsschnittstudie wurde der Einfluss eines immersiven englischen Sprachangebots in der Kindertagesstätte auf die Entwicklung der englischen und deutschen Sprache bei 2- bis 6-jährigen Kindern untersucht. Darüber hinaus wurde geprüft, ob der bei bilingualen Personen nachgewiesene Vorteil in den exekutiven Kontrollfunktionen gegenüber monolingualen Personen auch bei Sprachimmersion repliziert werden kann und ob sich ein Vorteil in der phonologischen Bewusstheit durch Sprachimmersion ergibt. Dem Prinzip „Eine Person - eine Sprache“ folgend kommunizierte eine Erzieherin in der Immersionsgruppe ausschließlich in englischer Sprache mit den Kindern, während die anderen Erzieherinnen weiterhin deutsch sprachen. In der hinsichtlich Alter, Geschlecht und SES parallelisierten Kontrollgruppe fand einmal wöchentlich ein kindgerechter Englischunterricht statt. Einmal jährlich wurden verschiedene Tests zur Erfassung des sprachlichen Entwicklungsstands (Deutsch und Englisch; Sprachrezeption und Sprachproduktion), der exekutiven Kontrollfunktionen (inhibitorische Kontrolle: Day-Night-Task, Dimensional Change Card Sort Task, Fish-Flanker-Task) sowie ein Test zur Erfassung der phonologischen Bewusstheit durchgeführt. Die Kinder aus der Immersionsgruppe erreichten eine bessere englische rezeptive Sprachkompetenz als die Kinder der Kontrollgruppe. Es waren keine negativen Auswirkungen der englischen Sprachimmersion auf den Erwerb der deutschen Muttersprache nachweisbar. Die vergleichbaren Leistungen der Kinder in der Immersions- und Kontrollgruppe in den drei Aufgaben zur Erfassung der inhibitorischen Kontrolle und dem Test zur Erfassung der phonologischen Bewusstheit weisen darauf hin, dass keine positiven Effekte durch Sprachimmersion auf die Entwicklung der phonologischen Bewusstheit und der inhibitorischen Kontrolle erzielt werden konnten. Mögliche Ursachen für das Ausbleiben eines Vorteils durch Sprachimmersion im Bereich der exekutiven Kontrollfunktionen und der phonologischen Bewusstheit werden diskutiert.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
Gegenstand der vorliegenden Arbeit ist die Entwicklung neuartiger Anionenrezeptoren auf Basis von Cyclopeptiden und Bis(cyclopeptiden). Besonderer Augenmerk sollte hierbei auch auf der Verbesserung der synthetischen Zugänglichkeit dieser Rezeptoren liegen.
Gemeinsamer Baustein der verwendeten Cyclopeptide sind Dipeptide aus Boc-L-Hydroxy-prolin und geschützten Aminopicolinsäureuntereinheiten. Konventionell wird deren Synthese durch Einsatz von Kupplungsreagenzien realisiert. Aufgrund der Elektronenarmut der Amino-picolinsäureeinheit muss hierbei PyCloP als Kupplungsreagenz eingesetzt werden, welches vergleichsweise teuer ist. Außerdem kann es bei dieser Reaktionsführung zur Epimerisierung der chiralen Aminosäure kommen, so dass bei dieser Reaktion Optimierungsbedarf besteht. Durch Anwendung der Goldberg-Amidierung konnte ich die Effizienz der Dipeptidsynthese durch Einsatz günstiger Reagenzien sowie kommerziell erhältlicher Edukte steigern. Außerdem besteht bei dieser Reaktion keine Gefahr der Racemisierung.
In meiner Arbeit beschäftigte ich mich darüber hinaus mit der Synthese einer molekularen Kapsel auf Basis thiol-haltiger Cyclopeptide. Dieses dreifach verbrückte Bis(cyclopeptid) wird dabei mit Hilfe der dynamischen kombinatorischen Chemie unter Verwendung des Disulfidaustausches als reversibler Reaktion synthetisiert. Mir ist es gelungen, durch systematische Optimierung der Reaktionsbedingungen die Produktbildung positiv zu beeinflussen und die Aufarbeitung zu vereinfachen. Allerdings kam es bei der Isolierung des Bis(cyclopeptids) zu einer Oxidation der Disulfidbrücken, so dass das Produkt nicht analysenrein erhalten werden konnte.
Während meiner Arbeiten ist es mir ebenfalls gelungen, einen Zugang zu funktionalisierten Cyclopeptiden zu entwickeln. Dabei zeigte sich, dass die Einführung von Substituenten in den Prolineinheiten nach Aufbau des Cyclopeptids erfolgen muss. Das so erhaltene Cyclopeptid mit drei β-Alanin-Seitenketten trägt Ammoniumgruppen in der Peripherie. Mit Hilfe von pH-abhängigen potentiometrischen Titrationen konnten drei Protonierungskonstanten ermittelt werden. Diese zeigen, dass bei pH 7 immer noch 95 % der Moleküle vollständig protoniert sind. Dieses Cyclopeptid zeigte bezüglich der Anionenbindung einzigartige Eigenschaften So bindet es in gepufferten wässrigen Medien Sulfatanionen mit hoher Affinität, was mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie nach-gewiesen werden konnte. Die Sulfatbindung konnte darüber hinaus nicht nur in Essigsäure-/Acetat-Puffer sondern auch in reinem Phosphat-Puffer bei verschiedenen pH-Werten nachgewiesen werden. Damit wurde mit diesem Cyclopeptid ein effizienter Sulfatrezeptor entwickelt, der selektiv Sulfatanionen in Wasser zu binden vermag. Es zeigte sich, dass die Kombination der Anionenbindungsstelle des Cyclopeptids mit peripheren funktionellen Gruppen, die sich spezifisch an der Gastbindung beteiligen, eine geeignete Strategie darstellt, die Löslichkeits- und Bindungseigenschaften solcher Cyclopeptide gezielt zu verbessern.
Die Arbeit befasst sich mit parallelen Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems unter Verwendung von Grafikkarten. Hierbei werden durch die Analyse von lokalen Suchoperatoren und ihrer Ausführungen Gestaltungsempfehlungen gegeben, wie eine möglichst performante Implementierung auf der Grafikkarte aussehen kann. Weiterhin wird analysiert wie die einfache Nutzung lokaler Suchoperatoren im Kontext von Metaheuristiken mit State-of-the-Art-Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems konkurrieren kann. Dabei wird auch eine unterschiedlich starke Nutzung von der Grafikkarte und deren Auswirkung auf die Lösungsgüte berücksichtigt. Außerdem wird untersucht, inwiefern sich der Einsatz von Grafikkarten im Vergleich zur reinen CPU-Nutzung auf die Wirtschaftlichkeit auswirkt.
There is a growing trend for ever larger wireless sensor networks (WSNs) consisting of thousands or tens of thousands of sensor nodes (e.g., [91, 79]). We believe this trend will continue and thus scalability plays a crucial role in all protocols and mechanisms for WSNs. Another trend in many modern WSN applications is the time sensitivity to information from sensors to sinks. In particular, WSNs are a central part of the vision of cyber-physical systems and as these are basically closed-loop systems many WSN applications will have to operate under stringent timing requirements. Hence, it is crucial to develop algorithms that minimize the worst-case delay in WSNs. In addition, almost all WSNs consist of battery-powered nodes, and thus energy-efficiency clearly remains another premier goal in order to keep network lifetime high. This dissertation presents and evaluates designs for WSNs using multiple sinks to achieve high lifetime and low delay. Firstly, we investigate random and deterministic node placement strategies for large-scale and time-sensitive WSNs. In particular, we focus on tiling-based deterministic node placement strategies and analyze their effects on coverage, lifetime, and delay performance under both exact placement and stochastically disturbed placement. Next, we present sink placement strategies, which constitutes the main contributions of this dissertation. Static sinks will be placed and mobile sinks will be given a trajectory. A proper sink placement strategy can improve the performance of a WSN significantly. In general, the optimal sink placement with lifetime maximization is an NP-hard problem. The problem is even harder if delay is taken into account. In order to achieve both lifetime and delay goals, we focus on the problem of placing multiple (static) sinks such that the maximum worst-case delay is minimized while keeping the energy consumption as low as possible. Different target networks may need a corresponding sink placement strategy under differing levels of apriori assumptions. Therefore, we first develop an algorithm based on the Genetic Algorithm (GA) paradigm for known sensor nodes' locations. For a network where global information is not feasible we introduce a self-organized sink placement (SOSP) strategy. While GA-based sink placement achieves a near-optimal solution, SOSP provides a good sink placement strategy with a lower communication overhead. How to plan the trajectories of many mobile sinks in very large WSNs in order to simultaneously achieve lifetime and delay goals had not been treated so far in the literature. Therefore, we delve into this difficult problem and propose a heuristic framework using multiple orbits for the sinks' trajectories. The framework is designed based on geometric arguments to achieve both, high lifetime and low delay. In simulations, we compare two different instances of our framework, one conceived based on a load-balancing argument and one based on a distance minimization argument, with a set of different competitors spanning from statically placed sinks to battery-state aware strategies. We find our heuristics outperform the competitors in both, lifetime and delay. Furthermore, and probably even more important, the heuristic, while keeping its good delay and lifetime performance, scales well with an increasing number of sinks. In brief, the goal of this dissertation is to show that placing nodes and sinks in conventional WSNs as well as planning trajectories in mobility enabled WSNs carefully really pays off for large-scale and time-sensitive WSNs.
Constructing accurate earth models from seismic data is a challenging task. Traditional methods rely on ray based approximations of the wave equation and reach their limit in geologically complex areas. Full waveform inversion (FWI) on the other side seeks to minimize the misfit between modeled and observed data without such approximation.
While superior in accuracy, FWI uses a gradient based iterative scheme that makes it also very computationally expensive. In this thesis we analyse and test an Alternating Direction Implicit (ADI) scheme in order to reduce the costs of the two dimensional time domain algorithm for solving the acoustic wave equation. The ADI scheme can be seen as an intermediate between explicit and implicit finite difference modeling schemes. Compared to full implicit schemes the ADI scheme only requires the solution of much smaller matrices and is thus less computationally demanding. Using ADI we can handle coarser discretization compared to an explicit method. Although order of convergence and CFL conditions for the examined explicit method and ADI scheme are comparable, we observe that the ADI scheme is less prone to dispersion. Furhter, our algorithm is efficiently parallelized with vectorization and threading techniques. In a numerical comparison, we can demonstrate a runtime advantage of the ADI scheme over an explicit method of the same accuracy.
With the modeling in place, we test and compare several inverse schemes in the second part of the thesis. With the goal of avoiding local minima and improving speed of convergence, we use different minimization functions and hierarchical approaches. In several tests, we demonstrate superior results of the L1 norm compared to the L2 norm – especially in the presence of noise. Furthermore we show positive effects for applying three different multiscale approaches to the inverse problem. These methods focus on low frequency, early recording, or far offset during early iterations of the minimization and then proceed iteratively towards the full problem. We achieve best results with the frequency based multiscale scheme, for which we also provide a heuristical method of choosing iteratively increasing frequency bands.
Finally, we demonstrate the effectiveness of the different methods first on the Marmousi model and then on an extract of the 2004 BP model, where we are able to recover both high contrast top salt structures and lower contrast inclusions accurately.
Diversitätsgenerierende Retroelemente (DGRs) stellen einen neuen Typus Retroelement dar, die gezielt einen Teil einer codierenden Sequenz des Wirtsgenoms über einen Copy and Replace-Mechanismus hypermutieren und somit zur Erzeugung biologischer Diversität beitragen können. Trotz dieser einzigartigen Eigenschaften und dem potentiellen Wert dieser Elemente für Industrie und Forschung konzentrierten sich seit der Beschreibung des ersten DGRs vor über zehn Jahren die meisten Publikationen auf mechanistische Eigenschaften des Prototypen aus dem Bordetella Bakteriophagen. Allerdings sind zahlreiche Fragen zur Funktionsweise dieser Elemente noch immer ungeklärt. Ebenso wurden bisher extensivere, vergleichende Studien, die weitere Vertreter dieser Elemente berücksichtigen, noch nicht durchgeführt.
Die vorliegende Dissertation leistet einen wichtigen Beitrag zum tieferen Verständnis diversitätsgenerierender Retroelemente. Das eigens für diesen Zweck konzipierte Programm DiGReF erlaubte eine umfassende Analyse der Bestände öffentlicher Datenbanken auf DGRs in sequenzierten Genomen. Mit Hilfe dieser Daten konnten weitere Aspekte dieser Elemente aufgeklärt werden, die eine Analyse ihrer Verteilung, ihrer phylogenetischen Beziehungen, ihrer Struktur und eine Charakterisierung der einzelnen Elemente einer DGR-Kassette umfassten. So konnte gezeigt werden, dass das zuvor für wenige Elemente beschriebene Merkmal der Adeninsubstitution eine gemeinsame Eigenschaft aller DGRs ist, während keine C-, T- oder G-Substitionen auftreten. Ebenso fanden sich erste Belege dafür, dass die beiden essentiellen Elemente Template Repeat und reverse Transkriptase nicht notwendigerweise ein gemeinsames Transkript besitzen. Außerdem konnte erstmalig die Gruppe der weitgehend uncharakterisierten akzessorischen Proteine umfassender beschrieben und ein Consensusmotiv ermittelt werden. Für künftige Studien werden die DiGReF-Software und die Ergebnisse dieser Arbeit von grundlegender Bedeutung sein.
Der zweite Teil dieser Arbeit fokussierte sich auf die experimentelle Charakterisierung zweier Kernkomponenten von DGRs, der reversen Transkriptase und den akzessorischen Proteinen. Während die Aufreinigung einer DGR-assoziierten reversen Transkriptase noch weitere experimentelle Arbeiten erfordern wird, konnte das akzessorische Protein Alr3496 aus der Blaualge Nostoc sp. PCC 7120 erfolgreich in rekombinanter Form aufgereinigt werden. Es konnte weiterhin gezeigt werden, dass Alr3496 diverse Nucleinsäuresubstrate bindet, und in der Lage ist, die Hybridisierung von komplementären DNA-Strängen zu katalysieren. Dies legt nahe, dass akzessorische Proteine aus DGR-Elementen eine Rolle als Nucleinsäurechaperone übernehmen.
Recent progresses and advances in the field of consumer electronics, driven by display
technologies and also the sector of mobile, hand-held devices, enable new ways in
presenting information to users, as well as new ways of user interaction, therefore
providing a basis for user-centered applications and work environments.
My thesis focuses on how arbitrary display environments can be utilized to improve
both the user experience, regarding perception of information, and also to provide
intuitive interaction possibilities. On the one hand advances in display technologies
provide the basis for new ways of visualizing content and collaborative work, on the
other hand forward-pressing developments in the consumer market, especially the
market of smart phones, offer potential to enhance usability in terms of interaction
and therefore can provide additional benefit for users.
Tiled display setups, combining both large screen real estate and high resolution,
provide new possibilities and chances to visualize large datasets and to facilitate col-
laboration in front of a large screen area. Furthermore these display setups present
several advantages over the traditional single-user-workspace environments: con-
trary to single-user-workspaces, multiple users are able to explore a dataset displayed
on a tiled display system, at the same time, thus allowing new forms of collabora-
tive work. Based on that, face-to-face discussions are enabled, an additional value
is added. Large displays also allow the utilization of the user’s spatial memory, al-
lowing physical navigation without the need of switching between different windows
to explore information.
With Tiled++ I contributed a versatile approach to address the bezel problem. The
bezel problem is one of the Top Ten research challenges in the research field of LCD-
based tiled wall setups. By applying the Tiled++ approach a large high resolution
Focus & Context screen is created, combining high resolution focus areas with low
resolution context information, projected onto the bezel area.
Additionally the field of user interaction poses an important challenge, especially
regarding the utilization of large tiled displays, since traditional keyboard & mouse
interaction devices reached their limits. My focus in this thesis is on Mobile HCI.Devices like mobile phones are utilized to interact with large displays, since they
feature various interaction modalities and preserve user mobility.
Large public displays, as a modernized form of traditional bulletin boards, also en-
able new ways of handling information, displaying content, and user interaction.
Utilized in hot spots, Digital Interactive Public Pinboards can provide an adequate
answer to questions like how to approach pressing issues like disaster and crisis man-
agement for both responders as well as citizens and also new ways of how to handle
information flow (contribution & distribution & accession). My contribution to the
research field of public display environments was the conception and implementa-
tion of an easy-to-use and easy-to-set-up architecture to overcome shortcomings of
current approaches and to cover the needs of aid personnel.
Although being a niche, Virtual Reality (VR) environments can provide additional
value for visualizing specific content. Disciplines like earth sciences & geology, me-
chanical engineering, design, and architecture can benefit from VR environments. In
order to consider the variety of users, I introduce a more intuitive and user friendly
interaction metaphor, the ARC metaphor.
Visualization challenges base on being able to cope with more and more complex
datasets and to bridge the gap between comprehensibility and loss of information.
Furthermore the visualization approach has to be reasonable, which is a crucial
factor when working in interdisciplinary teams, where the standard of knowledge
is diverse. Users have to be able to conceive the visualized content in a fast and
reliable way. My contribution are visualization approaches in the field of supportive
visualization.
Finally, my work illuminates how the synthesis of visualization, interaction and dis-
play technologies enhance the user experience. I promote a holistic view. The user
is brought back into the focus of attention, provided with a tool-set to support him,
without overextending the abilities of, for example, non-expert users, a crucial factor
in the more and more interdisciplinary field of computer science.
The use of trading stops is a common practice in financial markets for a variety of reasons: it provides a simple way to control losses on a given trade, while also ensuring that profit-taking is not deferred indefinitely; and it allows opportunities to consider reallocating resources to other investments. In this thesis, it is explained why the use of stops may be desirable in certain cases.
This is done by proposing a simple objective to be optimized. Some simple and commonly-used rules for the placing and use of stops are investigated; consisting of fixed or moving barriers, with fixed transaction costs. It is shown how to identify optimal levels at which to set stops, and the performances of different rules and strategies are compared. Thereby, uncertainty and altering of the drift parameter of the investment are incorporated.
Cyanobacteria are the only prokaryotes with the ability to conduct oxygenic photosynthesis,
therefore having major influence on the evolution of life on earth. Their diverse morphology
was traditionally the basis for taxonomy and classification. For example, the genus
Chroococcidiopsis has been classified within the order Pleurocapsales, based on a unique
reproduction modus by baeocytes. Recent phylogenetic results suggested a closer
relationship of this genus to the order Nostocales. However, these studies were based
mostly on the highly conserved 16S rRNA and a small selection of Chroococcidiopsis
strains. One aim of this present thesis was to investigate the evolutionary relationships of
the genus Chroococcidiopsis, the Pleurocapsales and remaining cyanobacteria using
16S rRNA, rpoC1 and gyrB gene. Including the single gene, as the multigene analyses of
97 strains clearly showed a separation of the genus Chroococcidiopsis from the
Pleurocapsales. Furthermore, a sister relationship between the genus Chroococcidiopsis
and the order Nostocales was confirmed. Consequently, the monogeneric family
Chroococcidiopsidaceae Geitler ex. Büdel, Donner & Kauff familia nova is justified. The
phylogenetic analyses also revealed the polyphyly of the remaining Pleurocapsales, due to
the fact that the strain Pleurocapsa PCC 7327 was always separated from other strains.
This is supported by differences in their metabolism, ecology and physiology.
A second aim of this study was to investigate the thylakoid arrangement of
Chroococcidiopsis and a selection of cyanobacterial strains. The investigation of 13 strains
with Low Temperature Scanning Electron Microscopy revealed two unknown thylakoidal
arrangements within Chroococcidiopsis (parietal and stacked). This result revised the
knowledge of the thylakoid arrangement in this genus. Previously, only a coiled
arrangement was known for three strains. Based on the data of 66 strains, the feature
thylakoid arrangement was tested as a potential feature for morphological identification of
cyanobacteria. The results showed a strong relationship between the group assignment of
cyanobacteria and their thylakoid arrangements. Hence, it is in general possible to
conclude from this certain phenotypic character the affiliation to a particular family, order
or genus.
The third aim of this study was to investigate biogeographical patterns of the worldwide
distributed genus Chroococcidiopsis. The phylogenetic analysis suggested that the genus do not have biogeographical patterns, which is in contrast with a recent study on hypolithic
living Chroococcidiopsis strains and the majority of phylogeographic analysis of
microorganisms. Further analysis showed no separation of different life-strategies within
the genus. These results could be related to the genetic markers utilized, which may not
contain biogeographical information. Hence the present study can neither exclude nor
prove the possibility of biogeographic and life-strategy patterns in the genus
Chroococcidiopsis.
Future research should be focused on finding appropriate genetic markers investigate of
evolutionary relationships and biogeographical patterns within Chroococcidiopsis.
Modellgetriebene Entwicklung von Kommunikationsprotokollen für drahtlos vernetzte Regelungssysteme
(2013)
Funkvernetzte Sensorsysteme sind heutzutage allgegenwärtig.
Sie werden sowohl in Rauchmeldern, in Raumtemperaturüberwachungen und Sicherheitssystemen eingesetzt.
Das Sensorsystem soll seine Aufgabe zuverlässig und über viele Jahre ohne Batteriewechsel erfüllen.
Durch die Vernetzung der Sensorsysteme und ihre immer komplexer werdenden Aufgaben wird die Programmierung in einer maschinennahen Sprache immer aufwändiger.
Die modellgetriebene Entwicklung erhöht die Wartbarkeit und reduziert die Entwicklungszeit wodurch im Allgemeinen die Produktqualität steigt.
In Folge der höheren Komplexität, der Abstraktion von der konkreten Hardwareplattform und den immer kürzere Produktentwicklungszeiten bleibt oft keine Zeit für Energieoptimierung, wodurch die Batterielaufzeit geringer ausfällt, als dies möglich wäre.
In dieser Arbeit werden verschiedene Ansätze vorgestellt, die es ermöglichen, bereits während der Modellierung den Stromverbrauch zu berücksichtigen und diesen zu optimieren.
Am Beispiel des inversen Pendels, einem sehr instabilen Regelungssystem, wird dazu mit Hilfe der modellgetriebenen Entwicklung eine funkvernetzte, verteilte Regelung spezifiziert.
Der aus der Spezifikation erzeugte Kode wird direkt auf den Sensorknoten ausgeführt und muß dazu performant und zuverlässig sein, um die Echtzeitanforderungen des Regelungssystems zu erfüllen, aber gleichzeitig so wenig Energie wie möglich zu verbrauchen.
m die Zuverlässigkeit der verteilten Regelung zu gewährleisten ist eine deterministische kollisionsfreie Datenübertragung über das drahtlose Kommunikationsmedium erforderlich.
Die Synchronisation ist eine weitere Voraussetzung zur Ermittlung eines konsistenten Systemzustands.
This thesis deals with generalized inverses, multivariate polynomial interpolation and approximation of scattered data. Moreover, it covers the lifting scheme, which basically links the aforementioned topics. For instance, determining filters for the lifting scheme is connected to multivariate polynomial interpolation. More precisely, sets of interpolation sites are required that can be interpolated by a unique polynomial of a certain degree. In this thesis a new class of such sets is introduced and elements from this class are used to construct new and computationally more efficient filters for the lifting scheme.
Furthermore, a method to approximate multidimensional scattered data is introduced which is based on the lifting scheme. A major task in this method is to solve an ordinary linear least squares problem which possesses a special structure. Exploiting this structure yields better approximations and therefore this particular least squares problem is analyzed in detail. This leads to a characterization of special generalized inverses with partially prescribed image spaces.
The application behind the subject of this thesis are multiscale simulations on highly heterogeneous particle-reinforced composites with large jumps in their material coefficients. Such simulations are used, e.g., for the prediction of elastic properties. As the underlying microstructures have very complex geometries, a discretization by means of finite elements typically involves very fine resolved meshes. The latter results in discretized linear systems of more than \(10^8\) unknowns which need to be solved efficiently. However, the variation of the material coefficients even on very small scales reveals the failure of most available methods when solving the arising linear systems. While for scalar elliptic problems of multiscale character, robust domain decomposition methods are developed, their extension and application to 3D elasticity problems needs to be further established.
The focus of the thesis lies in the development and analysis of robust overlapping domain decomposition methods for multiscale problems in linear elasticity. The method combines corrections on local subdomains with a global correction on a coarser grid. As the robustness of the overall method is mainly determined by how well small scale features of the solution can be captured on the coarser grid levels, robust multiscale coarsening strategies need to be developed which properly transfer information between fine and coarse grids.
We carry out a detailed and novel analysis of two-level overlapping domain decomposition methods for the elasticity problems. The study also provides a concept for the construction of multiscale coarsening strategies to robustly solve the discretized linear systems, i.e. with iteration numbers independent of variations in the Young's modulus and the Poisson ratio of the underlying composite. The theory also captures anisotropic elasticity problems and allows applications to multi-phase elastic materials with non-isotropic constituents in two and three spatial dimensions.
Moreover, we develop and construct new multiscale coarsening strategies and show why they should be preferred over standard ones on several model problems. In a parallel implementation (MPI) of the developed methods, we present applications to real composites and robustly solve discretized systems of more than \(200\) million unknowns.
Factorization of multivariate polynomials is a cornerstone of many applications in computer algebra. To compute it, one uses an algorithm by Zassenhaus who used it in 1969 to factorize univariate polynomials over \(\mathbb{Z}\). Later Musser generalized it to the multivariate case. Subsequently, the algorithm was refined and improved.
In this work every step of the algorithm is described as well as the problems that arise in these steps.
In doing so, we restrict to the coefficient domains \(\mathbb{F}_{q}\), \(\mathbb{Z}\), and \(\mathbb{Q}(\alpha)\) while focussing on a fast implementation. The author has implemented almost all algorithms mentioned in this work in the C++ library factory which is part of the computer algebra system Singular.
Besides, a new bound on the coefficients of a factor of a multivariate polynomial over \(\mathbb{Q}(\alpha)\) is proven which does not require \(\alpha\) to be an algebraic integer. This bound is used to compute Hensel lifting and recombination of factors in a modular fashion. Furthermore, several sub-steps are improved.
Finally, an overview on the capability of the implementation is given which includes benchmark examples as well as random generated input which is supposed to give an impression of the average performance.
This thesis reports on investigations on the structure and reactivity of dipeptide-alkali metal complexes, a series of ruthenium bearing catalysts, dysprosium based single molecule magnets and organometallic di-cobalt complexes. A variety of experimental and theoretical methods was used dependent on the problem: collision induced dissociation, hydrogen/deuterium exchange reactions, gas phase reactions with \(D_2\), infrared multiple-photon dissociation and the determination of minimum energy structures, IR absorption spectra, transition states and electronic transitions based on density functional theory.
A case study was carried out to explore the influence of alkali metal ions on the gas phase structure of the dipeptide Carnosine. CID experiments on protonated Carnosine and its alkali metal complexes in an ion trap resulted in different fragment pathways dependent on the size of the alkali metal. The complexation of small ions (\(Li^+\) and \(Na^+\)) promoted the cleavage of bonds in the molecules backbone under CID, while \(Rb^+\)- and \(Cs^+\)-Carnosine complexes underwent the exclusive loss of the alkali metal. CID breakdown curves reflected the different binding behavior of the alkali ions to Carnosine. Gas phase H/D exchange reactions with \(D_2O\) resulted in the exchange of several protons of the protonated dipeptide, while its alkali metal complexes underwent no exchange reactions. DFT derived energetical minimum isomers exhibited only charge solvated tridentate structures, whereas salt bridge as well as charge solvated binding motives are reported in literature on complexes of alkali metal ions and oligopeptides. This study was published in a similar version as a paper in Zeitschrift für Physikalische Chemie.
A combination of the four dipeptides Carnosine, Anserine, GlyHis and HisGly with alkali metal ions was investigated with the help of CID, IR-MPD spectroscopy and H/D exchange reactions with \(ND_3\). The aim of the survey was to elucidate the influence of the methyl-group at the histidine ring, of the peptide sequence and chain length on the binding motives of the alkali ions. The experimental results were compared to DFT derived minimum energetical isomers. A moderate accordance was found for DFT predicted IR absorptions to IR-MPD spectra. A systematic nomenclature was developed reflecting all binding motives of the four dipeptides to alkali ions. Carnosine complexes all alkali metal ions in an uniform motive. DFT derived energetical minimum isomers of the three other dipeptides showed strong conformational changes with increasing size of the alkali ion. The most favored binding motive of all peptides was the tridentate complexation of the alkali ion by a carboxylic and an amidic oxygen atom, while the electron donating nitrogen atom either belongs to the Histidine ring or the amine group. The ability to form hydrogen bonds in a certain binding motive is essential for the preference of the Histidine or amine nitrogen atom as an electron donor. The charge solvated binding motive is the most common within all found isomers. Several structures exhibited hydrogen bonded protons. Those can be interpretated as intermediates between the charge solvated and the salt bridge binding motive. CID breakdown curves of the cationic complexes of the dipeptides with \(K^+\), \(Rb^+\) and \(Cs^+\) resulted in a fair agreement of \(E^{50\%}_{com}\) values with DFT derived Gibbs free binding energies. CID led to multiple fragments of the \(Li^+\) and \(Na^+\) dipeptide complexes and to an insufficient correlation between the \(E^{50\%}_{com}\) values and metal-dipeptide free binding enthalpies. Gas phase H/D exchange reactions of the protonated dipeptides with \(ND_3\) resulted in the exchange of all labile protons with comparable relative partial rate constants. The assumption of coexisting single and double exchange reactions per single collision led to an enhancement in quality of the pseudo first order kinetic fits of the experimental derived data. The \(Li^+\), \(Na^+\) and \(K^+\) complexes of the dipeptides exhibited a reduction in the number of exchanged protons, significantly lower rate constants for H/D exchange and only single exchange reactions.
The complexation of the doubly charged cationic transition metal \(Zn^{2+}\) by deprotonated Carnosine led to crucial conformational changes with respect to the alkali metal complexes. Former DFT calculations on the gas phase structure of \([Carn-H,Zn^{II}]^+\) were now compared to IR-MPD spectra. IR-MPD spectra exhibited several of the DFT predicted IR absorptions while the overall agreement in the position of bands is only partially satisfactory. The complex \([Carn-H,Zn^{II}]^+\) was furthermore used in order to study the band dependent enhancement of fragmentation efficiency by application of a resonant 2-color IR-MPD pump/probe scheme. In literature, it is assumed that the slopes of linear fits to the log-log scale of experimental data (fragmentation efficiency vs. laser pulse energy) correlate to the number of photons needed for fragmentation. No reasonable number of photons for the fragmentation of the molecule was derived with this approach. However, it could be shown that the number of photons of the pump laser needed for fragmentation is reduced by the use of a second IR color. The change of the delay between the pump and probe laser pulse had an influence on the shape of the absorption bands. Irradiation with the probe laser pulse before the pump laser caused a heating of the molecule which resulted in a broadening of bands. No broadening was observed when the probe laser was applied simultaneously or after the pump laser. CID and IR-MPD fragmentation channels differed in their relative abundance. Furthermore, relative abundancies of fragments were specific to the excited vibrational motions. This study provides essential approaches for the further study of the mechanism of resonant 2-color IR-MPD spectroscopy.
Several ruthenium catalysts for transfer hydrogenation reactions were synthesized by L. Ghoochany (research group W. Thiel, TU Kaiserlautern). CID measurements on isotopic labeled species led to the following conclusion about the activation process of the catalyst: a nitrogen-ruthenium bond is broken, the pyrimidine ring of the substituted 2-R-4-(2-pyridinyl)pyrimidine ligand rotates about 160° and a carbon-ruthenium bond is formed under subsequent loss of a HCl (or DCl) molecule. The mass spectrometers CID amplitude was calibrated with a set of “thermometer ions”. CID breakdown curves were used for determination of \(E^{50\%}_{com}\) values of three differently substituted catalysts. Finally, activation energies were estimated by means of the calibration. The resulting activation energies showed a qualitative correlation to DFT derived activation energies. These results are part of a manuscript which was submitted to Chemistry – A European Journal and is currently in the review process. Further studies on this series of transition metal complexes included CID on ligand exchanged species, 1- and 2-color IR-MPD spectroscopy, gas phase reactions with \(D_2\) and DFT based modeling of the reaction coordinate of the \(D_2\) insertion. The exchange of the anionic chlorido ligand in solution led to three complexes with different fragmentation thresholds. CID derived activation amplitudes correspond well to the order predicted by the hard/soft acids/bases (HSAB) concept. 1-color IR-MPD experiments on two complexes showed only a few bands. Resonant 2-color IR-MPD increased the overall fragmentation efficiency and uncovered several dark bands. DFT derived IR absorption spectra correlate well to IR-MPD spectra while some bands are still not observable. Gas phase reactions with \(D_2\) showed an increase of the mass of the activated complex of +4 m/z. This was interpreted in terms of an incorporation of a \(D_2\) molecule under heterolytical cleavage of the \(D_2\) molecule and can be compared to a back reaction of the activation. The reaction coordinate of the \(D_2\) incorporation was modeled with DFT at the B3LYP/cc-pVTZ level of theory and different activation energies were derived dependent on the substituent. Reactions of three differently substituted complexes with \(D_2\) resulted in different relative partial rate constants. The comparison to rate constants derived from transition state theory showed a qualitative but not quantitative correlation to the experimental results. This study contributes to our ongoing work on the assignment and isolation of reaction intermediates in the gas phase.
A series of dysprosium based complexes was synthesized by A. Bhunia (research group P. W. Roesky, KIT) and studied within the collaborative research center SFB/TRR 88 “3MET”. We contributed to this work with ESI-MS, CID and experiments on H/D exchange reactions with \(ND_3\) in the gas phase. Those complexes consist of a central triple-charged dysprosium cation and two identical salen-type ligands which allow for a complexation of up to two transition metals. The monometallic dysprosium complex shows single molecule magnet (SMM) behavior in SQUID measurements, while the incorporation of two double-charged manganese cations leads to ferromagnetic behavior. The interaction of terminal amine groups with the manganese ions caused a hinderance of the exchange H/D exchange reaction with \(ND_3\) in the gas phase. Alternatively, the terminal amine groups of the monometallic dysprosium complex allow for the bond of two \(Ni^{2+}(tren)\) complexes. ESI-MS studies showed anionic as well as cationic complexes due to deprotonation or protonation in solution. CID studies led to fragmentation schemes which correlate quite well to the predicted structures of the complexes. These results are part of two publications in Inorganic Chemistry and Dalton Transactions. Further studies on this series of mono-, di- and trimetallic complexes are reported in this thesis. H/D exchange reactions with \(D_2O\) in solution yielded in an exchange of all labile protons for the cationic complexes. Anionic complexes underwent a partial or a complete exchange of labile protons. A comparison of 1- and 2-color IR-MPD spectra of anionic and cationic complexes as well as H/D exchanged species allowed for the assignment of vibrational bands. Furthermore, preferred protonation sites were derived by comparing the results of IR-MPD experiments and H/D exchange reactions in solution and in the gas phase. This study contributes to our ongoing work on the determination of magnetic properties of isolated ions in the gas phase at the Helmholtz-Zentrum Berlin.
The complex \([(^4CpCo)_2(\mu-C_2Ph_2)]\) (\(^4Cp\) = tetraisopropyl-cyclopentadiene) was synthesized by J. Becker (research group H. Sitzmann, TU Kaiserslautern). The cationic complex and several reaction products were characterized by ESI-MS. Some of the experimental data contributed to the diploma thesis of J. Becker. The cationic reaction products and the complex itself were subject of IR spectroscopic characterization. IR-MPD efficiency changed crucially with modification of the complex, yielding \([(^4CpCo)_2(\mu-C_2Ph_2)X]^+ (X=H, (H+CH_3CN), Cl, O)\). The contribution of various fragmentation channels to the overall fragmentation efficiency was studied in detail. An increase of photon flux resulted in a saturation of preferred \(C_2Ph_2\) loss, additional alkyl fragments out of the \(^4Cp\) rings arising. Several absorption bands were found in the mid- and near-IR region. A model system from literature was used to identify seemingly levels of DFT theory by reference to X-ray crystal structure data. The B3LYP and the B97D functional with cc-pVDZ and Stuttgart 1997 ECP basis sets were identified for calculations of the complex \([(^4CpCo)_2(\mu-C_2Ph_2)]^+\) and of its reaction products. An elongation of the Co-Co bond distance was observed for the cationic reaction products with \(Cl^-\) and \(O^{2-}\). Calculations with B3LYP and B97D resulted in different electronic ground states. We did not obtain a good agreement of calculated vibrational modes and recorded IR-MPD spectra. DFT predicted more absorption bands than observed, especially those corresponding to aliphatic symmetric \(CH_n (n=2, 3)\) and aromatic CH stretch motions. Future 2-color IR-MPD experiments might resolve currently prevailing discrepancies. TD-DFT calculations yielded several electronic transitions that do not correspond to the IR-MPD spectra. The chosen levels of theory for DFT and TD-DFT calculations does not seem to be appropriate. IR-MPD spectra have to be remeasured in order to normalize the spectra to photon flux. Furthermore, a different strategy has to be developed for ab initio calculations on the complexes under study.
A combination of various methods applied to isolated ions in the gas phase and in solution allowed for the study of their structure, binding energies and reactivity. 1- and 2-color IR-MPD spectroscopy combined with DFT predicted absorption spectra of different isomers enabled an assignment of vibrational bands and binding motives of the molecules. The derived results are important for further studies on the binding behavior of peptides and the reaction behavior of metal complexes.
Lithiumphenylacetylid führte zu einem Halbsandwichkomplex unter Austausch der beiden verbrückenden Bromide gegen Phenylacetylide. Diese neue Halbsandwichverbindung wurde mit Röntgenabsorptionsspektroskopie untersucht und charakterisiert.
Um substituierte Cyclopentadienylliganden anhand ihrer Sperrigkeit charakterisieren zu können, wurden als Maß für den sterischen Anspruch die beiden Kegelwinkel Θ und Ω in Anlehnung an Tolman eingeführt. Als Modellsystem wurden in einer Zusammenarbeit mit der Arbeitsgruppe von Tamm (TU Braunschweig) Cycloheptatrienyl-Zirconium-Komplexe des Typs \([(η^7-C_7H_7)Zr(C_5R_5)]\) ausgewählt, da diese die an ein Modellsystem gestellten Anforderungen erfüllen. Dadurch konnten etwa 20 neue Cycloheptatrienyl-Cyclopentadienyl-Zirconium-Komplexe erhalten werden, bei welchen anhand von Festkörperstrukturen oder DFT-Berechnungen der sterische Anspruch der substituierten Cyclopentadienylliganden ermittelt wurde.
Basierend auf sehr reaktiven Cyclopentadienyl-Eisen-σ-Arylkomplexen konnten zwei unterschiedliche Reaktionen untersucht werden. Zum einen wurde die von Wallasch beobachtete Oxidation von \(Cp'''Fe(II)(σ-Mes)\) \((Cp''' = C_5H_2tBu_3; Mes = C_6H_3-2,4,6-Me_3)\) mit \(PdCl_2\) zu dem neuartigen Komplex \(Cp'''Fe(III)(σ-Mes)Cl\) weiter untersucht, um diese Substanzklasse kennenzulernen. Dabei erwies sich Hexachlorethan als wesentlich günstigeres Oxidationsmittel, mit dessen Hilfe die Verbindungen \(^4CpFe(III)(σ-Mes)Cl,\) \(^4CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) und \(^5CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) synthetisiert und charakterisiert werden konnten.
Auch die von Weismann beobachtete σ/π-Umlagerungsreaktion von \(^5CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Trimethylaluminium zu \(^5CpFe(π-C_6H_3-2,6-iPr_2-AlMe_3)\) wurde näher untersucht. Dazu wurde \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlR_3\) (R = Me, Et, Pr) umgesetzt, um die entsprechenden Umlagerungsprodukte herzustellen. Diese konnten bei der Umsetzung mit \(AlMe_3\) auch erhalten werden, allerdings zeigten sich bei der Reaktion mit \(AlEt_3\) und \(AlPr_3\) unerwartete Reaktionsprodukte. Durch einen Bromid-Alkyl-Austausch wurden die Komplexe \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlEt_2Br)\) und \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlPr_2Br)\) gebildet. Zusätzlich konnten bei der Umlagerung mit \(AlEt_3\) vier weitere Neben- bzw. Folgeprodukte beobachtet werden. Eines der Folgeprodukte ist der Butinkomplex \((^4CpFe)_2(μ,η^2:η^2-but-2-in)\), der vermutlich durch eine Kupplung zweier Ethylgruppen und Dehydrierung gebildet wird. Reaktionen von \([^4CpFe(μ-Br)]_2\) oder \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Ethylmagnesiumbromid ergaben den gleichen Komplex. Für die Entstehung der unterschiedlichen Produkte bei der Reaktion von \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlEt_3\) wurde ein Mechanismus entwickelt und dieser anhand der gewonnenen Erkenntnisse belegt.
Seit dem Beginn der Produktion und Veredelung von Nahrungsmitteln im großtechnischen
Maßstab steigen nicht nur die Mengen an den Hauptprodukten dieser Prozesse, sondern
auch die Mengen der dabei anfallenden Nebenprodukte. Die Entsorgung dieser Nebenprodukte
über Flüsse oder Kläranlagen stellte auf Grund deren BOD (biochemical oxygen
demand) zunehmend ein Problem dar, dessen Lösung unabdingbar wurde. Eines dieser
Nebenprodukte, welches in stets zunehmender Menge anfällt ist Molke, das Hauptnebenprodukt
der Käseherstellung. Die produzierte Jahresmenge betrug für das Jahr 2011 alleine in Deutschland geschätzte 11,80 Mio. Tonnen. Das einstige Abfallprodukt Molke wird seit den 1950er Jahren in zunehmendem Maß vorwiegend zu Molkekonzentrat, einer 5 bis
6-fach aufkonzentrierten Molkelösung, und Molkeproteinpulvern mit steigendem Proteinanteil
aufgearbeitet. In den 2000er Jahren kamen verstärkt Isolate einzelner Molkeproteine dieser Produktpalette hinzu. Bereits vor 15 Jahren wurde die weltweit produzierte Menge
an Molkeproteinkonzentrat auf über 140.000 Tonnen geschätzt. Molkeproteinpulver und alpha-Lactalbumin (ALA) wurden zu dieser Zeit in einer geschätzten Menge von 2.300 Tonnen bzw. 230 Tonnen jährlich hergestellt. Mit der zunehmenden Reinheit der Proteinfraktionen stieg auch deren Marktwert von etwa 1 $/kg für die ersten Molkeproteinpulver in den
1960er Jahren bis auf 600 $/kg für Fraktionen einzelner Proteine mit hoher Reinheit.
Die überwiegende Mehrheit dieser Produkte findet seinen Einsatz in der Nahrungsmittelindustrie,
wie beispielsweise bei der Produktion von Säuglingsnahrung, Sportlerernährung
oder als Texturbildner in verschiedensten Nahrungsmitteln des täglichen Konsums. Die am weitesten verbreiteten Prozesse zur großindustriellen Aufarbeitung von Molke sind
die Ultrafiltration und die Chromatographie. Andere Verfahren wie Fällungsprozesse oder
peptische Hydrolysen kommen mit steigender Prozessgröße immer seltener als alleiniges
Aufarbeitungsverfahren von Molke zum Einsatz. Viele der beschriebenen und angewendeten
Verfahren arbeiten in einem der ersten Schritte mit einer Modifikation des pH-Wertes
des Eduktes Molke. Dies ist in dem hier vorgestellten Verfahren nicht der Fall, das Edukt wird ohne Veränderungen oder Modifikationen eingesetzt. Es werden keine einzelnen Komponenten der Molke im Voraus entfernt oder durch z. B. peptische Hydrolyse zerstört. Die
eingesetzten Chemikalien sind ungiftig und müssen keinen kostenintensiven Entsorgungsverfahren
zugeführt werden. Im Gegensatz zu Verfahren mit Fällungssalzen können die
eingesetzten Chemikalien im Produkt durch Neutralisation einfach wieder entfernt werden
oder kommen in nur geringen Konzentrationen vor. Es treten im Gegensatz zu chromatographischen
Methoden nur geringe Fluidströme, z. B. Waschwasser, auf und der Prozess bedarf keiner massiven Temperaturerhöhung des Eduktes, um beispielsweise die Viskosität
zu erhöhen. Die eingesetzten Adsorbentien sind kostengünstig (unter 10 €/kg) und können im Fall von Siliziumdioxid als restproteinbeladener Tierfutterzusatz entsorgt werden. In dem vorgestellten Prozess können die Hauptkomponenten der Molke alpha-Lactalbumin
(ALA), beta-Lactoglobulin (BLG) und Lactose voneinander getrennt werden, was mit den
meisten Membranverfahren im industriellen Maßstab nicht oder nur ungenügend möglich
ist. Im Prozess werden lediglich einfache Rührkessel und Filtrationseinheiten eingesetzt. Des Weiteren ist der Prozess leicht in bestehende Aufarbeitungsverfahren integrierbar und/oder durch zusätzliche Verfahren, wie beispielsweise vor- oder nachgeschaltete Membranverfahren,
ergänzbar. Dadurch besitzt er ein hohes Potential zur Optimierung und weiteren Kostenersparnis. In dieser Arbeit werden zwei Ansätze zur Aufarbeitung verfolgt,
miteinander verglichen und ein Prozessentwurf mit Wirtschaftlichkeitsbetrachtung für den Batch-Ansatz vorgestellt. Für einen chromatographischen Ansatz wird ausgehend von Isothermen
und Adsorptions- und Desorptionsversuchen in einer Kleinsäule die Produktivität
für ein Material aus
gamma-Aluminiumoxid ermittelt. Für alle in dieser Arbeit verwendeten Materialien
aus Bentonit/Kieselsäure, Siliziumdioxid und
gamma-Aluminiumoxid werden die Permeabilität der Säulenpackung, deren maximale Bindekapazität und Stabilität angegeben. Der Einfluss einer Reduktion der Partikelgröße auf die Proteinbindekapazität daraus resultierender
Adsorbensschüttungen wird ebenfalls betrachtet. Eine gängige Betriebsweise
für viskose Fluide mit teilweise ungelöstem Feststoffanteil, wie Molkekonzentrat, stellt die
Expanded Bed Chromatographie dar. Eine rechnerische Abschätzung für das Material aus gamma-Aluminiumoxid ergänzt experimentelle Beobachtungen hinsichtlich der Eignung des Materials
für die Expanded Bed Chromatographie. Zur Trennung von ALA und BLG wird ein
Ansatz mittels selektiver Adsorption im Durchbruch mit einem Ansatz mittels selektiver Desorption in einem Stufengradienten aus Kaliumphosphat als Eluent verglichen. Für den
Batch-Ansatz wird aus den Ergebnissen von Adsorptionsisothermen und einstufigen Batchversuchen
eine Stoffstromsimulation auf Grundlage eines verfahrenstechnischen Fließbilds
erstellt. Der vorgestellte Prozess besteht aus 6 Rührkesselreaktoren, Filtrationsmodulen
zur Fest-Flüssig-Phasen Trennung und zwei Sprühtrocknungseinheiten. Eine Prüfung des
vorgestellten Prozesses auf seine Wirtschaftlichkeit wird vor dem Hintergrund möglicher
Produktpreise diskutiert.
This work shall provide a foundation for the cross-design of wireless networked control systems with limited resources. A cross-design methodology is devised, which includes principles for the modeling, analysis, design, and realization of low cost but high performance and intelligent wireless networked control systems. To this end, a framework is developed in which control algorithms and communication protocols are jointly designed, implemented, and optimized taking into consideration the limited communication, computing, memory, and energy resources of the low performance, low power, and low cost wireless nodes used. A special focus of the proposed methodology is on the prediction and minimization of the total energy consumption of the wireless network (i.e. maximization of the lifetime of wireless nodes) under control performance constraints (e.g. stability and robustness) in dynamic environments with uncertainty in resource availability, through the joint (offline/online) adaptation of communication protocol parameters and control algorithm parameters according to the traffic and channel conditions. Appropriate optimization approaches that exploit the structure of the optimization problems to be solved (e.g. linearity, affinity, convexity) and which are based on Linear Matrix Inequalities (LMIs), Dynamic Programming (DP), and Genetic Algorithms (GAs) are investigated. The proposed cross-design approach is evaluated on a testbed consisting of a real lab plant equipped with wireless nodes. Obtained results show the advantages of the proposed cross-design approach compared to standard approaches which are less flexible.
This thesis combined gas phase mass spectrometric investigations of ionic transition metal clusters that are either homogeneous \((Nb_n^{+/-}, Co_n^{+/-})\) or heterogeneous \(([Co_nPt_m]^{+/-})\), of their organo metallic reaction products, and of organic molecules (aspartame and Asp-Phe) and their alkali metal ion adducts.At the Paris FEL facility CLIO a newly installed FT-ICR mass spectrometer has been modified by inclusion of an ion bender that allows for the usage of additional ion sources beyond the installed ESI source. The installation of an LVAP metal cluster source served to produce metal cluster adsorbate complex ions of the type \([Nb_n(C_6H_6)]^{+/-}\). IR-MPD of the complexes \([Nb_n(C_6H_6)]^{+/-} (n = 18, 19)\) resulted in \([Nb_n(C_6)]^{+/-} (n = 18, 19)\) fragments. Spectra are broad, possibly because of vibronic / electronic transitions. In Kaiserslautern the capabilities of the LVAP source were extended by adding a gas pick up unit. Complex gases containing C-H bonds otherwise break within the cluster forming plasma. More stable gases like CO seem to attach at least partially intact. Metal cluster production with argon tagged onto the cluster failed when introducing argon through the pick up source, but succeeded when using argon as expansion gas. A new mass spectrometer concept of an additional multipole collision cell for metal cluster adsorbate formation is currently under construction. Subsequent cooling shall achieve high resolution IR-MPD spectra of transition metal cluster adsorbate complexes.Prior work on reaction of transition metal clusters with benzene was extended by investigating the reaction with benzene and benzene-d6 of size selected cationic cobalt clusters \(Co_n^+\) and of anionic cobalt clusters \(Co_n^-\) in the size range \(n = 3 - 28\) and of bimetallic cobalt platinum clusters \([Co_nPt_m]^{+/-}\) in the size range \(n + m \le 8\). Dehydrogenation by cationic cobalt clusters \(Co_n^+\) is sparse, it is effective in small bimetallic clusters \([Co_nPt_m]^+ (n + m \le 3)\). Thus single platinum atoms promote benzene dehydrogenation while further cobalt atoms quench it. Dehydrogenation is ubiquitous in reactions of anionic cobalt clusters. Mixed triatomic clusters \([Co_2Pt_1]^-\) and \([Co_1Pt_2]^-\) are special in causing effective reactions and single dehydrogenation through some kind of cooperativity while \([Co_nPt_{1,2}]^- (n \ge 3)\) do not react at all. Kinetic isotope effects KIE(n) in total reaction rates are inverse and - in part - large, dehydrogenation isotope effects DIE(n) are normal. A multistep model of adsorption and stepwise dehydrogenation from the precursor adsorbate proves suitable to rationalize the found KIEs and DIEs in principle. Particular insights into the effects of charge and of cluster size are largely beyond this model. Some DFT calculations - though preliminary - lend strong support to the otherwise assumed structures and enthalpies. More insights into the cause of the found effects of charge, size and composition of both pure and mixed clusters shall arise from ongoing high level ab initio modeling (of especially the \(n + m = 3\) case for mixed clusters).The influence of the methylester group in the molecules aspartame (Asp-PheOMe) and Asp-Phe has been explored. Therefore, their protonated and deprotonated species and their complexes with alkali metal ions attached were investigated with different techniques utilizing mass spectrometry.Gas phase H-/D-exchange with \(ND_3\) has proven that in both molecules all acidic NH and OH binding motifs do exchange their hydrogen atom and that simultaneous multi exchange is present. Kinetic studies revealed that with alkali metal ions attached the speed of the first exchange step decreases with increasing ion size. The additional OH of the carboxylic COOHPhe group in Asp-Phe increases the exchange speed by a constant value. CID experiments yielded water and the protonated Asp-Phe anhydride as main fragments out of the protonated molecules, neutral Asp anhydride and \([Phe M]^+ / [PheOMe M]^+\) for \(Li^+\) and \(Na^+\) attached, and neutral aspartame / Asp-Phe and ionic \(M^+\) for \(K^+\), \(Rb^+\) and \(Cs^+\) attached. The threshold energy \(E_{CID}\), indicating ion stability, decreases with increasing ion size. For aspartame fragmentation occurs at lower \(E_{CID}\) values for complexes with \(H^+\), \(Li^+\) and \(Na^+\) than for the Asp-Phe analoga. Complexes with \(K^+\), \(Rb^+\) and \(Cs^+\) give the same \(E_{CID}\) value for aspartame and Asp-Phe. IR-MPD investigations lead to the same fragments as the CID experiments. In combination with quantum mechanical calculations a change in the preferred structure from charge-solvated, tridentate type for complexes with small alkali metal ions (\(Li^+\)) to salt-bridge type structure for large alkali metal ions (\(Cs^+\)) could be confirmed. Calculations thereby reveal nearly no structural differences between aspartame and Asp-Phe for cationized species. The deprotonation of the additional COOHPhe group in Asp-Phe is preferred against other acidic positions. A better experimental distinction between possible (calculated) structure types would arise from additional FEL IR-MPD measurements in the energy range of 600 to 1800 \(cm^{-1}\). The comparison of the \(E_{CID}\) values with calculated fragmentation energy values proves that not only for alkali metal complexes with \(K^+\), \(Rb^+\) and \(Cs^+\), but also for \(Li^+\) and \(Na^+\) the bond breaking of all metal atom bonds is part of the transition state. The lower \(E_{CID}\) values for aspartame with small cations may be explained in terms of internal energy. Aspartame is a larger molecule, possesses more internal energy and can be recognized as the larger heat bath. Less energy is needed for fragmentation, if the Phe part with the additional methylester group is involved in the fragmentation process.
Die Zielsetzung dieser Arbeit bestand in der Entwicklung effizienter und nachhaltiger Verfahren zur Addition von N-H Nukleophilen an terminale Alkine und für die Insertion von CO2 in die C-H Bindung terminaler Alkine.
Im ersten Teil dieser Dissertation wurde der Mechanismus der Ruthenium-katalysierten Addition von Amiden an terminale Alkine eingehend durch eine Kombination von Kontrollexperimenten, kinetischen Studien, spektroskopischen Untersuchungen und theoretischen Berechnungen untersucht. Zunächst wurden vier literaturbekannte Katalysezyklen identifiziert, die plausible Mechanismen für die Hydroamidierung terminaler Alkine darstellen. Aufbauend auf nachgewiesenen Elementarschritten chemisch verwandter Reaktionen wurde zusätzlich ein weiterer Mechanismus für die Hydroamidierung abgeleitet. Anschließend wurde eine Reihe von Kontrollexperimenten durchgeführt, mit deren Hilfe einzelne Elementarschritte der Katalysezyklen falsifiziert und somit Mechanismen ausgeschlossen werden konnten. Um herauszufinden, ob die Hydroamidierung mit dem einzig verbliebenen Mechanismus zutreffend beschrieben werden kann, wurden spektroskopische Studien durchgeführt. Diese Untersuchungen wurden vor, während und nach Hydroamidierungstestreaktionen durchgeführt, und auf diese Weise konnten zahlreiche postulierte Intermediate nachgewiesen und der verbleibende Katalysezyklus bekräftigt werden. Die in diesen mechanistischen Studien gewonnenen Erkenntnisse wurden zur Entwicklung einer neuen Katalysatorgeneration mit ausgesprochen hoher Selektivität für die Bildung wertvoller Z-Enamide und Z-Enimide genutzt. Das synthetische Potential wurde zudem durch die Darstellung der biologisch aktiven Naturstoffe Lansiumamid A und B, Lansamid I sowie Botryllamid C und E demonstriert.
Im zweiten Teil dieser Arbeit gelang es, hocheffiziente Silber(I)/DMSO-katalysierte Methoden zur Carboxylierung terminaler Alkine mit CO2 bei Normaldruck zu entwickeln.
This thesis is concerned with tropical moduli spaces, which are an important tool in tropical enumerative geometry. The main result is a construction of tropical moduli spaces of rational tropical covers of smooth tropical curves and of tropical lines in smooth tropical surfaces. The construction of a moduli space of tropical curves in a smooth tropical variety is reduced to the case of smooth fans. Furthermore, we point out relations to intersection theory on suitable moduli spaces on algebraic curves.
This thesis is concerned with a phase field model for brittle fracture.
The high potential of phase field modeling in computational fracture mechanics lies in the generality of the approach and the straightforward numerical implementation, combined with a good accuracy of the results in the sense of continuum fracture mechanics.
However, despite the convenient numerical application of phase field fracture models, a detailed understanding of the physical properties is crucial for a correct interpretation of the numerical results. Therefore, the driving mechanisms of crack propagation and nucleation in the proposed phase field fracture model are explored by a thorough numerical and analytical investigation in this work.
Das Ziel der vorliegenden Dissertation war die Herstellung eines Immunotoxins das in der Transplantationsmedizin eingesetzt werden soll. Hierbei wurde das Ribosomen-inaktivierende Protein Gelonin als Toxinkomponente eingesetzt. Die Besonderheit von Gelonin ist, dass es für intakte Zellen nicht toxisch ist, weil es nicht in die Zellen gelangen kann. Um es in die Zelle zu bringen wird eine Ligandenkomponente, in dieser Arbeit der monoklonale anti-PD-1-Antikörper, der an PD-1 auf der Oberfläche von alloreaktiven T-Zellen bindet, benötigt. Gelonin könnte somit durch die Aufnahme über den anti-PD-1-Antikörper in diese Zellen gelangen und sie selektiv zerstören, bevor sie zur Abstoßung des Transplantats führen. Mittels chemischer Kopplung wurden Gelonin und der anti-PD-1-Antikörper miteinander verknüpft, indem sie zunächst mit 2-Iminothiolan modifiziert wurden, um freie Thiolgruppen in die Proteine einzuführen. Nach der weiteren Modifizierung von Gelonin mit Bis-(maleimido)-methylether zur Einführung von Maleimidgruppen erfolgte die Kopplung der beiden Proteine durch Ausbildung einer Thioetherbrücke. Nach der Optimierung war die Herstellung des Konjugats erfolgreich und es erfolgte die Aufreinigung mittels verschiedener chromatographischer Methoden, wie HPLC, ÄKTA und Affinitätschromatographie. Nach der immunologischen Charakterisierung mittels ELISA und Western-Blot wurden Untersuchungen zur Wirksamkeit des Konjugats durchgeführt. Es ergab sich keine signifikante Wirkung des Konjugats auf HEK293T Zellen. Der Grund hierfür könnte sein, dass das Konjugat nicht über Endozytose in die Zelle aufgenommen werden kann.
Zur besseren Charakterisierung und Aufreinigung des Konjugats war ein weiteres Ziel dieser Arbeit die Herstellung eines monoklonalen anti-Gelonin-Antikörpers. Hierzu wurden BALB/c Mäuse erfolgreich mit Gelonin immunisiert und im Anschluss die Milzzellen mit der Myelomzelllinie (X63Ag8.653) fusioniert. Nach zweifacher Klonierung und Expansion wurden mittels Protein-G-Affinitätschromatographie zwei unterschiedliche anti-Gelonin-Antikörper isoliert. Auf Grund ihrer niedrigen Affinität konnten sie aber nicht zur Aufreinigung, sondern nur zur Charakterisierung des Konjugats eingesetzt werden.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
The main purpose of the study was to improve the physical properties of the modelling of compressed materials, especially fibrous materials. Fibrous materials are finding increasing application in the industries. And most of the materials are compressed for different applications. For such situation, we are interested in how the fibre arranged, e.g. with which distribution. For given materials it is possible to obtain a three-dimensional image via micro computed tomography. Since some physical parameters, e.g. the fibre lengths or the directions for points in the fibre, can be checked under some other methods from image, it is beneficial to improve the physical properties by changing the parameters in the image.
In this thesis, we present a new maximum-likelihood approach for the estimation of parameters of a parametric distribution on the unit sphere, which is various as some well known distributions, e.g. the von-Mises Fisher distribution or the Watson distribution, and for some models better fit. The consistency and asymptotic normality of the maximum-likelihood estimator are proven. As the second main part of this thesis, a general model of mixtures of these distributions on a hypersphere is discussed. We derive numerical approximations of the parameters in an Expectation Maximization setting. Furthermore we introduce a non-parametric estimation of the EM algorithm for the mixture model. Finally, we present some applications to the statistical analysis of fibre composites.
In recent years, recommender systems have been widely used for a variety of different kinds of items such as books, movies, and music. However, current recommendation approaches have often been criticized to suffer from overspecialization thus not enough considering a user’s diverse topics of interest. In this thesis we present a novel approach to extracting contextualized user profiles which enable recommendations taking into account a user’s full range of interests. The method applies algorithms from the domain of topic detection and tracking to automatically identify diverse user interests and to represent them with descriptive labels. That way manual annotations of interest topics by the users, e. g., from a predefined domain taxonomy, are no longer required. The approach has been tested in two scenarios: First, we implemented a content-based recommender system for an Enterprise 2.0 resource sharing platform where the contextualized user interest profiles have been used to generate recommendations with a high degree of inter-topic diversity. In an effort to harness the collective intelligence of the users, the resources in the system were described by making use of user-generated metadata. The evaluation experiments show that our approach is likely to capture a multitude of diverse interest topics per user. The labels extracted are specific for these topics and can be used to retrieve relevant on-topic resources. Second, a slightly adapted variation of the algorithm has been used to target music recommendations based on the user’s current mood. In this scenario music artists are described by using freely available Semantic Web data from the Linked Open Data cloud thus not requiring expensive metadata annotations by experts. The evaluation experiments conducted show that many users have a multitude of different preferred music styles. However a correlation between these music styles and music mood categories could not be observed. An integration of our proposed user profiles with existing user model ontologies seems promising for enabling context-sensitive recommendations.
Pflanzenkläranlagen (PKA) sind ein naturnahes Verfahren der Abwasserreinigung, das aufgrund seines im Vergleich zu technischen Kläranlagen geringen Wartungs- und Energieaufwands, der guten Einbindung in die Landschaft und der höheren Reinigungsleistung als konventionelle Teichkläranlagen vorwiegend im ländlichen Raum zum Einsatz kommt.
Gemäß den allgemein anerkannten Regeln der Technik beschränkt sich die Anwendung jedoch auf im Trennsystem entwässerte Einzugsgebiete und den Einsatz von fluviatilen Rundkornsanden als Filtersubstrat. Im Süden und Südwesten Deutschlands überwiegt allerdings das Mischsystem, sodass verfahrenstechnische Lösungen in der Abwasserreinigung die Mischkanalisation als Voraussetzung haben. Im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (EU-WRRL) sind Immissionsbetrachtungen im Hinblick auf den guten chemischen Zustand des Gewässers als Grundlage für den guten ökologischen Zustand erforderlich. Dezentrale Kläranlagen an abflussschwachen Gewässern müssen häufig verschärfte Anforderungen an den Ablauf, insbesondere im Hinblick auf die Nitrifikationsleistung, einhalten. Ziel dieser Arbeit ist die Überprüfung der Eignung von Pflanzenkläranlagen im Mischsystem im Allgemeinen und von Lavasand als Filtersubstrat im Besonderen zur Erfüllung dieser Anforderungen.
Der für Lavasand-Anlagen entwickelte Bemessungsansatz des Entsorgungsverbandes Saar (EVS) sowie die zugehörigen Planungs- und Betriebsvorgaben wurden im großtechnischen Maßstab an zehn kommunalen Kläranlagen mit Ausbaugrößen von 70 bis 600 EW überprüft. Neben einer reinen Verifizierung des Konzepts im Sinne eines Nachweises der Reinigungsleistung wurde versucht, auf der Kläranlage Büschdorf die Belastungsgrenzen des Systems und insbesondere der alternierend und intermittierend betriebenen Hauptbodenfilter (HBF) zu ermitteln. Ergebnis dieser Untersuchungen auf der Kläranlage Büschdorf war, dass der dort als Filtersubstrat eingesetzte Lavasand über ein Jahr mit maximalen hydraulischen Flächenbelastungen von mehr als 220 l/(m2*d) beaufschlagt werden kann, ohne dass es zu Kolmationserscheinungen oder einem Einbruch der Reinigungsleistung kommt.
Darüber hinaus wurde die Leistungsfähigkeit von Lavasanden aus verschiedenen Steinbrüchen mit unterschiedlichen Eigenschaften auf der Kläranlage Riesweiler untersucht. Es zeigte sich, dass das Filtermaterial mit der größten Porosität, der größten spezifischen Oberfläche, der geringsten Durchlässigkeit und der höchsten Kationenaustauschkapazität die besten Ergebnisse im Hinblick auf die Elimination von Kohlenstoff- und Phosphorverbindungen sowie Ammoniumstickstoff erzielt. Im Zusammenhang mit dem CSB-Abbau und der Nitrifikationsleistung sind aerobe Verhältnisse im Filterkörper notwendig, was durch einen intermittierenden Betrieb der Bodenfilter sichergestellt wird. Dieser Sachverhalt wurde mit Redoxpotenzialmessungen und Beprobungen von Versuchsphasen mit dem Filter im Normal- und Einstaubetrieb nachgewiesen. Gemäß den Ergebnissen dieser Arbeit sind Lavasande als Filtersubstrat im Vergleich zu fluviatilen Rundkornsanden bei höherer hydraulischer Belastung, insbesondere bezogen auf den Ammoniumstickstoffabbau, leistungsfähiger.
Zusammenfassend ist festzustellen, dass substrateigenschaftsabhängige Bemessungs-vorgaben notwendig und sinnvoll sind. Hier besteht weiterer Forschungsbedarf.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Data integration aims at providing uniform access to heterogeneous data, managed by distributed source systems. Data sources can range from legacy systems, databases, and enterprise applications to web-scale data management systems. The materialized approach to data integration, extracts data from the sources, transforms and consolidates the data, and loads it into an integration system, where it is persistently stored and can be queried and analyzed.
To support materialized data integration, so called Extract-Transform-Load (ETL) systems have been built and are widely used to populate data warehouses today. While ETL is considered state-of-the-art in enterprise data warehousing, a new paradigm known as MapReduce has recently gained popularity for web-scale data transformations, such as web indexing or page rank computation.
The input data of both, ETL and MapReduce programs keeps changing over time, while business transactions are processed or the web is crawled, for instance. Hence, the results of ETL and MapReduce programs get stale and need to be recomputed from time to time. Recurrent computations over changing input data can be performed in two ways. The result may either be recomputed from scratch or recomputed in an incremental fashion. The idea behind the latter approach is to update the existing result in response to incremental changes in the input data. This is typically more efficient than the full recomputation approach, because reprocessing unchanged portions of the input data can often be avoided.
Incremental recomputation techniques have been studied by the database research community mainly in the context of the maintenance of materialized views and have been adopted by all major commercial database systems today. However, neither today's ETL tools nor MapReduce support incremental recomputation techniques. The situation of ETL and MapReduce programmers nowadays is thus much comparable to the situation of database programmers in the early 1990s. This thesis makes an effort to transfer incremental recomputation techniques into the ETL and MapReduce environments. This poses interesting research challenges, because these environments differ fundamentally from the relational world with regard to query and programming models, change data capture, transactional guarantees and consistency models. However, as this thesis will show, incremental recomputations are feasible in ETL and MapReduce and may lead to considerable efficiency improvements.
Hydrogels are known to be covalently or ionic cross-linked, hydrophilic three-dimensional
polymer networks, which exist in our bodies in a biological gel form such as the vitreous
humour that fills the interior of the eyes. Poly(N-isopropylacrylamide) (poly(NIPAAm))
hydrogels are attracting more interest in biomedical applications because, besides others, they
exhibit a well-defined lower critical solution temperature (LCST) in water, around 31–34°C,
which is close to the body temperature. This is considered to be of great interest in drug
delivery, cell encapsulation, and tissue engineering applications. In this work, the
poly(NIPAAm) hydrogel is synthesized by free radical polymerization. Hydrogel properties
and the dimensional changes accompanied with the volume phase transition of the
thermosensitive poly(NIPAAm) hydrogel were investigated in terms of Raman spectra,
swelling ratio, and hydration. The thermal swelling/deswelling changes that occur at different
equilibrium temperatures and different solutions (phenol, ethanol, propanol, and sodium
chloride) based on Raman spectrum were investigated. In addition, Raman spectroscopy has
been employed to evaluate the diffusion aspects of bovine serum albumin (BSA) and phenol
through the poly(NIPAAm) network. The determination of the mutual diffusion coefficient,
\(D_{mut}\) for hydrogels/solvent system was achieved successfully using Raman spectroscopy at
different solute concentrations. Moreover, the mechanical properties of the hydrogel, which
were investigated by uniaxial compression tests, were used to characterize the hydrogel and to
determine the collective diffusion coefficient through the hydrogel. The solute release coupled
with shrinking of the hydrogel particles was modelled with a bi-dimensional diffusion model
with moving boundary conditions. The influence of the variable diffusion coefficient is
observed and leads to a better description of the kinetic curve in the case of important
deformation around the LCST. A good accordance between experimental and calculated data
was obtained.
Palladium-Catalyzed C–C Bond Formations via Activation of Carboxylic Acids and Their Derivatives
(2013)
Applications of carboxylic acids and their derivatives in transition metal-catalyzed cross-coupling reactions regio-selectively forming Csp3-Csp2, and Csp2-Csp2 bonds were explored in this thesis. Several important organic building blocks such as aryl acetates, diaryl acetates, imines, ketones, biaryls, styrenes and polysubstituted alkenes were successfully accessed from carboxylic acids and their derivatives by the means of C–H activation and decarboxylative cross-couplings.
An efficient and practical protocol for the synthesis of biologically important ethyl 2-arylacates through the dealkoxycarbonlative cross-coupling reaction between aryl halides and malonates was developed. Activation of the alpha-proton of alkyl esters by a copper catalyst allowed the deprotonation of esters even in the presence of mild bases, leading to a straightforward and efficient approach to alkyl alpha-diarylacetate from simple alkyl acetates and aryl halides.
The addition of a primary amine into the coupling reaction of alpha-oxocarboxylic acids and aryl halides led to an unprecedented low-temperature redox-neutral decarboxylative coupling process, providing a green and efficient method for the preparation of azomethines, in which all the three substituents can be independently varied. A minor modification of this protocol allowed us to easily access the corresponding ketones.
The decarboxylative coupling of robust aryl mesylates as well as polysubstituted alkenyl mesylates using our customized imidazolyl phosphine ligands was realized, further expanding the scope of carbon electrophiles in decarboxylative coupling reactions. Variation of the ligands led to two complementary protocols, providing the corresponding biaryls and polysubstituted olefins in high yields.
The use of a new class of pyrimidinyl phosphine ligands dramatically reduced the reaction temperatures of decarboxylative cross-coupling reactions between aromatic carboxylic acids and aryl or alkenyl triflates. The new catalyst system for the first time allowed the efficient decarboxylative biaryls synthesis at only 100 °C, representing a significant achievement in redox-neutral decarboxylative coupling reactions.
There is growing international concern about the necessity to re-think the university so that it might remain relevant in a modern society. In the traditional task division at universities, knowledge is the main resource. Universities make use of both the cognitive and the informational approach. It was expected that universities use each approach to improve overall university performance. To effectively use the informational approach, universities should apply the tools from knowledge management. To effectively use the cognitive approach, universities must update their teaching-learning strategies to incorporate some of the recent advances in neuroscience and biology of knowledge, specifically from neurobiology and autopoiesis. With this frame, the main contribution of this work is the result of merging pedagogy and biology, towards an ideal future university. This goal was achieved through an exploratory study conducted to identify opportunities and difficulties in improving the teaching-learning process for the future of higher education in Honduras. The Delphi Study was used as a predictive method. Nineteen Honduran experts participated in this study, and two rounds were necessary to achieve consensus.
The multi-disciplinary approach of this research addresses three different fields whose core element is knowledge. First, input from the present field of higher education is used to speak about the future. Second, input is taken from the biology of knowledge, and its contributions from neurobiology and autopoiesis that allow modifying and completing the already existing learning theories with a biological basis. Third, input is taken from the knowledge process, which is traditionally used as an organizational tool and know is translated to the individual level. The exploration shows that experts are concerned about all the missions and responsibilities of universities, but they agree that changes should primarily take place in the teaching dimension. Even though they are not aware of the possible contributions of biology, they suggest new forms of teaching that more favor skills development, promotes values, pertinent knowledge, and personal development over short-term contents. The resulting BRAIN Model encompasses the ideal future of higher education regarding teaching and learning, according to experts’ answers. It provides a useful guide that any reform in teaching should take into account for a holistic, integral, and therefore more efficient learning task.
Fluid extraction is a typical chemical process where two types of fluids are mixed together. The high complexity of this process which involves droplet coalescence, breakup, mass transfer, and counter-current flow often makes design difficult. The industrial design of these processes is still based on expensive mini-plant and pilot plant experiments. Therefore, there is a strong need for research into the stimulation of fluid-fluid interaction processes using computational fluid dynamics (CFD).
Previous multi-phase fluid simulations have focused on the development of models that couple mass and momentum using the Navier-Stokes equation. Recent population balance models (PBM) have proved to be important methods for analyzing droplet breakage and collisions. A combination of CFD and PBM facilitates the simulation of flow property by solving coupling equations, and the calculation of the droplet size and numbers. In our study, we successfully coupled an Euler-Euler CFD model with the breakup and coalescence models proposed by Luo and Svendsen (59).
The simulation output of extraction columns provides a mathematical understand- ing of how fluids are mixed inside a mixing device. This mixing process shows that the dispersed phase of a flow generates large blobs and bubbles. Current mathemati- cal simulation results often fail to provide an intuitive representation of how well two different types of fluid interact, so intuitive and physically plausible visualization tech- niques are in high demand to help chemical engineers to explore and analyze bubble column simulation data. In chapter 3, we present the visualization tools we developed for extraction column data.
Fluid interfaces and free surfaces are topics of growing interest in the field of multi- phase computational fluid dynamics. However, the analysis of the flow field relative to the material interface shape and topology is a challenging task. In chapter 5, we present a technique that facilitates the visualization and analysis of complex material interface behaviors over time. To achieve this, we track the surface parameterization of time-varying material interfaces and identify locations where there are interactions between the material interfaces and fluid particles. Splatting and surface visualization techniques produce an intuitive representation of the derived interface stability. Our results demonstrate that the interaction of a flow field with a material interface can be understood using appropriate extraction and visualization techniques, and that our techniques can help the analysis of mixing and material interface consistency.
In addition to texture-based methods for surface analysis, the interface of two- phase fluid can be considered as an implicit function of the density or volume fraction values. High-level visualization techniques such as topology-based methods can re- veal the hidden structure underlying simple simulation data, which will enhance and advance our understanding of multi-fluid simulation data. Recent feature-based vi- sualization approaches have explored the possibility of using Reeb graphs to analyze scalar field topologies(19, 107). In chapter 6, we present a novel interpolation scheme for interpolating point-based volume fraction data and we further explore the implicit fluid interface using a topology-based method.
Efficient time integration and nonlinear model reduction for incompressible hyperelastic materials
(2013)
This thesis deals with the time integration and nonlinear model reduction of nearly incompressible materials that have been discretized in space by mixed finite elements. We analyze the structure of the equations of motion and show that a differential-algebraic system of index 1 with a singular perturbation term needs to be solved. In the limit case the index may jump to index 3 and thus renders the time integration into a difficult problem. For the time integration we apply Rosenbrock methods and study their convergence behavior for a test problem, which highlights the importance of the well-known Scholz conditions for this problem class. Numerical tests demonstrate that such linear-implicit methods are an attractive alternative to established time integration methods in structural dynamics. In the second part we combine the simulation of nonlinear materials with a model reduction step. We use the method of proper orthogonal decomposition and apply it to the discretized system of second order. For a nonlinear model reduction to be efficient we approximate the nonlinearity by following the lookup approach. In a practical example we show that large CPU time savings can achieved. This work is in order to prepare the ground for including such finite element structures as components in complex vehicle dynamics applications.
Das Zwei-Komponenten System CiaRH beeinflusst mit der β-Lactamresistenz, Kompetenz, Autolyse, Bakteriocinproduktion und Virulenz eine Vielzahl an Phänotypen in Streptococcus pneumoniae und ist daher von großer physiologischer Bedeutung. Es setzt sich aus der membrangebundenen Sensorkinase CiaH und dem cytoplasmatisch lokalisierten Response Regulator CiaR zusammen. Das CiaRH System ist unter sehr vielen Wachstumsbedingungen aktiv. CiaH ist allerdings für die Aktivierung von CiaR unter bestimmten Bedingungen verzichtbar. CiaR ist jedoch in seiner phosphorylierten Form aktiv, was die Frage nach einer alternativen Phosphatquelle für CiaR aufwirft. Der sog. Crosstalk durch eine fremde Sensorkinase oder niedermolekulare Phosphodonoren wie Acetylphosphat stellen mögliche Wege zur alternativen Phosphorylierung von CiaR dar.
Um zwischen diesen Möglichkeiten zu unterscheiden, wurden Gene des Acetylphosphat-Stoffwechsels inaktiviert, was zu einer Änderung der Produktion von Acetylphosphat führen sollte. Anschließende Messungen der zellulären Acetylphosphatmenge und der CiaR-abhängigen Promotoraktivitäten in Abwesenheit der Sensorkinase CiaH zeigten klar, dass mit sinkendem Acetylphosphat auch die CiaR-vermittelte Genexpression reduziert wurde. Diese Korrelation legt den Schluss nahe, dass Acetylphosphat tatsächlich den wesentlichen alternativen Phosphodonor für CiaR darstellt. Allerdings wurden auch Hinweise für geringfügigen Crosstalk durch eine andere Sensorkinase erhalten. Im Zuge dieser Experimente ergab sich weiterhin, dass ein Enzym des Acetylphosphat-Stoffwechsels, die Acetatkinase, eine besondere Rolle bei der alternativen Phosphorylierung von CiaR spielt. Eine Reihe von Befunden legt den Schluss nahe, dass Acetatkinase und CiaR möglicherweise interagieren. Eine solche regulatorische Rolle der Acetatkinase ist bisher nicht beschrieben.
Weiterhin konnte gezeigt werden, dass die CiaR-Aktivität durch die Bifunktionalität von CiaH auf nahezu konstantem Niveau gehalten wird. Dabei kann wahrscheinlich Acetat, ein exkretiertes Endprodukt des Acetylphosphat-Stoffwechsels, zur Stimulierung der Phosphataseaktivität von CiaH dienen. Dies könnte von physiologischer Bedeutung sein, um eine von Acetylphosphat ausgehende Phosphorylierung von CiaR durch Acetat im Medium durch Dephosphorylierung zu begrenzen. Somit könnten Acetylphosphat und Acetat Gegenspieler zur Regulation der CiaR-Aktivität darstellen.
Ein einem zweiten Teil dieser Arbeit wurde auf die Auswirkungen von Mutationen in CiaH auf die CiaR-Aktivität eingegangen. Das CiaRH-System wurde als erste Nicht-PBP-Resistenzdeteminante in β-lactamresistenten Labormutanten von S. pneumoniae R6 entdeckt, wobei eine Mutation im Sensorkinasegen ciaH (ciaH306, T230P) eine Erhöhung der CiaR-abhängigen Genexpression vermittelte. Weitere ciaH-Mutationen wurden in anderen spontanresistenten Labormutanten beschrieben. Die Laborallele vermitteln eine Steigerung der CiaR-abhängigen Promotoraktivität zwischen vier- und 26-fach. Phänotypische Folgen sind die Verringerung der β-Lactamsuszeptibilität, der Verlust der Kompetenz und verändertes Wachstum von S. pneumoniae R6.
Im Zuge dieser Arbeit wurden zum ersten Mal veränderte ciaH-Allele in klinischen Pneumokokken-Isolaten identifiziert und charakterisiert. Es zeigte sich eine Verbreitung in Isolaten der Serotypen 6, 7, 9, 19 und 23. Im Gegensatz zu den Laborallelen vermitteln die klinischen Allele eine bis zu dreifache Erhöhung der CiaR-abhängigen Promotoraktivität. Lediglich das Allel ciaHTpVT beeinflusst die Phänotypen β-Lactamresistenz und Kompetenz. Weiterhin erfolgte die Charakterisierung der Kinase- und Phosphataseaktivitäten der klinischen ciaH-Allele. Hierbei zeigten sich Abweichungen der Stärken beider Funktionen, wobei für ciaH306 ein Phosphatasedefekt festgestellt wurde.
This thesis is separated into three main parts: Development of Gaussian and White Noise Analysis, Hamiltonian Path Integrals as White Noise Distributions, Numerical methods for polymers driven by fractional Brownian motion.
Throughout this thesis the Donsker's delta function plays a key role. We investigate this generalized function also in Chapter 2. Moreover we show by giving a counterexample, that the general definition for complex kernels is not true.
In Chapter 3 we take a closer look to generalized Gauss kernels and generalize these concepts to the case of vector-valued White Noise. These results are the basis for Hamiltonian path integrals of quadratic type. The core result of this chapter gives conditions under which pointwise products of generalized Gauss kernels and certain Hida distributions have a mathematical rigorous meaning as distributions in the Hida space.
In Chapter 4 we discuss operators which are related to applications for Feynman Integrals as differential operators, scaling, translation and projection. We show the relation of these operators to differential operators, which leads to the well-known notion of so called convolution operators. We generalize the central homomorphy theorem to regular generalized functions.
We generalize the concept of complex scaling to scaling with bounded operators and discuss the relation to generalized Radon-Nikodym derivatives. With the help of this we consider products of generalized functions in chapter 5. We show that the projection operator from the Wick formula for products with Donsker's deltais not closable on the square-integrable functions..
In Chapter 5 we discuss products of generalized functions. Moreover the Wick formula is revisited. We investigate under which conditions and on which spaces the Wick formula can be generalized to. At the end of the chapter we consider the products of Donsker's delta function with a generalized function with help of a measure transformation. Here also problems as measurability are concerned.
In Chapter 6 we characterize Hamiltonian path integrands for the free particle, the harmonic oscillator and the charged particle in a constant magnetic field as Hida distributions. This is done in terms of the T-transform and with the help of the results from chapter 3. For the free particle and the harmonic oscillator we also investigate the momentum space propagators. At the same time, the $T$-transform of the constructed Feynman integrands provides us with their generating functional. In Chapter 7, we can show that the generalized expectation (generating functional at zero) gives the Greens function to the corresponding Schrödinger equation.
Moreover, with help of the generating functional we can show that the canonical commutation relations for the free particle and the harmonic oscillator in phase space are fulfilled. This confirms on a mathematical rigorous level the heuristics developed by Feynman and Hibbs.
In Chapter 8 we give an outlook, how the scaling approach which is successfully applied in the Feynman integral setting can be transferred to the phase space setting. We give a mathematical rigorous meaning to an analogue construction to the scaled Feynman-Kac kernel. It is open if the expression solves the Schrödinger equation. At least for quadratic potentials we can get the right physics.
In the last chapter, we focus on the numerical analysis of polymer chains driven by fractional Brownian motion. Instead of complicated lattice algorithms, our discretization is based on the correlation matrix. Using fBm one can achieve a long-range dependence of the interaction of the monomers inside a polymer chain. Here a Metropolis algorithm is used to create the paths of a polymer driven by fBm taking the excluded volume effect in account.
Im ersten Teil der Arbeit sollte die im AK Gooßen entwickelte palladiumkatalysierte Kupplung von aktivierten Carbonsäurederivaten mit Boronsäuren zu Arylketonen weiterentwickelt und auf heterozyklische Carbonsäuren übertragen werden. Es zeigte sich jedoch, dass die ausgereifte Methode der Ketonsynthese mit NHS-Aktivestern nur unwesentlich zu verbessern war. Die bereits bekannten Bedingungen konnten nicht weiter optimiert werden, aber es gelang erstmalig Nicotinsäure mit Phenylboronsäure in einer Ausbeute von 55% zu 3-Benzoylpyridin kuppeln. Für andere Substrate gelang es trotz vieler Versuche nicht, die mit der bereits pubilizierten NHS-Aktivestermethode erreichten Ausbeuten weiter zu verbessern.
Im zweiten Teil der Arbeit wurde eine effektive, einstufige Ketonsynthese, basierend auf dem Prinzip der decarboxylierenden Kreuzkupplung entwickelt. Dadurch konnte gezeigt werden, dass das Konzept der decarboxylierenden Kreuzkupplung nicht nur auf die Biarylsynthese beschränkt ist. Die Methode ist breit anwendbar auf eine große Zahl von Arylbromiden und 2-Oxocarbonsäuren. Sie verzichtet auf metallorganische Reagenzien und verwendet statt dessen 2-Oxocarboxylate als Quelle für Acylnucleophile. Diese sind teilweise großtechnisch als Zwischenprodukte in der Aminosäureherstellung verfügbar. Die gewünschten Arylketone wurden in guten Ausbeuten erhalten. Die Reaktion wurde erfolgreich im Großansatz, sowie unter Mikrowellenbedingungen durchgeführt.
Im dritten Teil der Arbeit wurde eine katalytische decarboxylierende Kreuzketonisierung entwickelt. Diese erlaubt eine abfallarme, salzfreie, regioselektive und nebenproduktarme Synthese von Arylalkylketonen aus gut verfügbaren, kostengünstigen Carbonsäuren. Als Koppelprodukte werden nur Wasser und CO2 gebildet. Die Carbonsäuren können aus nachwachsenden Rohstoffen gewonnen werden oder über Luftoxidation von Alkoholen oder Alkylarenen.
Einzig mit Eisenkatalysatoren wurden gute Selektivitäten für die Kreuzketoniserungsprodukte erzielt. Bei Verwendung von Dowtherm A als Lösungsmittel konnten hohe Ausbeuten mit verschiedenen Eisenvorstufen bei einer Temperatur von 250-270°C erreicht werden.
Die Durchführung einer Salzmetathese zur in situ Benzoaterzeugung und Verwendung von Triphenylsilan als Additiv ermöglichte erstmal eine Ketonsynthese mit katalytischer Menge von 20 mol% Eisen. Genauere Untersuchungen ließen vermuten, dass Magnetitnanopartikel, die sich in definiertem Größenbereich im Verlauf der Reaktion gebildet hatten, die eigentlichen Katalysatoren darstellen.
Wurden Magnetit-Nanopartikel direkt als Katalysator eingesetzt, lieferten diese höhere Ausbeuten bei einer vereinfachten Reaktionsdurchführung. Auf den Zusatz von Reduktionsmitteln kann bei Verwendung von Magnetit-Nanopartikeln als Katalysator ganz verzichtet werden. Nanopartikel mit einem Durchmesser von ca. 20 nm und einer engen Korngrößeverteilung bilden sich auch in situ beim Auflösen von Eisenpulver in den Carbonsäuresubstraten in Gegenwart von Dowtherm A unter kontrollierten Bedingungen. Durch die geringe Korngröße steht an der Oberfläche ausreichend Eisen(II) zur Verfügung, um die Kreuzketonisierung zu vermitteln. Die große Zahl an Nanopartikeln verhindert ein Disproportionieren des Eisen(II)oxids, das nach einem Katalysezyklus kurzfristig gebildet wird, da das Eisen in dieser Oxidationsstufe an der Oberfläche der Nanopartikel stabilisiert wird. So war es schließlich möglich, katalytische Kreuzketonisierungen durch Umsetzung von aliphatischen mit aromatischen Carbonsäuren mit Eisenspänen als Präkatalysatoren durchzuführen. Diese Reaktion wurde erfolgreich in Miniaturansätzen und im Multigramm-Maßstab durchgeführt.
Die Verbesserung der aerodynamischen Komponenten einer Gasturbine lässt nur noch wenig Spielraum zu einer Effizienzsteigerung offen. Eine Erhöhung der maximalen Temperatur des thermodynamischen Prozesses bietet weiteres Potential zur Leistungssteigerung. Diese Maßnahme führt zu Turbineneintrittstemperaturen, die eine thermische Belastung für die Turbinenkomponenten darstellt, welche auch durch moderne Werkstoffe nicht ertragen werden kann. Um einer thermische Ermüdung vorzubeugen kann eine Filmkühlung appliziert werden.
Eine Filmkühlung hat zunächst eine Reduktion des thermischen Wirkungsgrades zur Folge. Der benötigte Luftmassenstrom muss daher minimiert werden. Um mit minimalem Luftmassenstrom eine ausreichende Kühlung zu erreichen, ist vor der Auslegung der Filmkühlung die Kenntnis des lokalen Wärmeübergangs in der Turbine notwendig. Dieser wird von der Strömung in der Turbine bestimmt. Insbesondere die entstehenden Wirbelstrukturen verursachen starke Temperaturfluktuationen über den Bauteiloberflächen. Hier ist an erster Stelle das Wirbelsystem im Eckbereich von Schaufeln und Seitenwänden zu nennen. Der Wärmeübergang kann hier um bis zu 300% gegenüber der ungestörten Anströmung erhöht sein. Weiterhin tritt das Wirbelsystem mit der vorhandenen Filmkühlung in Interaktion, was eine Reduzierung der Kühlleistung zur Folge hat.
Die experimentelle Evaluierung der lokalen Kühlleistung, bemessen durch die Filmkühleffektivität, ist mit einem hohen Maß an Aufwand verbunden. Eine numerische Bestimmung der Filmkühleffektivität ist eine kostengünstige Alternative, bietet jedoch aufgrund der benötigten Modellierung der Turbulenz und der räumlichen und zeitlichen Diskretisierung zwei Fehlerquellen, deren Einfluss auf das Ergebnis einer Beurteilung bedarf.
Mit Turbulenzmodellen niedrigen Modellierungsgrades ist eine Abbildung des instationären Wirbelsystems im Eckbereich in guter Übereinstimmung mit dem Experiment möglich. Diese erfordern ein hohes Maß an Ressourcen. Im Zuge der Notwendigkeit einer Ressourcenersparnis besteht der Wunsch das Wirbelsystem mit Modellen hohen Modellierungsgrades zu bestimmen. In dieser Arbeit wird daher herausgestellt, welchen Anspruch das Wirbelsystem tatsächlich an seine Modellierung stellt. Zu diesem Zweck werden nicht nur verschiedene Turbulenzmodelle variierenden Modellierungsgrades gegenübergestellt, sondern auch der notwendige räumliche und zeitliche Diskretisierungsgrad diskutiert.
Die Strömungskonfiguration einer Filmkühlung im Eckbereich vor der Schaufelvorderkante kann als Superposition zweier Strömungskonfigurationen betrachtet werden. Diese sind das Ausblasen von Kühlluft aus einer diskreten Bohrung und die Entwicklung des Wirbelsystems im Eckbereich vor der Vorderkante aufgrund einer Grenzschichtströmung. Zunächst werden die Ansprüche der Einzelkonfigurationen an Turbulenzmodellierung und Diskretisierung geklärt. Anschließend wird die Superposition beider Fälle untersucht. Im Vergleich zeigt sich der Einfluss von Turbulenzmodellierung und Diskretisierung auf die Ergebnisse der Einzelkonfigurationen und weiterhin, ob diese Erkenntnisse auf die Bestimmung der Superposition angewendet werden können. Die Zielgröße der Berechnungen ist die lokale Filmkühleffektivität, beziehungsweise, im Fall der Untersuchung des Wirbelsystems ohne Filmkühlung, der lokale Wärmeübergang in die Seitenwand. Für die drei untersuchten Strömungskonfigurationen stehen experimentelle Daten zur Validierung zur Verfügung.
Während das Ausblasen aus einer diskreten Bohrung mit einem RANS Modell, dem k-\epsilon Modell, gut abgebildet werden kann, ist die Entwicklung des Wirbelsystems im Eckbereich vor der Schaufelvorderkante und der damit einhergehende Wärmeübergang durch ein hybrides Modell, das DES Modell, gut repräsentiert. In Verbindung mit dem k-\epsilon Modell zeigt sich für die Untersuchung des Ausblasens eine grobe Diskretisierung bei stationärer Berechnung als förderlich für die Abbildung der experimentellen Filmkühleffektivität. Dies liegt in der vorhandenen numerischen Diffusion begründet.
Die Wiedergabe vorhandener Wirbelstrukturen ist essentiell zur Prognose der Filmkühleffektivitätsverteilung und des Wärmeübergangs im Eckbereich vor der Vorderkante. Dies bedarf der Verwendung eines geeigneten Modells in Verbindung mit einer ausreichenden Diskretisierung. Daher zeigt sich hier das DES Modell als geeignet.
Die Entwicklung der Filmkühleffektivität im Fall des Ausblasens von Kühlluft in ein bestehendes Wirbelsystem ist von den entstehenden Wirbelstrukturen bestimmt. Die Ergebnisse des DES Modells in Verbindung mit dem Netz größter Knotendichte weisen daher hier die beste Übereinstimmung mit dem Experiment auf.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung funktionaler Modellsysteme von Bromo- und Chloroperoxidasen zur Oxidation von Bromid und Chlorid unter wasserfreien und nachhaltigen Bedingungen. Die neuen Methoden fanden Anwendung in der Synthese halogenierter O-Heterocyclen, welche häufig als Grundstrukturen von Naturstoffen mit ausgeprägten physiologischen Wirkungen auftreten. Die gewonnenen Erkenntnisse lösten vorhandene Probleme mit Reaktivität und Chemoselektivität in oxidativen Bromierungsreaktionen und trugen zu einem besseren Verständnis der beobachteten Regioselektivitäten in Bromcyclisierungen hochsubstituierter 4-Pentenole bei. Aufbauend auf diesen Ergebnissen konnte erstmalig eine analoge Methode zur oxidativen Chlorcyclisierung für die Darstellung beta-chlorierter Tetrahydrofurane und Tetrahydropyrane entwickelt werden.
Das Drilltragverhalten von Fertigteilplatten mit Ortbetonergänzung wird im Wesentlichen durch vertikale Elementfugen beeinflusst. Die DIN 1045-1 erlaubt die Berechnung der Schnittgrößen derartiger Platten unter Ansatz voller Drillsteifigkeit auch für den Fall, dass sich vertikale Elementfugen im Drillbereich \((0,3 *l_{min})\) der Platte befinden. Ein Aufklaffen der horizontalen Verbundfuge zwischen Fertigteilplatte und Ortbeton wird in diesem Fall beidseits der Fuge durch randparallele Gitterträger verhindert.
In der vorliegenden Arbeit wird das Tragverhalten von Fertigteilplatten mit Ortbetonergänzung physikalisch nichtlinear, unter Berücksichtigung wirklichkeitsnahen Werkstoffverhaltens, mit dreidimensionalen FEM-Ansätzen modelliert. Dazu wird zunächst ein Ansatz zur Berücksichtigung des Tension-Stiffening Effekts in dreidimensionalen FE-Berechnungen entwickelt. Damit gelingt die numerische 3D-Simulation des Tragverhaltens von Stahlbetonfertigteilplatten mit Ortbetonergänzung und insbesondere auch die Erfassung des Einflusses vertikaler Elementfugen auf die Schnittgrößen.
Eigene FE- Simulationen, in denen der Bewehrungsstahl als eindimensionales Stabelement diskretisiert worden ist, führten im Lasteinleitungsbereich der Bewehrung lokal zum vorzeitigen Versagen einiger Betonelemente. Abliegende Querschnittsbereiche konnten somit nicht zum Lastabtrag herangezogen werden. In einer aufwendigen dreidimensionalen Simulation in der auch die Bewehrung inklusive Rippen dreidimensional modelliert worden ist, konnte das experimentell ermittelte Tragverhalten unter Berücksichtigung des Tension-Softening Verhaltens im Beton nachgebildet werden.
Diese Art der Modellierung ist außerordentlich zeit- und rechenintensiv. Es wird daher zur näherungsweisen Beschreibung des Tension-Stiffening Effekts in dreidimensionalen FE- Modellen ein vereinfachter Ansatz entwickelt, der nach den genaueren Berechnungen und experimentellen Ergebnissen kalibriert wird und das Tragverhalten “verschmiert“ beschreibt. Dies erfolgt zunächst für das einachsige Tragverhalten eines Stahlbetonzugstabs und wird im Anschluss für das zweiachsige Tragverhalten von Stahlbetonplatten erweitert.
Mit dem entwickelten Modell sind zweiachsig gespannte Fertigteilplatten mit Ortbetonergänzung berechnet worden. Die Berechnungsergebnisse sind an drei Platten experimentell im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern abgesichert worden.
Die physikalisch nichtlinearen 3D-FEM Berechnungen haben gezeigt, dass die Tragfähigkeit einer zweiachsig gespannten Fertigteilplatte mit Ortbetonergänzung durch eine obere Eckbewehrung nur geringfügig gesteigert werden kann (ca. 6%). Dies bestätigt die Ergebnisse von Gersiek (1990) an quadratischen Stahlbetonplatten in Ortbetonbauweise.
Weiter konnte sowohl im Versuch als auch in nichtlinearen Berechnungen gezeigt werden, dass bei Anordnung vertikaler Elementfugen im Drillbereich \((0,3 *l_{min})\) gemäß DIN1045-1 die Tragwirkung der Platte sichergestellt ist. Der Rissverlauf unterscheidet sich nur geringfügig von einer Platte ohne Fugen in den Fertigteilplatten.
Many real life problems have multiple spatial scales. In addition to the multiscale nature one has to take uncertainty into account. In this work we consider multiscale problems with stochastic coefficients.
We combine multiscale methods, e.g., mixed multiscale finite elements or homogenization, which are used for deterministic problems with stochastic methods, such as multi-level Monte Carlo or polynomial chaos methods.
The work is divided into three parts.
In the first two parts we study homogenization with different stochastic methods. Therefore we consider elliptic stationary diffusion equations with stochastic coefficients.
The last part is devoted to the study of mixed multiscale finite elements in combination with multi-level Monte Carlo methods. In the third part we consider multi-phase flow and transport equations.
The automatic analysis and retrieval of technical line drawings is hindered by many challenges such as: the large amount of contextual clutter around the symbols within the drawings, degradation, transformations on the symbols in drawings, large databases of drawings
and large alphabets of symbols. The core tasks required for the analysis of technical line
drawings are: symbol recognition, spotting and retrieval. The current systems for performing these tasks have poor performance due to the mentioned challenges. This dissertation
presents a number of methods that address these challenges. These methods achieve both
accurate and efficient symbol spotting and retrieval in technical line drawings, and perform
significantly better than state-of-the-art methods on the same problems. An overview of
the key contributions of this dissertation is given in the following.
First, this dissertation presents a geometric matching-based method for symbol recognition
and spotting. The method performs recognition in the presence of large amounts of contextual clutter, and provides precise localization of the recognized symbols. On standard
databases such as GREC-2005 and GREC-2011, the method achieves up to 10% higher
recall and up to 28% higher precision than state-of-the-art methods on the spotting task,
and achieves up to 7% higher recognition accuracy on the isolated recognition task. The
method is based on a geometric matching approach, which is flexible enough to incorporate
improvements on the matching strategy, feature types and information on the features. The
method also includes an adaptive preprocessing algorithm that deals with a wide variety
of noise types.
In order to improve the performance of the spotting method when dealing with degraded
drawings, two novel methods are presented in this dissertation. Both methods are based on
combining geometric matching with machine learning techniques. The geometric matching
is used to automatically generate training data that contain information on how well the
features of the queries are matched in both the true and the false matches found by the
spotting method. The first method learns the feature weights of the different query symbols
by linear discriminant analysis (LDA). The weighted query features are used in the spotting
method and result in 27% higher average precision than the original method, with a speedup
factor of 2. The second method uses SVM classification as a post-spotting step to distinguish
the true from the false matches in the spotting method. The use of the classification step
further improves the average precision of the spotting method by 20.6%.
This dissertation also presents methods for content analysis of line drawings. First, a
method for accurate and consistent detection (95.8%) of regions of interest (ROIs) is presented. The method is based on statistical feature grouping. The ROI-finding method is
identified as an important part of a symbol retrieval system: the better the detected ROIs,the higher the performance of a retrieval system. The ROI-finding method is also used to
improve the performance of the geometric-based spotting system.
Second, a symbol clustering method for building a compact and accurate representation of
a large database of technical drawings is presented. This method uses the output from the
ROI-finding method as input, and uses geometric matching as a similarity measure. The
method achieves high accuracy (90.1% recall, 94.3% precision) in forming clusters of symbols. The representatives of the clusters (34 symbols) are used as key entries to a symbol
index, which is identified as the outcome of an off-line stage of a symbol retrieval system.
Finally, an efficient and high performing large scale symbol retrieval system is presented
in this dissertation. The system follows the bag of visual words (BoVW) model, but with
using methods that are suitable to line drawings. The system uses the symbol index to
represent a database of drawings. During the on-line query retrieval stage, the query is
analyzed by the ROI-finding method, matched with the key entries of the symbol index via
geometric matching, and finally, a spatial verification step is performed on the retrieved
matches. The system achieves a query lookup time that is independent of the size of the
database, and is instead dependent on the size of the symbol index. The system achieves up
to 10% higher recall and up to 28% higher precision than state-of-the-art spotting systems
on similar databases.
Overall, these contributions are major advancements in the research of graphics recognition.
The hope is that, such contributions provide the basis for the development of reliable and
accurate performing applications for browsing, querying or classification of line drawings
for the benefit of end users.
In this study, two outstanding subgroups of organic-inorganic hybrid materials have been investigated. The first part covers the design, synthesis, characterization and application of seven novel Metal Organic Frameworks (MOFs) containing functionalized biphenyl dicarboxylates as linkers. In the second part, the surface modification of the metal oxides ZrO2, TiO2 and Al2O3 using phosphonate derivates is reported.
Firstly three functionalized MOF structures; ZnBrBPDC, ZnNO2BPDC and ZnNH2BPDC were synthesised using 4,4´-biphenyldicarboxylic acid derivatives with different functional groups (-Br, -NO2, -NH2) Powder X-ray diffraction (PXRD) measurements indicated that the synthesised MOFs posses the interpenetrated IRMOF-9 structure with a cubic topology, which was also confirmed with single crystal X-ray measurements. The chemical structure of the MOF materials was further proved by solid state NMR and IR measurements. N2 adsorption measurements showed Type I isotherms for all three structures with large surface areas. TGA measurements of the evacuated samples were in good agreement with the elemental analysis data. The results proved that their thermal stability is between 325 °C - 450 °C.
Adsorption properties of these MOF structures were tested using light alkanes (CH4, C2H6, C3H8, and n-C4H10) at three different temperatures. For all adsorbents, the maximum uptakes were observed at 273 K. When the temperature was increased, the amount of the adsorbed gas decreased. All three MOFs showed strong affinities for n-butane. The lowest uptakes were observed for CH4.
The effect of functional groups on the IRMOF series was also examined by synthesizing amide functionalized biphenyl linkers. For this purpose, four different linkers containing amides with different alkyl chains (C1-C4) were synthesized and used for the synthesis of four new MOF structures ZnAcBPDC, ZnPrBPDC, ZnBuBPDC and ZnPeBPDC.
PXRD measurements of ZnAcBPDC indicated that the structure contains two different phases. PXRD patterns of ZnPrBPDC, ZnBuBPDC and ZnPeBPDC revealed non-interpenetrated structures which were further proved by single crystal X-ray measurements. The chemical structure of the MOF materials was further confirmed by X-ray spectoscopy, solid state NMR and IR measurements.
N2 adsorption measurements of the MOF structures were carried out using different activation methods. For all four MOFs, Type I isotherms were obtained. ZnAcBPDC showed the highest BET surface area. ZnAcBPDC and ZnBuBPDC were tested for their alkane, alkene and CO2 adsorption capacities.
In the second part of the work, the surface modification of three different metal oxides, ZrO2, TiO2 and Al2O3 was performed. For this purpose firstly three different fluorescent phosphonate derivatives containing thiophene units were synthesized from their halo derivatives in a four step synthesis and then used as coupling molecules for the surface modification. Nine different surfaces were obtained (38@TiO2, 39@TiO2, 40@TiO2, 38@Al2O3, 39@Al2O3, 40@Al2O3, 38@ZrO2, 39@ZrO2, 40@ZrO2).
All three modified metal oxide surfaces were characterized using elemental analysis, solid state NMR and IR spectroscopy. The BET surface areas of the materials were determined by N2 adsorption measurements. TGA was used to determine the stability of the surfaces. Maximum loadings were obtained for ZrO2 surfaces.
Due to the strong luminescence of the coupling molecules, the modified surfaces were checked for their light emission. All ZrO2 and Al2O3 surfaces showed fluorescence with exception of 40@Al2O3. On the other hand, for the modified TiO2 surfaces, no fluorescence could be observed.
Für einen teilgesättigten Modellboden sind experimentelle Untersuchungen ausgeführt, die sowohl die Teilsättigung des Bodens während der Belastung als auch die zyklischen Einwirkungen unter drainierten Randbedingungen berücksichtigen. Die Teilsättigung ist durch eine Saugspannungsmessung mittels Miniaturtensiometer in einer zyklischen Triaxialzelle und einem statischen Ödometer erfasst. In zahlreichen Laboruntersuchungen konnte eine reproduzierbare Probenaufbereitung nachgewiesen werden. Insbesondere konnte gezeigt werden, dass im Probeninnern des Modellbodens gegenüber den Probenendflächen keine signifikant abweichenden Wassergehalte und somit konstante Anfangssaugspannungen vorliegen. Vor allem bei der Applikation von zyklischen Beanspruchungen zur Ermittlung und numerischen Beschreibung des Materialverhaltens ist dieser Umstand von Bedeutung. Die Messergebnisse sind anschließend zur Modifikation eines elastoplastischen Stoffmodellansatzes herangezogen.
Mit den erzielten Untersuchungsergebnissen konnten die Parameterfunktionen eines elastoplastischen Stoffgesetzansatzes in Abhängigkeit von der Anfangsporenzahl, des Anfangssättigungsgrades sowie des Isotopen Spannungszustandes unter Berücksichtigung der Einflussgrößen aus der zyklischen Beanspruchung, dieses sind die axiale deviatorische Spannungsamplitude und die Lastzyklenzahl, für einen Frequenzbereich von 0,005 - 0,01 Hz über einen Separationsansatz aufgestellt werden. Die Kopplung der Teilsättigung erfolgt dabei über den Sättigungsgrad bzw. den Wassergehalt des Bodens anhand der porenzahlabhängigen Saugspannungscharakteristik (SWCC).
Es konnte gezeigt werden, dass alle untersuchten teilgesättigten Böden in der zyklischen Lastphase durchgehend eine zyklisch-deviatorische Dehnungsverfestigung aufweisen. Ab einer Lastzyklenzahl größer 560 stagnieren die zyklisch bedingten Verformungen und es entsteht ein quasi-stationärer Verformungs- und Porendruckzustand. Dabei zeigen die sogenannten Wechselversuche eine signifikante höhere Verformungs- und Saugspannungsamplitude als die sogenannten Schwellversuche.
Die aufgestellten Beziehungen gelten für einen Wertebereich der Anfangssättigungsgrade größer 82% und der Anfangsporenzahl zwischen 0,52 und 0,64.
Microcystine (MCs) und Nodularine (NODs) sind zyklische Hepatotoxine, die wegen ihrer strukturellen Modifikationen eine hohe Diversität aufweisen. Da Cyanobakterien, die diese Toxine produzieren, an vielen Standorten wachsen können, stellt eine Vergiftung durch MCs und NODs weltweit ein ernstes gesundheitliches Problem für Mensch und Tier dar.
Die Überwachung von Gewässern erfolgt bislang auf die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR mit Hilfe einer HPLC-UV-Vis-Messmethode gemäß der Norm ISO 20179. Dabei werden aber die ebenfalls vorkommenden MCs, NOD und die entsprechenden Desmethyl-Varianten, über deren Struktur-Wirkungsbeziehung wenig bekannt ist, nicht voneinander getrennt und gemeinsam miterfasst.
Durch diese Arbeit sollte die Auswirkung einer Hemmung von Proteinphosphatasen (PP1 und PP2A), über welche MCs und NODs in vivo und in vitro auf Hepatozyten Einfluss nehmen, in primären Ratten- und Humanhepatozyten untersucht werden. Außerdem sollte der Zusammenhang zwischen chemischer Struktur und toxikologischer Relevanz von MCs und NODs und ihrer Desmethyl-Varianten aufgeklärt werden.
Sowohl in primären Ratten- als auch in Humanhepatozyten konnte bestätigt werden, dass nicht nur die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR für eine Überwachung von Lebensmitteln und Gewässern entscheidend sind, sondern alle getesteten MCs und NODs und deren desmethylierten Kongenere ein hohes zytotoxisches Potential aufweisen. Dabei kann aber keine direkte Abhängigkeit einer PP-Inhibierung und Zytotoxizität gesetzt werden. Vielmehr spielt die Toxikokinetik wie die Aufnahme der Toxine über spezifische Transporter (OATP) in die Leber und die Entgiftung über den Glutathion-Detoxifizierungsweg eine wichtige Rolle. Weiterhin konnte festgestellt werden, dass die zytotoxische Wirkung auf primäre humane Hepatozyten um ein Vielfaches geringer war als auf primäre Rattenhepatozyten, weshalb von einer Speziesabhängigkeit gesprochen werden kann.
Weiterhin wird durch diese Arbeit belegt, dass die MC- und NOD-vermittelte PP-Hemmung zeit- und konzentrationsabhängig sowohl Apoptosen auslöst und als auch in der Lage ist Apoptosemarker wie Bax und Bcl-xL zu beeinflussen und die MAPK-Signalkette aktiviert, was mit Zellproliferation in Verbindung steht. Dabei wies NOD eine stärkere Wirkung auf als MC-LR. Der ebenfalls untersuchte Akt-Signalweg zeigte interessanterweise keine Veränderung in der Kaskade, was auf eine mögliche Gegenregulation zurückgeführt werden kann.
Die in vitro Daten weisen darauf hin, dass die Exposition mit hohen Konzentrationen an MCs und NODs in vivo akut starke Leberschäden bis hin zum Tod verursachen. Geringere Konzentrationen dagegen bei einer Langzeitexposition mit kontaminiertem Wasser, Nahrungsergänzungsmitteln und Lebensmitteln MAPK-vermittelt tumorpromovierend und kanzerogen wirken können.
I report on two experiments, which were designed to test theoretical predictions about individual behavior in a duopolistic setting. With quantity being the choice variable a simultaneous Cournot game and a sequential Stackelberg game were tested over two periods. The key feature of both models was that players were able to lower marginal cost for period two if they successfully outperformed their competition in period one in terms of profit. Experimental results suggest that in the Cournot game players are very competitive in period one but become Cournot players in period two. In the Stackelberg game Cournot play is modal, suggesting that players have preferences for equality in payoffs, which maybe brought about by punishment of Stackelberg followers and fear of punishment of Stackelberg leaders . Overall, players earned more money in the Stackelberg game than in the Cournot game.
Im Bereich kommunaler Entwässerungsnetze besteht nach den regelmäßig erfolgenden DWA-Umfragen über den Zustand der Kanalisationen ein hoher Sanierungsbedarf, obwohl die Problematik seit längerem bekannt ist und erhebliche Anstrengungen zur Netzzustandsverbesserung unternommen werden. Stand der Technik ist eine ganzheitliche Herangehensweise mit dem Ziel, funktionssichere, dauerhafte und dichte Netze zu erhalten, die auch zukünftig einen wirtschaftlichen Betrieb ermöglichen, und dabei den Vermögenswert, den die Netze verkörpern, langfristig zu erhalten. Nach wie vor ist dieses Ziel nicht erreicht, so dass die Sanierungsplanungen der Kommunen geprüft und analysiert werden müssen, um vorhandenes Optimierungspotential zu identifizieren.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise der Prozess der Sanierungsplanung im Hinblick auf den Strategieansatz („Strategiemix“) einer Kommune und ihres Entwässerungsbetriebes optimiert werden kann. Sie entwickelt darüber hinaus eine geeignete Entscheidungshilfe für die Wahl des optimalen Sanierungsverfahrens.
Der vorgestellte Lösungsansatz beinhaltet unter Berücksichtigung zahlreicher Entscheidungskriterien erstens eine systematische Vorgehensweise zur Wahl, Festsetzung und Durchführung von Strategieansätzen. Das Verfahren und sein Ergebnis werden als „multikriterielle Sanierungsstrategie“ bezeichnet. Zweitens wird die Entwicklung eines geeigneten Bewertungsverfahrens zur Festlegung geeigneter Sanierungsverfahren betrachtet („multikriterielle Verfahrenswahl“). Drittens verknüpft der Lösungsansatz systematisch den Strategiemix auf Netzebene mit den in erster Linie technischen Elementen auf Haltungsebene. Hierfür wird der Begriff der „strategischen Sanierungsplanung“ neu eingeführt.
Da jedes Entwässerungsnetz unterschiedliche Randbedingungen aufweist, können die Kommunen mit diesem Verfahren ihre eigenen Akzente bei der Priorisierung der einzelnen Entscheidungskriterien setzen und auf diese Weise ihre individuellen Sanierungsziele durch die systematische Verknüpfung der Strategien auf Netzebene mit den Anforderungen auf Haltungsebene wirksam und wirtschaftlich verfolgen.
Generic layout analysis--process of decomposing document image into homogeneous regions for a collection of diverse document images--has many important applications in document image analysis and understanding such as preprocessing of degraded warped, camera-captured document images, high performance layout analysis of document images containing complex cursive scripts, and word spotting in historical document images at page level. Many areas in this field like generic text line extraction method are considered as elusive goals so far, still beyond the reach of the state-of-the-art methods [NJ07, LSZT07, KB06]. This thesis addresses this problem in such a way that it presents generic, domain-independent, text line extraction and text and non-text segmentation methods, and then describes some important applications, that were developed based on these methods. An overview of the key contributions of this thesis is as follows.
The first part of this thesis presents a generic text line extraction method using a combination of matched filtering and ridge detection techniques, which are commonly used in computer vision. Unlike the state-of-the-art text line extraction methods in the literature, the generic text line extraction method can be equally and robustly applied to a large variety of document image classes including scanned and camera-captured documents, binary and grayscale documents, typed-text and handwritten documents, historical and contemporary documents, and documents containing different scripts. Different standard datasets are selected for performance evaluation that belong to different categories of document images such as the UW-III [GHHP97] dataset of scanned documents, the ICDAR 2007 [GAS07] and the UMD [LZDJ08] datasets of handwritten documents, the DFKI-I [SB07] dataset of camera-captured documents, Arabic/Urdu script documents dataset, and German calligraphic (Fraktur) script historical documents dataset. The generic text line extraction method achieves 86% (n = 23,763 text lines in 650 documents) text line detection accuracy which is better than the aggregate accuracy of 73% of the best performing domain-specific state-of-the-art methods. To the best of the author's knowledge, it is the first general-purpose text line extraction method that can be equally used for a diverse collection of documents.
This thesis also presents an active contour (snake) based curled text line extraction method for warped, camera-captured document images. The presented approach is applied to DFKI-I [SB07] dataset of camera-captured, Latin script document images for curled text line extraction. It achieves above 95% (n = 3,091 text lines in 102 documents) text line detection accuracy, which is significantly better than the competing state-of-the-art curled text line extraction methods. The presented text line extraction method can also be applied to document images containing different scripts like Chinese, Devanagari, and Arabic after small modifications.
The second part of this thesis presents an improved version of the state-of-the-art multiresolution morphology (Leptonica) based text and non-text segmentation method [Blo91], which is a domain-independent page segmentation approach and can be equally applied to a diverse collection of binarized document images. It is demonstrated that the presented improvements result in an increase in segmentation accuracy from 93% to 99% (n = 113 documents).
This thesis also introduces a discriminative learning based approach for page segmentation, where a self-tunable multi-layer perceptron (MLP) classifier [BS10] is trained for distinguishing between text and non-text connected components. Unlike other classification based page segmentation approaches in the literature, the connected components based discriminative learning based approach is faster than pixel based classification methods and does not require a block segmentation method beforehand. A segmentation accuracy of $96\%$ ($n = 113$ documents) is achieved in comparison to the state-of-the-art multiresolution morphology (Leptonica) based page segmentation method [Blo91] that achieves a segmentation accuracy of 93%. In addition to text and non-text segmentation of Latin script documents, the presented approach can also be adapted for document images containing other scripts as well as for other specialized layout analysis tasks such as digit and non-digit segmentation [HBSB12], orientation detection [RBSB09], and body-text and side-note segmentation [BAESB12].
Finally, this thesis presents important applications of the two generic layout analysis techniques, ridge-based text line extraction method and the multi-resolution morphology based text and non-text segmentation method, discussed above. First, a complete preprocessing pipeline is described for removing different types of degradations from grayscale warped, camera-captured document images that includes removal of grayscale degradations such as non-uniform shadows and blurring through binarization, noise cleanup applying page frame detection, and document rectification using monocular dewarping. Each of these preprocessing steps shows significant improvement in comparison to the analyzed state-of-the-art methods in the literature. Second, a high performance layout analysis method is described for complex Arabic script document images written in different languages such as Arabic, Urdu, and Persian and different styles for example Naskh and Nastaliq. The presented layout analysis system is robust against different types of document image degradations and shows better performance for text and non-text segmentation, text line extraction, and reading order determination on a variety of Arabic and Urdu document images as compared to the state-of-the-art methods. It can be used for large scale Arabic and Urdu documents' digitization processes. These applications demonstrate that the layout analysis methods, ridge-based text line extraction and the multi-resolution morphology based text and non-text segmentation, are generic and can be applied easily to a large collection of diverse document images.
Wechselnde Umweltbedingungen wie Temperaturveränderungen oder der Zugang zu Nährstoffen erfordern spezielle genetische Anpassungsprogramme, vor allem von sessilen Organismen wie Pflanzen. Ein solcher hochkonservierter Mechanismus, der unter anderem vor Temperaturspitzen schützt, ist die von Hitzeschockfaktoren (HSF) kontrollierte Hitzeschockantwort (HSR). Dabei werden vermehrt spezifische Hitzestressproteine (HSPs, Chaperone) gebildet, die Proteine vor Denaturierung schützen. In Pflanzen hat sich ein hochkomplexes regulatorisches Netzwerk gebildet, das aus über 20 HSFs besteht, das eine genaue Feinabstimmung der HSR auf die jeweiligen Stressbedingungen erlaubt.
Das hohe Maß an Komplexität der HSR in Pflanzen erschwert die wissenschaftliche Zugänglichkeit jedoch erheblich. Um die grundlegenden Prinzipien der HSR in Pflanzen zu verstehen griffen wir deshalb auf einen einfacheren Modellorganismus zurück, der Pflanzen sehr nahe steht aber nur einen einzigen HSF (HSF1) enthält, der einzelligen Grünalge Chlamydomonas reinhardtii. Im Rahmen dieser Arbeit wurden dazu drei Ansätze verfolgt.
Als erstes wurden verschiedene chemische Substanzen eingesetzt die unterschiedliche Schritte während der Aktivierung und Abschaltung der HSR hemmen um darüber die Regulation der HSR aufzuklären. Dabei wurde festgestellt, dass die Phosphorylierung von HSF1 eine entscheidende Rolle in der Aktivierung der HSR spielt, das auslösende Momentum die Anhäufung von falsch gefalteten Proteinen ist und das HSP90A aus dem Cytosol eine wichtige modulierende Rolle bei der HSR spielt.
Als zweites wurde die Veränderung sämtlicher Transkripte mithilfe von Microarrays gemessen, um vor allem pflanzenspezifische Prozesse zu identifizieren, die auf erhöhte Temperaturen gezielt angepasst werden müssen. Dabei konnte die Chlorophyll Biosynthese und der Transport von Proteinen in den Chloroplasten als neue, pflanzenspezifische Ziele der Stressantwort identifiziert werden. Des Weiteren konnte direkt gezeigt werden, das HSF1 auch plastidäre Chaperone reguliert, im Gegensatz zu mitochondrialen Chaperonen die getrennt gesteuert werden.
Als letztes wurde gezielt die Expression wichtiger Gene für die Stressantwort (HSF1/HSP70B) unterdrückt, um den Einfluss dieser Gene auf die HSR genauer zu studieren. Dazu habe ich ein in der einzelligen Grünalge neuartiges System entwickelt, basierend auf dem RNAi Mechanismus, dass es erlaubt abhängig von der Stickstoffquelle im Nährmedium auch essentielle Gene gezielt auszuschalten. Dieses System erlaubte es zu zeigen, dass HSF1 selbst während des Stresses die Expression seiner RNA erhöht, und dies gezielt tut um die Stressantwort weiter zu verstärken. Es konnte weiter gezeigt werden, dass das Chloroplasten Chaperon HSP70B ein essentielles Protein für das Zellwachstum ist, welches mithilfe des induzierbaren RNAi Systems genauer untersucht werden kann. Dabei wurde festgestellt, dass die HSP70B vermittelte Assemblierung und Disassemblierung des VIPP1 Proteins entscheidend ist für dessen Funktion in der Zelle. Des Weiteren konnte gezeigt werde, dass HSP70B wahrscheinlich verantwortlich ist für die Faltung eines oder mehrerer noch unbekannter Enzyme der Arginin Biosynthese oder der Stickstofffixierung, und das diese Prozesse wahrscheinlich die essentielle Funktion von HSP70B darstellen.
The main topic of this thesis is to define and analyze a multilevel Monte Carlo algorithm for path-dependent functionals of the solution of a stochastic differential equation (SDE) which is driven by a square integrable, \(d_X\)-dimensional Lévy process \(X\). We work with standard Lipschitz assumptions and denote by \(Y=(Y_t)_{t\in[0,1]}\) the \(d_Y\)-dimensional strong solution of the SDE.
We investigate the computation of expectations \(S(f) = \mathrm{E}[f(Y)]\) using randomized algorithms \(\widehat S\). Thereby, we are interested in the relation of the error and the computational cost of \(\widehat S\), where \(f:D[0,1] \to \mathbb{R}\) ranges in the class \(F\) of measurable functionals on the space of càdlàg functions on \([0,1]\), that are Lipschitz continuous with respect to the supremum norm.
We consider as error \(e(\widehat S)\) the worst case of the root mean square error over the class of functionals \(F\). The computational cost of an algorithm \(\widehat S\), denoted \(\mathrm{cost}(\widehat S)\), should represent the runtime of the algorithm on a computer. We work in the real number model of computation and further suppose that evaluations of \(f\) are possible for piecewise constant functions in time units according to its number of breakpoints.
We state strong error estimates for an approximate Euler scheme on a random time discretization. With this strong error estimates, the multilevel algorithm leads to upper bounds for the convergence order of the error with respect to the computational cost. The main results can be summarized in terms of the Blumenthal-Getoor index of the driving Lévy process, denoted by \(\beta\in[0,2]\). For \(\beta <1\) and no Brownian component present, we almost reach convergence order \(1/2\), which means, that there exists a sequence of multilevel algorithms \((\widehat S_n)_{n\in \mathbb{N}}\) with \(\mathrm{cost}(\widehat S_n) \leq n\) such that \( e(\widehat S_n) \precsim n^{-1/2}\). Here, by \( \precsim\), we denote a weak asymptotic upper bound, i.e. the inequality holds up to an unspecified positive constant. If \(X\) has a Brownian component, the order has an additional logarithmic term, in which case, we reach \( e(\widehat S_n) \precsim n^{-1/2} \, (\log(n))^{3/2}\).
For the special subclass of $Y$ being the Lévy process itself, we also provide a lower bound, which, up to a logarithmic term, recovers the order \(1/2\), i.e., neglecting logarithmic terms, the multilevel algorithm is order optimal for \( \beta <1\).
An empirical error analysis via numerical experiments matches the theoretical results and completes the analysis.
Durch die Verwendung der in den letzten Jahren neu entwickelten metallorganischen Koordinationspolymere als Adsorbentien, kann im Allgemeinen eine schwächere Affinität zu Kohlendioxid im Vergleich zu Zeolithen beobachtet werden. Diese neue Klasse an porösen Materialien verspricht herausragende Eigenschaften aufgrund ihrer hohen spezifischen Oberfläche und großer Porenvolumina. Im Rahmen dieser Arbeit wurden einige Vertreter der metallorganischen Koordinationspolymere auf ihre Adsorptionsfähigkeit auf Kohlendioxid hin untersucht. Zwei Materialien dieser Gruppe wurden aufgrund ihrer chemischen, mechanischen und thermischen Eigenschaften ausgewählt. Es handelte sich um die beiden Adsorbentien HKUST-1 und MIL-53 (Al), die in der Arbeitsgruppe selbst synthetisiert, charakterisiert und vermessen wurden. Damit ein wirtschaftliches und resourcenschonendes Verfahren basierend auf Adsorption entwickelt werden kann, werden Daten bezüglich der Adsorptionskapazität, der Kinetik und Trennfaktoren benötigt. Zur Untersuchung des Adsorptionsgleichgewichts und der Diffusion wurden Adsorptionsisothermen (der reinen Gase Kohlendioxid, Methan und Stickstoff) und Durchbruchskurven mit Modellmischungen aus Methan / Kohlendioxid (Biogas) und Stickstoff / Kohlendioxid (Rauchgas) aufgenommen. Es ergeben sich im Fall von HKUST-1 Kapazitäten für Kohlendioxid bis zu 22,7 Gew.-% bei einem Druck von 100 kPa und einer Temperatur von 293 K. Aus den Daten der gemessenen Adsorptionsisothermen wurden die Mehrkomponentenbeladungen nach IAST, Multi-Langmuir sowie dem Modell von Multi-Freundlich berechnet. Die hierbei größten beobachteten Abweichungen zwischen Berechnung und Messung ergaben sich für HKUST-1. Die freie Koordinationsstelle bestimmt die Wechselwirkung zwischen den beiden Adsorptiven Kohlendioxid und Methan weitgehend, sodass die eingesetzten Modelle das Gleichgewicht nicht hingehend genau wiedergeben können. Bei MIL-53 (Al) zeigen sich relativ gute Übereinstimmungen mit den verwendeten Modellen und den ermittelten Mehrkomponentenbeladungen mit Methan und Kohlendioxid.
This thesis is devoted to furthering the tropical intersection theory as well as to applying the
developed theory to gain new insights about tropical moduli spaces.
We use piecewise polynomials to define tropical cocycles that generalise the notion of tropical Cartier divisors to higher codimensions, introduce an intersection product of cocycles with tropical cycles and use the connection to toric geometry to prove a Poincaré duality for certain cases. Our
main application of this Poincaré duality is the construction of intersection-theoretic fibres under a
large class of tropical morphisms.
We construct an intersection product of cycles on matroid varieties which are a natural
generalisation of tropicalisations of classical linear spaces and the local blocks of smooth tropical
varieties. The key ingredient is the ability to express a matroid variety contained in another matroid variety by a piecewise polynomial that is given in terms of the rank functions of the corresponding
matroids. In particular, this enables us to intersect cycles on the moduli spaces of n-marked abstract
rational curves. We also construct a pull-back of cycles along morphisms of smooth varieties, relate
pull-backs to tropical modifications and show that every cycle on a matroid variety is rationally
equivalent to its recession cycle and can be cut out by a cocycle.
Finally, we define families of smooth rational tropical curves over smooth varieties and construct a tropical fibre product in order to show that every morphism of a smooth variety to the moduli space of abstract rational tropical curves induces a family of curves over the domain of the morphism.
This leads to an alternative, inductive way of constructing moduli spaces of rational curves.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Die immer höheren Kosten für Energie und die Verknappung der natürlichen Ressourcen steigern die Bedeutung der Forschung an Katalysatoren für die chemische Synthese. Da die Herstellung geeigneter Katalysatoren zeitintensiv und teuer ist, sowohl durch den Einsatz von Edelmetallen als katalytisch aktivem Zentrum, als auch durch Verwendung von aufwändig synthetisierten Ligandsystemen, liegt der Fokus der Industrie auf heterogen katalysierten Verfahren. Im Arbeitskreis Thiel werden bereits seit längerer Zeit Pyrazolylpyridine als Chelatliganden für Übergangsmetallkomplexe synthetisiert, da sie leicht funktionalisierbar und damit in ihren elektronischen Eigenschaften modifizierbar sind. Ziel der vorliegenden Dissertation war die Synthese neuer Pyrazolyl- und Triazolylpyridine, die durch ihre funktionellen Gruppen eine einfache Heterogenisierung auf einem Trägermaterial ermöglichen, und so die Synthese von heterogenisierten Katalysatoren erlauben. Die Wahl fiel hierbei auf Ester- bzw. Chloridfunktionen, da die erfolgreiche Anbindung dieser Gruppen auf Trägermaterialien bereits bekannt ist. Die erfolgreiche Herstellung der an Position 5 des Azolylrings funktionalisierten Liganden gelang durch Synthese der Pyrazolylpyridine über eine Pyridylpyranonzwischenstufe bzw. durch Verwendung von Anhydriden als Edukte.
In einem zweiten Schritt wurde das nächste Ziel, die Anbindung der hergestellten Liganden auf ein Trägermaterial, durch die Verwendung von Amin- und Imidazolfunktionalisierten Kieselgelen realisiert. Die erfolgreiche Synthese konnte durch Festkörper-NMR-Analytik bestätigt werden. Sowohl die freien, als auch die heterogenisierten Liganden wurden nun verwendet, um Übergangsmetallkomplexe zu synthetisieren. Es wurden Palladium(II)komplexe, ausgehend von Bis(benzonitril)palladium(II)dichlorid und Ruthenium(II)komplexe, ausgehend von Carbonylhydridotris(triphenylphosphan)ruthenium(II)chlorid, Tetrakis(dimethylsulfoxid)ruthenium(II)dichlorid und Dichlorido(\eta^{6} -para-cymol)ruthenium(II)dimer hergestellt und charakterisiert.
Ebenfalls wurde die Eignung dieser Übergangsmetallkomplexe als Katalysatoren für chemische Reaktionen getestet. Die Palladiumkomplexe wurden in der Suzuki-Kupplung von Phenylhalogeniden mit Phenylboronsäure getestet. Die Eignung der Rutheniumverbindungen als Hydrierkatalysatoren wurde zum einen in der Hydrierung von CO2 zu Ameisensäure, zum anderen in der Transferhydrierung von Acetophenon untersucht. Dabei zeigte sich besonders eine gute Aktivität der Rutheniumkomplexe als Katalysatoren in der Transferhydrierung.
Das Recycling von Automobilen leistet einen wesentlichen Beitrag zur Schonung der natürlichen Ressourcen und Reduzierung der entstehenden Abfallmengen. Dabei kommt dem Automobilhersteller eine zentrale Rolle zu, da nur durch die frühzeitige Berücksichtigung der Recyclinganforderungen bei der Entwicklung der Produkte sichergestellt werden kann, dass diese zukünftig auch in umweltgerechter und wirtschaftlicher Weise einer erneuten Nutzung zugeführt werden können.
Im Rahmen dieser Arbeit wird ein Konzept vorgestellt, welches die Recycling-anforderungen systematisch in die Ablauf- und Aufbauorganisation von Fahrzeug-entwicklungsprojekten integriert. Die Grundlage bildet ein Prozessmodell, welches in den frühen Phasen der Entwicklung die Ableitung von Recyclingzielen mit Hilfe der Szenario-Technik ermöglicht und in den nachfolgenden Phasen der Entwicklung die Zielerreichung durch einen formalisierten Recycling-Problemlösezyklus sicherstellt. Das zentrale Element stellt ein Planungsinstrument dar, welches mögliche Demontage- und Recyclingprozesse bereits innerhalb der Produktentwicklung simuliert und dadurch eine ganzheitliche Optimierung des Fahrzeuges unterstützt.
Die Auswertung verschiedener Recyclingszenarien am Beispiel eines Mittelklasse- PKW hat gezeigt, dass mit der heutigen Prozesskette der Altfahrzeugverwertung eine Reduzierung der Abfallmengen nicht kostendeckend erreichbar ist. Erst unter Berücksichtigung neuer Verwertungstechnologien für die heute zu entsorgenden Restmengen kann die wirtschaftliche Situation verbessert werden. Gleichzeitig konnte durch die Bewertung unterschiedlicher Rohbaukonzepte nachgewiesen werden, dass der Ersatz konventioneller Materialsysteme durch innovative Leichtbauwerkstoffe das Recycling am Lebensende des Fahrzeuges zunehmend erschwert.
Um bereits innerhalb der Produktentwicklung die Voraussetzung für ein hochwertiges Fahrzeugrecycling zu schaffen ist somit das Zusammenführen und Ausbalancieren von produkt- und prozessbezogenen Maßnahmen unabdingbar. Die organisa-torische Umsetzung erfolgt dabei durch ein Recyclingteam, welches es ermöglicht das Recyclingwissen in die komplexen Entwicklungsabläufe zu integrieren und mit allen Prozessbeteiligten zeitlich und inhaltlich abzustimmen.
The safety of embedded systems is becoming more and more important nowadays. Fault Tree Analysis (FTA) is a widely used technique for analyzing the safety of embedded systems. A standardized tree-like structure called a Fault Tree (FT) models the failures of the systems. The Component Fault Tree (CFT) provides an advanced modeling concept for adapting the traditional FTs to the hierarchical architecture model in system design. Minimal Cut Set (MCS) analysis is a method that works for qualitative analysis based on the FTs. Each MCS represents a minimal combination of component failures of a system called basic events, which may together cause the top-level system failure. The ordinary representations of MCSs consist of plain text and data tables with little additional supporting visual and interactive information. Importance analysis based on FTs or CFTs estimates the contribution of each potential basic event to a top-level system failure. The resulting importance values of basic events are typically represented in summary views, e.g., data tables and histograms. There is little visual integration between these forms and the FT (or CFT) structure. The safety of a system can be improved using an iterative process, called the safety improvement process, based on FTs taking relevant constraints into account, e.g., cost. Typically, relevant data regarding the safety improvement process are presented across multiple views with few interactive associations. In short, the ordinary representation concepts cannot effectively facilitate these analyses.
We propose a set of visualization approaches for addressing the issues above mentioned in order to facilitate those analyses in terms of the representations.
Contribution:
1. To support the MCS analysis, we propose a matrix-based visualization that allows detailed data of the MCSs of interest to be viewed while maintaining a satisfactory overview of a large number of MCSs for effective navigation and pattern analysis. Engineers can also intuitively analyze the influence of MCSs of a CFT.
2. To facilitate the importance analysis based on the CFT, we propose a hybrid visualization approach that combines the icicle-layout-style architectural views with the CFT structure. This approach facilitates to identify the vulnerable components taking the hierarchies of system architecture into account and investigate the logical failure propagation of the important basic events.
3. We propose a visual safety improvement process that integrates an enhanced decision tree with a scatter plot. This approach allows one to visually investigate the detailed data related to individual steps of the process while maintaining the overview of the process. The approach facilitates to construct and analyze improvement solutions of the safety of a system.
Using our visualization approaches, the MCS analysis, the importance analysis, and the safety improvement process based on the CFT can be facilitated.
The scientific aim of this work was to synthesize and characterize new bidentate and tridentate phosphine ligands , their corresponding palladium complexes and to examine their application as homogenous catalysts. Later on, a part of the obtained palladium catalysts was immobilized and used as heterogonous catalyst.
Pyrimidinyl functionalized diphenyl phosphine ligands were synthesized by ring closure of [2-(3-dimethylamino-1-oxoprop-2-en-yl)phenyl]diphenylphosphine with an excess of substituted guanidinium salts. Furthermore to increase the electron density at phosphorous centre the two aryl substituents on the phosphanyl group were exchanged against two alkyl substituents. Electron rich pyrimidinyl functionalized dialkyl phosphine ligands were synthesized from pyrimidinyl functionalized bromobenzene in a process involving lithiation followed by reaction with a chlorodialkylphosphine.
Starting from the new synthesized diaryl phosphine ligands, their corresponding palladium complexes were synthesized. I was able to show that slight changes at the amino group of [(2-aminopyrimidin-4-yl)aryl]phosphines lead to pronounced differences in the stability and catalytic activity of the corresponding palladium(II) complexes. Having a P,C coordination mode, the palladium complex can catalyze rapidly the Suzuki coupling reaction of phenylbronic acid with arylbromides even at room temperature with a low loading.
Using the NH2 group of the aminopyrimidine as a potential site for the introduction of an other substituent, bidentate and tridentate ligands containing phosphorous atoms connected to the aminopyrimidine group and their corresponding palladium complexes were synthesized and characterized.
Two ligands [2- and 4-(4-(2-amino)pyrimidinyl)phenyl]diphenylphosphine (containing NH2 group) functionalized with a ethoxysilane group were synthesized. The palladium complexes based on these ligands were prepared and immobilized on commercial silica and MCM-41. Using elemental analysis, FT-IR, solid state 31P, 13C and 29Si CP–MAS NMR spectroscopy, XRD and N2 adsorption the success of the immobilization was confirmed and the structure of the heterogenized catalyst was investigated.
The resulting heterogeneous catalysts were applied for the Suzuki reaction and exhibited excellent activity, selectivity and reusability.
Predicting secondary structures of RNA molecules is one of the fundamental problems of and thus a challenging task in computational structural biology. Existing prediction methods basically use the dynamic programming principle and are either based on a general thermodynamic model or on a specific probabilistic model, traditionally realized by a stochastic context-free grammar. To date, the applied grammars were rather simple and small and despite the fact that statistical approaches have become increasingly appreciated over the past years, a corresponding sampling algorithm based on a stochastic RNA structure model has not yet been devised. In addition, basically all popular state-of-the-art tools for computational structure prediction have the same worst-case time and space requirements of O(n^3) and O(n^2) for sequence length n, limiting their applicability for practical purposes due to the often quite large sizes of native RNA molecules. Accordingly, the prime demand imposed by biologists on computational prediction procedures is to reach a reduced waiting time for results that are not significantly less accurate.
We here deal with all of these issues, by describing algorithms and performing comprehensive studies that are based on sophisticated stochastic context-free grammars of similar complexity as those underlying thermodynamic prediction approaches, where all of our methods indeed make use of the concept of sampling. We also employ the approximation technique known from theoretical computer science in order to reach a heuristic worst-case speedup for RNA folding.
Particularly, we start by describing a way for deriving a sequence-independent random sampler for an arbitrary class of RNAs by means of (weighted) unranking. The resulting algorithm may generate any secondary structure of a given fixed size n in only O(n·log(n)) time, where the results are observed to be accurate, validating its practical applicability.
With respect to RNA folding, we present a novel probabilistic sampling algorithm that generates statistically representative and reproducible samples of the entire ensemble of feasible structures for a particular input sequence. This method actually samples the possible foldings from a distribution implied by a suitable (traditional or length-dependent) grammar. Notably, we also propose several (new) ways for obtaining predictions from generated samples. Both variants have the same worst-case time and space complexities of O(n^3) and O(n^2) for sequence length n. Nevertheless, evaluations of our sampling methods show that they are actually capable of producing accurate (prediction) results.
In an attempt to resolve the long-standing problem of reducing the time complexity of RNA folding algorithms without sacrificing much of the accuracy of the results, we invented an innovative heuristic statistical sampling method that can be implemented to require only O(n^2) time for generating a fixed-size sample of candidate structures for a given sequence of length n. Since a reasonable prediction can still efficiently be obtained from the generated sample set, this approach finally reduces the worst-case time complexity by a liner factor compared to all existing precise methods. Notably, we also propose a novel (heuristic) sampling strategy as opposed to the common one typically applied for statistical sampling, which may produce more accurate results for particular settings. A validation of our heuristic sampling approach by comparison to several leading RNA secondary structure prediction tools indicates that it is capable of producing competitive predictions, but may require the consideration of large sample sizes.
Filtering, Approximation and Portfolio Optimization for Shot-Noise Models and the Heston Model
(2012)
We consider a continuous time market model in which stock returns satisfy a stochastic differential equation with stochastic drift, e.g. following an Ornstein-Uhlenbeck process. The driving noise of the stock returns consists not only of Brownian motion but also of a jump part (shot noise or compound Poisson process). The investor's objective is to maximize expected utility of terminal wealth under partial information which means that the investor only observes stock prices but does not observe the drift process. Since the drift of the stock prices is unobservable, it has to be estimated using filtering techniques. E.g., if the drift follows an Ornstein-Uhlenbeck process and without
jump part, Kalman filtering can be applied and optimal strategies can be computed explicitly. Also in other cases, like for an underlying
Markov chain, finite-dimensional filters exist. But for certain jump processes (e.g. shot noise) or certain nonlinear drift dynamics explicit computations, based on discrete observations, are no longer possible or existence of finite dimensional filters is no longer valid. The same
computational difficulties apply to the optimal strategy since it depends on the filter. In this case the model may be approximated by
a model where the filter is known and can be computed. E.g., we use statistical linearization for non-linear drift processes, finite-state-Markov chain approximations for the drift process and/or diffusion approximations for small jumps in the noise term.
In the approximating models, filters and optimal strategies can often be computed explicitly. We analyze and compare different approximation methods, in particular in view of performance of the corresponding utility maximizing strategies.
Im Rahmen der zunehmenden Konzentration von Kohlenstoffdioxid in der Atmosphäre und der damit verbundenen Klimaproblematik wird mit steigendem Interesse an Verwendungsmöglichkeiten dieses Rohstoffs als günstige C1-Kohlenstoffquelle in der chemischen Industrie geforscht. Vor diesem Hintergrund wurden in den letzten Jahren auf dem Themengebiet der rutheniumkatalysierten Hydrierung von CO2 zu Ameisensäure viele Ergebnisse unterschiedlicher Katalysatorsysteme publiziert. Auf dieser Basis werden in der vorliegenden Arbeit mittels Ruthenium(II)-Komplexen mit Azolylliganden, welche durch Variation der Substituenten unterschiedliche Donoreigenschaften aufweisen, in der Hydrierung von CO2 untersucht und die damit verbundenen Struktur-Reaktivitäts-Eigenschaften herausgearbeitet.
Bei den hier verwendeten 2-(Pyrazol-5-yl)- oder 2-(Triazol-5-yl)pyridinliganden handelt es sich um N,N'-Chelat-Liganden, welche durch Koordination an Ruthenium(II) stabile Komplexe ausbilden können. Die Einführung unterschiedlicher Alkyl- und Arylgruppen bzw. Brom- und Nitrogruppen erfolgt abgewandt von den chelatisierenden Stickstoffatomen, wodurch eine sterische Auswirkung auf das zu koordinierende Metall gering ist. In dieser Arbeit werden 23 verschiedene, sich durch unterschiedliche Substitutionen unterscheidende Modifikationen der Azolylliganden dargestellt und charakterisiert. Von ausgewählten Systemen werden erstmalig 15N-HMBC-NMR-Spektren aufgenommen und diskutiert.
Ausgehend von den deprotonierten Ligandensystemen werden verschiedene Ruthenium(II)-Komplexe mit Triphenyl- und Trimethylphosphanliganden bzw. mit Triphenyl- und Trialkylphosphitliganden dargestellt. Die Kristallstrukturen mehrerer RuCl(PMe3)3PP/TP-Komplexe mit einer meridionalen Anordnung der PMe3-Liganden werden vorgestellt. Auch hier erfolgt die Charakterisierung der Systeme zusätzlich über 15N-HMBC-NMR-Spektren und die Unterschiede zu den freien Liganden werden diskutiert. Darüber hinaus wird das Fragmentierungsverhalten der Komplexe durch ESI- und CID-Messungen im Ionenzyklotron analysiert und eine Abspaltung der PMe3- bzw. Chlorido-Liganden abhängig von der Substitution besprochen.
Zur Untersuchung der katalytischen Aktivität der synthetisierten Komplexe werden Hydrierreaktionen mit elementarem Wasserstoff in überkritischem CO2 als Lösungsmittel und Edukt in einem Hochdruckautoklaven durchgeführt. Die Stabilisierung der hierbei gebildeten Ameisensäure erfolgt durch Zugabe von DBU als Base. Zur Bestimmung der jeweiligen Aktivität werden die Ausbeute, TON- und TOF-Werte unter konstanten Reaktionsbedingungen berechnet und miteinander verglichen. Als entscheidende aktivitätsbestimmende Faktoren können die Fähigkeit zur Erzeugung einer freien Koordinationsstelle und die Löslichkeit der Komplexe identifiziert werden. Für die hier untersuchten Rutheniumphosphit-Komplexe wird eine bisher unbekannte hohe katalytische Aktivität beobachtet. Zudem werden die Struktur-Reaktivitäts-Eigenschaften der RuCl(PMe3)3PP/TP-Komplexe analysiert und besprochen.
Zur Verifizierung der gefundenen Zusammenhänge zwischen Struktur und Reaktivität der Katalysatoren wird die vollständige quantenchemischen Berechnung aller mechanistischen Stufen mit unterschiedlich substituierten Liganden auf Basis der Dichtefunktionaltheorie und des in der Literatur postulierten Reaktionsmechanismus durchgeführt. Zudem werden alternative Reaktionspfade analysiert und miteinander verglichen. Unter den berechneten Reaktionsschritten kann jeweils die σ-Metathesereaktion als der geschwindigkeitsbestimmende Schritt identifiziert werden. Die Berechnungen zeigen, dass die Energiebarriere dieses Teilschritts mit zunehmend elektronenziehendem Charakter der Substituenten steigt. Dieser theoretisch ermittelte Trend des Zusammenhangs zwischen Struktur und Reaktivität des Katalysators stimmt damit klar mit den experimentell erhaltenen Daten überein und bestätigt diese.
Anhand der Forschungserkenntnisse wird ein Untersuchungsdesign mit vier unterschiedlichen Bedingungen entwickelt, in dem die Probanden spielgerecht Strafstöße ausführen. Das Ziel der Untersuchung ist unter Einbezug der Strafstoßstrategien von Schützen mittels eines holistischen Verfahrens eine Mustererkennung über verlaufsorientierte komplexe Bewegungsmuster in der Strafstoßsituation auszuführen, um Individuen bezogene, richtungsspezifische und bedingungsabhängige Bewegungsmuster zu identifizieren. Die erste Aufgabenstellung erfasst die Strafstöße ungestört ohne Gegnereinwirkung (Baseline). In der zweiten und dritten Aufgabenstellung werden die Strafstöße jeweils gegen einen Torhüter unter Verwendung der Strategien Keeper-independent und Keeper-dependent ausgeführt. Die vierte Aufgabenstellung simuliert während der Ausführung des Schusses die Torwarthandlung am Point of no return. Die Ergebnisse zeigen, dass bezogen auf die Ziele Separierungen möglich sind. Zudem wird deutlich, dass die Ausführungsbedingungen (Strategiewahl, Torhüter) Einfluss auf die Bewegungsausführung haben und eine Veränderung in den Erkennungsraten von Bewegungsmustern festzustellen ist.
Im Rahmen der Doktorarbeit wurden neue decarboxylierende und carboxylierende Transformationen entwickelt. Die Entwicklung decarboxylierender Umsetzungen diente der näheren Untersuchung des Decarboxylierungsprozesses, um anschließend mit den entwickelten Katalysatorsystemen, gestützt durch das Prinzip der mikroskopischen Reversibilität, neue carboxylierende Reaktionen zu entwickeln. In diesen carboxylierenden Transformationen sollte direkt gasförmiges CO2 genutzt werden, um sich so seiner großen Verfügbarkeit zu profitieren. Dies ist in allen Projekten erfolgreich gelungen.
In anderen Bereichen bereits seit längerer Zeit bekannt und erprobt, hat die Zertifizierung
mit den neusten Ansätzen der Auszeichnung von Stadtquartieren nun auch die Aufgabenfelder
der Stadtplanung erreicht. Mit zunehmender Abkehr von der imperativen Planung
hin zu kooperativen Handlungsweisen in der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen verändern sich die Austauschbeziehungen der beteiligten
privaten und öffentlichen Akteure. Dies geschieht in einer Form, in der das private gewinnorientierte Handeln und die Implementierung von Instrumenten, die der Effizienzsteigerung
der Transaktionen dienen, zunehmend an Bedeutung gewinnen. Der Wandel der
Organisationsformen in einzelnen Bereichen der Stadtentwicklung, speziell im Rahmen der
vorhabenbezogenen Planung und der städtebaulichen Projektentwicklung, führt zu einer
Vielzahl an Anlässen für den Einsatz von Zertifizierungssystemen und -verfahren.
Zielsetzung der Arbeit ist es, modellhaft instrumentelle und organisatorische Ausgestaltungsformen
der Zertifizierung im Rahmen der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen aufzuzeigen sowie Implementationsformen und -grenzen in
Bezug auf informelle und formelle Prozesse der Planung und Umsetzung zu bestimmen.
Um die Analyse sowie die Übertragung der Zertifizierung auf die spezifischen Bereiche der
Stadtplanung und Stadtentwicklung durchzuführen, erfolgt eine theoriegeleitete Untersuchung
über mehrere wissenschaftliche Disziplinen hinweg. In der Arbeit wird insbesondere
auf die Theorien der Neuen Institutionenökonomie zurückgegriffen. Die Theorie der
Verfügungsrechte, die Prinzipal-Agent-Theorie und die Transaktionskostentheorie dienen
als Grundlage zur Erklärung der Zielsetzungen, Interventionslogiken und Mechanismen von
Zertifizierung in ökonomischen Austauschbeziehungen. Die Steuerungstheorie dient der
Einordnung der Zertifizierung als Steuerungsinstrument und der Erklärung der steuerungsinstrumentellen Absichten einer Zertifizierung.
Die im Rahmen der Planung und Umsetzung städtebaulicher Projekte und Maßnahmen
relevanten Faktoren der Qualitätsunsicherheit, des opportunistischen Verhalten und der
Spezifität der Transaktionen wurden hinsichtlich ihrer zentralen Rolle dargelegt und
berücksichtigt. Zielkonflikte und Informationsasymmetrien in den Austauschbeziehungen
der vielfältigen an der Planung und Umsetzung der städtebaulichen Projekte und Maßnahmen
Beteiligten wurden analysiert und als Anlass der Zertifizierung identifiziert.
Im Ergebnis werden Empfehlungen und differenzierte Modellvariationen für die institutionelle
Ausgestaltung von Systemen und Verfahren der Zertifizierung im Rahmen der Planung
und Umsetzung städtebaulicher Projekte und Maßnahmen auf Stadtquartiersebene
abgeleitet und die Grenzen und Prämissen der Zertifizierung dargelegt.
The discrete nature of the dispersed phase (swarm of droplet) in stirred and pulsed liquid-liquid extraction columns makes its mathematical modelling of such complex system a tedious task. The dispersed phase is considered as a population of droplets distributed randomly with respect to their internal properties (such as: droplet size and solute concentration) at a specific location in space. Hence, the population balance equation has been emerged as a mathematical tool to model and describe such complex behaviour. However, the resulting model is too complicated. Accordingly, the analytical solution of such a mathematical model does not exist except for particular cases. Therefore, numerical solutions are resorted to in general. This is due to the inherent nonlinearities in the convective and diffusive terms as well as the appearance of many integrals in the source term. However, modelling and simulation of liquid extraction columns is not an easy task because of the discrete nature of the dispersed phase, which consist of population of droplets. The natural frame work for taking this into account is the population balance approach.
In part of this doctoral thesis work, a rigours mathematical model based on the bivariate population balance frame work (the base of LLECMOD ‘‘Liquid-Liquid Extraction Column Module’’) for the steady state and dynamic simulation of pulsed (sieve plate and packed) liquid-liquid extraction columns is developed. The model simulates the coupled hydrodynamic and mass transfer for pulsed (packed and sieve plate) extraction columns. The model is programmed using visual digital FORTRAN and then integrated into the LLECMOD program. Within LLECMOD the user can simulate different types of extraction columns including stirred and pulsed ones. The basis of LLECMOD depends on stable robust numerical algorithms based on an extended version of a fixed pivot technique after Attarakih et al., 2003 (to take into account interphase solute transfer) and advanced computational fluid dynamics numerical methods. Experimental validated correlations are used for the estimation of the droplet terminal velocity in extraction columns based on single and swarm droplet experiments in laboratory scale devices. Additionally, recent published correlations for turbulent energy dissipation, droplet breakage and coalescence frequencies are discussed as been used in this version of LLECMOD. Moreover, coalescence model from literature derived from a stochastical description have been modified to fit the deterministic population model. As a case study, LLECMOD is used here to simulate the steady state performance of pulsed extraction columns under different operating conditions, which include pulsation intensity and volumetric flow rates are simulated. The effect of pulsation intensity (on the holdup, mean droplet diameter and solute concentration) is found to have more profound effect on systems of high interfacial tension. On the hand, the variation of volumetric flow rates have substantial effect on the holdup, mean droplet diameter and solute concentration profiles for chemical systems with low interfacial tension. Two chemical test systems recommended by the European Federation of Chemical Engineering (water-acetone (solute)-n-butyl acetate and water-acetone (solute)-toluene) and an industrial test system are used in the simulation. Model predictions are successfully validated against steady state and transient experimental data, where good agreements are achieved. The simulated results (holdup, mean droplet diameter and mass transfer profiles) compared to the experimental data show that LLECMOD is a powerful simulation tool, which can efficiently predict the dynamic and steady state performance of pulsed extraction columns.
In other part of this doctoral thesis work, the steady state performance of extraction columns is studied taking into account the effect of dispersed phase inlet condition (light or heavy phase is dispersed) and the direction of mass transfer (from continuous to dispersed phase and vice versa) using the population balance framework. LLECMOD, a program that uses multivariate population balance models, is extended to take into account the direction of mass transfer and the dispersed phase inlet. As a case study, LLECMOD is used to simulate pilot plant RDC columns where the steady state mean flow properties (dispersed phase hold up and droplet mean diameter) and the solute concentration profiles are compared to the available experimental data. Three chemical systems were used: sulpholane–benzene–n-heptane, water–acetone–toluene and water–acetone–n-butyl acetate. The dispersed phase inlet and the direction of mass transfer as well as the chemical system physical properties are found to have profound effect on the steady state performance of the RDC column. For example, the mean droplet diameter is found to persist invariant when the heavy phase is dispersed and the extractor efficiency is higher when the direction of mass transfer is from the continuous to the dispersed phase. For the purpose of experimental validation, it is found that LLECMOD predictions are in good agreement with the available experimental data concerning the dispersed phase hold up, mean droplet diameter and solute concentration profiles in both phases.
In a further part of this doctoral thesis, a mathematical model is developed for liquid extraction columns based on the multivariate population balance equation (PBE) and the primary secondary particle method (PSPM) introduced by Attarakih, 2010 (US Patent Application: 0100106467). It is extended to include the momentum balance for the dispersed phase. The advantage of momentum balance is to eliminate the need for often conflicting correlations used in estimating the terminal velocity of single and swarm of droplets. The resulting mathematical model is complex due to the integral nature of the population balance equation. To reduce the complexity of this model, while maintaining most of the information drawn from the continuous population balance equation, the concept of the PSPM is used. Based on the multivariate population balance equation and the PSPM a mathematical model is developed for any liquid extraction column. The secondary particle could be envisaged as a fluid particle carrying information about the distribution as it is evolved in space and time, in the meanwhile the primary particles carry the mean properties of the population such as total droplet concentration; mean droplet diameter dispersed phase hold up and so on. This information reflects the particle-particle interactions (breakage and coalescence) and transport (convection and diffusion). The developed model is discretized in space using a first-order upwind method, while semi-implicit first-order scheme in time is used to simulate a pilot plant RDC extraction column. Here the effect of the number of primary particles (classes) on the final predicted solution is investigated. Numerical results show that the solution converge fast even as the number of primary particle is increased. The terminal droplet velocity of the individual primary particle is found the most sensitive to the number of primary particles. Other mean population properties like the droplet mean diameter, mean hold up and the concentration profiles are also found to converge along the column height by increasing the number of primary particles. The predicted steady state profiles (droplet diameter, holdup and the concentration profiles) along a pilot RDC extraction column are compared to the experimental data where good agreement is achieved.
In addition to this a robust rigorous mathematical model based on the bivariate population balance equation is developed to predict the steady state and dynamic behaviour of the interacting hydrodynamics and mass transfer in Kühni extraction columns. The developed model is extended to include the momentum balance for the calculation of the droplet velocity. The effects of step changes in the important input variables (such as volumetric flow rates, rotational speed, inlet solute concentrations etc.) on the output variables (dispersed phase holdup, mean droplet diameter and the concentration profiles) are investigated.
The last topic of this doctoral thesis is developed to transient problems. The unsteady state analysis reveals the fact that the largest time constant (slowest response) is due to the mass transfer. On the contrary, the hydrodynamic response of the dispersed phase holdup is very fast when compared to the mass transfer due to the relative fast motion of the dispersed droplets with respect to the continuous phase. The dynamic behaviour of the dispersed and continuous phases shows a lag time that increases away from the feed points of both phases. Moreover, the solute concentration response shows a highly nonlinear behaviour due to both positive and negative step changes in the input variables. The simulation results are in good agreement with the experimental ones and show the usefulness of the model.