Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1864) (remove)
Language
- German (930)
- English (928)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (18)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (369)
- Kaiserslautern - Fachbereich Mathematik (291)
- Kaiserslautern - Fachbereich Informatik (229)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (63)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (35)
Rd. 30 % bis 40 % des durchschnittlichen Trinkwasserverbrauchs in deutschen Haushalten entfällt auf die Toilettenspülung. Das dabei anfallende Abwasser, das sogenannte Schwarzwasser, enthält neben dem Spülwasser die Fäkalien Urin und Fäzes sowie Toilettenpapier. Es ist durch eine vergleichsweise hohe organische Verschmutzung sowie sehr hohe Gehalte an Nährstoffen gekennzeichnet. Aufbauend auf dem Grundgedanken, den häuslichen Schmutzwasserkreislauf zu schließen, um den Bedarf an hochwertigem Trinkwasser nachhaltig zu senken, wurde in der vorliegenden Arbeit die Anwendung des Belebungsverfahrens zur biologischen Behandlung von Toilettenabwasser erforscht.
Um den mangelnden Kenntnisstand hinsichtlich der Schwarzwasserzusammensetzung zu verbessern, wurde zunächst die Quantität und chemisch-physikalische Qualität von Schwarzwasser an drei unterschiedlichen Versuchsstandorten mit unterschiedlicher Nutzung (Wohnen, Arbeitsplatz) eingehend untersucht. Hierdurch konnten eine Vielzahl neuer Erkenntnisse zur Charakteristik von Schwarzwasser gewonnen werden und spezifische Frachten für Parameter CSB, BSB5, TKN, Pges und AFS abgeleitet werden. Mit den erarbeiteten Kennwerten wird eine deutlich verbesserte und durch die umfangreichen Messungen abgesicherte Datengrundlage zur Abschätzung des Nutzungspotenzials von Schwarzwasser und zur Bemessung von Schwarzwasserbehandlungsanlagen möglich.
Im Hinblick auf die Erforschung der Eliminationsmechanismen der im Schwarzwasser enthal-tenen Kohlenstoff-, Stickstoff- und Phosphorverbindungen unter Betriebsbedingungen wurden zwei Versuchsanlagen (SBR, MBR) an den drei Versuchsstandorten betrieben. Neben der biologischen Behandlung von Roh-Schwarzwasser und von mechanisch gereinigtem Schwarzwasser wurde die biologische Behandlung von Schwarzwasser bei Kreislaufführung untersucht.
Es wurde festgestellt, dass Schwarzwasser nach biologischer Behandlung sehr hohe Gehalte an gelöst inertem CSB aufweist. Zudem wurde ein Zusammenhang zwischen der Schwarzwasserquelle und den erreichbaren Rest-CSB-Gehalten abgeleitet. Demnach ist der bei maximalem biologischem Reinigungseffekt erreichbare CSB-Gehalt für Schwarzwasser häuslicher Herkunft etwa doppelt so hoch wie bei Schwarzwasser gewerblicher Herkunft.
Mit Hilfe von Sauerstoffzehrungsmessungen, die durch Substratzehrungsmessungen ergänzt wurden, wurden abschließend kinetische und stöchiometrische Parameter des heterotrophen und autotrophen Stoffwechsels sowie die CSB-Fraktionen von Schwarzwasser experimentell ermittelt. Die Versuche wurden unter Verwendung von mechanisch gereinigtem Schwarzwasser und SBR-Belebtschlamm durchgeführt, welcher zwei verschiedene Schlammalter aufwies. Hierdurch konnte der Einfluss der Betriebsparameter Schlammalter und Schlammbelastung auf den Stoffwechsel der jeweils gewachsenen Schwarzwasser-Belebtschlammbiozönose ermittelt werden. Bei der Fraktionierung der organischen Verbindungen konnte u.a. ein Zusammenhang zwischen den abbaubaren CSB-Fraktionen und dem Schlammalter abgeleitet werden. Die in den Praxisversuchen gewonnen Erkenntnisse hinsichtlich der Rest-CSB-Gehalte konnten damit bestätigt werden. Darüber hinaus konnte gezeigt werden, dass bei der aeroben biologischen Behandlung von Schwarzwasser eine Entkopplung von Ammonium- und Nitritoxidation auftritt. Zur Bestimmung der kinetischen und stöchiometrischen Kenngrößen der Nitrifikation wurde zudem eine modifizierte Methode vorgestellt, die es erlaubt die momentane Nitritations- und Nitratationsrate in einem Versuch zu ermitteln. In stickstoffhaltigen Abwässern oder bei hohen Abwassertemperaturen liefert die Methode einen vertiefenden Einblick in die Prozesse der Nitrifikation und wird daher zur weiteren Umsetzung empfohlen.
The goal of this thesis is to find ways to improve the analysis of hyperspectral Terahertz images. Although it would be desirable to have methods that can be applied on all spectral areas, this is impossible. Depending on the spectroscopic technique, the way the data is acquired differs as well as the characteristics that are to be detected. For these reasons, methods have to be developed or adapted to be especially suitable for the THz range and its applications. Among those are particularly the security sector and the pharmaceutical industry.
Due to the fact that in many applications the volume of spectra to be organized is high, manual data processing is difficult. Especially in hyperspectral imaging, the literature is concerned with various forms of data organization such as feature reduction and classification. In all these methods, the amount of necessary influence of the user should be minimized on the one hand and on the other hand the adaption to the specific application should be maximized.
Therefore, this work aims at automatically segmenting or clustering THz-TDS data. To achieve this, we propose a course of action that makes the methods adaptable to different kinds of measurements and applications. State of the art methods will be analyzed and supplemented where necessary, improvements and new methods will be proposed. This course of action includes preprocessing methods to make the data comparable. Furthermore, feature reduction that represents chemical content in about 20 channels instead of the initial hundreds will be presented. Finally the data will be segmented by efficient hierarchical clustering schemes. Various application examples will be shown.
Further work should include a final classification of the detected segments. It is not discussed here as it strongly depends on specific applications.
Synthese, Charakterisierung und katalytische Eigenschaften von metallsubstituierten Alumophosphaten
(2012)
Ziel der vorliegenden Arbeit war es, Alumophosphate sowohl mit sauren Eigenschaften als auch solche mit oxidierendem Charakter herzustellen. Die katalytischen Zentren wurden durch den Einbau von Metallen in das Alumophosphat-Gitter erzeugt. Dies erfolgte durch die Zugabe von Metallsalzen zum Synthesegel der zu synthesierenden Alumophosphate. Ein besonderes Augenmerk wurde hierbei auf die Metalle Mg, Co, Zn, Mn, Cr, V und Ti gerichtet. Der Einbau der Metalle erfolgte an 10-Ring und 12-Ring Alumophosphaten. Die metallhaltigen 10 Ring Alumophosphate mit AEL und ATO Strukturen und 12-Ring Alumophosphate der AFI, ATS und AFO-Topologie sollten anschließend mittels physikalisch-chemischer Methoden charakterisiert werden. Hierzu gehörten:
- Röntgen-Pulverdiffraktometrie,
- Temperaturprogrammierte Desorption (TPD),
- Stickstoff-Adsorption,
- UV/Vis-Spektroskopie,
- IR-Spektroskopie.
Ein Schwerpunkt der vorliegenden Arbeit stellte die Untersuchung der katalytischen Eigenschaften der hergestellten und charakterisierten Proben dar. Ausgewählte Cr-, V- und Ti-haltige Katalysatoren wurden in der Flüssigphasenoxidation von Cyclohexen mit wässriger Wasserstoffperoxid- oder tert-Butylhydroperoxid-Lösung (TBHP) getestet. Die eingesetzten metallhaltigen Alumophosphate wiesen eine katalytische Aktivität für die Cyclohexen-Oxidation bei 80 °C auf. Während der Reaktion entstanden 1,2-Cyclohexandiol, 2-Cyclohexenol, 2-Cyclohexenon, Cyclohexenoxid und Cyclohexandion als Hauptprodukte. Die aus technischen Gesichtspunkten interessante Adipinsäure konnte zu keinem Zeitpunkt beobachtet werden. Die Aktivität der eingesetzten Katalysatoren wird durch die unterschiedlichen in die Alumophosphate eingebauten Metalle beeinflusst. Auch die Topologie der hergestellten Materialien beeinflusste den Verlauf der Reaktion. Der Einsatz von TBHP und H2O2 als Oxidationsmittel führte teilweise zu einem unterschiedlichen Produktbild. Nach mehreren Stunden wurde eine Desaktivierung der Katalysatoren beobachtet. Durch eine erneute Kalzination der in der Katalyse einsetzen Proben konnte die Aktivität fast vollständig wieder hergestellt werden.
In der Disproportionierung von Ethylbenzol erwiesen sich die Co-, Mn-, Mg- und Zn-haltigen Alumophosphate als aktive Katalysatoren. Bei den Umsetzungen an Alumophosphaten mit unterschiedlichem Metallgehalt entstanden ortho-, meta- und para-Diethylbenzol als Hauptprodukte. Hierbei wiesen Mg-haltige Katalysatoren die höchste Aktivität auf. Bei einem Metallgehalt von nMg/nAl = 0,01 entstanden neben den bisher erwähnten Hauptprodukten auch Triethylbenzole. Die Aktivität der eingesetzten Alumophosphate nimmt in der Reihenfolge MgAPO > CoAPO > ZnAPO > MnAPO ab. Diese Reihenfolge steht im Einklang mit den Ergebnissen aus den Aciditäts-Untersuchungen mittels TPD. Die Porengeometrie der verwendeten Alumophosphate übt einen entscheidenden Einfluss auf das Produktbild aus. Weitporige Alumophosphate mit der AFI und ATS Topologie weisen die höchsten Umsätze an Ethylbenzol auf. Alumophosphate des AFO und AEL besitzen einen geringeren Porendurchmesser und zeigen eine geringere Aktivitat in der Disproportionierung von Ethylbenzol. Zudem treten wegen des geringeren Porendurchmessers formselektive Effekte auf. So wird das schlankere para-Diethylbenzol bevorzugt gebildet. Katalysatoren auf Basis des ATO Alumophosphates zeigten keine signifikante Aktivitat.
In der vorliegenden Arbeit wurden die Verbesserungsmöglichkeiten der Mikro- und Ultrafiltration durch Ultraschall untersucht. Für die Analyse möglicher Mechanismen der Ultraschalleinkopplung, die zu einer Verbesserung der Membranfiltration führen könnten, wurden wichtige Erkenntnisse aus den beiden Technologiefeldern (Ultraschalltechnik und Membranfiltration) zusammengetragen. Für die Vielzahl der Ansätze zur Nutzung des Ultraschalls in der Membranfiltration wurde eine Systematik entwickelt. Zahlreiche Ansätze wurden in orientierenden Experimenten untersucht und bewertet. Ein wichtiger Aspekt bei der Bewertung der Methoden bestand in der Skalierbarkeit der Technologiekombinationen. Als Hauptakteure der Reinigungswirkung wurden gut sichtbare Bläschen in der Größenordnung von 10-500 µm identifiziert. Die erfolgreichste Methode stellt die durch Ultraschallreinigung unterstützte Rückspülung dar. Auf Basis dieser Erkenntnisse wurde eine Übertragung der Ultraschallreinigung auf ein handelsübliches Kapillarmembranmodul durchgeführt. Bei ersten Filtrationsversuchen mit natürlichem Oberflächenwasser konnten Schäden an der Membran festgestellt werden, die auf eine lokale Kavitationsstruktur an der Ankopplungsstelle des Ultraschallwandlers zurückzuführen waren. Bei geringeren Ultraschallleistungen und bei der Nutzung höherer Frequenzen traten keine Schäden an der Membran auf. Im Vergleich zu einem Referenzmodul konnten deutliche Verbesserungen durch die Einkopplung des Ultraschalls an verschiedenen Stoffsystemen nachgewiesen werden. Die Arbeit schließt mit Vorschlägen für Membranmodule mit integriertem Leistungsultraschall, die aus technischer Sicht empfehlenswert erscheinen.
Mechanisms underlying the biological effects of coffee and its constituents are incompletely understood. Many effects have been attributed solely to caffeine, neglecting that coffee is a mixture of many chemical substances. Some authors suggest that the main mechanism of action of caffeine is to antagonize adenosine receptors (AR); a second effect is the inhibition of phosphodiesterases with the subsequent accumulation of cAMP and an intensification of the effects of catecholamines. Although the inhibition of phosphodiesterases may contribute to the actions of caffeine, there is growing evidence that most pharmacological effects of this xanthine result from antagonism of AR.
One of the main objectives of this work was to investigate whether substances other than caffeine in coffee may influence the homeostasis of intracellular cyclic nucleotides in vitro and in vivo. The influence of selected coffee compounds, extracts and brews on key elements involved in the adenosine receptor-mediated signaling pathway have been investigated.
A further aim of this work was also to determine if coffee or some coffee constituents may have a stimulatory effect on the cellular heme oxygenase activity (HO-activity). Two coffee extracts, a slightly (AB1) and an intensively roasted coffee (AB2), were studied along with selected individual compounds. Caffeine and low substituted pyrazines showed no effect on the HO-activity, while NMP, pyrazines with a greater substitution pattern such as Tetramethylpyrazine (TMP) and 2-Ethyl-3,5(6)-dimethylpyrazine (2-E-3,5-DMP) and both coffee extracts significantly induced the HO-activity in liver hepatocellular carcinoma (HepG2), intestinal colo-rectal adenocarcinoma (Caco-2) and in some instances in monocytic leukemia (MM6) cells.
It was found that caffeine, theophylline, coffee extracts from conventional or functional coffees, pyrazines (2,3-DE-6-MP, 2-Isobutyl-3-methoxyP), 5-CQA and caffeic acid all significantly inhibited the basal cytoplasmatic PDE activity in lysates of lung tumour xenograft cells (LXFL529L) and human platelets. To a somewhat lesser extent, PDE inhibition was also found in experiments performed with paraxanthine and other pyrazines (2-E-3,5-DMP, TMP and 2-E-5-MP). Thus the degree of roasting has a considerable impact on constituents of influence for PDE activity. Caffeine, coffee polyphenols and some pyrazines and further, as yet unknown roasting products appear to represent the main modulating constituents.
In two coffee intervention studies, a short-term (8 weeks) and a long-term study (24 weeks), comprising 8 and 84 healthy volunteers respectively, we examined extracellular key elements of the adenosine pathway including plasma adenosine levels and adenosine deaminase activity. Additionally, we studied the intracellular cAMP concentration and the PDE activity in platelets as surrogate biomarkers of adipocytes.
Results of in vitro experiments had suggested that the concentrations of caffeine and coffee extracts required to obtain a half maximal inhibition were in the upper range of physiological conditions. Yet, it was demonstrated for the first time in vivo that moderate consumption of coffee can modulate the activity of platelet phosphodiesterases in humans in long and short term. In both studies, the first exposure to coffee showed a strong inhibition (p<0.001) of the PDE activity in the platelet lysates of the participants while the second coffee phase showed no or a slight effect when compared with the first coffee intervention.
In both studies a significant increase (p<0.001) in intraplatelet cAMP concentrations during the wash-out phase (after the first coffee phase) was observed. This response could be due to inhibition of the PDE activity in the previously phase extending in to the wash out phase. However, the behavior of cAMP in the following study phases cannot be easily explained. It may be hypothesized that this effect is attributable to adaptive effects to allow PDE inhibition. One possibility is the modulation of the expression of membrane-bound adenosine receptors in platelet precursors, which still have a nucleus. This may potentially influence adenylate cyclase activity in mature platelets. For the observed effects, in addition to caffeine other ingredients of coffee appear to play a role. The findings suggest that monitoring of cAMP homeostasis in platelets is not a useful surrogate biomarker for effects in other tissues.
Neither the activity of adenosine deaminase nor the adenosine concentrations in plasma were markedly modulated by the coffee consumption in both trials. This may reflect the fact that adenosine is subject to quick and effective enzymatic turnover by phosphorylation (adenosine kinase) or deamination (adenosine deaminase) allowing keep its concentration within a well balanced homeostasis. However, it is also well known, that considerable variability exists in the responses to coffee drinking. In part, such variability is due to caffeine tolerance, but there is also evidence for a genetic background.
Altogether the data reported here provide further evidence for the perception that coffee consumption is associated with beneficial health effects demonstrated for the cAMP enhancement in platelets, known to counteract platelet aggregation. The effects observed for the influence of cellular heme oxygenase (HO) are in line with the well documented antioxidative activity of coffee and its constituents.
Acrylamid und Acrolein gehören zu den alpha,beta-ungesättigten Carbonylverbindungen. Sie zeichnen sich wie andere alpha,beta-ungesättigte Carbonylverbindungen durch eine hohe Reaktionsfähigkeit aus. Einerseits können sie leicht mit Proteinen und DNA reagieren, was zytotoxische und genotoxische Wirkungen hervorrufen kann, andererseits können sie aber auch schnell durch Glutathionkonjugation detoxifiziert werden.
Acrylamid ist eine in großem Umfang produzierte Industriechemikalie, die hauptsächlich Anwendung bei der Herstellung von Polyacrylamidprodukten findet. Aus Acrylamid hergestellte Polymere und Copolymere werden in der Kosmetikindustrie, als Bindemittel bei der Papierherstellung, als Flockungsmittel in der Abwasseraufbereitung und in biochemischen Laboratorien verwendet. Nachdem Acrylamid-Hämoglobin-Addukte im Jahre 2002 auch in nicht Acrylamid-exponierten Personen gefunden wurden, vermutete man Lebensmittel als mögliche Expositionsquelle. Anschließende Studien konnten dies bestätigen und zeigten, dass Acrylamid beim Erhitzen von Lebensmitteln vor allem bei hohen Temperaturen im Verlauf der Maillard-Reaktion gebildet werden kann. Die World Health Organisation (WHO) beziffert die weltweite durchschnittliche Exposition mit Acrylamid über Lebensmittel auf 1-4 µg Acrylamid/kg Körpergewicht (KG) und Tag. Acrylamid zeigte in verschiedenen Studien neurotoxische, entwicklungs- und reproduktionstoxische, genotoxische und kanzerogene Wirkungen. Acrylamid wurde im Jahre 1994 von der International Agency for Research on Cancer (IARC) in die Gruppe 2A als Stoff eingestuft, der wahrscheinlich krebserzeugend beim Menschen ist.
Acrylamid wird im Organismus zum genotoxischen Metaboliten Glycidamid gegiftet. Glycidamid bildet DNA-Addukte vor allem mit dem N7 des Guanins. Glycidamid-DNA-Addukte konnten im Tierversuch an Nagern nach Verabreichung hoher Mengen Acrylamid in allen untersuchten Organen gefunden werden. Als Hauptweg der Entgiftung von Acrylamid und Glycidamid gilt die Bindung an Glutathion (GSH) und der Abbau und die Ausscheidung als Mercaptursäure (MA) in Urin. Aufgrund des oxidativen Metabolismus von Acrylamid hängt die biologische Wirkung wesentlich vom Gleichgewicht der giftenden und entgiftenden Metabolismuswege in der Leber ab.
Acrolein wird seit 1940 kommerziell zur Herstellung von Acrylsäure, dem Ausgangsprodukt für Acrylatpolymere industriell produziert. Außerdem kann Acrolein aus Aminosäuren, Fetten oder Kohlenhydraten während des Erhitzens von Lebensmitteln gebildet werden. Während der Zubereitung von kohlenhydratreichen Lebensmitteln kann Acrolein wie auch Acrylamid im Verlauf der Maillard-Reaktion entstehen. Acrolein ist als einfachster alpha,beta-ungesättigter Aldehyd hochreaktiv gegenüber Nukleophilen wie z.B. Thiol- oder Aminogruppen unter Ausbildung von Michael-Addukten. Die hohe Reaktivität und Flüchtigkeit von Acrolein führt dazu, dass derzeit nur wenig zuverlässige Daten zu Acrolein-Gehalten speziell in kohlenhydratreichen Lebensmitteln vorliegen; sofern Daten zu Gehalten vorhanden sind, bewegen sich diese im niedrigen µg/kg-Bereich. Zudem ist bisher ungeklärt, in welchem Ausmaß Acrolein zur humanen Gesamtexposition gegenüber hitzeinduzierten Schadstoffen neben Acrylamid in Lebensmitteln beiträgt. Die derzeitige Datenlage lässt eine eindeutige Risikobewertung nicht zu. Eine stetige Exposition mit Acrolein gilt als sicher. In verschiedenen Studien konnte gezeigt werden, dass die toxikologischen Effekte von Acrolein im Gegensatz zu Acrylamid insgesamt nicht auf einer erhöhten Tumorinzidenz beruhen. Daher wurde Acrolein von der IARC in Kategorie 3 eingestuft: Es gilt als möglicherweise krebserzeugend beim Menschen, allerdings ist die Datenlage nicht ausreichend, um eine eindeutige Beurteilung vornehmen zu können.
Ziel der vorliegenden Arbeit war es, die Toxikokinetik und -dynamik der beim Erhitzen von Lebensmitteln entstehenden Kontaminanten Acrylamid und Acrolein in vitro und in vivo zu untersuchen. Im Vordergrund stand die Erfassung dosisabhängiger Genotoxizität von Acrylamid sowie der MA als wichtigste Entgiftungsreaktion im Tierversuch im Bereich der derzeitigen Verbraucherexposition. Die Ergebnisse, insbesondere zur Toxikokinetik, sollten durch in vitro Versuche in primären Rattenhepatozyten untermauert werden. Außerdem sollte vergleichend die bisher kaum mithilfe von Biomarkern untersuchte nahrungsbezogene Exposition des Verbrauchers mit Acrylamid und Acrolein bestimmt werden. Eine Dosis-Wirkungsuntersuchung an Sprague Dawley (SD)-Ratten im Dosisbereich von 0,1 bis 10.000 µg/kg KG lieferte erstmals quantitative Informationen zur DNA-Adduktbildung durch den genotoxischen Acrylamid-Metaboliten Glycidamid bis in niedrigste Expositionsbereiche. In diesem Niedrigdosisbereich (0,1 bis 10 µg/kg KG) liegt die nach Einmaldosierung gemessene N7-GA-Gua-Bildung im unteren Bereich der humanen Hintergrundgewebsspiegel für DNA-Läsionen verschiedenen Ursprungs. Dieser Befund könnte die zukünftige Risikobewertung von Expositionen mit solchen genotoxischen Kanzerogenen auf eine neue und der Messung zugängliche Basis stellen. Mit der in dieser Arbeit eingesetzten extrem empfindlichen instrumentellen Analytik sind erstmals Messungen von genotoxischen Ereignissen bis in den Bereich der Verbraucherexposition möglich geworden. Es bleibt allerdings zu beachten, das Genotoxizität zwar eine notwendige, aber nicht hinreichende Bedingung für Mutagenität und maligne Transformation ist. Die auf ein genotoxisches Ereignis folgende biologische Antwort, muss jedoch in die Risikobewertung mit einbezogen werden.
In primären Rattenhepatozyten ließ sich bei Inkubation mit Acrylamid zeigen, dass GSH-Addukte deutlich früher bei niedrigeren Acrylamidkonzentrationen nachweisbar sind als Glycidamid und N7-GA-Gua-Addukte. Der direkte Vergleich der Bildung von Glycidamid mit jener der AA-GSH-Addukte ließ schließen, dass die Entgiftung von Acrylamid in primären Rattenhepatozyten bis zu dreifach schneller verläuft als die Giftung. Zusätzlich ließ sich erstmals zeigen, dass primäre Rattenhepatozyten neben der Kopplung von Xenobiotika an GSH, zumindest auch in kleinen Anteilen zur Umwandlung in die entsprechenden MA fähig sind.
Um das von Acrolein ausgehende Gefährdungspotential zu untersuchen, wurde dessen DNA-Adduktbildung in vitro untersucht. Als Biomarker für die Bildung eines Haupt-DNA-Adduktes wurde fünffach 15N-markiertes Hydroxypropanodeoxyguanosin (OH-[15N5]-PdG) synthetisiert und charakterisiert. DNA Inkubationsversuche mit Acrolein zeigten eine konzentrations- und zeitabhängige Bildung der OH-PdG-Addukte. Acrolein reagierte nur wenig langsamer als Glycidamid zu diesen Addukten.
Zur Untersuchung der Toxikokinetik von Acrylamid und Acrolein in vivo nach Aufnahme von hoch belasteten bzw. kommerziell erhältlichen Kartoffelchips wurden die Ergebnisse aus zwei Humanstudien durchgeführt und ausgewertet. Die Ausscheidungskinetiken Acrolein-assoziierter MA im Menschen korrelierten eindeutig mit der Aufnahme von Kartoffelchips. Der Vergleich der im Urin ausgeschiedenen Mengen an Acrolein- bzw. Acrylamid-assoziierten MA ließ auf eine wesentlich höhere nahrungsbezogene Exposition mit Acrolein (4- bis 12-fach) verglichen mit Acrylamid schließen. Analytische Messungen der Acroleingehalte in den Lebensmitteln hatten aber nur eine Kontamination ergeben, die nur einen geringen Anteil der expositionsbedingt im Urin erfassten MA-Mengen erklären kann. Ob Acrolein an der Lebensmittelmatrix in einer Weise gebunden vorliegt, dass es sich der analytischen Erfassung durch die zur Verfügung stehenden Verfahren wie Headspace-GC/MS entzieht und erst nach Aufnahme in den Organismus freigesetzt wird, wird Gegenstand künftiger Untersuchungen. Zusätzlich liefern die Ergebnisse beider Humanstudien starke Hinweise auf eine endogene Bildung von Acrolein, da auch in den Wash-out Phasen ein relativ hoher Anteil an Acrolein-assoziierten MA erfasst wurde. Zukünftige Untersuchungen sollten die endogene Exposition und die Bildungsmechanismen von Acrolein und anderen Alkenalen aus verschiedenen physiologischen Quellen genauer untersuchen, und in Beziehung setzen zur exogenen, ernährungsbezogenen Exposition. Ebenso sollten künftig verstärkt die Auswirkungen kombinierter Exposition durch solche erhitzungsbedingt gebildeten Stoffe untersucht werden.
Paper production is a problem with significant importance for the society and it is a challenging topic for scientific investigations. This study is concerned with the simulations of the pressing section of a paper machine. We aim at the development of an advanced mathematical model of the pressing section, which is able to recover the behavior of the fluid flow within the paper felt sandwich obtained in laboratory experiments.
From the modeling point of view the pressing of the paper-felt sandwich is a complex process since one has to deal with the two-phase flow in moving and deformable porous media. To account for the solid deformations, we use developments from the PhD thesis by S. Rief where the elasticity model is stated and discussed in detail. The flow model which accounts for the movement of water within the paper-felt sandwich is described with the help of two flow regimes: single-phase water flow and two-phase air-water flow. The model for the saturated flow is presented by the Darcy's law and the mass conservation. The second regime is described by the Richards' approach together with dynamic capillary effects. The model for the dynamic capillary pressure - saturation relation proposed by Hassanizadeh and Gray is adapted for the needs of the paper manufacturing process.
We have started the development of the flow model with the mathematical modeling in one-dimensional case. The one-dimensional flow model is derived from a two-dimensional one by an averaging procedure in vertical direction. The model is numerically studied and verified in comparison with measurements. Some theoretical investigations are performed to prove the convergence of the discrete solution to the continuous one. For completeness of the studies, the models with the static and dynamic capillary pressure–saturation relations are considered. Existence, compactness and convergence results are obtained for both models.
Then, a two-dimensional model is developed, which accounts for a multilayer computational domain and formation of the fully saturated zones. For discretization we use a non-orthogonal grid resolving the layer interfaces and the multipoint flux approximation O-method. The numerical experiments are carried out for parameters which are typical for the production process. The static and dynamic capillary pressure-saturation relations are tested to evaluate the influence of the dynamic capillary effect.
The last part of the thesis is an investigation of the validity range of the Richards’ assumption for the two-dimensional flow model with the static capillary pressure-saturation relation. Numerical experiments show that the Richards’ assumption is not the best choice in simulating processes in the pressing section.
Standard bases are one of the main tools in computational commutative algebra. In 1965
Buchberger presented a criterion for such bases and thus was able to introduce a first approach for their computation. Since the basic version of this algorithm is rather inefficient
due to the fact that it processes lots of useless data during its execution, active research for
improvements of those kind of algorithms is quite important.
In this thesis we introduce the reader to the area of computational commutative algebra with a focus on so-called signature-based standard basis algorithms. We do not only
present the basic version of Buchberger’s algorithm, but give an extensive discussion of different attempts optimizing standard basis computations, from several sorting algorithms
for internal data up to different reduction processes. Afterwards the reader gets a complete
introduction to the origin of signature-based algorithms in general, explaining the under-
lying ideas in detail. Furthermore, we give an extensive discussion in terms of correctness,
termination, and efficiency, presenting various different variants of signature-based standard basis algorithms.
Whereas Buchberger and others found criteria to discard useless computations which
are completely based on the polynomial structure of the elements considered, Faugère presented a first signature-based algorithm in 2002, the F5 Algorithm. This algorithm is famous for generating much less computational overhead during its execution. Within this
thesis we not only present Faugère’s ideas, we also generalize them and end up with several
different, optimized variants of his criteria for detecting redundant data.
Being not completely focussed on theory, we also present information about practical
aspects, comparing the performance of various implementations of those algorithms in the
computer algebra system Singular over a wide range of example sets.
In the end we give a rather extensive overview of recent research in this area of computational commutative algebra.
Neue katalytische Reaktionen zur Funktionalisierung ungesättigter Fettsäuren und ihrer Derivate
(2012)
Die Nutzbarmachung pflanzlicher Öle als erneuerbare Rohstoffquelle für die chemische Industrie gewinnt angesichts verknappender Erdölvorräte an Bedeutung. Den Schwerpunkt dieser Arbeit bildet die Entwicklung neuer katalytischer Reaktionen zur effektiven Verwertung ungesättigter Fettsäuren und ihrer Derivate durch isomerisierende Funktionalisierungen. Da sich die Doppelbindung in diesen Substraten an einer festgelegten Position befindet, ist nur eine begrenzte Anzahl von Reaktionen einsetzbar. Neue Möglichkeiten eröffnen sich durch die Verschiebung der Doppelbindung entlang der Kette in eine Position, die selektiv durch neue Methoden funktionalisiert werden kann. In dieser Arbeit wurden mehrere Übergangsmetallkatalysatoren zur schnellen Isomerisierung ungesättigter Fettsäurederivate entwickelt, die als Schlüsselkomponenten für drei neue katalytische Transformationen dienten: (1) Ein Silber-basiertes System erlaubt die direkte Lactonisierung freier Fettsäuren; (2) ein bifunktioneller Rhodiumkatalysator ermöglicht die isomerisierende Michael-Addition von Aryl- und Stickstoffnucleophilen an ungesättigte Fettsäureester; (3) ein vielseitiges Palladium/Ruthenium-System bewirkt die Umsetzung ungesättigter Fettsäurederivate in funktionalisierte Olefingemische. Diese Reaktionen zeichnen sich durch hohe Selektivitäten, gute bis exzellente Ausbeuten sowie Toleranz gegenüber funktionellen Gruppen aus. Sie erweitern das Methodenspektrum des Chemikers zur Nutzbarmachung von Oleochemikalien mittels Übergangsmetallkatalyse und eröffnen neue Wege zu bio-basierten Wertstoffen, die bisher nur auf petrochemischer Basis synthetisiert werden konnten.
Ländliche Räume stehen vor der vielschichtigen Herausforderung,
vom Wachstum der metropolitanen Räume nicht abgehängt zu werden.
Die durch die EU geförderte Regionalisierung verschiebt Handlungserfordernisse
zunehmend von der lokalen auf eine interkommunale sowie regionale
Ebene.
Zur Bewältigung der zentralen demografischen, sozialen und
ökonomisch-strukturellen Aufgabenstellungen bedarf es der konsequenten
und zielorientierten Bündelung aller regionalen Kräfte.
In der Regionalentwicklung ist derweil jedoch festzustellen, dass
sich zahlreiche regionale Initiativen etablieren, die in räumlicher
und thematischer Überschneidung parallel zueinander Regionalentwicklung
betreiben, ohne miteinander abgestimmt zu sein.
Eine koordinierte Ausrichtung auf gemeinsame Ziele der Regionalentwicklung
und mit Blick auf eine gesamtregionale Profilierung erfolgt nicht. Dies steht
dem Anstreben nach einer koordinierten Regionalentwicklung kontraproduktiv
entgegen.
Ländliche Entwicklungsinitiativen wie insbesondere LEADER sind ihren
ursprünglich landwirtschaftlich-stämmigen Kinderschuhen entwachsen.
Ihre regionalen Entwicklungskonzepte, Projekte und Maßnahmen zeigen in
weiten Teilen regionale Wirkungsweise.
Weisen konkrete LEADER-Projekte Raumbedeutsamkeit auf, dann kann sich die
für den Raum jeweils verantwortliche Regionalplanung auf raumordnungsrechtliche
Kooperationslegitimationen berufen.
Solche Kooperationen zwischen LEADER und Regionalplanung finden in der
aktuellen Praxis der Regionalentwicklung jedoch nicht statt. Die daraus resultierenden
‚Parallelstrukturen der Regionalentwicklung’ stehen der Forderung nach einer Bündelung
der regionalen Kräfte direkt entgegen.
Mit Blick auf die Lösung der benannten demografischen, sozialen oder wirtschaftlichen
Herausforderungen im ländlichen Raum ist eine abgestimmte koordinierte Regionalentwicklung
jedoch unbedingt erforderlich. Nicht zuletzt kann durch optimierte Kooperationsstrukturen
im regionalen Raum beispielsweise die Effizienz von generierten Fördermitteln wesentlich
gesteigert werden. Nur durch die Effizienz der Fördermittel und der Entwicklungsstrategien
wiederum können synergetische Prozesse initiiert werden und die ländlichen Räume als
gemeinsamer Potenzialraum profitieren.
Mit der Optimierung der organisatorischen Rahmenbedingungen zum Miteinander von Regionalplanung
und ländlichen regionalen Entwicklungsprozessen (neben LEADER vor allem ILE) können
strategische Allianzen der Regionalentwicklung gefördert werden.
Bleiben diese wichtigen Weichenstellungen künftig weiterhin aus, könnten die ländlichen Räume
zunehmend an Bedeutung verlieren. Nur durch die gebotene organisatorische und thematische Bündelung
regionaler Initiativen und Ressourcen sind die Herausforderungen bestmöglich zu meistern und eine
koordinierte Regionalentwicklung praktikabel.
Development of New Methods for the Synthesis of Aldehydes, Arenes and Trifluoromethylated Compounds
(2012)
In the 1st project, successful development of 2nd generation of a palladium catalyst for the selective hydrogenation of carboxylic acids to aldehydes was accomplished. This project was done in cooperation with Dipl. Chem. Thomas Fett from Boeringer Ingelheim, Austria. The new catalyst is highly effective for the conversion of diversely functionalized aromatic, heteroaromatic and aliphatic carboxylic acids to the corresponding aldehydes in the presence of pivalic anhydride at 5 bar hydrogen pressure, which was otherwise achieved either at 30 bar of hydrogen pressure or by using waste intensive hypophosphite bases as reducing agent. Our method has increased the synthetic importance of this valuable transformation. Selective hydrogenation of carboxylic acids to the corresponding aldehydes is now possible with industrial hydrogenation equipment as well as laboratory scale glass autoclaves. It might also convince the synthetic organic chemists to use this transformation for routine aldehyde synthesis in the laboratories.
In the 2nd project, a microwave assisted Cu-catalyzed protodecarboxylation of arenecarboxylic acids to arenes is achieved. This work was done in collaboration with Dipl. Chem. Filipe Manjolinho under the supervision of Dr. Nuria Rodríguez. In the presence of 1-5 mol% of inexpensive CuI/1,10-phenanthroline catalyst generated in situ under microwave radiations, diversely functionalized arenes and heteroarene carboxylic acids have been decarboxylated to the corresponding arenes in good yields at 190 °C in 5-15 min. The loss of volatile arenes with the release of CO2 is controled by the use of sealed high pressure resistant microwave vessels. These reactions are highly beneficial for parallel synthesis in drug discovery due to their short reaction time. Microwave technology will also help in the future to develop more effective catalysts for protodecarboxylation rections.
Based on the microwave assisted protodecarboxylation strategy, decarboxylative coupling of arenecarboxylic acids with aryl triflates and tosylates was also conducted under microwave radiation which provided higher yields of the corresponding biphenyls from deactivated substrates in short reaction time compared to the conventional heating.
In the 3rd project, crystalline, potassium (trifluoromethyl)trimethoxyborate was successfully applied for the synthesis of benzotrifluorides under the oxidative conditions. This project was done in cooperation with Dipl. Chem. Annette Buba. In the presence of Cu(OAc)2 and molecular oxygen, arylboronates were coupled with K+[CF3B(OMe)3] in DMSO at 60 °C. A variety of benzotriflurides was synthesized in good yields under the optimized reaction conditions. This protocol for the oxidative trifluoromethylation of arylboronates is the base for the development of decarboxylative trifluoromethylation reaction of arenecarboxylic acids.
The 4th project discloses the simple and straightforward synthesis of trifluoromethylated alcohols by nucleophilic addition of potassium (trifluoromethyl)trimethoxyborate to carbonyl compounds. This project was done in cooperation with Dr. Thomas Knauber and Dipl. Chem. Annette Buba. In the presence of K+[CF3B(OMe)3] in THF at 60 °C, diversely functionalized aldehydes and ketones were successfully converted into the corresponding trifluoromethylated alcohols.
The 3rd and 4th projects demonstrate the successful establishment of crystalline and shelf stable potassium (trifluoromethyl)trimethoxyborate as highly versatile CF3-source in nucleophilic trifluoromethylation reactions. These new protocols are characterized by their user-friendliness and broad applicability under mild reaction conditions, thus they are beneficial for late stage introduction of CF3-group into organic molecules.
Die weltweite Verbreitung Penicillin-resistenter Bakterienstämme, darunter auch S. pneumoniae, stellt ein erhebliches medizinisches Problem dar. Resistenzen gegen Antibiotika können mittels horizontalem Gentransfer zwischen verschiedenen Streptokokken-Spezies ausgetauscht und somit verbreitet werden. In diesem Zusammenhang ist es wichtig die Vorgänge bei der Entstehung und Ausbreitung der β-Lactamresistenz zu verstehen. Im Fokus dieser Arbeit stand die Analyse des horizontalen Gentransfers zwischen den beiden Spezies Streptococcus mitis und Streptococcus pneumoniae und die daraus resultierende Entwicklung der β-Lactamresistenz.
Ausgangspunkt dieser Arbeit war die CCCB-Transformantenfamilie, welche durch die sukzessive Transformation von S. pneumoniae R6 mit chromosomaler DNA von S. mitis B6 und Selektion mit β-Lactamantibiotika generiert wurde. Dabei konnten bisher ungeklärte Faktoren der Resistenzentwicklung dieser Stämme identifiziert werden. Im Rahmen dieser Arbeit wurde eindeutig bewiesen, dass PBP2a in Kombination mit PBP2x aus S. mitis B6 einen entscheidenden Beitrag zur β-Lactamresistenz leistet.
Ein weiterer Schwerpunkt dieser Arbeit bestand in der Charakterisierung der Ursache des Resistenzunterschieds zwischen CCCB und CCCO. Diese zwei hochresistenten Stämme der vierten Transformationsstufe weisen scheinbar das gleiche Profil nieder-affiner Varianten aller fünf hochmolekularen PBP auf. Es konnte im Zuge dieser Arbeit gezeigt werden, dass das murM Gen aus S. mitis B6 lediglich in CCCB ausgetauscht wurde. Weiterführende Experimente bestätigten, dass sowohl MurMB6 als auch MurMHu17 aus einem resistenten S. pneumoniae Isolat, das über einen nahezu identischen Mosaikblock wie MurMB6 verfügt, erhöhte β-Lactamresistenz vermitteln. Das Mosaik-MurMB6 trägt somit entscheidend zur höheren Resistenz von CCCB bei. Zudem wurde nachgewiesen, dass der Resistenzunterschied zwischen CCCB und CCCO zusätzlich durch die Anwesenheit des kompletten PBP2bB6 in CCCB verursacht wird. Dabei konnte herausgestellt werden, dass die Aminosäuresubstitutionen des C-Terminus von PBP2bB6, die in CCCO nicht vorhanden sind, eine zentrale Rolle bei der Entwicklung von β-Lactamresistenz spielen.
Ein weiterer Fokus dieser Arbeit lag auf der Identifizierung möglicher neuer Resistenzdeterminanten, welche von S. mitis B6 auf den bereits hochresistenten Stamm CCCB übertragen werden könnten. Durch die Transformation chromosomaler S. mitis B6 DNA in CCCB und Selektion mit diversen β-Lactamantibiotika konnten Stämme mit erhöhter β-Lactamresistenz isoliert werden. DNA-Microarray-Analysen dieser CCCB-Derivate dienten der Detektion möglicher übertragener Gene. Anstelle ausgetauschter, intakter Genloci zeigten diese Mutanten jedoch die Inaktivierung der Gene spr0683 bzw. spr1851. Im Rahmen dieser Arbeit wurde gezeigt, dass der beobachtete Resistenzanstieg aus der Deletion dieser beiden Gene resultiert. Beide Gene kodieren für hypothetische Proteine mit potentiellen Nukleinsäure-bindenden R3H- bzw. KH-Domänen. Die genaue Funktion beider Domänen ist nicht bekannt. Transkriptionsanalysen der Deletionsderivate von spr0683 und spr1851 dienten als Screening-Methode für einen möglichen durch das Fehlen der Gene beeinflussten Effekt auf transkriptioneller Ebene. Die veränderte Genexpression einer möglichen Resistenzdeterminante (ClpL) deutete zunächst auf einen möglichen Zusammenhang mit den Resistenzphänotypen der Deletions-derivate hin. Weiterführende Versuche widerlegten dies jedoch. Zukünftige Untersuchungen müssten noch offene Fragen hinsichtlich der potentiellen Funktion der beiden hypothetischen Proteine klären.
On Gyroscopic Stabilization
(2012)
This thesis deals with systems of the form
\(
M\ddot x+D\dot x+Kx=0\;, \; x \in \mathbb R^n\;,
\)
with a positive definite mass matrix \(M\), a symmetric damping matrix \(D\) and a positive definite stiffness
matrix \(K\).
If the equilibrium in the system is unstable, a small disturbance is enough to set the system in motion again. The motion of the system sustains itself, an effect which is called self-excitation or self-induced vibration. The reason behind this effect is the presence of negative damping, which results for example from dry friction.
Negative damping implies that the damping matrix \(D\) is indefinite or negative definite. Throughout our work, we assume \(D\) to be indefinite, and that the system possesses both stable and unstable modes and thus is unstable.
It is now the idea of gyroscopic stabilization to mix the modes of a system with indefinite damping such
that the system is stabilized without introducing further
dissipation. This is done by adding gyroscopic forces \(G\dot x\) with a suitable
skew-symmetric matrix \(G\) to the left-hand side. We call \(G=-G^T\in\mathbb R^{n\times n}\) a gyroscopic stabilizer for
the unstable system, if
\(
M\ddot x+(D+ G)\dot x+Kx=0
\)
is asymptotically stable. We show the existence of \(G\) in space dimensions three and four.
SecB is a homotetrameric cytosolic chaperone that forms part of the protein translocation machinery in E. coli. Due to SecB, nascent polypeptides are maintained in an unfolded translocation-competent state devoid of tertiary structure and thus are guided to the translocon. In vitro SecB rapidly binds to a variety of ligands in a non-native state. We have previously investigated the bound state conformation of the model substrate bovine pancreatic trypsin inhibitor (BPTI) as well as the conformation of SecB itself by using proximity relationships based on site-directed spin labeling and pyrene fluorescence methods. It was shown that SecB undergoes a conformational change during the process of substrate binding. Here, we generated SecB mutants containing but a single cysteine per subunit or an exposed highly reactive new cysteine after removal of the nearby intrinsic cysteines. Quantitative spin labeling was achieved with the methanethiosulfonate spin label (MTS) at positions C97 or E90C, respectively. Highfield (W-band) electron paramagnetic resonance (EPR) measurements revealed that with BPTI present the spin labels are exposed to a more polar/hydrophilic environment. Nanoscale distance measurements with double electron-electron resonance (DEER) were in excellent agreement with distances obtained by molecular modeling. Binding of BPTI also led to a slight change in distances between labels at C97 but not at E90C. While the shorter distance in the tetramer increased, the larger diagonal distance decreased. These findings can be explained by a widening of the tetrameric structure upon substrate binding much like the opening of two pairs of scissors.
Die vorliegende Arbeit beschreibt die Trennung von kurzkettigen Alkan/Alken-Gemischen an nanostrukturierten porösen Adsorbentien. Zu diesem Zweck wurden unterschiedliche metallorganische Koordinationspolymere und Zeolithe synthetisiert und charakterisiert. Zur Untersuchung des Adsorptionsverhaltens dieser Adsorbentien wurden Adsorptionsisothermen von C2-, C3- und C4-Kohlenwasserstoffen bei verschiedenen Temperaturen gemessen. Die Messung der Adsorption der reinen Kohlenwasserstoffe ergab, dass die adsorbierte Stoffmenge mit der spezifischen Oberfläche des Adsorbens korreliert, sowie von der kritischen Temperatur des Adsorptivs abhängt und in der Reihenfolge C2 < C3 < C4 zunimmt. Eine Ausnahme hiervon bilden flexible metallorganische Koordinationspolymere, welche Atmungs- bzw. Porenöffnungseffekte zeigen. Die Isothermen dieser Materialien weisen Sprünge auf, wobei diese jedoch abhängig vom Druck, vom Adsorptiv und von der Temperatur sind. Die Trennung von Alkan/Alken-Gemischen an den hergestellten Adsorbentien wurde in einem kontinuierlich durchströmten Festbettadsorber untersucht. Es zeigten sich unterschiedliche Trennfaktoren in Abhängigkeit von der Porenöffnung und der Gerüststruktur der Adsorbentien. Die Untersuchung der Desorption der Kohlenwasserstoffe von Cu\(_3\)(btc)\(_2\) ergab, dass der Desorptionsprozess bei Raumtemperatur nur sehr langsam verläuft. Es zeigte sich, dass die zur Desorption erforderliche Temperatur nimmt steigender Kohlenstoffzahl des Kohlenwasserstoffs zunimmt.
In this thesis we outline the Kerner's 3-phase traffic flow theory, which states that the flow of vehicular traffic occur in three phases i.e. free flow, synchronized flow and wide moving jam phases.
A macroscopic 3-phase traffic model of the Aw-Rascle type is derived from the microscopic Speed Adaptation 3-phase traffic model
developed by Kerner and Klenov [J. Phys. A: Math. Gen., 39(2006), pp. 1775-1809 ].
We derive the same macroscopic model from the kinetic traffic flow model of Klar and Wegener [SIAM J. Appl. Math., 60(2000), pp. 1749-1766 ] as well as that of Illner, Klar and Materne [Comm. Math. Sci., 1(2003), pp. 1-12 ].
In the above stated derivations, the 3-phase traffic theory is constituted in the macroscopic model through a relaxation term.
This serves as an incentive to modify the relaxation term of the `switching curve' model of Greenberg,
Klar and Rascle [SIAM J. Appl. Math.,63(2003), pp.818-833 ] to obtain another macroscopic 3-phase traffic model, which is still of the Aw-Rascle type.
By specifying the relaxation term differently we obtain three kinds of models, namely the macroscopic Speed Adaptation,
the Switching Curve and the modified Switching Curve models.
To demonstrate the capability of the derived macroscopic traffic models to reproduce the features of 3-phase traffic theory, we simulate a
multi-lane road that has a bottleneck. We consider a stationary and a moving bottleneck.
The results of the simulations for the three models are compared.
This thesis generalizes the Cohen-Lenstra heuristic for the class groups of real quadratic
number fields to higher class groups. A "good part" of the second class group is defined.
In general this is a non abelian proper factor group of the second class group. Properties
of those groups are described, a probability distribution on the set of those groups is in-
troduced and proposed as generalization of the Cohen-Lenstra heuristic for real quadratic
number fields. The calculation of number field tables which contain information about
higher class groups is explained and the tables are compared to the heuristic. The agree-
ment is close. A program which can create an internet database for number field tables is
presented.
Protonentransferkoordinaten sind von entscheidender Bedeutung in der Photochemie, wobei eine Interpretation über IR-Spektroskopie in Kombination mit theoretischen Analysen erfolgt.
Die starke Anharmonizität von Protonentransferkoordinaten macht eine Beschreibung von z.B. OH-Streckschwingungen in der harmonischen Näherung oft selbst unter Zuhilfenahme von Skalierungsfaktoren unmöglich. Im Rahmen dieser Dissertation wurde die zweidimensionale Potenzialhyperfläche von 2,5-Dihydroxybenzoesäure entlang der Protonentransferkoordinate im S1 \((^1\pi\pi^*)\)-Zustand mit der CASPT2-Methode berechnet und die zweidimensional gekoppelte Schwingungsschrödingergleichung gelöst. Hierbei konnte gezeigt werden, dass DHB im S1-Zustand keinen Protonentransfer, sondern eine Wasserstoffdislokation aufweist, d.h. die Hyperfläche über nur ein Minimum verfügt. Auch der Effekt der Kopplung in Form einer deutlichen Rotverschiebung der Frequenzen konnte gezeigt werden. Für 3-Hydroxyflavon wurden die Potenzialhyperflächen der Protonentransferkoordinaten in einer, zwei und drei Dimensionen für den elektronischen Grundzustand (S0) mit DFT und den S1 \((^1\pi\pi^*)\)-Zustand mit TDDFT bestimmt. Die zugehörigen gekoppelten Schwingungsschrödingergleichungen wurden in einer Basis von Hermite-Funktionen mit dem Ritzschen Variationsverfahren gelöst. Hierbei konnte in allen drei Modellen (ein-, zwei- und dreidimensional) gezeigt werden, dass es sich bei den im OH-Streckschwingungsbereich (2750-3800 cm\(^{-1}\)) gemessenen Frequenzen um Obertöne handelt. Die Protonentransferpfade konnten ebenfalls eindeutig bestimmt werden.
Die Bildung anionischer Kobaltkomplexe mit alkoholischen Liganden wird durch Wasserstoffbrücken gesteuert. Durch DFT-Rechnungen konnten den im AK Gerhards gemessenen IR-Spektren Strukturen zugeordnet werden. Durch die starke Abhängigkeit der Strukturen der Kobaltcluster von ihrer Spinmultiplizität gelang auch eine Zuordnung der Strukturen zu Multiplizitäten. Somit konnte theoretisch gezeigt werden, dass es durch IR-Spektroskopie möglich ist, Spins von Übergangsmetallkomplexen zu bestimmen. Darüber hinaus wurde der Einfluss der Entropie auf die Stabilitäten der möglichen Konformere der Kobaltkomplexe in Abhängigkeit der Temperatur untersucht werden. Hierbei konnte gezeigt werden, dass mit zunehmender Temperatur eine einzelne Anlagerung der Liganden an den Metallkern bevorzugt wird.
The increasing complexity of modern SoC designs makes tasks of SoC formal verification
a lot more complex and challenging. This motivates the research community to develop
more robust approaches that enable efficient formal verification for such designs.
It is a common scenario to apply a correctness by integration strategy while a SoC
design is being verified. This strategy assumes formal verification to be implemented in
two major steps. First of all, each module of a SoC is considered and verified separately
from the other blocks of the system. At the second step – when the functional correctness
is successfully proved for every individual module – the communicational behavior has
to be verified between all the modules of the SoC. In industrial applications, SAT/SMT-based interval property checking(IPC) has become widely adopted for SoC verification. Using IPC approaches, a verification engineer is able to afford solving a wide range of important verification problems and proving functional correctness of diverse complex components in a modern SoC design. However, there exist critical parts of a design where formal methods often lack their robustness. State-of-the-art property checkers fail in proving correctness for a data path of an industrial central processing unit (CPU). In particular, arithmetic circuits of a realistic size (32 bits or 64 bits) – especially implementing multiplication algorithms – are well-known examples when SAT/SMT-based
formal verification may reach its capacity very fast. In cases like this, formal verification
is replaced with simulation-based approaches in practice. Simulation is a good methodology that may assure a high rate of discovered bugs hidden in a SoC design. However, in contrast to formal methods, a simulation-based technique cannot guarantee the absence of errors in a design. Thus, simulation may still miss some so-called corner-case bugs in the design. This may potentially lead to additional and very expensive costs in terms of time, effort, and investments spent for redesigns, refabrications, and reshipments of new chips.
The work of this thesis concentrates on studying and developing robust algorithms
for solving hard arithmetic decision problems. Such decision problems often originate from a task of RTL property checking for data-path designs. Proving properties of those
designs can efficiently be performed by solving SMT decision problems formulated with
the quantifier-free logic over fixed-sized bit vectors (QF-BV).
This thesis, firstly, proposes an effective algebraic approach based on a Gröbner basis theory that allows to efficiently decide arithmetic problems. Secondly, for the case of custom-designed components, this thesis describes a sophisticated modeling technique which is required to restore all the necessary arithmetic description from these components. Further, this thesis, also, explains how methods from computer algebra and the modeling techniques can be integrated into a common SMT solver. Finally, a new QF-BV SMT solver is introduced.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
Im Bereich der Automobilelektronik ist eine Zunahme an Fahrerassistenzsystemen zu bemerken, die den Fahrer neben einer warnenden Funktion durch autonomes aktives Eingreifen in seiner Fahraufgabe unterstützen. Dadurch entsteht eine hohe Anforderung an die funktionale Sicherheit dieser Systeme, um ein einwandfreies Verhalten in allen Fahrsituationen zu garantieren und sicherheitskritische Situationen zu vermeiden oder zu entschärfen. Die funktionale Sicherheit derartiger Fahrerassistenzsysteme muss u. a. durch adäquate Testmethoden und einen effizienten Umgang damit innerhalb der etablierten industriellen Entwicklungsprozesse erhöht und sichergestellt werden.
Diese Arbeit bietet einen Überblick über existierende wissenschaftliche wie industrielle Ansätze zum Testen von Automobilelektronik sowie über aktive Fahrerassistenzsysteme. Der Schwerpunkt wird dabei auf diejenigen Systeme gelegt, die Informationen über ihre Umgebung aus Kamerasensoren gewinnen. Aus der Herausforderung, die funktionale Absicherung derart sicherheitskritischer Systeme zu gewährleisten, werden spezifische Anforderungen abgeleitet. Aus dem „Delta“ zwischen Anforderungen und Stand der Technik ergibt sich ein Handlungsbedarf, um neue Methoden und für deren Anwendung nötige Vorgehensweisen und Werkzeuge zu erforschen bzw. bestehende zu erweitern.
Die Methode des „Visual Loop Tests“ wird dafür vorgestellt. Sie kann durch die Anwendung sog. Grafik-Engines als neuer Bestandteil der Test-Technologien zur Absicherung eingesetzt werden. Dabei werden fotorealistische Grafiken zur Stimulation der Assistenzsysteme erzeugt. Die für die effiziente Anwendung dieser Technologien benötigten neuen Vorgehensweisen zur Beschreibung und Erzeugung von Testfällen in einem visuell repräsentierbaren Format werden erarbeitet.
Dadurch können moderne Assistenzfunktionen gleichzeitig effizienter, zuverlässiger, sicherer und kostengünstiger entwickelt werden und die Sicherheit auf den Straßen wird erhöht. Die erste empirische Bewertung im Rahmen der prototypischen Umsetzung bestärkt diese Einschätzung.
In urban planning, both measuring and communicating sustainability are among the most recent concerns. Therefore, the primary emphasis of this thesis concerns establishing metrics and visualization techniques in order to deal with indicators of sustainability.
First, this thesis provides a novel approach for measuring and monitoring two indicators of sustainability - urban sprawl and carbon footprints – at the urban neighborhood scale. By designating different sectors of relevant carbon emissions as well as different household categories, this thesis provides detailed information about carbon emissions in order to estimate impacts of daily consumption decisions and travel behavior by household type. Regarding urban sprawl, a novel gridcell-based indicator model is established, based on different dimensions of urban sprawl.
Second, this thesis presents a three-step-based visualization method, addressing predefined requirements for geovisualizations and visualizing those indicator results, introduced above. This surface-visualization combines advantages from both common GIS representation and three-dimensional representation techniques within the field of urban planning, and is assisted by a web-based graphical user interface which allows for accessing the results by the public.
In addition, by focusing on local neighborhoods, this thesis provides an alternative approach in measuring and visualizing both indicators by utilizing a Neighborhood Relation Diagram (NRD), based on weighted Voronoi diagrams. Thus, the user is able to a) utilize original census data, b) compare direct impacts of indicator results on the neighboring cells, and c) compare both indicators of sustainability visually.
Gegenstand der vorliegenden Dissertation war die Erarbeitung eines besseren Verständnisses für ein grundlegendes Konzept der molekularen Erkennung - den Intra-Rezeptor-Wechselwirkungen. In zwei Projekten sollte dies mit Hilfe von Modellsystemen verwirklicht werden.
Im ersten Projekt wurden verschiedene Bis(kronenether)-Derivate synthetisiert, um den Einfluss der Intra-Rezeptor-Wechselwirkungen systematisch untersuchen zu können. Die Synthese lieferte die Derivate als Gemisch von Diastereomeren, wobei für ein Derivat mit Camphanoylsubstituenten die Trennung der Diastereomere nach chromatographischer Trennung erfolgreich realisiert werden konnte. Die lösungsmittelabhängige Charakterisierung der Kaliumkomplexierung der Bis(kronenether)-Derivate in Methanol/Wasser-Gemischen erfolgte mittels isothermer Titrationskalorimetrie (ITC). Es zeigten sich unterschiedliche Einflüsse in den Enthalpie- und Entropiebeiträgen der einzelnen Derivate, welche sich allerdings aufgrund von Enthalpie-Entropie-Kompensation nicht in unterschiedlichen Werten für ∆G äußern. Darauf aufbauend wurde ein weiteres Modellsystem konzipiert, welches einen Azakronenether als Grundkörper aufweist. Die Ausgangsverbindung hierfür wurde synthetisiert und eine Kristallstruktur des Natriumiodid-Komplexes ergab wichtige strukturelle Hinweise für die Durchführbarkeit weiterer Arbeiten.
Im zweiten Projekt sollte untersucht werden, ob die Eigenschaften eines bekannten cyclischen Hexapeptids, bei Bindung von Anionen Intra-Rezeptor-Wechselwirkungen auszunutzen, auf ein strukturell ähnliches System übertragen werden können. Ein cyclisches Pseudohexapeptid sowie das kleinere cyclische Pseudotetrapeptid, in welchen 1,5-disubstituierte 1,2,3-Triazole die cis-Amide an den Prolinuntereinheiten der entsprechenden cyclischen Peptide imitieren, wurden synthetisiert. Die hohe konformationelle Übereinstimmung der cyclischen Pseudopeptide zu den cyclischen Peptiden konnte über Kristallstrukturanalyse und 1H-NMR spektroskopische Untersuchungen nachgewiesen werden.
Die Bindungseigenschaften des cyclischen Pseudohexapeptids gegenüber Anionen wurden mit Hilfe der NMR-Spektroskopie und der Isothermen Titrationskalorimetrie (ITC) untersucht. Das cyclische Pseudohexapeptid bindet anorganische Anionen mit außergewöhnlich hohen Bindungskonstanten in kompetitiven Wasser/Methanol Lösungsmittelgemischen unter Ausnutzung von Intra-Rezeptor-Wechselwirkungen. Des Weiteren konnte gezeigt werden, dass die intrinsische Anionenaffinität von diesem Derivat größer ist als bei dem cyclischen Hexapeptid.
This research work focuses on the generation of a high resolution digital surface model featuring complex urban surface characteristics in order to enrich the database for runoff simulations of urban drainage systems. The discussion of global climate change and its possible consequences have taken centre stage over the last decade. Global climate change has triggered more erratic weather patterns by causing severe and unpredictable rainfall events in many parts of the world. The incidence of more frequent rainfall has led to the problem of increased flooding in urban areas. The increased property values of urban structures and threats to people's personal safety have hastened the demand for a detailed urban drainage simulation model for accurate flood prediction. Although the use of 2D hydraulic modelling approach in rural floodplains is in practice for quite a long time, the use of the same approach in urban floodplains is still in its infancy. The reason is mainly due to the lack of a high resolution topographic model describing urban surface characteristics properly.
High resolution surface data describing hydrologic and hydraulic properties of complex urban areas are the prerequisite to more accurately describing and simulating the flood water movement and thereby taking adequate measures against urban flooding. Airborne LiDAR (Light detection and ranging) is an efficient way of generating a high resolution Digital Surface Model (DSM) of any study area. The processing of high-density and large volume of unstructured LiDAR data is a difficult and time-consuming task towards generating fine resolution spatial databases when considering only human intervention. The application of robust algorithms in terms of processing this massive volume of data can significantly reduce the data processing time and thereby increase the degree of automation as well as accuracy.
This research work presents a number of techniques pertaining to processing, filtering and classification of LiDAR point data in order to achieve higher degree of automation and accuracy towards generating a high resolution urban surface model. This research work also describes the use of ancillary datasets such as aerial images and topographic maps in combination with LiDAR data for feature detection and surface characterization. The integration of various data sources facilitates detailed modelling of street networks and accurate detection of various urban surface types (e.g. grasslands, bare soil and impervious surfaces).
While the accurate characterization of various surface types contributes to the better modelling of rainfall runoff processes, the application of LiDAR-derived fine resolution DSM serves as input to 2D hydraulic models and capable of simulating surface flooding scenarios in cases the sewer systems are surcharged.
Thus, this research work develops high resolution spatial databases aiming at improving the accuracy of hydrologic and hydraulic databases of urban drainage systems. Later, these databases are given as input to a standard flood simulation software in order to: 1) test the suitability of the databases for running the simulation; 2) assess the performance of the hydraulic capacity of urban drainage systems and 3) predict and visualize the surface flooding scenarios in order to take necessary flood protection measures.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss- Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert, sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln. Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen. Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen Wissensstand abbildet und der Ingenieurpraxis gerecht wird. Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007) sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien. Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich. Laborversuche sollten jedoch gesondert bewertet werden. Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet, wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen. Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen, dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen Kriterien unterschiedliche Dimensionierungen ableiten lassen.
Sekretionssysteme ermöglichen Bakterien nicht nur die Kommunikation mit ihrer Umwelt, sie spielen auch eine große Rolle in der Virulenz. Mit Virulenz werden auch Typ VII-Sekretionssysteme in Verbindung gebracht, die ausschließlich in Gram-positiven Bakterien vorkommen. Substrate dieser Systeme sind u.a. kleine Proteine mit einem zentralen WXG-Motiv, die sogenannten WXG-100 Proteine, die im gleichen Locus kodiert werden. Das ESX-1 System, das u.a. in M. tuberculosis und S. aureus vorkommt, ist ein bisher vor allem in diesen Organismen untersuchtes Typ VII-Sekretionssystem.
Im Gegensatz zu seinem pathogenen Verwandten S. pneumoniae besitzt S. oralis Uo5 Gene, die für ein ESX-1 Sekretionssystem kodieren. Bislang wurde ein solches System in Strepto-kokken nicht untersucht und es war unklar, ob dieses exprimiert wird und welche Funktion es in diesen Bakterien erfüllt.
Im Fokus dieser Arbeit stand nun die Charakterisierung des ESX-1 Sekretionssystems von S. oralis Uo5 und dessen Verbreitung in anderen Streptokokken. Dabei belegten Transkrip-tionsstudien, dass ein interner Terminator zwischen dem ersten und zweiten Gen (esxA und esaA) die Transkription negativ beeinflusst. Trotz der niedrigen Transkriptmenge der downstream des Terminators gelegenen Gene konnte die Funktionalität des Systems durch den Nachweis der beiden WXG-100 Proteine EsxA und EsxB im Cytoplasma und im Kultur-medium bestätigt werden. Der Nachweis der WXG-100 Proteine erfolgte mit Antiseren, die im Rahmen dieser Arbeit gegen die rekombinant hergestellten und aus E. coli isolierten WXG-100 Proteine generiert worden waren. Durch eine Deletion des Gens, das in anderen Organismen für eine FtsK/SpoIIIE-ATPase kodiert, wurde gezeigt, dass auch dieses Protein in S. oralis Uo5 für die Sekretion der WXG-100 Proteine essentiell ist.
Die Daten von CD-spektroskopischen Analysen lassen vermuten, dass EsxA und EsxB, wie in anderen Organismen bereits gezeigt, als lineare Proteine vorliegen, die hauptsächlich aus α-Helices bestehen. Diese Daten zeigen auch, dass EsxA im Gegensatz zu EsxB eine höhere Stabilität besitzt. Durch die Kombination von Gelfiltration und Crosslinking-Experimenten mittels Glutaraldehyd konnte die Bildung von EsxA-Homodimeren bestätigt werden.
Mit Hilfe von Antikörpern konnte EsxA in einer Reihe von S. oralis Stämmen nachgewiesen werden; die Verbreitung des ESX-1 Systems konnte durch PCR-Analysen bestätigt werden. Eine vergleichende Analyse bekannter Genomdaten in silico bestätigt, dass dieses Cluster in verschiedenen Streptokokken-Spezies vorkommt. Eine phylogenetische Analyse der Gene esxA und essC im Vergleich mit dem in allen Bakterien konservierten Gen gyrA verdeutlicht, dass das ESX-1 System als Teil des akzessorischen Genoms angesehen werden kann, das sich über horizontalen Gentransfer verbreiten kann.
In dieser Arbeit wird somit zum ersten Mal ein Typ VII-Sekretionssystem in Streptokokken untersucht. Die Charakterisierung auf molekularer Ebene legt einen Grundstein für die Erforschung der Rolle des ESX-1 Systems in vivo.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag
zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken
reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der
hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss-
Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert,
sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse
in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand
der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln.
Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen.
Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine
detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches
für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand
wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen
verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen
Wissensstand abbildet und der Ingenieurpraxis gerecht wird.
Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am
RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007)
sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen
in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage
durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft
der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung
dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung
aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien.
Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen
vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich.
Laborversuche sollten jedoch gesondert bewertet werden.
Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes
und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe
Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen
belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des
Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet,
wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe
der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen
herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie
vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen.
Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf
die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen
wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen
Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen,
dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten
Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung
von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit
einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die
Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie
zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen
Kriterien unterschiedliche Dimensionierungen ableiten lassen.
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
Die Kopplung der Schalen mehrschichtiger Stahlbetonwandtafeln mit innenliegender
Wärmedämmung kann mit stabförmigen Verbindungsmitteln aus
glasfaserverstärktem Kunststoff (GFK) erfolgen. Diese Verankerungen weisen
gegenüber Edelstahlverankerungen Vorteile hinsichtlich der Dauerhaftigkeit und des
thermischen Verhaltens auf. Infolge der begrenzten Verformbarkeit der
Verbindungsmittel und zur Sicherstellung der Verankerung der Verbindungsmittel in
den Schalen sind für die Wandelemente neben den Nachweisen zur Tragfähigkeit
auch Nachweise im Grenzzustand der Gebrauchstauglichkeit zu führen.
Gegenstand der vorliegenden Arbeit ist die wirklichkeitsnahe Ermittlung der
Schnittgrößen in der Vorsatzschale und die Berechnung der Relativverschiebung
zwischen den Schalen als Grundlage der Nachweiseführung. Insbesondere bei
hohen, schlanken Wandelementen ist das Verbundtragverhalten unter Einbeziehung
der innenliegenden Wärmedämmschicht dieser Bauteile zu berücksichtigen.
In einem ersten Bearbeitungsschritt erfolgt ein umfangreiches Versuchsprogramm
zur Analyse des Last-Verformungsverhaltens der Verbundfuge unter
Scherbeanspruchung. Darauf basierend wird ein mechanisches Modell entwickelt,
das eine allgemeingültige Berechnung der Verbundfugensteifigkeit als Grundlage der
weiteren Untersuchungen ermöglicht.
Aufbauend auf diesen Erkenntnissen werden in einem zweiten Bearbeitungsschritt
Lösungen dargelegt, welche die Berechnung der Funktionsverläufe der Schnitt- und
Verformungsgrößen aus der Verbundtragwirkung ermöglichen. Grundlage ist das
gekoppelte Differentialgleichungssystem der Sandwichtheorie. Für relevante Lastfälle
und Lagerungsbedingungen werden geschlossene, analytische Gleichungen zur
Berechnung der Extremalwerte erarbeitet. Das Berechnungsmodell wird im Rahmen
einer Versuchsreihe an mehrschichtigen Stahlbetonplattenstreifen mit den
Versuchsergebnissen verifiziert. Zur Abgrenzung von Fällen, bei denen auf eine
aufwändige Berücksichtigung der Verbundtragwirkung verzichtet werden kann,
werden Parameterstudien durchgeführt und praxisrelevante Fälle ausgewertet.
Abschließend werden grafische Berechnungshilfsmittel zur Ermittlung der maximalen
Zustandsgrößen infolge der Verbundtragwirkung angegeben.
Im dritten Teil der Arbeit wird der spezielle Fall des Einflusses einer
Ortbetonverfüllung auf das Schnittkraft- und Verformungsverhalten mehrschichtiger
Stahlbetonwandelemente betrachtet. Im Ergebnis der Untersuchungen wird
festgestellt, dass der Betonierdruck eine dauerhafte, nicht zu vernachlässigende
Vorspannung der Verbindungsmittel zur Folge hat. Für die Bemessung der
Verbindungsmittel unter Zugbeanspruchung wird empfohlen, 40% des rechnerischen
Frischbetondrucks als Zugbeanspruchung auf die Verbindungsmittel anzusetzen.
Weiterführende Untersuchungen zum Einfluss der Fugenvorspannung auf die
Schnitt- und Verformungsgrößen infolge Verbundwirkung ergeben, dass diese nicht
signifikant ist.
Numerical Algorithms in Algebraic Geometry with Implementation in Computer Algebra System SINGULAR
(2011)
Polynomial systems arise in many applications: robotics, kinematics, chemical kinetics,
computer vision, truss design, geometric modeling, and many others. Many polynomial
systems have solutions sets, called algebraic varieties, having several irreducible
components. A fundamental problem of the numerical algebraic geometry is to decompose
such an algebraic variety into its irreducible components. The witness point sets are
the natural numerical data structure to encode irreducible algebraic varieties.
Sommese, Verschelde and Wampler represented the irreducible algebraic decomposition of
an affine algebraic variety \(X\) as a union of finite disjoint sets \(\cup_{i=0}^{d}W_i=\cup_{i=0}^{d}\left(\cup_{j=1}^{d_i}W_{ij}\right)\) called numerical irreducible decomposition. The \(W_i\) correspond to the pure i-dimensional components, and the \(W_{ij}\) represent the i-dimensional irreducible components. The numerical irreducible decomposition is implemented in BERTINI.
We modify this concept using partially Gröbner bases, triangular sets, local dimension, and
the so-called zero sum relation. We present in the second chapter the corresponding
algorithms and their implementations in SINGULAR. We give some examples and timings,
which show that the modified algorithms are more efficient if the number of variables is not
too large. For a large number of variables BERTINI is more efficient.
Leykin presented an algorithm to compute the embedded components of an algebraic variety
based on the concept of the deflation of an algebraic variety.
Depending on the modified algorithm mentioned above, we will present in the third chapter an
algorithm and its implementation in SINGULAR to compute the embedded components.
The irreducible decomposition of algebraic varieties allows us to formulate in the fourth
chapter some numerical algebraic algorithms.
In the last chapter we present two SINGULAR libraries. The first library is used to compute
the numerical irreducible decomposition and the embedded components of an algebraic variety.
The second library contains the procedures of the algorithms in the last Chapter to test
inclusion, equality of two algebraic varieties, to compute the degree of a pure i-dimensional
component, and the local dimension.
Ziel der vorliegenden Arbeit war es, Systeme mit Edukten und Produkten von
Veresterungsreaktionen in ionischen Flüssigkeiten (IF)zu untersuchen. Es wurden die
Reaktionen von Ethanol, 1-Propanol und 1-Butanol mit Essigsäure zu den entsprechenden
Estern: Ethylacetat, Propylacetat und Butylacetat betrachtet. Die drei sauren ionischen
Flüssigkeiten,1-Methylimidazoliumhydrogensulfat [HMIM][HSO4], 1-Ethyl-3-methylimidazoliumhydrogensulfat
[EMIM][HSO4] und 1-Butyl-3-methylimidazoliumhydrogensulfat
[BMIM][HSO4], dienten hier als Katalysator und Extraktionsmittel zur
Aufarbeitung des Reaktionsgemisches. Ziel war es auch, durch Extraktion mit diesen
ionischen Flüssigkeiten Reaktionsprodukt(e) aus dem Reaktionsgemisch zu entfernen und
ähnlich wie bei der Reaktivdestillation das Reaktionsgleichgewicht zu stören.
Daten über das flüssig-flüssig Phasengleichgewicht wurden gesammelt. Die Experimente
umfassten einerseits ternäre nichtreaktive Systeme bestehend aus Alkohol + Ester + IF und
Essigsäure + Ester + IF, andererseits wurden reaktive Fünfkomponentensysteme, die alle
Komponenten, beteiligt an der Reaktion, plus IF enthalten, bestimmt. Um die experimentellen
Daten auf ähnliche, nicht untersuchte, Systeme übertragen zu können wurde systematisch der
Einfluss mehrerer Parameter auf das Phasengleichgewicht untersucht, wie z.B. die Länge der
Alkylkette am Kation oder am Alkohol und die Temperatur. Aus den Messungen wurde klar,
dass mit steigender Alkylkette am Kation die Mischungslücken kleiner werden und
gleichzeitig die Löslichkeit der Edukte in der ionischen Phase verbessert wird. Eine längere
Alkylkette des Alkohols (und des entsprechenden Esters) bewirkt größere Zweiphasengebiete
und verbessert die Löslichkeit der Edukte in der organischen Phase. Da generell eine gewisse
Abhängigkeit zwischen Phasengleichgewicht und erreichten Reaktionsumsatz beobachtet
wurde, lassen sich die erzielbaren Ergebnisse bei bekanntem Phasengleichgewicht abschätzen.
Der Einfluss der Temperatur auf das flüssig-flüssig Gleichgewicht wurde nur für die ternären
Systeme untersucht.
Kinetische Versuche mit IF als Katalysator ergaben relativ enttäuschende Ergebnisse. Die
Hydrogensulfate erwiesen sich als schwache Katalysatoren für diese Reaktionen. In einem
großtechnischen Prozess werden deshalb zusätzliche Katalysatoren, wie Schwefelsäure o.ä.,
notwendig sein.
Aus den experimentellen Phasengleichgewichtsdaten und den Kinetikmessungen wurden
UNIQUAC- bzw. Kinetikansatz-Parameter durch Anpassung gewonnen. Um die reaktiven
Systeme zu simulieren, wurde ein mathematisches Modell, das Phasengleichgewicht und
Reaktionsgleichgewicht in einer Gegenstromextraktionskaskade berücksichtigt, in Matlab
implementiert.
Mehrere vielversprechende Anwendungen der untersuchten ionischen Flüssigkeiten wurden
simuliert und diskutiert. Während alle untersuchten Hydrogensulfate in der Lage sind, Wasser
aus dem Ester/Reaktionsgemisch zu extrahieren, kann man nur [EMIM][HSO4] und
[BMIM][HSO4] zur Entfernung von (kürzerkettigen) Alkoholen und Säuren verwenden. Es
wurden Reaktivextraktionsverfahren für die Herstellung von Ethylacetat konzipiert, die die
Eigenschaften der jeweiligen IF ausnutzen, um im Wesentlichen Wasser aus dem
Reaktionsgleichgewicht zu entfernen und z.B. reinere Produktströme oder höhere
Reaktionsumsätze zu erreichen. Beste Aussichten auf Erfolg von allen drei Salzen hat dabei
die IF [EMIM][HSO4], da im hier vorgeschlagenen Verfahren die wenigsten zusätzlichen
destillativen Trennschritte zu erwarten sind. Die Simulationen ergeben signifikante
Einsparung an Energiekosten gegenüber Reaktivdestillationsverfahren, da hier Energie
hauptsächlich nur zum Verdampfen von Wasser notwendig ist.
Die vorliegende Dissertation beschäftigt sich mit der strukturellen Untersuchung von photochemisch reaktiven Molekülen. Hierzu wurden verschiedene kombinierte IR/UV-Techniken in Molekularstrahlexperimenten verwendet.
Es wurde 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, 3-Hydroxychromon und als metallorganische Verbindung Bis(benzol)chrom im elektronisch angeregten Zustand untersucht. Mit 7-Hydroxy-4-methylcoumarin stand auch ein mikrosolvatisiertes, photochemisch aktives System im elektronischen Grundzustand im Fokus.
Im Rahmen dieser Arbeit wurde eine neue spektroskopische Methode entwickelt, welche die isomerenselektive Messung des IR-Spektrums im elektronisch angeregten Zustand ermöglicht. Diese Quadrupelresonanztechnik wird angewendet, sollte es durch isoenergetische Anregungsenergien zum Verlust der Isomerenselektivität der R2PI-Methode kommen.
Durch Anwendung einer IR/IR-Lochbrennmethode für den elektronischen Grundzustand sowie der neuen Quadrupelresonanztechnik für den elektronisch angeregten Zustand an 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, konnte erstmals der experimentelle Beweis erbracht werden, dass es im Molekularstrahlexperiment zur Anregung und Ionisation der beiden stabilsten Isomere kommt. Desweiteren wurden für die untersuchten elektronischen Zustände sowohl die IR-Banden zugeordnet als auch eine eindeutige strukturelle Zuordnung der Isomere getroffen.
Die Studien zu 3-Hydroxychromon belegen im Vergleich mit (TD-)DFT-Rechnungen, dass es nach elektronischer Anregung zu einer Protonentransferreaktion kommt. Es konnten direkte strukturelle Informationen des Monomers sowie der protonentransferierten Struktur gewonnen werden.
Mit den spektroskopischen Untersuchungen an Bis(benzol)chrom wurde gezeigt, dass sich die massen- und isomerenselektiven Methoden auch auf die Substanzklasse der metallorganischen Verbindungen anwenden lassen. Es gelang erstmals, direkte strukturelle Informationen von Organometallverbindungen im elektronischen Grundzustand als auch nach photochemischer Anregung mittels kombinierter IR/UV-Techniken zu gewinnen. Somit ist eine strukturelle Untersuchung von katalytisch aktiven Organometallverbindungen im elektronischen Grundzustand, wie auch nach photochemischer Anregung, möglich.
Ein weiterer Schwerpunkt dieser Arbeit bildet die Untersuchung von Mikrosolvatationseffekten. Hierzu wurden Wassercluster von 7-Hydroxy-4-methylcoumarin mit vier bis sechs schrittweise angelagerten Solvatmolekülen im elektronischen Grundzustand analysiert. Mithilfe von DFT-basierten Rechnungen wurden für jede Clustergröße verschiedene Bindungsmotive diskutiert und eine mögliche strukturelle Zuordnung getroffen.
Today, polygonal models occur everywhere in graphical applications, since they are easy
to render and to compute and a very huge set of tools are existing for generation and
manipulation of polygonal data. But modern scanning devices that allow a high quality
and large scale acquisition of complex real world models often deliver a large set of
points as resulting data structure of the scanned surface. A direct triangulation of those
point clouds does not always result in good models. They often contain problems like
holes, self-intersections and non manifold structures. Also one often looses important
surface structures like sharp corners and edges during a usual surface reconstruction.
So it is suitable to stay a little longer in the point based world to analyze the point cloud
data with respect to such features and apply a surface reconstruction method afterwards
that is known to construct continuous and smooth surfaces and extend it to reconstruct
sharp features.
Die Entwicklung ländlicher strukturschwacher Regionen wird von unterschiedlichen Rahmenbedingungen und Herausforderungen beeinflusst. Eine der zentralen Herausforderungen bildet hierbei die Europäische Integration. Obwohl die Kompetenz für Raumordnung nach wie vor in erster Linie bei der nationalen Ebene liegt, entfaltet die EU über ihre Strukturpolitik, ihre raumwirksamen Fachpolitiken und die ihr zugewiesenen Kompetenzen in anderen Bereichen eine zunehmende Bedeutung für die Entwicklung ländlicher strukturschwacher Regionen.
Anhand der im Rahmen dieser Dissertation durchgeführten Analysen wird dabei deutlich, dass die EU-Strukturpolitik die Regionalentwicklung, insbesondere im Bereich des Tourismus, auf vielfältige Weise sowohl direkt als auch indirekt beeinflusst. Dies vor allem in finanzieller Hinsicht durch die Finanzierung nahezu aller touristischen Projekte in der Region Westpfalz, sowie in konzeptioneller Hinsicht durch die Systematik der Programmplanung und des damit verbundenen Mehrwertes. Dabei werden die regionalen Akteure bei der Aufstellung von Entwicklungsstrategien (bspw. im Rahmen des LEADER-Ansatzes) zu einer intensiven Auseinandersetzung mit den spezifischen Stärken, Schwächen, Entwicklungsperspektiven und Entwicklungshemmnissen der Region geführt. Daher kann die EU-Strukturpolitik letztlich als wichtigste Finanzierungsquelle bei der Realisierung touristischer Projekte angesehen werden, zudem als wesentlicher Impulsgeber für deren Entwicklung und Gestaltung. Durch das Wissen um die Förderfähigkeit touristischer Projekte innerhalb der EU-Strukturpolitik wird schließlich die Motivation der regionalen Akteure gesteigert. Aufgrund dieser Erkenntnisse kann der Einfluss der EU-Strukturpolitik auf die Entwicklung des Tourismus als bedeutend und hoch bewertet werden.
Neben der Erfassung des Einflusses sollen darüber hinaus innerhalb dieser Dissertation Problemfelder und künftige Herausforderungen bei der Umsetzung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen aufgezeigt werden. Dabei wird die Finanzschwäche der öffentlichen Haushalte, die gerade in strukturschwachen Regionen besonders ausgeprägt ist, und die damit verbundenen Probleme bei der Sicherstellung des nationalen Finanzierungsanteils als zentrales Umsetzungsproblem sichtbar. Ebenso stellen in diesem Zusammenhang der gesteigerte Wettbewerb um die zur Verfügung stehenden Strukturmittel, das zunehmende Spannungsverhältnis zwischen Ausgleichs- und Wachstumsziel, teilweise zu enge inhaltlich-konzeptionelle Vorgaben seitens der EU-Kommission, sowie der hohe verwaltungstechnische Aufwand weitere Problemfelder bei der Umsetzung der EU-Strukturpolitik dar.
Aufbauend auf diesen Erkenntnissen werden abschließend am Beispiel des Untersuchungsraumes konzeptionelle Ansätze zur Weiterentwicklung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen formuliert. Dabei werden einige zentrale Prioritäten sichtbar, deren Umsetzung zur Steigerung der Effizienz von strukturpolitischen Maßnahmen beitragen kann. In diesem Zusammenhang ist insbesondere eine konsequente Regionalisierung innerhalb der EU-Strukturpolitik anzustreben, so dass letztlich die Region als Träger der EU-Strukturpolitik anzusehen ist. Weiterhin ist an dieser Stelle eine klare Aufgaben- und Kompetenzverteilung zwischen den verschiedenen Handlungs- und Gestaltungsebenen notwendig, dies vor allem in Hinblick auf die zentrale Zielsetzung der europäischen Strukturpolitik, des Abbaus von Disparitäten innerhalb der EU. Schließlich ist eine Reform der Fördermittelvergabe unabdingbar, damit künftig sowohl wachstumsstarke, als auch strukturschwache und sog. "Übergangsregionen" durch die EU-Strukturpolitik gleichermaßen berücksichtigt werden können, und somit ein Beitrag zum politischen, sozialen und wirtschaftlichen Zusammenhalt in Europa geleistet werden kann.
Demographischer Wandel und Daseinsvorsorge - Auswirkungen kommunaler Angebote auf die Wohnortwahl
(2011)
Mit dem demographischen Wandel ist innerhalb der nächsten Jahrzehnte ein zunehmender Rückgang der Bevölkerungszahl bei gleichzeitigem Ansteigen des Durchschnittsalters der Gesamtbevölkerung verbunden. Insbesondere der Rückgang der Bevölkerungszahl wird sich v.a. aufgrund von Migrationsbewegungen regional mit unterschiedlicher Geschwindigkeit und Intensität vollziehen. Bei einer sich wandelnden Bevölkerungsstruktur und einem ansteigenden Durchschnittsalter verändern sich auch die Anforderungen an die infrastrukturelle Ausstattung. Dies liegt auf der Hand: So benötigt eine alternde Bevölkerung mehr seniorengerechte Einrichtungen, dafür aber weniger Kindergärten und Schulen. Gleichzeitig bedeutet der Rückgang der Bevölkerungszahl eine niedrigere Auslastung und damit eine geringere Tragfähigkeit jeglicher Infrastrukturen. Kostensteigerungen sind zur Aufrechterhaltung der Funktionsfähigkeit damit nahezu unumgänglich. Es wird infolgedessen zukünftig verstärkt zu einem Wettbewerb der Kommunen um Einwohner (= Infrastrukturnutzer) kommen. Dabei dürften Familien mit Kindern eine besondere Schlüsselposition einnehmen. Häufig wird – insbesondere aus kommunalpolitischer Sicht – befürchtet, dass gerade diese Bevölkerungsgruppen nicht mehr zuziehen und sogar fortziehen würden, sobald Kindergärten und Schulen aufgrund sinkender Auslastungszahlen geschlossen werden müssen.
Vor diesem Hintergrund klärt die vorliegende Arbeit die Frage, ob örtlich betrachtet ein Zusammenhang zwischen der Breite und Qualität der vorgehaltenen Leistungen öffentlicher Daseinsvorsorge einerseits und der Migrationsbilanz andererseits besteht. In der Arbeit wird darüber hinaus analysiert, inwiefern sich Zuziehende bereits zum Zeitpunkt des Zuzugs mit der heutigen Infrastrukturausstattung ihres Wohnorts auseinandersetzen und ob die Zukunftsfähigkeit der gegenwärtig vorhandenen Daseinsvorsorgeangebote bei der Wohnortwahl vor dem Hintergrund der demographischen Situation eine zentrale Rolle bei dieser Entscheidung spielt.
Als Untersuchungsraum wurde die Region Westmittelfranken in Bayern gewählt. Einerseits wird für Westmittelfranken in den Bevölkerungsprognosen eine quantitativ rückläufige Entwicklung prognostiziert (Geburtendefizit wird durch Zuwanderung nicht ausgeglichen) und andererseits kann hier aufgrund der bayernweit niedrigsten Bevölkerungsdichte die öffentliche Hand bei der Bereitstellung von zentral vorgehaltener Punktinfrastruktur aus Erreichbarkeitserwägungen heraus weit weniger flexibel auf Verschiebungen in der Altersstruktur reagieren als sie dazu in einem Ballungsraum in der Lage wäre. Mittels der Auswertung einer empirischen Befragung Zugezogener ist eine Aussage darüber möglich, inwiefern Aspekte der demographischen Struktur und Entwicklung in der Zuzugsgemeinde, der Ausstattung mit Einrichtungen der Daseinsvorsorge sowie deren Zukunftsfähigkeit eine Basis für die individuelle Entscheidung zum Zuzug boten und inwiefern bei potenziellen Schließungen von Infrastruktureinrichtungen tatsächlich der befürchtete »Exodus« in Form von Fortzügen droht.
Abschließend sind die gewonnenen Erkenntnisse zur Formulierung von Handlungsempfehlungen für die Raumordnung, Regional- und Kommunalentwicklung auf Landes-, Regions- und kommunaler Ebene herangezogen.
TRP-Proteine sind integrale Membranproteine, die Untereinheiten von Kationenkanälen bilden, die z.B. an der Schmerz und Temperaturwahrnehmung, der Absorption von Mg2+ und Ca2+ im Darm und in der Niere oder für die Freisetzung von Entzündungsmediatoren in Immunzellen verantwortlich sind.
Das in der vorliegenden Arbeit untersuchte TRPV6-Protein stellt einen hochselektiven Ca2+¬-Kanal dar, der für den tranzellulären Ca2+-Transport in Endothelzellen des Dünndarms und der Plazenta verantwortlich ist und für den bisher noch kein hochaffiner Agonist bekannt ist. Das niedrig exprimierte, integrale Membranprotein konnte ich erstmal im Rahmen meiner Diplomarbeit aus humaner Plazenta zusammen mit Annexin A2 und Cyclophilin B (CyPB) anreichern. Diese putative Interaktion zwischen dem Ionenkanal und CyPB wird im Rahmen meiner Doktorarbeit mit Coimmunpräzipitation, Saccharosedichtegradientenzentrifugation, Peptidblotanalyse und GST-Pulldown-Analysen untersucht. Hierbei kann die TRPV6-CyPB-Interaktion in Immunpräzipitationen mit unabhängigen Antikörpern bestätigt werden. Die Ergebnisse der Dichtegradientenzentrifugation belegen die Existenz von TRPV6-Multimeren bzw. von TRPV6 enthaltenden Multiproteinkomplexen. Unter diesen Bedingungen ist allerdings keine CyPB-Assoziation mit dem TRPV6-Protein festzustellen. Das Einengen der Bindestelle von CyPB im TRPV6-Protein mittels Peptidblot- und GST-Pulldown-Analyse führt zur der potentiellen Bindungsstelle mit der minimalen Aminosäuresequenz Y66EDCKV71.
Meine Ergebnisse waren Ausgangspunkt für die funktionelle Charakterisierung der TRPV6-CyPB-Interaktion in Xenopus laevis Oozyten, die zeigt, dass CyPB den Ionenkanal aktiviert. Die Bindung zwischen beiden Proteinen ist offenbar wenig affin und scheint nur unter den gegebenen Solubilisierungsbedingungen nachweisbar.
Zur Erhaltung möglicher kalziumabhängiger Proteinbindungen wird die zuvor benutzte mehrstufige TRPV6-Affinitätschromatographie, bestehend aus einer CaM- und einer TRPV6-Antikörpersäule, durch eine einstufige Affinitätsreinigung ersetzt. Zur Solubilisierung und Isolierung des TRPV6-enthaltenden Proteinkomplexes eignen sich hierbei insbesondere die nichtionischen Detergenzien Dodecyl-β-D-maltosid (DDM) und Digitonin.
Zur Auftrennung und Untersuchung der isolierten TRPV6-Proteinkomplexe kann weiterhin eine zweidimensionale Blue Native-Gelelektrophorese (BN-PAGE) etabliert und die daraus isolierten Proteine massenspektrometrisch analysiert werden. Für die Auftrennung der TRPV6-Proteinkomplexe in der BN-PAGE eigenen sich ebenfalls am besten die nichtionischen Detergenzien DDM und Digitonin. Das TRPV6-Protein wird nach der nativen BN-PAGE als Bestandteil eines oder mehrerer Proteinkomplexe mit einem Molekulargewicht von 440 - 670 kDa detektiert.
Abschließend wird die Übertragbarkeit der für TRPV6 etablierten Vorgehensweise zur Isolierung von Membranproteinkomplexen auf andere TRP-Kanalproteine in verschiedenen Geweben gezeigt. So kann TRPV6 aus Mausplazenta und das TRPC6-Membranprotein aus murinen Mastzellen und Mauslungengewebe mittels Coimmunpräzipitation und Affinitätschromatographie isoliert und spezifisch detektiert werden.
Die Entwicklung eines neuartigen Therapiekonzeptes erfordert umfangreiche Prüfungen insbesondere für die Sicherheit der Anwendung am Menschen. Die Verwendung des apathogenen, onkoselektiven, replikationskompetenten Parvovirus H-1 (H-1PV) zur onkolytischen Virotherapie bei bösartigen Hirntumoren (Glioblastome) ist eine vielversprechende Alternative (oder Ergänzung) zu den bisherigen Therapien, wie Operation, Chemotherapie und Bestrahlung. In unserer Arbeitsgruppe konnte gezeigt werden, dass H-1PV in der Lage ist, nach einmaliger intratumoraler oder mehrfacher intravenöser Applikation im Rattengliom-Modell eine vollständige Regression des Tumors ohne pathologische Nebenwirkungen herbeizuführen. In Vorbereitung einer klinischen Studie Phase I/IIa mit H-1PV wurden in dieser Arbeit wichtige Aspekte dieser neuartigen Virotherapie untersucht:
1. Ausscheidung und Übertragung von H-1PV in vivo in der Ratte
Es konnte gezeigt werden, dass infektiöse Viren in Urin und Speichel unabhängig von der Applikationsart und der Anwesenheit eines Tumors ausgeschieden werden, was bedeutet, dass eine Übertragung von H-1PV durch Tröpfcheninfektion stattfinden könnte. In klinischen Studien muss daher geprüft werden, ob das Virus auch vom Menschen ebenso im Urin und Speichel ausgeschieden wird.
2. Intranasale Applikation von H-1PV zur Behandlung von Glioblastomen in der Ratte
Es konnte gezeigt werden, dass H-1PV auch nach intranasaler Applikation den Tumor erreicht, dort virale Proteine gebildet werden und in infizierten tumortragenden Tieren die Überlebenszeit signifikant verlängert werden konnte im Vergleich mit den nicht-infizierten Kontrolltieren. Diese Applikationsart wäre eine einfach durchzuführende Art der Anwendung, da sie keinen chirurgischen Eingriff am Gehirn erfordert.
3. Replikation von H-1PV in vivo im Rattenmodell
Durch die Fähigkeit von H-1PV in Tumorzellen repliziert zu werden, können nach einer einzigen Virusapplikation einer geringen Dosis initial nicht infizierte Zellen der Tumormasse infiziert und lysiert werden. In vivo im Rattengliom-Modell konnte gezeigt werden, dass H-1PV zunächst im ganzen Organismus verteilt wird, nach kurzer Zeit aber im Tumorgewebe angereichert und die Viruskonzentration dort länger aufrecht erhalten bleibt als bei Tieren ohne Tumor. Die Expression des viralen, zytotoxischen Proteins NS-1 war bei allen Applikationsarten auf das Tumorgebiet beschränkt. Die Daten sprechen für eine zumindest begrenzte Vermehrung von H-1PV im Tumorgewebe.
4. Adaptierung von H-1PV an humane Glioblastomzellen
H-1PV gehört zu der Gruppe der Nager-Parvoviren und wird daher in Rattentumorzellen effizienter vermehrt als in humanen Glioblastomzellen. In dieser Arbeit wurden durch Passagieren an eine humane Glioblastomzelllinie adaptierte virale Einzelklone von H-1PV in verschiedenen humanen Glioblastomzellen charakterisiert. Alle Klone konnten sich stärker in diesen vermehren und diese effizienter lysieren. In vivo führte einer der Klone zu einem signifikant langsameren Tumorwachstum und verlängerter Überlebenszeit der Tiere im Vergleich zum Wildtyp. Bei der Analyse der genetischen Mutationen der Klone konnten verschiedene Alterationen detektiert werden, wobei sich die Mutationsgeschwindigkeit von H-1PV als eher gering erwies, was für eine sichere Anwendung von H-1PV beim Menschen ein Vorteil ist. Es konnte weiterhin gezeigt werden, dass die Onkoselektivität von H-1PV durch die Adaptierung nicht verloren ging, was bedeutet, dass auch die adaptierten viralen Klone weiterhin apathogen für nicht transformierte Zellen sind.
Die Ergebnisse dieser Arbeit leisten einen Beitrag zur Erprobung von H-1PV im Hinblick auf die klinische Anwendung im Menschen. H-1PV erwies sich als einfach zu applizierendes, in vivo replikationskompetentes, sicheres und anpassungsfähiges Virus für die onkolytische Virotherapie von Gliomen beim Menschen. Dass H-1PV seine Onkoselektivität durch Adaptation an humane Gliomzellen nicht einbüßte, eröffnet die Möglichkeit das Virus an weitere Krebsentitäten anzupassen und auch dort zur onkolytischen Therapie einzusetzen.
Angesichts des anhaltenden demografischen, ökonomischen und gesellschaftlichen Wandels steht die Stadtplanung großen Herausforderungen gegenüber. Insbesondere die Reaktivierung und Revitalisierung der innerstädtischen Bereiche als den räumlichen, funk-tionalen und emotionalen Zentren der Städte bilden hierbei ein wesentliches Handlungsfeld. Neben den Auswirkungen auf den gesamten Planungsprozess beeinflussen die daraus resultierenden Handlungserfordernisse insbesondere den stadtplanerischen Entwurf im Sinne der Organisation räumlicher Strukturen und ihrer Wechselwirkungen. Aufgrund der hohen Komplexität der zu bewältigenden Aufgaben beim Entwerfen im innerstädtischen Kontext kommt hierbei den informationstechnischen Möglichkeiten der I&K-Technologien in Form von Visualisierungen und Simulationen große Bedeutung zu.
Vor dem Hintergrund der Herausforderungen des Entwerfens im innerstädtischen Kontext liegt das Ziel der Arbeit in der Erarbeitung von Ansätzen zur Qualifizierung des stadtpla-nerischen Entwurfsprozesses durch computerbasierte Visualisierungen und Simulationen. Hierbei gilt es zunächst, die gegebenen Rahmenbedingungen und Entwicklungstendenzen in den Innenstädten hinsichtlich der daraus resultierenden Handlungserfordernisse für das stadtplanerische Handeln zu untersuchen. Besagte Erfordernisse umfassen beispielsweise die Stärkung der Innenstädte als Wohnstandort, als Zentren des Handels, der Dienstleistung und der Kultur sowie als Bereiche hoher Dichte und Nutzungsmischung. Gleichzeitig gilt es, den Forderungen der integrierten Innenstadtentwicklung gerecht zu werden, in deren Rahmen ein tragfähiger stadtplanerischer Entwurf, unter Berücksichti-gung ganzheitlicher Strategien, zum raumverträglichen und zukunftsfähigen Ausgleich der unterschiedlichen Ansprüche und Interessen beitragen muss.
Bezogen auf die Möglichkeiten zur Unterstützung und Qualifizierung des Entwurfsprozes-ses durch Visualisierung raumbezogener Informationen und möglicher Entwicklungszu-stände steht neben der Analyse bestehender Techniken und Anwendungen die Ausei-nandersetzung mit einer Vielzahl technischer Neuerungen im Fokus. Diese technischen Neuerungen zeigen sich insbesondere in den Bereichen der GI-Systeme, der 3D-Stadtmodelle, der sog. ‚Neogeografie’ sowie der ‚Augmented Reality’ und ‚Virtual Reality’. Im Rahmen der Notwendigkeit zur Simulation dynamischer urbaner Prozesse bildet die Suche nach flexiblen, modular erweiterbaren Simulationsarchitekturen sowie die Möglich-keiten zur Simulation räumlicher und gesellschaftlicher Prozesse mittels automatenbasier-ter Modelle den Schwerpunkt.
Zusammenfassend erfordert der effektive und ökonomische Einsatz von Anwendungen der Visualisierung und Simulation die enge Verknüpfung und Abstimmung der gegebenen Einsatzmöglichkeiten mit den inhaltlichen und methodischen Anforderungen des stadtpla-nerischen Entwurfs.
Im Ergebnis werden zwei Ebenen zur Qualifizierung des innerstädtischen Entwurfspro-zesses durch Techniken und Anwendungen der Visualisierung und Simulation identifiziert und daraus Ansätze für neue Entwurfstools abgeleitet. Die erste Ebene beinhaltet die me-thodisch-inhaltliche Auseinandersetzung mit den Möglichkeiten zur Verknüpfung von Vi-sualisierungen und Simulationen mit den jeweiligen Stufen des stadtplanerischen Ent-wurfsprozesses sowie den dort zu leistenden Aufgaben. Die zweite Ebene bildet schließlich die Auseinandersetzung mit den Möglichkeiten zur zielgerichteten Weiterentwicklung und/ oder Synthese bestehender Techniken und Anwendungen.
For computational reasons, the spline interpolation of the Earth's gravitational potential is usually done in a spherical framework. In this work, however, we investigate a spline method with respect to the real Earth. We are concerned with developing the real Earth oriented strategies and methods for the Earth's gravitational potential determination. For this purpose we introduce the reproducing kernel Hilbert space of Newton potentials on and outside given regular surface with reproducing kernel defined as a Newton integral over it's interior. We first give an overview of thus far achieved results considering approximations on regular surfaces using surface potentials (Chapter 3). The main results are contained in the fourth chapter where we give a closer look to the Earth's gravitational potential, the Newton potentials and their characterization in the interior and the exterior space of the Earth. We also present the L2-decomposition for regions in R3 in terms of distributions, as a main strategy to impose the Hilbert space structure on the space of potentials on and outside a given regular surface. The properties of the Newton potential operator are investigated in relation to the closed subspace of harmonic density functions. After these preparations, in the fifth chapter we are able to construct the reproducing kernel Hilbert space of Newton potentials on and outside a regular surface. The spline formulation for the solution to interpolation problems, corresponding to a set of bounded linear functionals is given, and corresponding convergence theorems are proven. The spline formulation reflects the specifics of the Earth's surface, due to the representation of the reproducing kernel (of the solution space) as a Newton integral over the inner space of the Earth. Moreover, the approximating potential functions have the same domain of harmonicity as the actual Earth's gravitational potential, i.e., they are harmonic outside and continuous on the Earth's surface. This is a step forward in comparison to the spherical harmonic spline formulation involving functions harmonic down to the Runge sphere. The sixth chapter deals with the representation of the used kernel in the spherical case. It turns out that in the case of the spherical Earth, this kernel can be considered a kind of generalization to spherically oriented kernels, such as Abel-Poisson or the singularity kernel. We also investigate the existence of the closed expression of the kernel. However, at this point it remains to be unknown to us. So, in Chapter 7, we are led to consider certain discretization methods for integrals over regions in R3, in connection to theory of the multidimensional Euler summation formula for the Laplace operator. We discretize the Newton integral over the real Earth (representing the spline function) and give a priori estimates for approximate integration when using this discretization method. The last chapter summarizes our results and gives some directions for the future research.
The present dissertation contains the theoretical studies performed on the topic of a high energy deposition in matter. The work focuses on electronic excitation and relaxation processes on ultrafast timescales. Energy deposition by means of intense ultrashort (femtosecond) laser pulses or by means of swift heavy ions irradiation have a certain similarities: the final observable material modifications result from a number of processes on different timescales. First, the electronic excitation by photoabsorption or by ion impact takes place on subfemtosecond timescales. Then these excited electrons propagate and redistribute their energy interacting among themselves and exciting secondary generations of electrons. This typically takes place on femtosecond timescales. On the order of tens to hundreds femtoseconds the excited electrons are usually thermalized. The energy exchange with the lattice atoms lasts up to tens of picoseconds. The lattice temperature can reach melting point; then the material cools down and recrystalizes, forming the final modified nanostructures, which are observed experimentally. The processes on each previous step form the initial conditions for the following step. Thus, to describe the final phase transition and formation of nanostructures, one has to start from the very beginning and follow through all the steps.
The present work focuses on the early stages of the energy dissipation after its deposition, taking place in the electronic subsystems of excited materials. Different models applicable for different excitation mechanisms will be presented: in the thesis I will start from the description of high energy excitation (electron energies of \(\sim\) keV), then I shall focus on excitations to intermediate energies of electrons (\(\sim\) 100 eV), and finally coming down to a few eV electron excitations (visible light). The results will be compared with experimental observations.
For the high energy material excitation assumed to be caused by irradiation with swift heavy ions, the classical Asymptotical Trajectory Monte-Carlo (ATMC) is applied to describe the excitation of electrons by the impact of the projectile, the initial kinetics of electrons, secondary electron creation and Auger-redistribution of holes. I first simulate the early stage (first tens of fs) of kinetics of the electronic subsystem (in silica target, SiO\(_2\)) in tracks of ions decelerated in the electronic stopping regime. It will be shown that the well pronounced front of excitation in the electronic and ionic subsystems is formed due to the propagation of electrons, which cannot be described by models based on diffusion mechanisms (e.g. parabolic equations of heat diffusion). On later timescales, the thermalization time of electrons can be estimated as a time when the particle- and the energy propagation turns from the ballistic to the diffusive one. As soon as the electrons are thermalized, one can apply the Two Temperature Model. It will be demonstrated how to combine the MC output with the two temperature model. The results of this combination demonstrate that secondary ionizations play a very important role for the track formation process, leading to energy stored in the hole subsystem. This energy storage causes a significant delay of heating and prolongs the timescales of lattice modifications up to tens of picoseconds.
For intermediate energies of excitation (XUV-VUV laser pulse excitation of materials) I applied the Monte-Carlo simulation, modified where necessary and extended in order to take into account the electronic band structure and Pauli's principle for electrons within the conduction band. I apply the new method for semiconductors and for metals on examples of solid silicon and aluminum, respectively.
It will be demonstrated that for the case of semiconductors the final kinetic energy of free electrons is much less than the total energy provided by the laser pulse, due to the energy spent to overcome ionization potentials. It was found that the final total number of electrons excited by a single photon is significantly less than \(\hbar \omega / E_{gap}\). The concept of an 'effective energy gap' is introduced for collective electronic excitation, which can be applied to estimate the free electron density after high-intensity VUV laser pulse irradiation.
For metals, experimentally observed spectra of emitted photons from irradiated aluminum can be explained well with our results. At the characteristic time of a photon emission due to radiative decay of \(L-\)shell hole (\(t < 60\) fs), the distribution function of the electrons is not yet fully thermalized. This distribution consists of two main branches: low energy distribution as a distorted Fermi-distribution, and a long high energy tail. Therefore, the experimentally observed spectra demonstrate two different branches of results: the one observed with \(L-\)shell radiation emission reflects the low energy distribution, the Bremsstrahlung spectra reflects high energy (nonthermalized) tail. The comparison with experiments demonstrated a good agreement of the calculated spectra with the experimentally observed ones.
For the irradiation of semiconductor with low energy photons (visible light), a statistical model named the "extended multiple rate equation" is proposed. Based on the earlier developed multiple rate equation, the model additionally includes the interaction of electrons with the phononic subsystem of the lattice and allows for the direct determination of the conditions for crystal damage. Our model effectively describes the dynamics of the electronic subsystem, dynamical changes in the optical properties, and lattice heating, and the results are in very good agreement with experimental measurements on the transient reflectivity and the fluence damage threshold of silicon irradiated with a femtosecond laser pulse.
Gegenstand der vorliegenden Arbeit ist es, ein elasto-plastisches Stoffmodell für teilgesättigte
bindige Böden zu entwickeln. Abweichend von den aus der Literatur bekannten Stoffmodellen
für teilgesättigte Böden werden Änderungen von Zustandgrößen unmittelbar erfassbar sein. Der
Einfluss der Zustandsgrößen Anfangsporenzahl, -sättigungsgrad, Temperatur,
Konsolidierverhältnis sowie des Spannungsniveaus auf das mechanische Verhalten eines
gängigen, ausgeprägt plastischen Tons wird untersucht.
Zur Ermittlung der relevanten Stoffparameter wird eine Reihe aufwändiger Versuche in einem
neu entwickelten Triaxialgerät durchgeführt. Dieses Triaxialgerät ist in der Lage, die für
teilgesättigte Böden charakteristische Saugspannung während des Versuchs sowohl zu messen
als auch zu regeln. Die in diesem Triaxialgerät durchgeführten Versuche dienen zur Ermittlung
des deviatorischen Versagenszustandes des Bodens.
Der Einfluss sämtlicher Zustandgrößen auf die Grenzfläche des Stoffmodells wird für den
vorliegenden Kaolinit mittels eines Separationsansatzes in einem einzigen Parameter
berücksichtigt. Die weiteren Parameter des Modells bleiben für alle Zustände konstant. Das
Verhalten im elastischen Bereich ist durch Funktionen für Kompressions- und Schubmodul
gesteuert, die von den Zustandsgrößen abhängen. Das volumetrische Verhalten erfasst eine
Kappenfunktion, die an die deviatorische Grenzfläche anschließt.
Das entwickelte Stoffmodell wird mittels der Schnittstelle UMAT in das FE-Programmsystem
ABAQUS implementiert. Die Validierung des Modells erfolgt anhand der Simulation
verschiedener Laborversuche. Abschließend wird eine geotechnische Problemstellung in Form
einer Flachgründung untersucht und die maximal aufnehmbare Spannung bei Aufsättigung durch
Beregnung des Bodens aufgezeigt.
In den letzten Jahren stieg aufgrund eines zunehmenden Ernährungsbewusstseins die Nachfrage nach Lebensmitteln mit gesundheitsfördernden Inhaltsstoffen an. Dabei wird vor allem einer Ernährung reich an Obst und Gemüse protektive Eigenschaften zugesprochen. Besonders für sekundäre Pflanzenstoffe wie die Gruppe der Anthocyane werden positive gesundheitliche Eigenschaften, wie antiinflammatorische-, antioxidative- und chemo-präventive Wirkungen postuliert. Für die beschriebenen biologischen Wirkmechanismen ist jedoch die Verfügbarkeit der Anthocyane am Ort der Resorption von entscheidender Bedeutung. Im pharmazeutischen Bereich werden Verkapselungstechniken angewandt, um das Erreichen des Wirkstoffs am potentiellen Wirkort zu gewährleisten. Vorrausetzung ist jedoch, dass die Bioaktivität des Wirkstoffs dabei nicht herabgesetzt wird.
Im Rahmen der vorliegenden Arbeit wurde die Modulation der Stabilität und der Freisetzung der Anthocyane anhand von unterschiedlichen Wildheidelbeerextrakt (Vaccinium myrtillus L., HBE)-beladenen Verkapselungssystemen im Vergleich zu nicht verkapseltem HBE unter Bedingungen des Gastrointestinaltrakts untersucht. Die HBE-beladenen Kapselsysteme (Pektinamidhohl-, Molkenprotein-, multidisperse Hüll- und Apfelpektin¬kapseln) wurden von verschiedenen Projektpartnern des Clusterprojekts „Bioaktive Inhaltsstoffe aus mikrostrukturierten Multikapselsystemen: Untersuchungen zum Einfluss der Mikrostruktur und der molekularen Zusammensetzung auf die Stabilisierung und kontrollierte Freisetzung von sekundären Pflanzenstoffen und deren Auswirkung auf biologische Signalparameter“ zur Verfügung gestellt. Ein weiterer Schwerpunkt dieser Arbeit bildeten Untersuchungen, ob Kapselsysteme einen Einfluss auf die biologische Aktivität von Inhaltsstoffen des HBE ausüben.
In Kooperation mit dem Arbeitskreis von Prof. Mäder (Uni Halle) wurden in vitro Systeme zur Simulation der Magen- und Dünndarmpassage eingesetzt, um die Freisetzung der Anthocyane aus HBE-beladenen Kapselpräparaten vergleichend zum HBE zu untersuchen. Anschließend erfolgte am Beispiel der Anthocyane die Erfassung der Anthocyangehalte mittels HPLC-UV/VIS. Die Anthocyanfreisetzung fand unabhängig vom Kapseltyp während der Magensaftsimulation innerhalb von 10 min statt. Die freigesetzten Anthocyane erwiesen sich als stabil über den restlichen Inkubationszeitraum von 2 h. Anthocyane liegen beim pH-Wert des Magens (pH 1.5) als stabilisierte Flavyliumkationen vor, wodurch ihr Abbau verhindert wird. Im Gegensatz dazu wurde während der Dünndarmsimulation (pH 6.8) eine Abnahme der Anthocyankonzentration des HBE festgestellt. Durch den Einsatz von Verkapselungstechniken konnten unabhängig vom Kapseltyp die Freisetzung und Stabilität der Anthocyane signifikant erhöht werden. Zusätzlich wurde gezeigt, dass Proteine (Molkenproteine), die vom Arbeitskreis Prof. Kulozik (TU München) zur Verfügung gestellt wurden, die Anthocyane während der Dünndarmsimulation stabilisierten.
Des Weiteren wurde ein ex vivo Modell mit humanem Dünndarminhalt von Patienten mit künstlichem Darmausgang (Ileostoma) zur weiterführenden Untersuchung der Stabilität und Freisetzung von Anthocyanen des HBE etabliert. Mit steigender HBE Konzentration wurde ein verzögerter Abbau der Anthocyane beobachtet. Zusätzlich zu den Inkubationen in humanem Dünndarminhalt (pH 6.3) wurde HBE in einem Reduktionspuffer (pH 6.3) vergleichend inkubiert. Dabei ergaben sich Hinweise, dass ein Abbau der Anthocyane durch intestinale Enzyme oder mikrobielle Enzymaktivitäten erfolgte. In Inkubationen der unterschiedlichen HBE-beladenen Kapselsysteme mit humanem Dünndarminhalt wurde eine Freisetzung der Anthocyane im Zeitraum bis zu 8 h gemessen. Dabei ergab sich eine Kompensation des Anthocyanabbaus durch kontinuierliche Freisetzung.
Mittels der durchgeführten Freisetzungs- und Stabilitätsuntersuchungen konnte gezeigt werden, dass die vorliegenden Verkapselungstechniken zu einer unerwünschten Freisetzung der Anthocyane während der Magenpassage führten. Im Dünndarmmilieu trugen diese Kapselsysteme zu einer kontinuierlichen Freisetzung, einer damit einhergehenden Kompensation des Anthocyanabbaus und somit höheren Wirkstoffkonzentrationen am potentiellen Wirkort bei. Folglich ist es in Zukunft notwendig, die Kapselsysteme so zu optimieren, dass eine Anthocyanfreisetzung im Magen verhindert wird und somit die intakten Kapseln den Dünndarm erreichen.
Ein weiterer Schwerpunkt der vorliegenden Arbeit war mittels in vitro Experimenten an den humanen Darmkrebszelllinien Caco-2 und HT-29 zu prüfen, ob die verwendeten Verkapselungssysteme einen Einfluss auf die biologische Wirksamkeit der Anthocyane ausüben. Zusätzlich sollte untersucht werden, welche Subfraktionen des HBE (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion), die vom Arbeitskreis Prof. Winterhalter (TU Braunschweig) zur Verfügung gestellt wurden, zu dessen biologischen Wirksamkeit beitragen.
Um eine Aussage über potentielle zytotoxische Effekte des HBE, der HBE-Subfraktionen und der HBE-beladenen Kapselsysteme auf humane Darmkrebszellen treffen zu können, wurde der Farbreaktionstest „Alamar blue Assay“, in dem die mitochondriale Aktivität als Maß für die Vitalität der Zelle bestimmt wird, durchgeführt. Die antioxidative Wirksamkeit wurde als Modulation unterschiedlicher Biomarker, wie oxidative DNA-Schäden, der Gehalt an Glutathion und die Reduktion intrazellulärer reaktiver Sauerstoffspezies (ROS), in Kurz- und Langzeitinkubationen untersucht.
Es zeigte sich, dass weder der HBE noch die eingesetzten HBE-Subfraktionen (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion) zytotoxische Wirkungen an der Zelllinie Caco-2 aufwiesen. Eine antioxidative Wirksamkeit wurde in der Erhöhung des Glutathiongehalts durch Zellinkubation mit HBE und Phenolcarbonsäurefraktion im Konzentrationsbereich von 100 - 500 µg/ml nachgewiesen. Des Weiteren wurde eine Abnahme des Gehalts an induzierten intrazellulären ROS (50 - 500 µg/ml HBE), sowie eine Erniedrigung Menadion-induzierter oxidativer DNA-Schäden (5 - 50 µg/ml HBE) beobachtet. Inkubationen mit Anthocyan- und Polymerfraktion zeigten keine antioxidativen Effekte in den verwendeten Zellsystemen. Diese Ergebnisse verdeutlichen, dass nur die Phenolcarbonsäurefraktion zur antioxidativen Kapazität des HBE beiträgt.
In Inkubationen mit multidispersen Hüllkapseln stellte sich heraus, dass diese aufgrund ihrer äußeren Ölphase in dieser Formulierung nicht für die in vitro Experimente geeignet waren, da die Ölphase ein Aufschwimmen im Zellkulturmedium bewirkte. Von den eingesetzten Kapselsystemen wurde lediglich bei Inkubationen mit Molkenprotein- und Apfelpektinkapseln im Konzentrationsbereich von 50 - 500 µg/ml eine signifikante Reduktion der Zellvitalität beobachtet. Eine tendenzielle Erhöhung des Glutathiongehalts der Zelle (100 - 500 µg/ml), eine Erniedrigung der induzierten ROS (100 - 500 µg/ml) und eine Reduktion Menadion-induzierter oxidativer DNA-Schäden (5 - 10 µg/ml) wurde nach Inkubation mit den Kapselsystemen (Pektinamidhohl-, Molkenprotein- und Apfelpektinkapseln) nachgewiesen. Das antioxidative Potential des HBE wurde durch die Verkapselungstechniken nicht reduziert.
Die Ergebnisse dieser Arbeit zeigen, dass sowohl der HBE, die Phenolcarbonsäurefraktion als auch die HBE-beladenen Kapselsysteme antioxidativ wirksam (Erhöhung des GSH-Gehalts, Erniedrigung der intrazellulären ROS und Schutz vor oxidativen DNA-Schäden) sind. Welche weiteren Inhaltstoffe zur Wirksamkeit des HBE beitragen muss in weiterführenden in vitro Studien charakterisiert werden. Insgesamt führte der Einsatz von Verkapselungstechniken zu keiner Reduzierung der biologischen Wirksamkeit bei gleichzeitiger Stabilisierung der Anthocyane des HBE. Damit stellen Kapselsysteme eine gute Möglichkeit dar, die Freisetzung bioaktiver Stoffe im Körper zu steigern, ohne deren Effektivität zu beeinflussen. Die in dieser Arbeit beobachteten in vitro Effekte auf ausgewählte Biomarker des oxidativen Stresses, müssten in weiterführenden in vivo Studien verifiziert werden.
In the first part of the thesis we develop the theory of standard bases in free modules over (localized) polynomial rings. Given that linear equations are solvable in the coefficients of the polynomials, we introduce an algorithm to compute standard bases with respect to arbitrary (module) monomial orderings. Moreover, we take special care to principal ideal rings, allowing zero divisors. For these rings we design modified algorithms which are new and much faster than the general ones. These algorithms were motivated by current limitations in formal verification of microelectronic System-on-Chip designs. We show that our novel approach using computational algebra is able to overcome these limitations in important classes of applications coming from industrial challenges.
The second part is based on research in collaboration with Jason Morton, Bernd Sturmfels and Anne Shiu. We devise a general method to describe and compute a certain class of rank tests motivated by statistics. The class of rank tests may loosely be described as being based on computing the number of linear extensions to given partial orders. In order to apply these tests to actual data we developed two algorithms and used our implementations to apply the methodology to gene expression data created at the Stowers Institute for Medical Research. The dataset is concerned with the development of the vertebra. Our rankings proved valuable to the biologists.
Als Biosphärenstadt besitzt St. Ingbert große Zukunftschancen. In der Stadt St. Ingbert gibt es auf den verschiedenen Ebenen der städtebaulichen Planung bereits einige Ansätze, die als Grundlage für die Verwirkung der Stadtentwicklung und Freiraumplanung herangezogen werden können. Beispielsweise werden im Rahmen des städtebaulichen Entwicklungskonzepts der Mittelstadt St. Ingbert städtebauliche Forderungen berücksichtigt. Aber gleichzeitig stellen die ungewöhnlich hohe Bevölkerungsdichte und die Alterung der Bevölkerung eine Herausforderung für eine nachhaltige Entwicklung in der Zukunft dar. In der vorliegenden Arbeit wurde anhand der Ist-Situation der Stadt St. Ingbert ein Masterplan für die Grün- und Freiräume erstellt. Durch eine Analyse und Bewertung der Ist-Situation wurden die Probleme und Defizite im Plangebiet aufgezeigt. Dadurch lassen sich Handlungserfordernisse und Entwicklungsmaßnahmen ableiten, um die vielfältigen Bedürfnisse der Bevölkerung bezüglich der Grün- und Freiräume zu befriedigen, wie z.B. Vernetzung der Grün- und Freiräume durch Einrichtung eines Wanderwegesystems, Aufwertung der Freiflächen mittels Umgestaltungs- und Sanierungsmaßnahmen für die planbezogenen öffentlichen Grünflächen usw. In der Vertiefungsphase sollten die Handlungsempfehlungen für ausgesuchte Elemente des geplanten Freiraumsystems als Leitprojekte erarbeitet werden, beispielsweise Umgestaltung der Verkehrsknotenpunkte am Wasserpark, Vergrößerung der Wasserflächen im Stadtpark, Gestaltung des kleinen Parks am Freibad sowie Aufbau von Holzstegen im Landschaftspark. Solche Leitprojekte haben auch weiterhin eine wesentliche Bedeutung für die gezielte Durchführung von Einzelmaßnahmen im öffentlichen, halböffentlichen und privaten Bereich. Durch eine verstärkte Grün- und Freiraumplanung lässt sich die Wohn- und Lebensqualität der Stadt zu verbessern und es kann ein Beitrag zur künftigen Gesamtentwicklung der Stadt geleistet werden. Durch Umsetzung von Leitprojekten sinkt das Risiko, dass durch kurzfristige Entscheidungen die Freiraumsituation der Stadt verschlechtert wird; gleichzeitig bietet sich die Chance, die Freiraumsituation zu verbessern. Die Ausarbeitung des „Masterplans: Grün und Gesundheit für die Biosphärenstadt St. Ingbert“ bietet die Chance, dass für St. Ingbert in Zukunft eine nachhaltige Entwicklung gewährleistet ist.
This thesis is concerned with the modeling of the domain structure evolution in ferroelectric materials. Both a sharp interface model, in which the driving force on a domain wall is used to postulate an evolution law, and a continuum phase field model are treated in a thermodynamically consistent framework. Within the phase field model, a Ginzburg-Landau type evolution law for the spontaneous polarization is derived. Numerical simulations (FEM) show the influence of various kinds of defects on the domain wall mobility in comparison with experimental findings. A macroscopic material law derived from the phase field model is used to calculate polarization yield surfaces for multiaxial loading conditions.
Bei einem Stent handelt es sich um ein medizinisches Implantat, das zur Behandlung von Gefäßverengungen (Stenosen) eingesetzt wird. Ein implantierter Stent verbleibt in der Regel lebenslang im Gefäß und muss alle auftretenden Belastungen dauerhaft ertragen ohne zu brechen. Für die Auslegung eines Stents und zur Beurteilung des Ermüdungsverhaltens können durch die Finite Element Methode (FEM) schon im Vorfeld die auftretenden Spannungen und Dehnungen berechnet werden. Im Rahmen dieser Arbeit wird ein (Referenz-) Stent anhand unterschiedlicher Simulationen und Experimente analysiert und untersucht. Dabei wird sowohl der Herstellungsprozess des Stents betrachtet, als auch dessen Verhalten in unterschiedlich komplexen Gefäßen. In experimentellen Untersuchungen wird die Radialkraft bestimmt und das Ermüdungsverhalten des Stents bei einer simulierten Kniebeuge von 90° ermittelt. Mit der gewonnenen Erfahrung wird eine Vergleichsrechnung zweier neuer Stent-Designs durchgeführt. Auf Basis der Simulationen wird ein Prototyp hergestellt. Mit Hilfe der Computational Fluid Dynamics (CFD) Simulation wird der Einfluss des Referenz-Stents auf die Blutströmung durch die Berechnung der Strömungsverhältnisse in unterschiedlich komplexen Gefäßen näher betrachtet. Die Interaktion zwischen Stent, dem umgebenden Gefäß und der Blutströmung wird durch die gekoppelte FEM-CFD-Simulation untersucht.
Mrázek et al. [14] proposed a unified approach to curve estimation which combines
localization and regularization. In this thesis we will use their approach to study
some asymptotic properties of local smoothers with regularization. In Particular, we
shall discuss the regularized local least squares (RLLS) estimate with correlated errors
(more precisely with stationary time series errors), and then based on this approach
we will discuss the case when the kernel function is dirac function and compare our
smoother with the spline smoother. Finally, we will do some simulation study.
In der Spektroskopie hat die Temperatur einen großen Einfluss auf das resultierende Spektrum und somit auf die Schlussfolgerung, die aus dem Spektrum erfolgt. Für Experimente mit Molekülen in einem Lösungsmittel ist eine Temperaturkontrolle kein Problem mehr. In der Gasphase finden spektroskopische Experimente jedoch häufig mit kühlenden Edelgasmatrizen statt, um ein Molekül zu kühlen, oder die zu untersuchenden Moleküle werden auf einem gekühlten Substrat deponiert, was nicht gerade einem Gasphasenexperiment entspricht. Ebenfalls zur Temperaturkontrolle verwendet wird die Stoßgaskühlung, bei der Moleküle durch Stöße mit Edelgasen gekühlt werden. Das verwendete Stoßgas thermalisiert jedoch durch Stöße mit der Vakuumkammer und wärmt sich dadurch auf.
Der Bau einer Cryo-Apparatur zur Kühlung von kommerziell gekauften FT-ICR Zellen auf weniger als 20 K für Experimente in der Gasphase, um auf Edelgasmatrizen oder Substrate verzichten zu können und eine kalte Umgebung für ein Stoßgas zu haben, ist Kernpunkt dieser Dissertation. Entgegen der in anderen Arbeitskreisen vorhandenen, mit verflüssigten Gasen betriebenen Cryo-FT-ICR Zellen sollte diese Zellkühlung in einem weiten Temperaturbereich kontrollierbar sein und über einen langen Zeitraum eine minimale Temperaturschwankung um eine eingestellte Temperatur liefern.
Gestestet wurde die neue Cryo-FT-ICR Zelle in Kaiserslautern mit Reaktionskinetiken von Nbn+ Metallclustern mit H2. Diese Kinetiken dienten dazu, das Verhalten der neuen Cryo-FT-ICR Zelle unter realen Bedingungen zu testen. Die vorgestellten Messungen zeigen eine Zunahme der relativen Geschwindigkeitskonstanten zu kalten Temperaturen hin. Dabei ist auch ein von der Clustergröße abhängiges Verhalten erkennbar.
Eine weitere Installation der Cryo-Apparatur fand am GAMBIT (General Abstraction of Magnetic Moments at BESSY by Ion Trapping) Experiment beim Berliner Elektronen-speicherring BESSY II statt. Mit den nun möglichen XMCD (X-Ray Magnetic Circular Dichroism) Experimenten in der Gasphase wurden erste Messungen von Co11+ und Co17+ Metallclustern durchgeführt. Die aus diesen ersten Messungen erhaltenen magnetischen Gesamtmomente stimmen gut mit in anderen Arbeitsgruppen gefundenen Gesamtmomenten aus Stern-Gerlach Experimenten überein. Die zu den Gesamtmomenten zugehörigen magnetischen Spin- und Bahnmomente untersuchten Metallcluster, die erstmals für freie Cluster in der Gasphase ermittelt werden konnten, werden vorgestellt.
Oxa1 ist ein integrales Protein der mitochondrialen Innenmembran und eine zentrale Komponente der Proteininsertionsmaschinerie in Mitochondrien. Oxa1 ist an der Insertion zweier unterschiedlicher Klassen von Proteinen in die Innenmembran beteiligt: Durch eine C-terminale,
matrixständige Domäne interagiert Oxa1 mit mitochondrialen Ribosomen und vermittelt so die ko-translationale Membraninsertion mitochondrial kodierter Proteine. Darüber hinaus wurde auch
eine Beteiligung von Oxa1 an der Insertion einiger kernkodierter Proteine beschrieben. Bei allen
bisher identifizierten kernkodierten Substraten von Oxa1 handelt es sich um sogenannte konservativ sortierte Proteine, die nach ihrer Synthese im Zytosol zunächst klassisch über die Translokasen der mitochondrialen Außen- und Innenmembran in die mitochondriale Matrix importiert werden.
In einem Oxa1-vermittelten Schritt werden sie schließlich von der Matrix aus in die Innenmembran inseriert. Vergleiche mit dem bakteriellen Oxa1-Homolog YidC lassen weiterhin vermuten, dass Oxa1 auch an der Faltung von Membranproteinen beteiligt sein könnte, bisher ist eine solche Oxa1-Funktion jedoch nur in Einzelfällen beschrieben worden.
Der genaue molekulare Mechanismus der Proteininsertion durch Oxa1 sowie eine eventuelle Be-
teiligung von Oxa1 an der Insertion anderer mitochondrialer Innenmembranproteine ist bisher unklar. Es war daher uberraschend festzustellen, dass die Level des ADP/ATP-Carriers in Abwesenheit von Oxa1 stark reduziert waren. Der Import und die Membraninsertion mitochondrialer
Carrier wurden in den vergangenen Jahren im Detail beschrieben, bisherige Studien deuteten jedoch nie auf eine Beteiligung von Oxa1 bei der Carrier-Biogenese hin. Carrier-Proteine werden,
im Gegensatz zu konservativ sortierten Proteinen, aus dem Intermembranraum in die Innenmembran inseriert. Im Rahmen dieser Arbeit konnte durch Importversuche gezeigt werden, dass Oxa1
eine wichtige, wenn auch nicht essentielle Funktion bei der Biogenese verschiedener Vertreter der
mitochondrialen Carrier-Familie einnimmt. Die erhaltenen Daten deuten darauf hin, dass Oxa1
nicht an der Membraninsertion der Carrier-Proteine per se beteiligt ist, sondern ahnlich einem
Chaperon die TIM22-abh¨ ngig inserierten Carrier stabilisiert und ihre Faltung oder Assemblierung in der Membran begünstigt. Diese Arbeit zeigt somit, dass Oxa1 nicht nur an der Membraninsertion verschiedener mitochondrial und kernkodierter Proteine beteiligt ist, sondern eine weitere
wichtige Funktion als Chaperon einnimmt. Bedeutend ist hierbei vor allem, dass diese Rolle bei
der Stabilisierung und Faltung mitochondrialer Innenmembranproteine sich nicht auf klassische
Oxa1-Substrate beschränkt, die von Seiten der Matrix in die Membran inseriert werden, sondern entscheidend die Biogenese von Proteinen beeinflusst, deren eigentliche Membraninsertion Oxa1-
unabhängig verläuft.
Die Bedeutung von Oxa1 bei der Insertion mitochondrial kodierter Proteine ist gut dokumentiert,
genaue mechanistische Details des Prozesses der Membraninsertion durch Oxa1 fehlen jedoch
bisher. Um den molekularen Mechanismus der Oxa1-vermittelten Proteininsertion besser zu verstehen, wurde die native Aufreinigung von rekombinant exprimiertem S. cerevisiae Oxa1 etabliert
und gezeigt, dass dieses einen dimeren oder höher oligomeren Komplex ausbildet. Oxa1 wurde weiterhin erfolgreich in Proteoliposomen rekonstituiert und stimuliert in vitro die Insertion des
mitochodrial kodierten Proteins Atp8. In dieser Arbeit wurden vorläufige Daten über die Oxa1-vermittelte Proteininsertion gesammelt. Das hier etablierte Rekonstitutionssystem wird eine wichtige Basis für zukünftige Arbeiten bilden, die zum Verständnis der molekularen Mechanismen der
Oxa1-abhängigen Proteininsertion beitragen werden.
Ionische Flüssigkeiten werden als alternative zu klassischen Lösungsmitteln für chemische Umsetzungen diskutiert u. a. auch für Reaktionen an denen gelöste Gase beteiligt sind. Deshalb ist die Kenntnis der Gaslöslichkeit sowie der eventuell auftretenden Hochdruck-Mehrphasen-Gleichgewicht in Systemen mit ionischen Flüssigkeiten sowohl von wissenschaftlichem als auch von technischem Interesse.
Das Aufpressen von Kohlendioxid bei einer Temperatur nahe dessen kritischer Temperatur auf eine homogene, einphasige, binäre flüssige Mischung aus einem organischen Lösungsmittel und einer hydrophoben ionischen Flüssigkeit bzw. aus Wasser und einer hydrophilen ionischen Flüssigkeit, kann zur Entmischung der zuvor homogenen Flüssigkeit in zwei koexistierende Flüssigphasen L1 und L2 (die mit einer Dampfphase V im Gleichgewicht stehen) führen.
Das zweiphasige flüssige System kann z. B. bei chemischen Umsetzungen, aber auch bei der Aufarbeitung von Reaktionslösungen von Vorteil sein, wenn z. B. die Extraktion eines Produkts in die zweite flüssige Phase zu einer Erhöhung des Umsatzes einer chemischen Reaktion führt.
In der vorliegenden Arbeit wurde das Hochdruck-Mehrphasen-Gleichgewicht ternärer Systeme bestehend aus (Kohlendioxid + Alkohol/Wasser + ionische Flüssigkeit bzw. Ethylencarbonat) experimentell untersucht.
Zunächst wurden die Hochdruck-Mehrphasen-Gleichgewichte von zwei organischen ternären Systemen (Kohlendioxid + Methanol + [bmim][PF6]) und (Kohlendioxid + 1-Butanol + [hmim][Tf2N]) bei Temperaturen zwischen 293 und 333 K und Drücken bis zu 12 MPa experimentell bestimmt. Die Untersuchungen bestanden aus dem Vermessen der Druck-Temperatur-Koordinaten der kritischen Endpunktlinien, sowie der Zusammensetzungen der im Dreiphasengleichgewicht koexistierenden flüssigen Phasen L1 und L2.
Danach wurden an vier Systemen aus (Kohlendioxid + Wasser + ionische Flüssigkeit) ähnliche experimentelle Untersuchungen durchgeführt. Diese beschränkten sich jedoch im wesentlichen auf die Bestimmung des Druckbereiches in dem solche Mehrphasen-Gleichgewichte auftreten.
Bei dem wässrigen System (Kohlendioxid + Wasser + Ethylencarbonat), das untersucht wurde, wurde ein deutlich komplizierteres Phasenverhalten beobachtet, in dem auch ein Vierphasengleichgewicht L1L2L3V sowie zwei Typen von Dreiphasengleichgewichten auftreten. Für dieses System wurden sowohl die Druck-Temperatur-Koordinaten des unteren kritischen Endpunkts des Dreiphasen-Gleichgewichts als auch die des Vierphasengleichgewichts bestimmt. Außerdem wurde die Zusammensetzung der im Gleichgewicht koexistierenden flüssigen Phasen L1 und L2 bei 313 und 333 K im Druckbereich von 6,05 bis 20,3 MPa bestimmt.
Darüber hinaus wurde die Löslichkeit von Kohlendioxid in drei homogenen, einphasigen Lösungsmittelgemischen aus (Methanol + [bmim][PF6]) mit unterschiedlicher Zusammensetzung experimentell bestimmt. Diese Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsapparatur.
Abschließend wurde die Löslichkeit von Kohlendioxid in den untersuchten binären Lösungsmittelgemischen (Methanol + [bmim][PF6]) mit Hilfe von Modellen der molekularen Thermodynamik abgeschätzt.
In der vorliegenden Arbeit wurden neue katalytische Methoden zur regioselektiven Knüpfung von C-C-Bindungen vorgestellt. Die Methoden sind breit anwendbar, besitzen eine gute Verträglichkeit mit funktionellen Gruppen und erlauben präparativ arbeitenden Chemikern einen einfachen Zugang zu wertvollen Verbindungen, die zuvor nur durch Verwendung luft- und feuchtigkeitsempfindlicher, oder teurer Reagenzien in abfallintensiven Prozessen zugänglich waren.
Im ersten Teil der Arbeit wurden Arylchloride als elektrophile Kupplungspartner für Decarboxylierende Biarylsynthese erschlossen. Das synthetische Potential der Reaktion wurde an den Wirkstoffen Telmisartan und Xenalipin demonstriert. Im zweiten Teil der Arbeit wurden neue Reagenzien und Reaktionen entwickelt, mit denen Trifluormethylgruppen selektiv in organische Moleküle eingeführt werden. Die neuen Reagenzien zeichnen sich durch ihre gute Verfügbarkeit, ihre hohe Stabilität gegenüber Luft und Feuchtigkeit, sowie durch ihre einfache Handhabung aus, und sie besitzen eine hohe Kompatibilität mit funktionellen Gruppen. Die Entwicklung einer decarboxylierenden palladiumkatalysierten Trifluormethylierungsreaktion von Arylchloriden mit gut verfügbaren und preiswerten Trifluoracetaten wurde als Fernziel zukünftiger Arbeiten vorgestellt.
The interest of the exploration of new hydrocarbon fields as well as deep geothermal reservoirs is permanently growing. The analysis of seismic data specific for such exploration projects is very complex and requires the deep knowledge in geology, geophysics, petrology, etc from interpreters, as well as the ability of advanced tools that are able to recover some particular properties. There again the existing wavelet techniques have a huge success in signal processing, data compression, noise reduction, etc. They enable to break complicate functions into many simple pieces at different scales and positions that makes detection and interpretation of local events significantly easier.
In this thesis mathematical methods and tools are presented which are applicable to the seismic data postprocessing in regions with non-smooth boundaries. We provide wavelet techniques that relate to the solutions of the Helmholtz equation. As application we are interested in seismic data analysis. A similar idea to construct wavelet functions from the limit and jump relations of the layer potentials was first suggested by Freeden and his Geomathematics Group.
The particular difficulty in such approaches is the formulation of limit and
jump relations for surfaces used in seismic data processing, i.e., non-smooth
surfaces in various topologies (for example, uniform and
quadratic). The essential idea is to replace the concept of parallel surfaces known for a smooth regular surface by certain appropriate substitutes for non-smooth surfaces.
By using the jump and limit relations formulated for regular surfaces, Helmholtz wavelets can be introduced that recursively approximate functions on surfaces with edges and corners. The exceptional point is that the construction of wavelets allows the efficient implementation in form of
a tree algorithm for the fast numerical computation of functions on the boundary.
In order to demonstrate the
applicability of the Helmholtz FWT, we study a seismic image obtained by the reverse time migration which is based on a finite-difference implementation. In fact, regarding the requirements of such migration algorithms in filtering and denoising the wavelet decomposition is successfully applied to this image for the attenuation of low-frequency
artifacts and noise. Essential feature is the space localization property of
Helmholtz wavelets which numerically enables to discuss the velocity field in
pointwise dependence. Moreover, the multiscale analysis leads us to reveal additional geological information from optical features.
This thesis treats the extension of the classical computational homogenization scheme towards the multi-scale computation of material quantities like the Eshelby stresses and material forces. To this end, microscopic body forces are considered in the scale-transition, which may emerge due to inhomogeneities in the material. Regarding the determination of material quantities based on the underlying microscopic structure different approaches are compared by means of their virtual work consistency. In analogy to the homogenization of spatial quantities, this consistency is discussed within Hill-Mandel type conditions.
For many years real-time task models have focused the timing constraints on execution windows defined by earliest start times and deadlines for feasibility.
However, the utility of some application may vary among scenarios which yield correct behavior, and maximizing this utility improves the resource utilization.
For example, target sensitive applications have a target point where execution results in maximized utility, and an execution window for feasibility.
Execution around this point and within the execution window is allowed, albeit at lower utility.
The intensity of the utility decay accounts for the importance of the application.
Examples of such applications include multimedia and control; multimedia application are very popular nowadays and control applications are present in every automated system.
In this thesis, we present a novel real-time task model which provides for easy abstractions to express the timing constraints of target sensitive RT applications: the gravitational task model.
This model uses a simple gravity pendulum (or bob pendulum) system as a visualization model for trade-offs among target sensitive RT applications.
We consider jobs as objects in a pendulum system, and the target points as the central point.
Then, the equilibrium state of the physical problem is equivalent to the best compromise among jobs with conflicting targets.
Analogies with well-known systems are helpful to fill in the gap between application requirements and theoretical abstractions used in task models.
For instance, the so-called nature algorithms use key elements of physical processes to form the basis of an optimization algorithm.
Examples include the knapsack problem, traveling salesman problem, ant colony optimization, and simulated annealing.
We also present a few scheduling algorithms designed for the gravitational task model which fulfill the requirements for on-line adaptivity.
The scheduling of target sensitive RT applications must account for timing constraints, and the trade-off among tasks with conflicting targets.
Our proposed scheduling algorithms use the equilibrium state concept to order the execution sequence of jobs, and compute the deviation of jobs from their target points for increased system utility.
The execution sequence of jobs in the schedule has a significant impact on the equilibrium of jobs, and dominates the complexity of the problem --- the optimum solution is NP-hard.
We show the efficacy of our approach through simulations results and 3 target sensitive RT applications enhanced with the gravitational task model.
This thesis is devoted to constructive module theory of polynomial
graded commutative algebras over a field.
It treats the theory of Groebner bases (GB), standard bases (SB) and syzygies as well as algorithms
and their implementations.
Graded commutative algebras naturally unify exterior and commutative polynomial algebras.
They are graded non-commutative, associative unital algebras over fields and may contain zero-divisors.
In this thesis
we try to make the most use out of _a priori_ knowledge about
their characteristic (super-commutative) structure
in developing direct symbolic methods, algorithms and implementations,
which are intrinsic to graded commutative algebras and practically efficient.
For our symbolic treatment we represent them as polynomial algebras
and redefine the product rule in order to allow super-commutative structures
and, in particular, to allow zero-divisors.
Using this representation we give a nice characterization
of a GB and an algorithm for its computation.
We can also tackle central localizations of graded commutative algebras by allowing commutative variables to be _local_,
generalizing Mora algorithm (in a similar fashion as G.M.Greuel and G.Pfister by allowing local or mixed monomial orderings)
and working with SBs.
In this general setting we prove a generalized Buchberger's criterion,
which shows that syzygies of leading terms play the utmost important role
in SB and syzygy module computations.
Furthermore, we develop a variation of the La Scala-Stillman free resolution algorithm,
which we can formulate particularly close to our implementation.
On the implementation side
we have further developed the Singular non-commutative subsystem Plural
in order to allow polynomial arithmetic
and more involved non-commutative basic Computer Algebra computations (e.g. S-polynomial, GB)
to be easily implementable for specific algebras.
At the moment graded commutative algebra-related algorithms
are implemented in this framework.
Benchmarks show that our new algorithms and implementation are practically efficient.
The developed framework has a lot of applications in various
branches of mathematics and theoretical physics.
They include computation of sheaf cohomology, coordinate-free verification of affine geometry
theorems and computation of cohomology rings of p-groups, which are partially described in this thesis.
Das Zweikomponentensystem CiaRH, bestehend aus der membranständigen Histidinkinase CiaH und dem cytoplasmatischen Responseregulator CiaR, wurde als erste nicht-PBP-Resistenzdeterminante in Streptococcus pneumoniae entdeckt. Es beeinflusst neben der β-Laktamresistenz noch weitere Phänotypen, darunter die genetische Kompetenz, die Autolyse und die Virulenz, was seine Bedeutung für die Physiologie der Zelle unterstreicht.
Im Zuge dieser Arbeit wurden sieben verschiedene ciaH-Allele aus spontanen β laktamresistenten Labormutanten charakterisiert. Die Allele, deren eine bis zwei Punktmutationen sich über den gesamten Genbereich erstrecken, wurden mit Hilfe der Janus Kassette in den Wildtyp-Stamm R6 eingebracht und untersucht. Es konnte durch β Galaktosidaseassays von Promotor-lacZ-Fusionen gezeigt werden, dass alle ciaH-Allele eine Aktivierung des CiaRH-Systems vermitteln. Diese bewegt sich, bezogen auf den CiaR-regulierten Promotor PhtrA, je nach Allel zwischen dem 4- und dem 26-fachen im Vergleich zum Wildtyp. Phänotypische Studien konnten zeigen, dass die Aktivierung des CiaRH-Systems in allen Fällen zu einer Erhöhung der β-Laktamresistenz, sowie einer verzögerten Autolyse führt. Durch den neu hergestellten alternativen Rifampin-Resistenzmarker RKL222 konnte zudem der Kompetenzphänotyp der Stämme mit verändertem ciaH untersucht und ein Verlust der Kompetenz nachgewiesen werden. Die Ausprägung der Phänotypen korreliert dabei weitestgehend mit der Stärke der CiaRH-Aktivierung. Die abgestufte Aktivierungsstärke der unterschiedlichen ciaH-Allele könnte in Zukunft bei der Untersuchung verschiedener regulatorischer Aspekte von CiaRH von Nutzen sein.
Ein weiterer Teil dieser Arbeit beschäftigte sich mit der Frage, welches oder welche der 30 Gene des CiaR-Regulons die CiaRH-Abhängigkeit des Resistenz-, Kompetenz- und Autolysephänotyps von S. pneumoniae vermitteln. Dazu wurde die Bedeutung der stark regulierten Gene ccnA E und htrA phänotypisch näher untersucht. Es konnte gezeigt werden, dass die durch ccnA-E kodierten csRNAs die Haupteffektoren der genannten Phänotypen sind. Ihr Fehlen hebt den Kompetenzblock, die verzögerte Lyse und größtenteils auch die β Laktamresistenz eines aktivierten CiaRH-Systems auf. Die Serinprotease HtrA dagegen hat keinen deutlichen Effekt auf Resistenz und Autolyse, trägt aber zum Kompetenzblock, der bei aktiviertem CiaRH-System auftritt, bei. In dem kompetenzinhibierenden Medium BHI führt nur die gemeinsame Deletion von ccnA-E und htrA zur Wiederherstellung der Kompetenz, wie beim ciaR-Deletionsstamm, während in dem ebenfalls kompetenzinhibierenden Medium THB die Deletion von htrA dafür ausreicht. Die Identifizierung der csRNAs und HtrA als Effektoren der CiaRH-abhängigen Phänotypen stellt die Basis für weiterführende Analysen über die regulatorischen Zusammenhänge zwischen CiaRH und den Phänotypen dar.
In dieser Arbeit konnte zudem erstmals gezeigt werden, dass unter den Genprodukten des CiaR-Regulons die Serinprotease HtrA, die csRNAs und das Mannose-Phosphotransferasesystem ManLMN einen regulatorischen Einfluss auf die Aktivität des CiaRH-Systems ausüben. Die Deletion ihrer Gene führte zu einer unterschiedlich starken Aktivierung der CiaR-abhängigen Genregulation. Da der stärkste aktivierende Effekt durch das Fehlen von HtrA vermittelt wurde, wurde die Art dieser Regulation im Rahmen der vorliegenden Arbeit näher untersucht. Es konnte gezeigt werden, dass im Falle einer htrA-Deletion die Aktivierung von CiaR ohne Beteiligung der Histidinkinase CiaH geschieht. Zudem ist der regulatorische Effekt offenbar unabhängig vom Medium und wird nicht über Veränderungen der genetischen Kompetenz vermittelt. Im Zuge dieser Untersuchungen wurde zusätzlich festgestellt, dass die Deletion der Gene comAB und comDE, die für die Kompetenzinduktion essentiell sind, einen inhibitorischen Effekt auf die CiaRH-Aktivität hat. Damit konnten in dieser Arbeit zwei bislang unbekannte Regulationswege identifiziert werden, die die Aktivität des CiaRH-Systems beeinflussen.
Im Gegensatz zur Mehrzahl der Zweikomponentensysteme ist CiaRH offensichtlich nicht darauf ausgelegt, starke Änderungen der Genexpression zu vermitteln. Die CiaRH-Aktivität befindet sich vielmehr unter den verschiedensten physiologischen Bedingungen auf einem recht konstanten mittleren Aktivierungsniveau. Stärkere Abweichungen von diesem Niveau führen zur deutlichen Beeinträchtigung der Zellfitness. Die Homöostase der CiaRH-Aktivität ist folglich für S. pneumoniae von großer Bedeutung und muss durch Regulationsmechanismen sichergestellt werden. Regelkreise, wie die in dieser Arbeit identifizierten Regulationswege, stellen dabei eine Möglichkeit dar. Insbesondere die gegenseitige Beeinflussung von CiaRH und den Komponenten des eigenen Regulons kann zur Aufrechterhaltung eines gleichbleibenden Aktivitätsniveaus von CiaRH beitragen. Es zeigt sich mehr und mehr, dass es sich bei CiaRH um ein für die Zellphysiologie bedeutendes System handelt, dessen Aktivität durch ein regulatorisches Zusammenspiel von äußeren und inneren Faktoren gesteuert wird.
Furocumarine (FC) sind sekundäre Pflanzenmetaboliten, die u.a. von Früchten und Gemüsen wie Grapefruit oder Sellerie als Phytoalexine gebildet werden. So liegt die geschätzte durchschnittliche menschliche Exposition über die Nahrung bei einer Gesamt-FC-Menge von 0,56 mg/Tag in Deutschland, bei Akutexpositionen können 100-fach höhere Werte erreicht werden. Ihre Grundstruktur besteht aus einem Cumarinmolekül mit linear oder angular ankondensiertem Furanring, zudem können sie unterschiedlich substituiert sein: über 90 verschiedene natürlich vorkommende Derivate bekannt, die sich in der Ausprägung ihrer Eigenschaften stark unterscheiden. In Kombination mit UVA-Strahlung wirken FCs wie das Cumarin Limettin phototoxisch, photomutagen und photoclastogen.
Da in Pflanzen FCs hauptsächlich in Mischungen verschiedener Derivate vorkommen, wurde im Rahmen dieser Arbeit in vitro an V79-Zellen ein einfaches Instrument zur Bewertung natürlich vorkommender FC-Gemische entwickelt, welches die relative phototoxische, -mutagene und -clastogene Potenz verschiedener FCs berücksichtigt. Hierzu wurden versch. Assays speziell für photochemische Anwendungen etabliert und optimiert:
Die phototoxischen Effekte wurden über den Resazurin-Reduktionstest charakterisiert und quantifiziert, die Quantifizierung des photomutagenen Potentials erfolgte mit Hilfe des HPRT-Assays, die des photoclastogenen über den Mikrokerntest. Am Beispiel von 5-Methoxypsoralen (5-MOP) konnte eine Abhängigkeit des EC50-Wertes der Zellvitalität 72 h nach der Bestrahlung, der Erhöhung der Mutationsfrequenz (MF) und der Erhöhung der Zahl mikrokerntragender Zellen (MNZ) sowohl von der 5-MOP-Konzentration als auch von der applizierten UVA-Dosis gezeigt werden; im HPRT-Assay und Mikrokerntest waren strikt lineare Zusammenhänge zu beobachten. Adverse Effekte unter Lichtausschluss konnten nicht festgestellt werden. Zum Vergleich der Potenz verschiedener FC-Derivate wurde eine Standard-UVA-Dosis von 125 mJ/cm² festgelegt. 5-MOP war in allen Testsystemen am reaktivsten, weshalb allen anderen FCs Phototoxizitäts, -mutagenitäts bzw. -clastogenitäts-Äquivalenzfaktoren (PTEF, PMEF, PTCF) relativ zu 5-MOP zugeordnet wurden über den Vergleich der EC50-Werte und der Steigungen der Linearregressionen der Auftragung der MF bzw. der MNZ gegen die FC-Konzentration; 5-MOP wurde der Faktor 1 zugewiesen. Generell waren angulare FCs im Vergleich zu ihren linearen Strukturisomeren deutlich weniger photoreaktiv, an Pos. 8 substituierte lineare FCs waren unreaktiver als an Pos. 5 substituierte, die Einführung einer Hydroxygruppe oder Zweitsubstitution mit einer Methoxygruppe führte zum Reaktivitätsverlust.
Das Verhalten von Furocumarinen in Mischungen wurde isobolographisch am Beispiel von 5-MOP und 8-MOP untersucht. Komplexere Mischungen mit bis zu 9 verschiedenen FC-Derivaten wurden bezüglich ihres Interaktions-Index’ CI auf Abweichungen von 1 untersucht und die Dosis-Wirkungsbeziehungen der theoretischen 5-MOP-Dosisäquivalente mit 5-MOP verglichen. So konnte auf Vorliegen von Dosis-Additivität geschlossen werden.
Als Ursache für die beobachteten Reaktivitätsunterschiede konnten mangelnde Absorption, geringere Interkalationsfähigkeit oder generell Wechselwirkungen mit der DNA über den Vergleich der Absorptionsspektren, hypochromen und bathochromen Effekten in Gegenwart von Kalbsthymus-DNA oder die Ethidiumbromid- und Hoechst33258-Verdrängungsassays ausgeschlossen werden. Weiterhin konnten zwei Systeme zur Bestimmung der zellfrei photochemisch gebildeten Singulett-Sauerstoff und Superoxidradikalanionen etabliert werden. Hier wurden Psoralen für die O2•--Bildung und Riboflavin für die 1O2-Bildung als Positivkontrolle benutzt, wobei angulare FCs und Limettin generell stärker zur ROS-Produktion fähig waren.
Das in dieser Arbeit etablierte Äquivalenzfaktoren-Modell stellt ein gutes Instrument zur Bewertung komplexer natürlich vorkommender FC-Gemische und Abschätzung der in vivo-Phototoxizität über die direkt in der Haut bzw. im Blutplasma gefundene FC-Konzentration dar. Zur direkten Bewertung der oral oder dermal aufgenommen Menge müssen allerdings weitere Faktoren wie Absorption, Metabolismus, zeitabhängige Verteilung und Exkretion, Hauttyp, Reparatur oder generell komplexere Reaktionen des Gewebes in vivo wie Entzündung oder Krebs berücksichtigt werden.
We discuss some first steps towards experimental design for neural network regression which, at present, is too complex to treat fully in general. We encounter two difficulties: the nonlinearity of the models together with the high parameter dimension on one hand, and the common misspecification of the models on the other hand.
Regarding the first problem, we restrict our consideration to neural networks with only one and two neurons in the hidden layer and a univariate input variable. We prove some results regarding locally D-optimal designs, and present a numerical study using the concept of maximin optimal designs.
In respect of the second problem, we have a look at the effects of misspecification on optimal experimental designs.
Gegenstand der vorliegenden Arbeit war die Entwicklung neuartiger molekularer Kapseln auf Basis von verbrückten Bis(cyclopeptiden) und die Untersuchung ihrer Anionenaffinität in wässrigen Lösungsmittelgemischen. Als Reaktionen zur Verbrückung der Cyclopeptidringe wurden die Olefinmetathese und die 1,3-dipolare Cycloaddition von Alkinen und Aziden (Click-Reaktion) verwendet, die unter thermodynamischer bzw. kinetischer Kontrolle verlaufen. Neben den dreifach verbrückten Kapseln wurden ebenso die analogen Bis(cyclopeptide) mit nur einem Linker synthetisiert und untersucht. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener anorganischer Anionen erfolgte mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie. Alle untersuchten Verbindungen bilden 1:1 Komplexe mit den Anionen, indem sie diese in ihrem Hohlraum über Wasserstoffbrücken binden. Allerdings hat die Anzahl der Linker einen bedeutenden Einfluss auf das Bindungsverhalten der Bis(cyclopeptide). Im Gegensatz zu den neuen, sowie bereits bekannten, einfach verbrückten Bis(cyclopeptiden), verläuft die Komplexierung von Sulfat durch die molekulare Kapsel mit drei Triazollinkern endotherm. Der ungünstige enthalpische Beitrag zur Bindung wird von einem sehr günstigen entropischen Beitrag überkompensiert, was zu einer im Vergleich höheren Sulfataffinität führt. Die Ursache dieses unerwarteten Bindungsverhaltens liegt vor allem an einer schlechten Vororganisation der Kapsel. Ein weiterer großer Unterschied zwischen den einfach und dreifach verbrückten Bis(cyclopeptiden) liegt in der unterschiedlichen Kinetik bei der Sulfatkomplexierung. Durch die Erhöhung der Anzahl der Linker reduziert sich die Geschwindigkeit von Komplexierung und Dekomplexierung deutlich. Diese Untersuchungen lieferten neue Erkenntnisse, wie sich strukturelle Veränderungen auf das Rezeptorverhalten derartiger Systeme auswirken.
The recognition of patterns and structures has gained importance for dealing with the growing amount of data being generated by sensors and simulations. Most existing methods for pattern recognition are tailored for scalar data and non-correlated data of higher dimensions. The recognition of general patterns in flow structures is possible, but not yet practically usable, due to the high computation effort. The main goal of this work is to present methods for comparative visualization of flow data, amongst others, based on a new method for efficient pattern recognition on flow data. This work is structured in three parts: At first, a known feature-based approach for pattern recognition on flow data, the Clifford convolution, has been applied to color edge detection, and been extended to non-uniform grids. However, this method is still computationally expensive for a general pattern recognition, since the recognition algorithm has to be applied for numerous different scales and orientations of the query pattern. A more efficient and accurate method for pattern recognition on flow data is presented in the second part. It is based upon a novel mathematical formulation of moment invariants for flow data. The common moment invariants for pattern recognition are not applicable on flow data, since they are only invariant on non-correlated data. Because of the spatial correlation of flow data, the moment invariants had to be redefined with different basis functions to satisfy the demands for an invariant mapping of flow data. The computation of the moment invariants is done by a multi-scale convolution of the complete flow field with the basis functions. This pre-processing computation time almost equals the time for the pattern recognition of one single general pattern with the former algorithms. However, after having computed the moments once, they can be indexed and used as a look-up-table to recognize any desired pattern quickly and interactively. This results in a flexible and easy-to-use tool for the analysis of patterns in 2d flow data. For an improved rendering of the recognized features, an importance driven streamline algorithm has been developed. The density of the streamlines can be adjusted by using importance maps. The result of a pattern recognition can be used as such a map, for example. Finally, new comparative flow visualization approaches utilizing the streamline approach, the flow pattern matching, and the moment invariants are presented.
Intersection Theory on Tropical Toric Varieties and Compactifications of Tropical Parameter Spaces
(2011)
We study toric varieties over the tropical semifield. We define tropical cycles inside these toric varieties and extend the stable intersection of tropical cycles in R^n to these toric varieties. In particular, we show that every tropical cycle can be degenerated into a sum of torus-invariant cycles. This allows us to tropicalize algebraic cycles of toric varieties over an algebraically closed field with non-Archimedean valuation. We see that the tropicalization map is a homomorphism on cycles and an isomorphism on cycle classes. Furthermore, we can use projective toric varieties to compactify known tropical varieties and study their combinatorics. We do this for the tropical Grassmannian in the Plücker embedding and compactify the tropical parameter space of rational degree d curves in tropical projective space using Chow quotients of the tropical Grassmannian.
Ausgehend von einem donorfreien und einem DME-haltigen Eisenhalbsandwich-bromid des sperrigen Pentaisopropylcyclopentadienids, erhält man durch Substitution des Bromids gegen den 2,6-Diisopropylphenylrest einen sigma-Aryl-Eisencyclopentadienid-Komplex, der eine erstaunliche Stabilität aufweist. Dieser ist der erste vollständig charakterisierte Vertreter seiner Art und besitzt bei tiefer Temperatur die Eigenschaften eines molekularen Magneten. Durch Reaktion mit koordinativ ungesättigten Metallzentren lassen sich eine Vielzahl von Additions- und Substitutionsreaktionen beobachten. Eine Substitution des Bromids in den Eisenhalbsandwich-bromiden gegen ein Phenolat, bzw. Thiophenolat ist ebenfalls möglich. Die Resultate dieser Umsetzungen zeigen interessante strukturelle Ergebnisse bezüglich der Bindungsmöglichkeiten zwischen Eisen und Phenolaten sowie Thiophenolaten. Der Phenolatkomplex zeigt eine erstaunliche Stabilität und zersetzt sich auch in verdünnten Säuren und Basen nicht. Es ist erstmalig gelungen, das Pentaisopropylcyclopentadienid an ein Nickelzentrum zu koordinieren. Der resultierende Halbsandwichkomplex mit zwei verbrückenden Bromiden kann wie beim Eisen als Ausgangsverbindung zur Darstellung einer Vielzahl von neuen Komplexen dienen. Durch Addition von 1-Naphthyllithium an das 1,2,3,4-Tetraisopropyl-6-(dimethylamino)pentafulven gelingt die Synthese eines neuen sperrigen chiralen Cyclopentadienids. Dieses lässt sich an ein Nickelbromid-Fragment koordinieren und bildet den ersten im festen Zustand monomeren Vertreter eines Cyclopentadienyl-Nickelbromids. Durch Reduktion der beiden Halbsandwich-Bromide des Eisens und des Nickels in Gegenwart von Stickstoff erhält man Nitrido-Komplexe, die noch nicht eindeutig charakterisiert sind. Die Reaktivität dieser Verbindungen ist jedoch eindeutig. Sie sind in der Lage, mit elementarem Wasserstoff hochreaktive Amide zu bilden und ein Alkyl-H-Atom gegen eine Aminogruppe auszutauschen. Diese metallvermittelte Bildung von Alkylaminen aus Alkan, Stickstoff und Wasserstoff ist bislang nicht bekannt.
Der Katabolismus von Pyrimidin-Nukleobasen erfolgt in Arabidopsis thaliana über einen dreistufigen Stoffwechselweg. In diesem wird Uracil zu beta-Alanin, Kohlenstoffdioxid und Stickstoff in Form von Ammonium abgebaut. Die erste Reaktion, die Reduktion von Uracil zu Dihydrouracil wird von dem plastidären Enzym Dihydrouracil-Dehydrogenase (Pyd1) katalysiert. „Knockout“-Mutanten zeigten verglichen mit Wildtyp-Pflanzen bis zu 50-fach erhöhte Uracilgehalte in allen untersuchten Geweben. Diese Mutanten waren nicht in der Lage, die radioaktiv markierten Pyrimidine Uridin und Uracil zu degradieren und deshalb hochsensitiv gegenüber den toxischen Derivaten 5-Fluorouridin und 5-Fluorouracil. Im Gegensatz dazu wiesen Mutanten, die Pyd1 überexprimieren eine erhöhte Resistenz gegenüber diesen toxischen Derivaten auf. Expressionsanalysen deckten auf, dass Pyd1 hauptsächlich im trockenen Samen exprimiert wird. Die transgenen Pyd1-Pflanzen wiesen einen drastischen Keimungsphänotyp auf. Während „knockout“-Mutanten 2 Tage später als Arabidopsis thaliana-Wildtyp-Pflanzen keimten, waren die Pyd1-Überexpressions-pflanzen in der Lage etwas früher zu keimen. Dies indiziert, dass die Aktivität der Pyd1 in der frühen pflanzlichen Entwicklung von entscheidender Bedeutung ist. Auch der Abscisinsäure-Stoffwechsel scheint in diesen Keimungsphänotyp involviert zu sein. Weiterhin entwickelten die Pyd1-Überexpressionspflanzen mehr Schoten und Samen als Wildtyp-Pflanzen, die „knockout“-Pflanzen weniger. War während der pflanzlichen Entwicklung Stickstoff limitierend, erhöhten sich Pyd1-Expression und Pyd1-Aktivität. Pyd1 scheint ein Schlüsselregulator des Pyrimidin-Katabolismus zu sein, der zwischen den Bedürfnissen an Stickstoff von Nukleotiden und anderen Metaboliten wie beispielsweise Aminosäuren vermittelt. Weiterhin erwies sich Pyd1 als wichtige Komponente in der Remobilisierung des Stickstoffs aus seneszenten Geweben. Es wurde untersucht, ob eventuell ein weiteres Enzym mit Dihydrouracil-Dehydrogenase-Aktivität existiert. Das Arabidopsis thaliana-Protein mit der höchsten Homologie zur Aminosäuresequenz von Pyd1 ist das Enzym Dihydroorotat-Dehydrogenase (DHODH), welches den vierten Schritt der Pyrimidin-de novo-Synthese katalysiert, die Oxidation von Dihydroorotat zu Orotat. Der Pyrimidinkatabolismus stellt die Umkehrung der Pyrimidin-de novo-Synthese dar und die von Pyd1 und DHODH katalysierten Reaktionen sind chemisch ähnlich. Transgene Pflanzen mit einer gesteigerten DHODH-Expression waren zu einer erhöhten Dihydroorotat-Oxidation in der Lage, zeigten aber keinerlei Pyd1-Aktivität. Während eine geringfügige Reduktion in der DHODH-Expression keinen Einfluss auf die pflanzliche Entwicklung hatte, wiesen Dosismutanten mit einer starken Reduktion des DHODH-Transkriptgehaltes einen drastischen Phänotyp auf. Die entsprechenden Pflanzen waren zwergwüchsig, bildeten rötlich-braune Keimblätter aus und ihr Wurzelwachstum war im Vergleich zu Arabidopsis thaliana-Wildtyp-Pflanzen stark vermindert. Zudem hatten diese Pflanzen weniger RNA, was auf eine geringere Pyrimidinverfügbarkeit hindeutet. Gewebespezifische Expressionsanalysen unterstrichen die Bedeutung der DHODH und damit der Pyrimidin-de novo-Synthese in wachsenden Geweben, in denen die Bereitstellung neuer Pyrimidin-Grundgerüste von essentieller Bedeutung ist. Weiterhin konnten erste Hinweise darauf erbracht werden, dass die pflanzliche DHODH, so wie auch das Homolog in Tieren an der äußeren Oberfläche der inneren Mitochondrienmemban verankert und dort als Flavoprotein an die Atmungskette gekoppelt ist.
Beim funktionsorientierten Testen von Steuergeräten im automobilen Bereich ist das Expertenwissen aufgrund der hohen Komplexität der Testfälle unersetzlich. Bei Basistesttechniken wie der Grenzwertanalyse ist die Absicht eines Testfalls implizit durch die Technik gegeben. Beim Expertenwissen wird jedoch zur Zeit zu jedem erstellten Testfall zusätzlich ein Prosatext verfasst um die Testabsicht anzugeben. Diese Prosabeschreibung ist anfällig für Mehrdeutigkeiten, fällt bei jedem Testentwickler unterschiedlich aus und der inhaltliche Bezug zum Testfall ist lose. Ziel der Arbeit ist eine Spezifikationssprache für die Testfallbeschreibung zu entwerfen um die Nachteile der natürlichen Sprache zu minimieren und testablaufspezifische Sprachelemente zu definieren, so dass sie als ein Grundgerüst für einen Testfall verwendet werden kann. Dazu wird aus der Einsatzumgebung (Systemspezifikation, Testimplementierung und Testprozessthemen) Sprachelemente für die Beschreibung abgeleitet und Ansätze für die Überführung der Beschreibung in die Testimplementierung betrachtet. Das Ergebnis ist eine Testfall-Spezifikationssprache, die auf formaler Grundlage basiert und u.a. in eine graphische Sicht überführt werden kann. Ähnlich der UML wird der Mehrwert erst durch eine werkzeugunterstützte Eingabe deutlich: So sind die Testentwickler in der Lage, einheitliche, formale, wieder verwendbare, verständliche Testfälle zu definieren.
In this work two main approaches for the evaluation of credit derivatives are analyzed: the copula based approach and the Markov Chain based approach. This work gives the opportunity to use the advantages and avoid disadvantages of both approaches. For example, modeling of contagion effects, i.e. modeling dependencies between counterparty defaults, is complicated under the copula approach. One remedy is to use Markov Chain, where it can be done directly. The work consists of five chapters. The first chapter of this work extends the model for the pricing of CDS contracts presented in the paper by Kraft and Steffensen (2007). In the widely used models for CDS pricing it is assumed that only borrower can default. In our model we assume that each of the counterparties involved in the contract may default. Calculated contract prices are compared with those calculated under usual assumptions. All results are summarized in the form of numerical examples and plots. In the second chapter the copula and its main properties are described. The methods of constructing copulas as well as most common copulas families and its properties are introduced. In the third chapter the method of constructing a copula for the existing Markov Chain is introduced. The cases with two and three counterparties are considered. Necessary relations between the transition intensities are derived to directly find some copula functions. The formulae for default dependencies like Spearman's rho and Kendall's tau for defined copulas are derived. Several numerical examples are presented in which the copulas are built for given Markov Chains. The fourth chapter deals with the approximation of copulas if for a given Markov Chain a copula cannot be provided explicitly. The fifth chapter concludes this thesis.
Die vorliegende Arbeit befasst sich mit dem penicillin-bindenden Protein 2a (PBP2a) von Streptococcus pneumoniae und dessen Rolle bei der ß-Lactam-Resistenz. Hierbei sind grundsätzlich zwei verschiedene Typen von mutiertem PBP2a zu unterscheiden. In Cefotaxim-resistenten Labormutanten kommt es in höheren Selektionsstufen zum Verlust von PBP2a durch das Auftreten von vorzeitigen Translations-Stops. Eine solche Mutation wird bei Mutante C403 durch die Wiederholung eines Genabschnitts von 8bp Länge verursacht. Es konnte gezeigt werden, dass diese Art der Mutation einen geringen Einfluss auf die Resistenz hat. Jedoch ist der Verlust des PBP nicht alleine für die Erhöhung des Resistenzniveaus in C403 verantwortlich. Auch in einem Stamm mit einem Mosaik-PBP2x klinischen Ursprungs führt die Transformation mit dem pbp2a von C403 zu einer leichten Erhöhung der Resistenz. Die Mutation des pbp2a von C403 hat auch Auswirkungen auf das Wachstums- und Lyseverhalten von Streptococcus pneumoniae. Eine Mutante des Wildtyps R6 mit dem pbp2a von C403 zeigt ein langsameres Wachstum und eine früher einsetzende Lyse. In ß-Lactam-resistenten klinischen Isolaten von Streptococcus pneumoniae und Streptococcus mitis treten niederaffine PBP2a-Varianten auf, welche auch unter Cefotaxim-Selektion transformiert werden können. Im Rahmen dieser Arbeit konnte erstmals gezeigt werden, dass die isolierte Übertragung eines für ein niederaffines PBP2a codierenden Gens zur deutlichen Erhöhung der Cefotaxim-Resistenz eines Stamms mit Mosaik-PBP2x führt. Im Gegensatz zum pbp2a von C403 verursacht das pbp2a von Streptococcus mitis B6 im Wildtyp eine später einsetzende Lyse. Das Wachstum ist jedoch ebenso verlangsamt wie nach dem Verlust von PBP2a. Bei der Analyse niederaffiner PBP2a-Varianten aus klinischen Isolaten traten zwei Mutationen häufig auf, die immer gemeinsam anzutreffen sind: Die Mutation T411>A, welche direkt stromabwärts des aktiven Serins der Penicillin-bindenden Domäne lokalisiert ist, und die Mutation Q431>L. Es konnte demonstriert werden, dass die erste Mutation einen starken Abfall der Affinität gegen Bocillin FL verursacht und die zweite Mutation einen Einfluss auf des Laufverhalten des Proteins in der SDS-PAGE hat. Die Inaktivierung des signal-tranduzierenden Zwei-Komponenten-Systems CiaRH führt in Mutanten mit inaktiviertem PBP2a zu einer Rückkehr der Wachstumsrate auf Wildtyp-Niveau. Stämme mit niederaffinem PBP2a zeigen nach Inaktivierung von CiaRH eine Verkürzung der stationären Phase, ähnlich wie dies bereits für PBP2x beschrieben wurde. Durch die Experimente im Rahmen dieser Arbeit konnte somit gezeigt werden, dass Mutationen in PBP2a einen Einfluß auf die Cefotaxim-Resistenz, das Wachstum und die Lyse von Streptococcus pneumoniae haben können. Auftreten und Ausmaß dieser Effekte sind abhängig von der Art der Mutation und dem genetischen Hintergrund in den diese transformiert wird.
Untersuchungen zum Zugtragverhalten hochduktiler Faserbetone mit zusätzlicher Textilbewehrung
(2010)
Hochduktiler Faserbeton zeigt ein dehnungsverfestigendes Zugtragverhalten mit ausgeprägter Vielfachrissbildung und einer Bruchdehnung von bis zu 5 %. Aufgrund der sehr kleinen Rissbreiten im Gebrauchszustand von weniger als 0,1 mm können hochduktile Faserbetone als quasi-wasserundurchlässig angesehen werden. Ausgehend von diesen Materialeigenschaften entstand die Überlegung, Fugen, z.B. zwischen Betonfertigteilen im Hochbau, mit einer Abdeckung aus hochduktilem Faserbeton zu überbrücken. Hiermit könnten Bewegungen der Betonfertigteile, z.B. infolge Temperaturänderungen ausgeglichen werden, ohne dass breite Risse an der Oberseite der Abdeckung entstehen. Im Laufe vorangegangener Untersuchungen [Mechtcherine 2007/1] hat sich jedoch gezeigt, dass das Dauerstandverhalten des für die vorliegende Arbeit verwendeten hochduktilen PVA-Faserbetons unter Dauerlast unzureichend ist. Zur Verbesserung des Tragverhaltens unter Dauerlast wurde daher eine zusätzliche leichte Textilbewehrung verwendet. Die vorliegende Arbeit befasst sich mit der Untersuchung des Zugtragverhaltens eines hochduktilen Kurzfaserbetons mit zusätzlicher Textilbewehrung unter Kurzzeit- und Langzeit-Zugbeanspruchung. Auf der Grundlage der Versuchsergebnisse wird ein einfaches empirisches Bemessungskonzept für Faserbeton mit zusätzlicher Textilbewehrung entwickelt. Auf der Grundlage dieses Bemessungskonzeptes soll in weiterführenden Arbeiten, die sich u. a. mit dem Tragverhalten unter zyklischer Beanspruchung befassen sollten, die Entwicklung einer Fugenabdeckung zwischen Betonfertigteildecken möglich sein.
Im Rahmen dieser Arbeit konnten mit 2‘-Hydroxyphenylpyrazolderivaten erfolgreich zwei enantiomerenreine P,N-Liganden mit Binaphtholrückgrat synthetisiert werden. Dabei wurde das Pyrazolstickstoffatom mit einem Methyl- bzw. Benzylrest substituiert. Beide Liganden konnten in guten Ausbeuten und Reinheit erhalten werden. Mit beiden Liganden konnten erfolgreich Übergangsmetallkomplexe dargestellt werden. Im Falle des Methylderivates konnten drei dieser Komplexe auch strukturell charakterisiert werden. Dabei wurde Diastereomerenbildung aufgrund des siebengliedrigen Metallacyclus beobachtet. Im Falle des Dichloropalladiumkomplexes wurden zwei Isomere beobachtet. Beim Rutheniumcymol-Komlex bei welchem der Ligand einzähnig koordiniert, wurde erwartungsgemäß nur ein Isomer beobachtet. Bei zweizähniger Koordinationsweise bildeten sich hingegen vier Diastereomere, da aufgrund der Koordinationsumgebung das Metallzentrum nun ein Stereozentrum darstellt. Eines der Diastereomere konnte isoliert werden, da in diesem Fall die Isomerisierung nur langsam erfolgt. Im Falle des Palladiumkomplexes war dies nicht möglich. Die hydroxymethylsubstituierten Liganden konnten in guten Ausbeuten mit verschiedenen Substituenten in Position 1 und 5 erhalten werden. In Position 5 konnten Methyl-, n-Butyl-, tert-Butyl- und Phenyl- eingeführt werden. Bei Verwendung anderer Methylketone sind hier auch weitere Derivate denkbar. Der Pyrazolstickstoff konnte mit Methyl-, Benzyl-, tert-Butyl- und Phenylgruppen substituiert werden. Durch Verwendung anderer Alkylhalogenide sollte auch nahezu jeder andere Substituent zu verwirklichen sein. Im Falle des tert-Butyl- und Phenylrestes musste vom entsprechend substituierten Hydrazinderivat ausgegangen werden. Sofern die entsprechenden Hydrazine zugänglich sind sollte ebenfalls eine breite Variation der Reste möglich sein. Von vielen dieser Derivate wurden die entsprechenden Palladium(II)-Allyl-Komplexe dargestellt und NMR-spektroskopisch charakterisiert. Hierbei lag das Interesse vor allem auf der scheinbaren Rotation der Allylgruppe. Die beobachteten Spektren sind konsistent mit dem in der Literatur beschriebenen Umlagerungsmechanismus. Zwei dieser Komplexe konnten auch kristallographisch charakterisiert werden. Mit dem dimethylsubstituierten Pyrazolliganden wurden weitere Übergangsmetallkomplexe mit Eisen, Rhodium und vor allem Ruthenium dargestellt. Der Eisen-Halbsandwichkomplex konnte NMR-spektroskopisch untersucht werden. Die Rhodiumverbindungen wurden ebenfalls mit NMR-spektroskopisch und massenspektrometrisch untersucht. Die Ruthenium-verbindungen wurden auch mit NMR-Spektroskopie und Massenspektrometrie untersucht. Zwei Komplexe konnten zusätzlich kristallographisch charakterisiert werden. Ein Phosphonitliganden konnte trotz intensiver Bemühungen nicht in ausreichender Reinheit dargestellt werden, da bei der Synthese zahlreiche Probleme auftraten. Mit dem erhaltenen Liganden konnten dennoch zwei Palladiumkomplexe in moderater bis guter Reinheit isoliert und spektroskopisch charakterisiert werden. Die erhaltenen Komplexe wurden im Hinblick auf ihre katalytische Aktivität bei verschiedenen Reaktionen hin untersucht. Hierbei lag der Schwerpunkt auf der Trost-Tsuji-Reaktion, aber auch Suzuki-Kupplungen und Hydrierungen von Ketonen und Alkenen wurden durchgeführt. Die Palladium-Allyl-Komplexe zeigten alle sehr gute Aktivitäten bei der Umsetzung von Diphenylpropenylacetat mit Dimethylmalonat. Mit Ausnahme der hydroxyphenylsubstituierten Liganden konnte jedoch keine Enantioselektivität beobachtet werden. Die ee-Werte waren bei diesen beiden Verbindungen mit 35 und 22 % jedoch ebenfalls nur moderat. Mit anderen Nucleophilen konnte kein Umsatz beobachtet werden. Bei den Hydrierungsreaktionen konnten moderate bis gute Reaktivitäten beobachtet werden, allerdings konnte hier keine Enantioselektivität erzielt werden. Mit dem Pyrazolylalkohol 2-(1,5-Dimethylpyrazol-3-yl)propan-2-ol konnte zwar kein P,N-Ligand dargestellt werden, aber es konnte eine Reihe von Übergangsmetallkomplexen synthetisiert werden. Dabei zeigte sich, dass diese Verbindung einen interessanten Liganden darstellt, welcher verschiedene Koordinationsmodi ermöglicht. Durch das acide Proton des Alkohols sind zusätzlich intra- und intermolekulare Wasserstoffbrückenbindungen möglich. So konnten monomere, dimere und polymere Metallkomplexe beobachtet werden. Die Verbindungen wurden im Hinblick auf ihre strukturellen, spektroskopischen und magnetischen Eigenschaften untersucht.
In robotics, information is often regarded as a means to an end. The question of how to structure information and how to bridge the semantic gap between different levels of abstraction in a uniform way is still widely regarded as a technical issue. Ignoring these challenges appears to lead robotics into a similar stasis as experienced in the software industry of the late 1960s. From the beginning of the software crisis until today, numerous methods, techniques, and tools for managing the increasing complexity of software systems have evolved. The attempt to transfer several of these ideas towards applications in robotics yielded various control architectures, frameworks, and process models. These attempts mainly provide modularisation schemata which suggest how to decompose a complex system into less complex subsystems. The schematisation of representation and information flow however is mostly ignored. In this work, a set of design schemata is proposed which is embedded into an action/perception-oriented design methodology to promote thorough abstractions between distinct levels of control. Action-oriented design decomposes control systems top-down and sensor data is extracted from the environment as required. This comes with the problem that information is often condensed in a premature fashion. That way, sensor processing is dependent on the control system design resulting in a monolithical system structure with limited options for reusability. In contrast, perception-oriented design constructs control systems bottom-up starting with the extraction of environment information from sensor data. The extracted entities are placed into structures which evolve with the development of the sensor processing algorithms. In consequence, the control system is strictly dependent on the sensor processing algorithms which again results in a monolithic system. In their particular domain, both design approaches have great advantages but fail to create inherently modular systems. The design approach proposed in this work combines the strengths of action orientation and perception orientation into one coherent methodology without inheriting their weaknesses. More precisely, design schemata for representation, translation, and fusion of environmental information are developed which establish thorough abstraction mechanisms between components. The explicit introduction of abstractions particularly supports extensibility and scalability of robot control systems by design.
In the classical Merton investment problem of maximizing the expected utility from terminal wealth and intermediate consumption stock prices are independent of the investor who is optimizing his investment strategy. This is reasonable as long as the considered investor is small and thus does not influence the asset prices. However for an investor whose actions may affect the financial market the framework of the classical investment problem turns out to be inappropriate. In this thesis we provide a new approach to the field of large investor models. We study the optimal investment problem of a large investor in a jump-diffusion market which is in one of two states or regimes. The investor’s portfolio proportions as well as his consumption rate affect the intensity of transitions between the different regimes. Thus the investor is ’large’ in the sense that his investment decisions are interpreted by the market as signals: If, for instance, the large investor holds 25% of his wealth in a certain asset then the market may regard this as evidence for the corresponding asset to be priced incorrectly, and a regime shift becomes likely. More specifically, the large investor as modeled here may be the manager of a big mutual fund, a big insurance company or a sovereign wealth fund, or the executive of a company whose stocks are in his own portfolio. Typically, such investors have to disclose their portfolio allocations which impacts on market prices. But even if a large investor does not disclose his portfolio composition as it is the case of several hedge funds then the other market participants may speculate about the investor’s strategy which finally could influence the asset prices. Since the investor’s strategy only impacts on the regime shift intensities the asset prices do not necessarily react instantaneously. Our model is a generalization of the two-states version of the Bäuerle-Rieder model. Hence as the Bäuerle-Rieder model it is suitable for long investment periods during which market conditions could change. The fact that the investor’s influence enters the intensities of the transitions between the two states enables us to solve the investment problem of maximizing the expected utility from terminal wealth and intermediate consumption explicitly. We present the optimal investment strategy for a large investor with CRRA utility for three different kinds of strategy-dependent regime shift intensities – constant, step and affine intensity functions. In each case we derive the large investor’s optimal strategy in explicit form only dependent on the solution of a system of coupled ODEs of which we show that it admits a unique global solution. The thesis is organized as follows. In Section 2 we repeat the classical Merton investment problem of a small investor who does not influence the market. Further the Bäuerle-Rieder investment problem in which the market states follow a Markov chain with constant transition intensities is discussed. Section 3 introduces the aforementioned investment problem of a large investor. Besides the mathematical framework and the HJB-system we present a verification theorem that is necessary to verify the optimality of the solutions to the investment problem that we derive later on. The explicit derivation of the optimal investment strategy for a large investor with power utility is given in Section 4. For three kinds of intensity functions – constant, step and affine – we give the optimal solution and verify that the corresponding ODE-system admits a unique global solution. In case of the strategy-dependent intensity functions we distinguish three particular kinds of this dependency – portfolio-dependency, consumption-dependency and combined portfolio- and consumption-dependency. The corresponding results for an investor having logarithmic utility are shown in Section 5. In the subsequent Section 6 we consider the special case of a market consisting of only two correlated stocks besides the money market account. We analyze the investor’s optimal strategy when only the position in one of those two assets affects the market state whereas the position in the other asset is irrelevant for the regime switches. Various comparisons of the derived investment problems are presented in Section 7. Besides the comparisons of the particular problems with each other we also dwell on the sensitivity of the solution concerning the parameters of the intensity functions. Finally we consider the loss the large investor had to face if he neglected his influence on the market. In Section 8 we conclude the thesis.
Die vorliegende Arbeit beschreibt die Synthese enantiomerenreiner N,N-heterozyklischer Liganden, die Analoga zu den bekannten chiralen Bisphosphanen BINAP, DIOP und PHANEPHOS darstellen. Die Synthese des enantiomerenreinen (R,S)-Dimethyl[1,1'-binaphthyl]-2,2'-dicarboxylat, welches für die Darstellung von (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl benötigt wird, gelang über zwei literaturbekannte Syntheserouten. Durch anschließende Umsetzung mit NaH und DMSO in THF konnte das entsprechende Ketosulfoxid erhalten werden, welches mittels Zink in einem Ethanol/Essigsäure-Gemisch zur Acetylverbindung reduziert wurde. Durch die Kondensation der Acetylvorstufe mit N,N-Dimethylformamiddimethylacetal sowie der anschließenden Zyklisierung mit Hydrazin-Monohydrat gelang es, das gewünschte Bispyrazolylbinaphthyl zu erhalten. 1H-NMR Untersuchungen weisen auf die Ausbildung einer supramolekularen Struktur hin. Der eindeutige Nachweis gelang jedoch durch die Analyse von Einkristallen mittels Röntgendiffraktometrie. Die Festkörperstruktur zeigt, dass sich durch Wasserstoffbrücken zu den Stickstoffatomen benachbarter Moleküle eine Trimerstruktur ausbildet. Durch den anschließenden Austausch der NH-Protonen gegen die linearkoordinierenden Gruppe 11 Metalle (Cu(I), Ag(I) und Au(I)) konnten stark fluoreszierende sechskernige Komplexe erhalten werden. Des Weitern wurde (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl mit verschiedenen Rutheniumvorstufen umgesetzt, deren Aktivität anschließend in der asymmetrischen Transferhydrierung von Acetophenon untersucht wurden. Die Löslichkeit des Liganden konnte durch Substitution der Protonen in Position 1 bzw. 5 der Pyrazolringe durch Alkylgruppen erhöht werden. Durch die Reaktion des Aminopropenon mit Guanidincarbonat wurde (R)-2,2'-Bis-4-[pyrimidin-2-amin]-1,1'-binaphthyl erhalten, welches einen weiteren interessanten N,N-Donorliganden darstellt. Die Synthese des 3,3'-((4S,5S)-2,2'-Alkyl-1,3-dioxolan-4,5-diyl)bis(1H-pyrazol) erfolgt ausgehend von der kostengünstigen enantiomerenreinen Weinsäure. Über die Stufe des Weinrebamid konnte schließlich die Acetylverbindung generiert werden. Die darauf folgende Kondensation mit DMF-DMA und anschließendem Ringschluss mit Hydrazinhydrat führte zu dem gewünschten Bispyrazol. Die Umsetzung des Dioxolanliganden mit Allylpaladium(II)chlorid-Dimer führte zu einem einkernigen Komplex. Nach Deprotonierung des Liganden und anschließender Umsetzung mit [RhCODCl]2 konnte dagegen ein vierkerniger Rhodiumkomplex beobachtet werden. Neben den Bispyrazolen, die eine Chiralitätsebene sowie ein Chiralitätszentrum aufweisen, gelang es über die Vorstufe der racemischen [2,2‘]-Paracyclophan-3,11-dicarbonsäure ein Bispyrazol zu synthetisieren, das eine planare Chiralität aufweist.
Decarboxylierende Kreuzkupplungen sind eine neue Synthesestrategie zur Darstellung von unsymmetrischen Biarylen oder Ketonen aus Kaliumcarboxylatsalzen und Arylhalogeniden. Im Vergleich zu traditionellen Kreuzkupplungsreaktionen (z.B. Suzuki-Miyaura-Reaktion) kann mit dieser Methode auf den Einsatz von stöchiometrischen Metallverbindungen verzichtet werden, was zu einer nachhaltigeren Synthese führt. In der vorliegenden Arbeit sind neue bimetallische Katalysatorgenerationen entwickelt worden, die die decarboxylierende Kreuzkupplung mit Arylsulfonaten (Aryltriflate u. -tosylate) ermöglicht. Durch die Kombination von Sulfonatkupplungspartnern und Mikrowellenstrahlung konnte die Anwendungsbreite der Reaktion erheblich vergrößert werden und die Reaktionszeit von Stunden auf wenige Minuten reduziert werden. Die Entwicklung eines neuen silberbasierten Katalysators erlaubt die Absenkung der Reaktionstemperatur auf 130 °C und eröffnet durch seine Reaktivität die Umsetzung neuer Benzoesäuren in der Kupplung. Ein neues vollständig lösliches Katalysatorsystem wurde entwickelt mit dem ein Durchflussverfahren für decarboxylierende Kreuzkupplungen gelungen ist.
Städte und Regionen stehen vor den Herausforderungen einer wachsenden internationalen Standortkonkurrenz, die zu einem steigenden Wettbewerb führt. In diesem Wettbewerb haben Großstädte und Großstadtregionen eine ökonomische Schlüsselstellung inne. Vor dem Hintergrund hat die Bundesraumordnung angestrebt, mit Hilfe eines strategischen Leitbildes – dem Konzept der Europäischen Metropolregionen – die bestehenden Agglomerationen in ihrer internationalen Ausstrahlung zu stärken. Das Konzept wurde in Deutschland im Raumordnungspolitischen Handlungsrahmen im Jahr 1995 erstmals dargestellt sowie in den im Jahr 2006 verabschiedeten Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland gefestigt. Metropolregionen werden als „Motoren der gesellschaftlichen, wirtschaftlichen, sozialen und kulturellen Entwicklung [gesehen, deren] herausragende Funktionen im internationalen Maßstab über die nationalen Grenzen hinweg ausstrahlen.“ Für die nachfolgenden Planungsinstanzen ergibt sich aus diesen Leitbildern keine verbindliche Fortführungspflicht sowie für die Akteure vor Ort keine Umsetzungspflicht. Dessen ungeachtet haben sich die Metropolregionen mit verschiedenen Organisationsformen und Aufgabenstellungen unter Verwendung dieses Labels gebildet, wobei sich die Implementation des Konzepts der Metropolregionen in den elf deutschen Metropolregionen unterschiedlich darstellt. In den sich teilweise neu konstituierenden, teilweise auf der Basis bestehender regionaler Kooperationen weiterentwickelnden Metropolregionen bilden und stärken sich in unterschiedlicher Form regionale Netzwerke zwischen politischen, wirtschaftlichen und weiteren gesellschaftlichen Akteuren mit dem Ziel die Region weiterzuentwickeln. Vor diesem Hintergrund analysiert die Arbeit die Implementation des Konzepts der Metropolregionen in Deutschland und nimmt eine Bewertung der Bedeutung dieses Konzeptes für die regionale und kommunale Entwicklung der Regionen vor. Die Analyse erfolgt anhand der Metropolregionen Hamburg und Nürnberg. Der Fokus liegt auf der Analyse der entstandenen regionalen Netzwerk- und Kooperationsstrukturen. Aus den Ergebnissen werden Handlungsansätze für die weitere Arbeit der Metropolregionen erarbeitet und zur Diskussion gestellt, die geeignet erscheinen die regionale Entwicklung der Metropolregionen sowie deren internationale Ausstrahlung zu befördern. In der Metropolregion Hamburg hat sich eine bestehende Verwaltungskooperation der drei Bundesländer Hamburg, Niedersachsen und Schleswig-Holstein schrittweise zu einer strategischen Zusammenarbeit weiterentwickelt, die eine Internationalisierungsstrategie für die gesamte Metropolregion verfolgt. In der monozentrischen Metropolregion ist die Stadt Hamburg das dominierende Zentrum. Aufgrund der Entwicklung der Zusammenarbeit aus der Verwaltungskooperation der drei Bundesländer heraus, sind die Gremien und offiziellen Strukturen von administrativen und politischen Vertretern geprägt, wohingegen Akteure aus der Wirtschaft kaum eingebunden sind. Regionale Netzwerke, die unterschiedliche Akteursgruppen einbeziehen, existieren überwiegend außerhalb der eigentlichen Strukturen der Metropolregion Hamburg und haben einen anderen räumlichen Zuschnitt als diese. In Nürnberg hat sich im Anschluss an die Bewerbung um die Anerkennung als Metropolregion im Jahr 2005 eine eigene und neue Struktur der regionalen Zusammenarbeit mit dem zentralen Ziel der Steigerung der internationalen Sichtbarkeit der gesamten Region entwickelt. Die Metropolregion Nürnberg ist in schlanken Netzwerkstrukturen organisiert, die Akteure aus Politik, Verwaltung, Wirtschaft und Gesellschaft einbeziehen, wobei die Entscheidungen von einem Rat der Metropolregion beschlossen werden, der sich aus gewählten politischen Vertretern aus den Gemeinden, Landkreisen und kreisfreien Städten zusammensetzt. Aufbauend auf der Analyse der Ausgangssituation beider Metropolregionen, ihrer Strukturen der regionalen Zusammenarbeit, ihren Zielsetzungen, der Projektarbeit sowie der Arbeit der regionalen Netzwerke werden Handlungsempfehlungen für vier Bereiche erarbeitet: die Auseinandersetzung mit der Frage der räumlichen „Grenzziehung“ bzw. der variablen Geometrie und die sich daraus ergebenden Herausforderungen für die Projektarbeit, die Weiterentwicklung der bestehenden Netzwerke bzw. der Möglichkeiten die Strukturen für die regionale und kommunale Entwicklung stärker in Wert zu setzen, die Formulierung strategischer Anforderungen an die Projektarbeit und die Diskussion möglicher Projekte sowie die Darstellung von Anforderungen für die langfristige Implementation des Konzepts. Darüber hinaus werden Erfolgsfaktoren und Hemmnisse der beiden Regionen abgeleitet, die für die Entwicklung anderer deutscher Metropolregionen als Orientierung dienen können. Dazu gehören sowohl fachlich-inhaltliche Aspekte als auch organisatorische und auf die Strukturen der Zusammenarbeit bezogene Faktoren.
Multi-Field Visualization
(2011)
Modern science utilizes advanced measurement and simulation techniques to analyze phenomena from fields such as medicine, physics, or mechanics. The data produced by application of these techniques takes the form of multi-dimensional functions or fields, which have to be processed in order to provide meaningful parts of the data to domain experts. Definition and implementation of such processing techniques with the goal to produce visual representations of portions of the data are topic of research in scientific visualization or multi-field visualization in the case of multiple fields. In this thesis, we contribute novel feature extraction and visualization techniques that are able to convey data from multiple fields created by scientific simulations or measurements. Furthermore, our scalar-, vector-, and tensor field processing techniques contribute to scattered field processing in general and introduce novel ways of analyzing and processing tensorial quantities such as strain and displacement in flow fields, providing insights into field topology. We introduce novel mesh-free extraction techniques for visualization of complex-valued scalar fields in acoustics that aid in understanding wave topology in low frequency sound simulations. The resulting structures represent regions with locally minimal sound amplitude and convey wave node evolution and sound cancellation in time-varying sound pressure fields, which is considered an important feature in acoustics design. Furthermore, methods for flow field feature extraction are presented that facilitate analysis of velocity and strain field properties by visualizing deformation of infinitesimal Lagrangian particles and macroscopic deformation of surfaces and volumes in flow. The resulting adaptive manifolds are used to perform flow field segmentation which supports multi-field visualization by selective visualization of scalar flow quantities. The effects of continuum displacement in scattered moment tensor fields can be studied by a novel method for multi-field visualization presented in this thesis. The visualization method demonstrates the benefit of clustering and separate views for the visualization of multiple fields.
Ziel dieser Arbeit war, die Entwicklung von übergangsmetallkatalysierten Kreuzkupplungsreaktionen zur Kohlenstoff-Kohlenstoff-Bindungsknüpfungen, bei denen Carbonsäuren anstelle der traditionell verwendeten, jedoch ökologisch bedenklichen Organometall-verbindungen (z. B. metallorganische Verbindungen der Elemente Bor, Zinn, Zink, Kupfer oder Magnesium) als Startmaterialien eingesetzt werden. Der wesentlich Schwerpunkt dieser Arbeit bestand darin, die zu diesem Zeitpunkt neu entwickelte decarboxylierende Kreuzkupplungsreaktion von aromatischen Carbonsäuren mit Arylhalogeniden zur synthetischen Reife zu führen.
This thesis has the goal to propose measures which allow an increase of the power efficiency of OFDM transmission systems. As compared to OFDM transmission over AWGN channels, OFDM transmission over frequency selective radio channels requires a significantly larger transmit power in order to achieve a certain transmission quality. It is well known that this detrimental impact of frequency selectivity can be combated by frequency diversity. We revisit and further investigate an approach to frequency diversity based on the spreading of subsets of the data elements over corresponding subsets of the OFDM subcarriers and term this approach Partial Data Spreading (PDS). The size of said subsets, which we designate as spreading factor, is a design parameter of PDS, and by properly choosing , depending on the system designer's requirements, an adequate compromise between a good system performance and a low complexity can be found. We show how PDS can be combined with ML, MMSE and ZF data detection, and it is recognized that MMSE data detection offers a good compromise between performance and complexity. After having presented the utilization of PDS in OFDM transmission without FEC encoding, we also show that PDS readily lends itself for FEC encoded OFDM transmission. We display that in this case the system performance can be significantly enhanced by specific schemes of interleaving and utilization of reliabiliy information developed in the thesis. A severe problem of OFDM transmission is the large Peak-to-Average-Power Ratio (PAPR) of the OFDM symbols, which hampers the application of power efficient transmit amplifiers. Our investigations reveal that PDS inherently reduces the PAPR. Another approch to PAPR reduction is the well known scheme Selective Data Mapping (SDM). In the thesis it is shown that PDS can be beneficially combined with SDM to the scheme PDS-SDM with a view to jointly exploit the PAPR reduction potentials of both schemes. However, even when such a PAPR reduction is achieved, the amplitude maximum of the resulting OFDM symbols is not constant, but depends on the data content. This entails the disadvantage that the power amplifier cannot be designed, with a view to achieve a high power efficiency, for a fixed amplitude maximum, what would be desirable. In order to overcome this problem, we propose the scheme Optimum Clipping (OC), in which we obtain the desired fixed amplitude maximum by a specific combination of the measures clipping, filtering and rescaling. In OFDM transmission a certain number of OFDM subcarriers have to be sacrificed for pilot transmission in order to enable channel estimation in the receiver. For a given energy of the OFDM symbols, the question arises in which way this energy should be subdivided among the pilots and the data carrying OFDM subcarriers. If a large portion of the available transmit energy goes to the pilots, then the quality of channel estimation is good, however, the data detection performs poor. Data detection also performs poor if the energy provided for the pilots is too small, because then the channel estimate indispensable for data detection is not accurate enough. We present a scheme how to assign the energy to pilot and data OFDM subcarriers in an optimum way which minimizes the symbol error probability as the ultimate quality measure of the transmission. The major part of the thesis is dedicated to point-to-point OFDM transmission systems. Towards the end of the thesis we show that the PDS can be also applied to multipoint-to-point OFDM transmission systems encountered for instance in the uplinks of mobile radio systems.
A Multi-Phase Flow Model Incorporated with Population Balance Equation in a Meshfree Framework
(2011)
This study deals with the numerical solution of a meshfree coupled model of Computational Fluid Dynamics (CFD) and Population Balance Equation (PBE) for liquid-liquid extraction columns. In modeling the coupled hydrodynamics and mass transfer in liquid extraction columns one encounters multidimensional population balance equation that could not be fully resolved numerically within a reasonable time necessary for steady state or dynamic simulations. For this reason, there is an obvious need for a new liquid extraction model that captures all the essential physical phenomena and still tractable from computational point of view. This thesis discusses a new model which focuses on discretization of the external (spatial) and internal coordinates such that the computational time is drastically reduced. For the internal coordinates, the concept of the multi-primary particle method; as a special case of the Sectional Quadrature Method of Moments (SQMOM) is used to represent the droplet internal properties. This model is capable of conserving the most important integral properties of the distribution; namely: the total number, solute and volume concentrations and reduces the computational time when compared to the classical finite difference methods, which require many grid points to conserve the desired physical quantities. On the other hand, due to the discrete nature of the dispersed phase, a meshfree Lagrangian particle method is used to discretize the spatial domain (extraction column height) using the Finite Pointset Method (FPM). This method avoids the extremely difficult convective term discretization using the classical finite volume methods, which require a lot of grid points to capture the moving fronts propagating along column height.
The present PhD thesis is mainly focused on synthesis, characterization and catalytic application of functionalized triphenylphosphine (TPP) ligands and their complexes. We developed a simple and effective strategy to immobilize TPP: A methylester group attached to one of the phenyl rings of TPP allowes the derivatization of the ligand with 3-trimethoxysilylpropylamine, a typical silane coupling agent used for the covalent immobilization of organic compounds on silica surfaces. The resulting functionalized TPP was further coordinated to Pd, Rh and Ru precursors to achieve homogeneous complexes which can be tethered on silica by the post synthetic grafting method and co-condensation method. The obtained heterogeneous catalysts exhibited excellent activity, selectivity and reusability in Suzuki, hydrogenation and transfer hydrogenation reactions. In order to investigate the stability of the catalysts, different types of characterizations such as TEM, solid state NMR of the used catalysts as well as AAS of filtrate and leaching tests were carried out. The results prove the practicability and efficiency of our method. This strategy was further modified to generate an anionic side chain linked to the TPP core by simply replacing the trimethoxysilylpropylamine group by sodium(3-amino- 1-propanesulfonate), which allowes the immobilization on imidazolium modified SBA-15 through electrostatic interaction. The obtained material was further reacted with PdCl2(CNPh)2 and the resulting hybrid material was used for the hydrogenation of olefins allowing mild reaction conditions. The catalyst shows excellent activity, selectivity and stability and it can furthermore be reused for at least ten times without any loss of activity. TEM images of the used catalyst clearly show the absence of palladium nanoparticles, proving the high stability of the palladium compound. By AAS no palladium could be detected in the products and further leaching tests very- fied the reaction to be truly heterogeneous. This concept of non-covalent immobili- zation guarantees a tight bonding of the catalytically active species to the surface in combination with a high mobility, which should be favorable for other catalyses.
Neutrale Oxovanadium(V)-Komplexe mit einem zweibasischen ONO-Chelatliganden und einem monovalenten, kinetisch labilen Liganden wurden aus 2,6-cis-substituierten Piperidinen synthetisiert. Die Komplexe wurden strukturell charakterisiert und hinsichtlich ihrer Eignung zur Aktivierung von Peroxiden in mechanistischen und synthetischen Studien untersucht. Die benötigten Auxiliare ließen sich ausgehend von Pyridin-2,6-dicarbonsäurederivaten sowohl in achiraler (meso) als auch in chiraler Form (C1-Symmetrie) in mehrstufigen Synthesen in ausreichender Menge darstellen. Die so gewonnenen heterocyclischen Aminodiole reagierten mit VO(OEt)3 in Ausbeuten von 63–90 % zu Oxovanadium(V)-Piperidinkomplexen. Die Vanadiumkomplexe waren in Lösung sowohl in Abwesenheit als auch in Anwesenheit von TBHP über einen Zeitraum von drei Tagen (erwartete Maximaldauer von Oxidationsexperimenten) stabil, ließen sich aber von N-2-Hydroxybenzyliden-2-aminophenol quantitativ aus der Vanadiumverbindung verdrängen. Die Eignung der Oxovanadium(V)-Komplexe als Oxidationskatalysatoren wurde mit Hilfe des Thianthren-5-oxid-Testes (xSO–Test) untersucht. Dabei überwog die Oxygenierung am Thioether-Schwefel, so dass der Reagenzkombination aus Oxovanadium(V)-Piperidinkomplex und TBHP eher elektrophile als nucleophile Eigenschaften zugeordnet werden können. Die neuen Katalysatoren eigneten sich, um Tetrahydrofuranderivate teilweise hoch diastereoselektiv aus substituierten 4-Pentenolen aufzubauen. Die Ausbeuten an O-Heterocyclen lagen für das 5-exo-Produkt in einem Bereich von 76–82 % mit cis-Selektivitäten für an der Doppelbindung dimethyl-substituierte Substrate von 54:46 bis 95:5. Unter turnover Bedingungen erwies sich der Ligandentyp als hinreichend robust, um in 91%iger Ausbeute zurückgewonnen werden zu können. Bei vergleichbarer Selektivität gegenüber bisher verfügbaren Katalysatoren schienen Oxovanadiumpiperidinkomplexe eine deutlich höhere Standfestigkeit zu besitzen. Alle in dieser Arbeit durchgeführten Vanadium-katalysierten Oxidationen von 5-Methyl-1-phenylhex-4-en-1-ol lieferten 3-Benzoyloxy-2,2-dimethyl-5--butyrolacton als unerwünschtes Begleitprodukt. Je höher die Lactonausbeute war, desto weniger Zielmolekül cis-2-(2-Hydroxyprop-2-yl)-tetrahydrofuran ließ sich isolieren. In einer Begleitstudie unter Einbezug positionsselektiv deuterierter 5-Methyl-1-phenylhex-4-en-1-ole wurde offensichtlich, dass das Nebenprodukt aus einer aeroben Folgereaktion aus cis-2-(2-Hydroxyprop-2-yl)-tetrahydrofuran entsteht. Künftige V/TBHP-basierende Alkenoloxygenierungen sollten daher unter anaeroben Bedingungen durchgeführt werden. Versuche einen chiralen Oxovanadium(V)-Piperidinkomplex zur enantioselektiven Oxygenierung einzusetzen, lieferten nur racemische Produkte. Zur Enantiomerenanalytik wurde ein neues, weitgehend hydrolysestabiles Derivatisierungsreagenz entwickelt, das sich in allen Fällen als zuverlässige und preiswerte Alternative zu existierenden Verfahren zur Enantiomerenbestimmung primärer, sekundärer und tertiärer Alkohole bewährte.
Due to remarkable technological advances in the last three decades the capacity of computer systems has improved tremendously. Considering Moore's law, the number of transistors on integrated circuits has doubled approximately every two years and the trend is continuing. Likewise, developments in storage density, network bandwidth, and compute capacity show similar patterns. As a consequence, the amount of data that can be processed by today's systems has increased by orders of magnitude. At the same time, however, the resolution of screens has hardly increased by a factor of ten. Thus, there is a gap between the amount of data that can be processed and the amount of data that can be visualized. Large high-resolution displays offer a way to deal with this gap and provide a significantly increased screen area by combining the images of multiple smaller display devices. The main objective of this dissertation is the development of new visualization and interaction techniques for large high-resolution displays.
Zahlreiche neue und andauernde Herausforderungen sowie verschiedenste Rahmenbedingungen beeinflussen die Raumentwicklungspolitik: Globalisierung und Standortwettbewerb der Regionen,Veränderung des Staatsverständnisses und Europäisierung, Regionalisierung der Aktionsräume, demographischer Wandel und die Haushaltsnot öffentlicher Kassen. Ein instrumenteller Ansatz der Raumentwicklungspolitik zur Lösung der Probleme ist dabei die Kooperation zwischen Gebietskörperschaften,die in vielerlei Hinsicht positive Skaleneffekte hervorruft. Hierbei wird die kleinräumige interkommunale Kooperation schon seit etlichen Jahrzehnten angewandt. Aufgrund der zunehmenden Regionalisierung der Aktionsräume aller gesellschaftlichen Akteure stellt sich allerdings vermehrt die Frage, inwiefern interkommunale Kooperationen auch auf großräumigere Zusammenhänge ausgedehnt werden können. Im Sinne der Policy-Forschung wird in der vorliegenden Arbeit die Politikidee, mit großräumigen regionalen Kooperationen zu einer besseren und effizienteren Raum- und Wirtschaftsentwicklung zu kommen, auf ihre Rahmenbedingungen und ihre Praxistauglichkeit untersucht. Die Policy-Analyse mit ihren Untersuchungsmethoden bietet im Hinblick auf Akteure, Politikentstehung, Steuerungsmechanismen und Konfliktlösung dazu die entsprechenden Instrumente. Sowohl kleinräumige als auch großräumige Kooperationen zwischen Gebietskörperschaften und weiteren Akteuren bewegen sich aus raumentwicklungspolitischer Sicht immer im Spannungsfeld zwischen ausgleichs- und wachstumsorientierter Raumentwicklung. Während der Ansatz der „großräumigen Verantwortungsgemeinschaften“, der als „Überregionale Partnerschaften“ Inhalt eines Modellvorhabens der Raumordnung ist, eher in Richtung Ausgleich tendiert, sind großräumige regionale Kooperationen im Sinne der vorliegenden Arbeit per se nicht einem Pol zuzuordnen. So sind wachstumsorientierte Kooperationen ebenso denkbar wie ausgleichsorientierte, wobei letztere aufgrund des regelmäßig größeren räumlichen Umgriffs eher zu erwarten sind. Für großräumige regionale Kooperationen stellen sich ähnliche Anforderungen an ihre Organisation wie an klassische interkommunale Kooperationen. Dabei zeigt sich, dass sich die großräumige regionale Kooperation von den anderen Kooperationen in erster Linie dadurch unterscheidet, dass sie eine größere räumliche Entfernung zwischen den Kooperationspartnern aufweist als die meisten anderen „gängigen“ Kooperationen, sich die Raumstruktur der Kooperanden in der Regel deutlich unterscheidet und demnach mehr unterschiedliche als gemeinsame bzw. gleiche Herausforderungen bestehen. Es zeigt sich, dass großräumige regionale Kooperationen in erster Linie punktuell, d. h. in einzelnen Policy-Feldern, möglich sind. Durch die Bearbeitung nur eines Policy-Feldes ist es umso schwieriger, den Nutzen der Kooperation gerecht zu verteilen. Der Aufbau einer gemeinsamen Kooperations- und Planungskultur ist zwischen unterschiedlichen Räumen in großräumigen regionalen Kooperationen ebenfalls schwieriger zu bewerkstelligen als in räumlich relativ eng gefassten interkommunalen und regionalen Kooperationen. Durch die größere Entfernung kann es zum Teil bereits zu Mentalitätsunterschieden zwischen den handelnden Akteuren kommen. Im empirisch untersuchten Beispiel konzentrieren sich die Kooperationen zwischen dem Rhein-Hunsrück-Raum und dem Rhein-Main-Gebiet auf die jeweiligen räumlichen Randbereiche. Direkte Kooperationen zwischen den Ausgangs- und Entwicklungsschwerpunkten der beiden Regionen – d. h. Kooperationen großräumigerer Art – finden sich erst in Ansätzen. Dies vermag nicht zu verwundern, da beide Regionen erst in geringem Maße (Region Rhein-Hunsrück) bzw. nicht unumstritten (Ballungsraum Frankfurt/Rhein-Main) institutionalisiert sind und somit keine Institution für Großteile der Region ihre Stimme erheben kann. Hierzu müssen im Sinne einer Regional Governance noch entsprechende Strukturen geschaffen bzw. weiterentwickelt werden. Die größte Herausforderung großräumiger regionaler Kooperationen ist die Integration kleinerer Maßnahmen, lokaler und regionaler Entwicklungskonzepte sowie Leuchtturmprojekte in ein strategisches Gesamtkonzept. Dies stellt aber ein aufwändiges und schwieriges Unterfangen dar und widerspricht damit der Forderung nach schnellen Erfolgen und konkreten, überschaubaren Projekten, welche eine Kooperation für ihren Erfolg benötigt. Insofern steht der Etablierung großräumiger regionaler Kooperationen noch ein langer Weg bevor, dessen Beschreitung allerdings angesichts der vielfältigen Herausforderungen an Kommunal-, Regional- und Raumentwicklung nur schwerlich umgangen werden kann.
Innerhalb der eingereichten Arbeit wurden ionische Cluster mittels IR- und kombinierter IR+UV-Spektroskopie untersucht und durch Vergleich mit theoretischen Untersuchungen Strukturen zugeordnet. Die Arbeit behandelt zum einen anionische Cluster aus Kobalt und Liganden (Alkohole, Alkane, Alkene) und zum anderen kationische Cluster aus Aluminium und Aminosäuren bzw. Peptiden. Es wurde IR-Photodissoziationsspektroskopie an isolierten anionischen Clustern aus 1-4 Kobalt und 1-3 Alkohol Einheiten im Molekularstrahl angewendet und mit Hilfe von DFT- Rechnungen Strukturen und Spinzustände zugeordnet. In allen untersuchten Spezies wurden lediglich Wasserstoffbrücken der Form OH…Co beobachtet, aber keine Wasserstoffbrücken zwischen den Alkohol Molekülen. Es findet demnach eine sehr effiziente Anlagerung der Alkoholmoleküle an das Metall bzw. den Metallcluster statt. Weiterhin gibt es Hinweise darauf, dass Co3-Einheiten eine wichtige Rolle beim Aufbau von Kobalt/Alkohol-Clustern spielen. Um diesem Sachverhalt weiter nachzugehen, müssen die Untersuchungen auf größere Cluster ausgeweitet werden. Die große Rotverschiebung der OH-Streckschwingungsfrequenz vom reinen Alkohol zur gebundenen Spezies weist auf starke H-Brücken und eine starke Aktivierung der OH-Gruppe(n) durch den anionischen Metallcluster hin. Diese Spezies sind demnach gut geeignet, um OH-Gruppen für weitere Reaktionen zu aktivieren. Durch die deutlichen Einflüsse der Multiplizität der Cluster auf die Schwingungsfrequenzen können mit Hilfe der DFT-Rechnungen auch Aussagen über die Spinzustände getroffen werden. Die vorgestellten Untersuchungen zeigen somit, dass die Anwendung von IR-Spektroskopie neben der Strukturaufklärung auch Hinweise auf die Multiplizität geben kann. Ferner liefert die massen- und strukturselektive IR-Spektroskopie die Möglichkeit, die Aktivierung und Aggregation von Liganden an Metallcluster auf molekularer Ebene zu untersuchen. Weiterhin wurden IR-, UV- und eine neu entwickelte kombinierte IR+UV-Photodissoziationsspektroskopie zur Strukturanalyse von Clustern aus Aluminiumkationen und geschützten Aminosäuren sowie Dipeptidmodellen in der Gasphase durchgeführt. Durch den Vergleich mit theoretischen Analysen konnten Strukturen und Spinzustände für die [Al-AcPheOMe]+/3+-Spezies zugeordnet werden. Die Untersuchung des [Al-AcPheOMe]+ Clusters zeigte einige interessante Ergebnisse. Es konnten zwei verschiedene Konformere beobachtet werden, die sich nur bezüglich der Orientierung ihrer Seitenkette unterscheiden. Zudem konnte gezeigt werden, dass sich die Konformation des Rückgrats von AcPheOMe bei der Anlagerung von Al+ von einer b- Faltblatt-analogen Anordnung zu einer helicalen Form ändert, so dass sich Aluminium an beide CO-Gruppen anlagern kann. Im Falle des dreifach geladenen Clusters konnte erstmalig eine kombinierte IR+UV-Photodissoziationsspektroskopie auf Kationen angewendet werden. Hierbei handelt es sich um eine Weiterentwicklung der nonresonant ionization detected IR spectroscopy (NID-IR), die für neutrale Spezies entwickelt wurde. Diese Methode ermöglicht es, auch für stark gebundene Cluster, eine schwingungssensitive Dissoziation zu erhalten. Auf diese Art konnte ein Isomer beobachtet werden, das sich vom einfach geladenen Cluster ableiten lässt. Im Vergleich zum gestreckten AcPheOMe-Monomer beobachtet man insbesondere beim [Al-AcPheOMe]3+ eine stark globulare Form, die das Aluminium über die CO-Gruppen und den Phenylring einschließt und somit der Ladungsstabilisierung dient. Weiterhin wurden weitere geschützte Aminosäuren auf ihr Aggregationsverhalten mit Aluminiumkationen untersucht. [Al-AcTyr(Me)OMe]+ konnte nachgewiesen und spektroskopisch untersucht werden. Analog zu den Untersuchungen von [Al-AcPheOMe]+ wurden UV- und IR-Photodissoziationsspektren aufgenommen. Um jedoch den Einfluss der größeren Seitenkette des Tyrosins im Vergleich zu der des Phenylalanins zu ermitteln, sind noch detaillierte theoretische Strukturanalysen notwendig. IR-Photodissoziationsspektroskopie wurde auch bei kationischen Clustern aus Aluminium und der geschützten aliphatischen Aminosäure Valin durchgeführt. Hierbei konnte ebenfalls über die Anregung im NH-Streckschwingungsbereich eine Dissoziation des Clusters induziert werden. Da bisher nur wenige Rechnungen zu diesen beiden Systemen vorliegen, konnten noch keine eindeutigen Strukturzuweisungen erfolgen. Allerdings ist die Tendenz zu einer helicalen Konformation des Peptidrückgrats zu erkennen. Diese Arbeit beschreibt die erstmalige Anwendung von IR-Photodissoziationsspektroskopie an anionischen Kobalt/Ligand-Aggregaten sowie die Entwicklung einer neuen Technik, um hochgeladene ionische Cluster infrarotspektroskopisch untersuchen zu können. Mit Hilfe von DFT-Rechnungen können darüber hinaus Strukturen zugeordnet und Aussagen über Spinzustände getroffen werden.
Polychlorierte Biphenyle (PCBs) gehören zu den persistenten organischen Kontaminanten (eng. Persistent Organic Pollutants, POPs). Aufgrund ihrer chemischen Eigenschaften wurden die PCBs vielseitig in der Industrie eingesetzt. Jedoch reicherten sich die persistenten Stoffe in der Umwelt an und gelangten so in die Nahrungskette. Daher ist die Hauptexpositionsquelle für den Menschen die Nahrung, insbesondere fetthaltige Nahrung wie Fisch- und Fleischprodukte. Die 209 PCB-Kongenere können in zwei Gruppen unterteilt werden. Die dioxin-artigen PCBs (DL-PCBs) bilden eine kleine Gruppe von 12 PCBs, die strukturelle und toxikologische Gemeinsamkeiten mit Dioxinen, wie z.B. dem 2,3,7,8-Tetrachlorodibenzo-p-dioxin haben. Die nicht dioxin-artigen PCBs (NDL-PCBs) stellen den Rest der 209 Kongenere dar. Sie sind toxikologisch noch wenig charakterisiert, obwohl sie 90% der PCBs repräsentieren, die als Kontaminanten in Lebensmitteln vorkommen. Das Ziel der Arbeit war es die Effekte von ausgewählte NDL-PCBs auf fremdstoffmetabolisierender Leberenzyme, wie die Cytochrome P450 Monooxygenasen (CYP) und die UDP-Glucuronocyltransferasen (UGT), zu untersuchen. Im Rahmen dieser Arbeit wurde hochreine NDL-PCBs verwendet, die geringe dioxin-artige Verunreinigungen aufwiesen. In einer subakuten Studie wurden adulte Sprague-Dawley Ratten mit in Maiskeimöl gelöstem NDL-PCB 52 oder NDL-PCB 180 wiederholt per Schlundsonde behandelt. Die Gesamtdosen betrugen 0 bis 3000 mg/kg KG bei NDL-PCB 52 und 0 bis 1700 mg/kg KG bei NDL-PCB 180. Die Behandlungsdauer betrug 28 Tage. Auf Gen- und Proteinebene wurde keine Induktion von CYP1A1, CYP1A2 und CYP1B1 in der Leber festgestellt. Die CYP2B1-Expression hingegen wurde von beiden PCBs auf Gen- und Proteinebene induziert, wobei NDL-PCB 180 potenter schien. CYP3A1, UGT1A1 und UGT 1A6 wurde nur durch NDL-PCB 180 auf Gen- und Proteinebene induziert. Außerdem induzierten beide Kongenere die katalytische CYP2B1-Aktivität (PROD-Aktivität), wobei wiederum NDL-PCB 180 eine höhere Induktion verursachte. Es konnte auch nur für dieses PCB ein EC50-Wert der PROD-Aktivität von 34,5 ± 4,2 mg/kg KG für männliche und 120 ± 46,7 mg/kg KG für weibliche Tiere ermittelt werden. Die katalytische CYP1-Aktivität (EROD-Aktivität) wurde auch durch beide PCBs induziert, wobei bei NDL-PCB 52 nur bei den Männchen die Aktivität anstieg. In einer perinatal Studie wurden trächtige Spraque-Dawley Ratten mit NDL-PCBs 52 und 180 behandelt. Die Gesamtdosen betrugen 0 bis 3000 mg/kg KG bei NDL-PCB 52 bei NDL-PCB 180 0 bis 1000 mg/kg KG. Die Jungtiere wurden jeweils 7, 35 und 84 Tage nach der Geburt (PND) getötet. NDL-PCB 52 induzierte in keiner Gruppe die EROD-Aktivität. Die PROD-Aktivität wurde nur in der PND7-Gruppe in beiden Geschlechtern induziert. NDL-PCB 180 induzierte die EROD-Aktivität bei der PND7-Gruppe nur in der höchsten Gesamtdosis. Die PROD-Aktivität wurde jedoch konzentrations- und zeitabhängig induziert. In einer Maus-Studie wurden sechs NDL-PCBs (28, 52, 101, 138, 153, 180) und das DL-PCB 126 gestestet. Mit niedrigen Dosen (20 mg/kg KG bei NDL-PCBs, 200 µg/kg KG bei DL-PCB) sollten kurzfristige (1 Tag), mittelfristige (5 Tage) und subakute (28 Tage) Effekte auf Leberenzyme bestimmt werden. Das relative Lebergewicht wurde durch die Behandlung mit NDL-PCB 28 und DL-PCB 126 nach 5 und 28 Tagen erhöht und durch NDL-PCB 153 nach 28 Tagen. Die CYP1A1-Genexpression wurde nur durch DL-PCB 126 induziert. Die CYP2B10-Genexpression wurde in jeder Behandlungsgruppe durch die NDL-PCBs erhöht, mit der Ausnahme von NDL-PCB 28 und DL-PCB 126. Die PROD-Aktivität wurde nach 28 Tagen durch alle PCBs erhöht, nach 5 Tagen verursachte nur NDL-PCB 28 keine Induktion. Bei der 1 Tag-Studie wurde die Aktivität nur durch hochchlorierte PCBs 126, 153 und 180 induziert. Die EROD-Aktivität wurde durch DL-PCB 126 sehr hoch induziert. Erst nach 28 Tagen verursachten die andere PCBs ein Erhöhung der Aktivität. Bei in vitro-Versuchen mit transfizierten humanen Hepatomzellen (HepG2) wurden 20 PCBs getestet. Nach einer 48 stündigen Inkubationszeit vermochte nur DL-PCB 126 das transient transfizierte XRE (Xenobiotic Responsive Element) zu induizieren. Außerdem wurden auch die humanen PBREM/CAR (Phenobarbital Responsive Enhancer Module/Constitutive Androstane Receptor) und XREM (Xenobiotic Responsive Enhancer Module) transient resp. stabil transfiziert. Es zeigte sich, dass die Induktion vom Chlorierungsgrad abhing. Die fünf- und siebenfach chlorierten PCBs induzierten beide, wogegen vier und sechsfach chlorierte eher PBREM/CAR induzierten. Es konnte gezeigt werden, dass die große Gruppe der NDL-PCBs bezüglich ihrer Wirkung keine homogene Gruppe bilden. Bei den Tierversuchen scheinen die hochchlorierten PCBs Mixtyp-Induktoren zu sein, wogegen die niedrigchlorierten eher CYP2B induzierten oder kein Effekt bewirkten. In vitro bestätigte sich, dass der Chlorierungsgrad bei der Induktion der Gene eine wichtige Rolle spielt.
A main result of this thesis is a conceptual proof of the fact that the weighted number of tropical curves of given degree and genus, which pass through the right number of general points in the plane (resp., which pass through general points in R^r and represent a given point in the moduli space of genus g curves) is independent of the choices of points. Another main result is a new correspondence theorem between plane tropical cycles and plane elliptic algebraic curves.
Charakterisierung der DNA-schädigenden Wirkung von Acrylamid in Lebensmitteln am Modell der Ratte
(2010)
Die alpha,beta-ungesättigte Carbonylverbindung Acrylamid entsteht beim Erhitzen von kohlenhydratreichen Lebensmitteln aus der Reaktion von Aminosäuren (hauptsächlich Asparagin) und reduzierenden Zuckern als Nebenprodukt der Maillard-Reaktion. In Langzeitstudien an Ratten wurde ein kanzerogenes Potential von Acrylamid nachgewiesen, was zu seiner Klassifizierung als „wahrscheinlich kanzerogen am Menschen“ (Kategorie 2a) durch die International Agency for Research on Cancer führte. Als Auslöser der Kanzerogenität von Acrylamid wird ein genotoxischer Mechanismus vermutet, der auf der Reaktion von Glycidamid mit der DNA unter Ausbildung des Hauptadduktes N7-Glycidamid-Guanin (N7-GA-Guanin) basiert. Das Ziel der vorliegenden Arbeit war die Untersuchung der genotoxischen Wirkung von Acrylamid in vivo anhand des modifizierten Comet Assays sowie der massenspektrometrischen Untersuchung von N7-GA-Guanin-Addukten. Die Problematik wurde in zwei Teilprojekten bearbeitet. Zum einen wurde die Auswirkung verschiedener Lebensmittelmatrices auf die genotoxische Wirkung von Acrylamid in der Ratte im Vergleich zur Acrylamid-Aufnahme über Trinkwasser per Schlundsonde untersucht. Dazu wurden jeweils drei Ratten über maximal neun Tage mit Acrylamid-Dosen von 50 µg/kg KG/d in Trinkwasser oder Brotkruste bzw. 100 µg/kg KG/d in Trinkwasser (Schlundsonde), geschnittenen und rekonstituierten Pommes Frites sowie Lebkuchen behandelt. Zusätzlich wurde jeweils drei Tiere einmalig eine Dosis von 450 µg bzw. 900 µg Acrylamid/kg KG in Trinkwasser mittels Schlundsonde verabreicht, was der maximalen Aufnahmemenge über neun Tage entspricht. Außerdem wurde zwei Tieren einmalig 10 mg Acrylamid/kg KG in Trinkwasser per Schlundsonde gegeben. Die Tötung der Tiere sowie Blut- und Organentnahme erfolgten 24 Stunden nach der letzten Acrylamid-Gabe. Die Untersuchung der Blut- und Leberzellen mittels modifiziertem Comet Assay ließ auf keine signifikante DNA-Schädigung der mit 50 oder 100 µg Acrylamid/kg KG behandelten Tiere schließen. Auch die einmalige Verabreichung von 450 µg bzw. 900 µg Acrylamid/kg KG im Trinkwasser führte zu keiner signifikanten Erhöhung der DNA-Schädigung. Lediglich nach der Gabe von 10 mg Acrylamid/kg KG wurden DNA-Schäden in Blut und Leber detektiert. In den Geweben der für maximal neun Tage mit 50 oder 100 µg Acrylamid/kg KG im Trinkwasser oder Lebensmittel behandelten Ratten wurden keine N7-GA-Guanin-Addukte detektiert und lagen somit unterhalb der Nachweisgrenze von 1 Addukt/10E8 Nukleotide. Nach einmaliger Verabreichung von 450 µg Acrylamid/kg KG wurden in allen Organen der behandelten Tiere N7-GA-Guanin-Addukte detektiert, die allerdings unterhalb der Bestimmungsgrenze von 3 Addukten/10E8 Nukleotide lagen. Die einmalige Gabe von 900 µg und 10 mg Acrylamid/kg KG führte zu quantifizierbaren Addukten in allen untersuchten Organen. Im zweiten Teil dieser Arbeit wurde die zeit- und dosisabhängige Bildung von N7-GA-Guanin-Addukten in der DNA aus Leber, Niere und Lunge weiblicher Sprague-Dawley Ratten untersucht. Dazu wurden die Ratten zunächst einmalig mit 1 mg oder 10 mg Acrylamid/kg KG per Schlundsonde behandelt und die Gewebeproben nach 8, 16 oder 24 Stunden entnommen und untersucht. Nach Ermittlung des Zeitpunktes der maximalen N7-GA-Guanin-Adduktbildung wurden weitere Ratten einmalig mit 0,1 mg, 0,5 mg, 3 mg oder 6 mg Acrylamid/kg KG behandelt. Neben der N7-GA-Guanin-Adduktbildung wurde die Bildung der Mercaptursäuren von Acrylamid und Glycidamid mittels HPLC-MS/MS untersucht. Die Mercaptursäuren AAMA und GAMA entstehen als Abbauprodukte der Glutathionkonjugate von Acrylamid und Glycidamid und werden über den Urin ausgeschieden. Die dosisabhängige Bildung von N7-GA-Guanin-Addukten wurde 16 Stunden nach Verabreichung von Acrylamiddosen zwischen 0,1 mg und 10 mg/kg KG untersucht. Die N7-GA-Guanin-Addukte konnten erst ab einer Dosis von 1 mg Acrylamid/kg KG in der DNA der Tiere quantifiziert werden. Die Adduktbildung in der 0,1 mg Acrylamid/kg KG-Gruppe lag unterhalb der Nachweisgrenze, während die Addukte in der 0,5 mg Acrylamid/kg KG-Gruppe zwar nachweisbar, aber nicht quantifizierbar waren. Im Bereich von 1 bis 10 mg Acrylamid/kg KG wurde ein dosisabhängiger Anstieg der N7-GA-Guanin-Addukte beobachtet. Die Ergebnisse der gemessenen Mercaptursäuren zeigen insgesamt, dass 53-55 % der Acrylamid-Dosis von 1 und 10 mg/kg KG innerhalb von 24 Stunden als Mercaptursäuren ausgeschieden werden und dadurch eine effektive Entgiftung von Acrylamid gewährleistet ist. Anhand der ausgeschiedenen GAMA-Menge lässt sich rückschließen, dass 14-18 % der verabreichten 1 und 10 mg Acrylamid/kg KG innerhalb von 24 Stunden zu Glycidamid metabolisiert werden. Die Untersuchung der Mercaptursäuren im 16-Stunden-Sammelurin nach Gabe von 0,1 bis 10 mg Acrylamid/kg KG zeigte, dass die absolute Ausscheidung von AAMA und GAMA linear mit der Dosis ansteigt.
Unter „endokrinen Stoffen“ (Endocrin Disruptors) versteht man synthetisch erzeugte und in die Umwelt gelangte Chemikalien, die in die hormonellen Regelkreise von Mensch und Tier eingreifen. Sie entfalten ihre Wirkung i. d. R. bereits bei geringer Konzentration. Die aus der Einwirkung solcher Stoffe resultierenden negativen Folgen (z. B. Wachstumsstörungen, sinkende Fruchtbarkeit) werden unter dem Begriff „endokrine Effekte“ zusammengefasst. Die Untersuchung endokriner Effekte von Chemikalien ist ein hochaktuelles Forschungsgebiet in verschiedenen Fachgebieten z. B. in der Toxikologie und der Medizin. Unter den endokrinen Chemikalien finden wir zahlreiche Pestizide, die man in der Landwirtschaft benutzt. Die Aufgabe der vorliegenden Arbeit besteht darin, einen wichtigen Teilaspekt bei der Ausbreitung endokriner Stoffe, nämlich das Phasengleichgewicht bei deren Verteilung auf eine feste Phase (einen Boden) und eine damit koexistierende wässrige Phase in experimentellen Arbeiten zu untersuchen, mit dem Ziel, die Entwicklung von zuverlässigen Methoden zur Vorhersage solcher Phasengleichgewichte zu ermöglichen. In der vorliegenden Arbeit wurde der Verteilungskoeffizient von endokrinen Stoffen auf Boden/Wasser–Systeme experimentell bestimmt. Dazu wurde der Verteilungskoeffizient von 26 Substanzen mit endokriner Wirkung mit Hilfe von zwei Messmethoden ermittelt. Für die Untersuchungen wurden die klassische Standardmethodeschüttelkolbenmethode und die HPLC-Methode eingesetzt. Das Ziel dieser Arbeit war die HPLC-Methode gegenüber der Schüttelkolbenmethode zu erproben, um die dabei erzielten Verteilungskoeffizienten mit den vorhandenen Literaturangaben zu vergleichen. Die Verteilung dieser Stoffe wurde in Eurosoil/Wasser – Systemen untersucht. Mit der Schüttelkolbenmethode wurden 17 Substanzen untersucht und mit der HPLC – Methode alle 26 ausgewählten Stoffe. Die Verteilungskoeffizienten sind, sofern möglich, jeweils für eine Substanz mit zwei Versuchsmethoden bestimmt worden.
Der erhebliche Anstieg an Penicillin-resistenten Bakterienstämmen stellt ein weltweit immer größer werdendes Problem in der Medizin dar. Für die Bekämpfung solcher resistenten Stämme ist es wichtig, die Entstehung und den Mechanismus der Penicillin-Resistenz auf molekularer Ebene zu verstehen und dadurch Targets für neue Klassen antimikrobieller Wirkstoffe zu identifizieren. Die Lösung dieser Problemstellung war somit der Schwerpunkt der Untersuchungen in der vorliegenden Arbeit. Die Arbeit befasste sich mit der Übertragung der beta-Laktam-Resistenz von einem hochresistenten klinischen S. oralis Isolat aus Ungarn auf den sensitiven S. pneumoniae R6 Stamm. Dabei sollte durch Transformationsexperimente überprüft werden, ob und wie weit S. oralis als Donor für die Penicillin-Resistenz in S. pneumoniae fungieren kann und welche Gene dabei eine Rolle spielen. Solche Experimente bilden die Grundlage für das bessere Verständnis der Evolution und Ausbreitung der beta-Laktam-Resistenz in kommensalen und pathogenen Streptokokken. Durch sukzessive DNA-Transformation konnte der Resistenzphänotyp des Donorstammes zu einem hohen Grad in den sensitiven S. pneumoniae Stamm R6 übertragen werden. Von Interesse war zunächst, welche S. oralis PBPs dabei eine Rolle spielen. Für die bekannten Resistenzdeterminanten PBP2x, PBP2b und PBP1a konnte nachgewiesen werden, dass sie auch hier einen entscheidenden Beitrag für die Resistenzentwicklung leisten. Nach insgesamt sechs aufeinanderfolgenden Transformationsstufen mit chromosomaler S. oralis DNA konnte das Resistenzniveau des Rezipienten ca. 600- bis 700-fach erhöht werden; PBPs waren nur bei den ersten drei Stufen beteiligt. Microarray-Analysen mit DNA der Transformanten gaben Hinweise darauf, welche anderen Gene übertragen wurden und erlaubten in einem Fall die Identifizierung einer neuen Resistenzdeterminante: MurE. Die gesamte Resistenz des Donors konnte nicht in S. pneumoniae übertragen werden; die Gründe hierfür sind denkbar vielfältig und wurden in der Diskussion aufgegriffen. Die Charakterisierung der Nicht-PBP-Resistenzdeterminate MurE standen nach deren Identifizierung im Mittelpunkt der Analysen in der vorliegenden Arbeit. Die Selektion von beta-Laktam-resistenten Transformanten mit modifiziertem MurE zeigten zum ersten Mal die Rolle dieses Proteins in der Entwicklung der Penicillin-Resistenz in S. pneumoniae. Austausche in diesem Gen führten zu einer ca. 3- bis 5-fachen Erhöhung der Resistenz gegenüber Cefotaxim und Piperacillin und bewirkten einen 40-fachen Anstieg der Cefotaxim-Resistenz und 20-fachen Anstieg der Oxacillin-Resistenz in Verbindung mit einem Mosaik-PBP2x. In Verbindung mit einem Mosaik-PBP2b führte das ausgetauschte MurE zu einem 20-fachen Anstieg der Piperacillin-Resistenz. Durch Herstellung von Stämmen mit ektopischer Kopie von murE mit unterschiedlichen Promotor- und Genfragmenten und anschließender Deletion des Wildtyp-Allels im Genom konnte nachgewiesen werden, dass sowohl veränderte Bereiche im Strukturgen als auch der murE-Promotorbereich von S. oralis Uo5 zu einem Anstieg der Resistenz in S. pneumoniae führen. Einige der Veränderungen, die Aminosäuren betreffen, sind in der Nähe des aktiven Zentrums lokalisiert und könnten die Bindung zum Substrat bzw. ATP beeinflussen. Die Bestimmung der Promotoraktivität von murE aus S. oralis Uo5 und S. pneumoniae R6 ergab, dass das Gen aus S. oralis etwa zweifach stärker exprimiert wird. Die stärkere Expression von murE hat allerdings keinen Einfluss auf die Produktion von PBP2x, PBP1a oder PBP2b, wie durch spezifische Antikörper und Western-Blots für alle drei PBPs festgestellt werden konnte. Dies konnte auch mit Hilfe von Reporter-Assays zur Bestimmung der Promotoraktivität von pbp2x bestätigt werden. Signifikante Veränderungen in der Zellwandzusammensetzung der murE-Transformanten konnten ebenfalls nicht beobachtet werden. Eine Hypothese geht davon aus, dass sowohl die erhöhte Promotoraktivität als auch die Mutationen im Strukturprotein dasselbe bewirken, nämlich die Bereitstellung von mehr MurE-Produkt (durch mehr Enzym oder durch aktiveres Enzym). Möglicherweise ist dadurch der Pool an Muropeptidvorstufen erhöht, was wiederrum Einfluss auf die Mureinbiosynthese hat und somit ein besseres Wachstum in Gegenwart von beta-Laktamen erlaubt, d.h. unter den hier verwendeten Selektions- und Testbedingungen.
Um die bei modernen stationären Industriegasturbinen geforderten Leistungsdichten bei hohem Wirkungsgrad zu erreichen, werden sehr oft transsonische Axialkompressoren eingesetzt. Neben vielen Vorteilen, haben sie eine erhöhte Sensibilität gegenüber Ungleichförmigkeiten im Geschwindigkeits- und Druckprofil der Zuströmung als entscheidenden Nachteil. Da diese Ungleichförmigkeiten direkt von der Gestaltung des Einlaufgehäuses mitbestimmt werden, spielt das Design eine außerordentlich wichtige Rolle bei der Auslegung der Gesamtmaschine. Diese Arbeit beschäftigt sich mit den Strömungen in der ersten Transsonikstufe eines mehrstufigen Axialverdichters und untersucht deren Wechselwirkung mit den Strömungen im Einlaufgehäuse. Durch die Geometrie des Einlaufgehäuses, welche die Strömung in den meisten Fällen von vertikaler in horizontale Richtung umlenkt, entstehen Ungleichförmigkeiten im Strömungsprofil, die den Druckaufbau, den Wirkungsgrad und den stabilen Betriebsbereich der Maschine einschränken können. Zusätzlich können stärkere Blattschwingungen auftreten, die die mechanische Beanspruchung der Rotorstruktur erhöhen. Mit Hilfe der numerischen Strömungsmechanik werden drei verschiedene Einlaufgehäuse untersucht, um festzustellen, welche Strömungsungleichförmigkeiten auftreten und wie diese die Strömung in der Transsonikstufe beeinflussen. Zwei der drei Varianten sind um 90° umlenkend und entsprechen denen, wie sie in realen Gasturbinen eingesetzt werden. Dabei ist eine Variante strömungstechnisch optimiert, die andere im Sinne einer möglichst einfachen Fertigung gestaltet. Die dritte Variante ist ein rein axiales Gehäuse mit einer eingebauten Versperrung, um zu untersuchen, wie gut sich Strömungsungleichförmigkeiten, die in einem radial umlenkenden Einlaufgehäuse einer stationären Gasturbine entstehen, durch Einbauten simulieren lassen. Desweiteren bietet sich diese Simulation an, da das Einlaufgehäuse zusammen mit dem 5-stufigen Axialkompressor auf einem Prüfstand vermessen wurde und so ein Vergleich mit Messwerten möglich ist. Die Simulationen haben gezeigt, dass es möglich ist, mit einem aerodynamisch günstig gestalteten Einlaufgehäuse Zuströmbedingungen zu erzeugen, die in der darauffolgenden Transsonikstufe nicht zu nennenswerten Einschränkungen in Wirkungsgrad, Druckverhältnis und Betriebsbereich führen. Eine Parameterstudie mit verschiedenen axialen Baulängen hat gezeigt, dass eine Verkürzung des Einlaufgehäuses durchgeführt werden kann, ohne zusätzliche Verluste in Kauf nehmen zu müssen. Erst bei Unterschreitung eines kritischen Maßes kommt es zu deutlichen Verlusten und einer Reduktion des Druckverhältnisses. Hier ist eine Anpassung der Vorleitreihe nötig, um den geänderten Zuströmbedingungen der Vorleitreihe hinter der verkürzten Einlaufgehäusevariante Rechnung zu tragen. Die zweite radial umlenkende Einlaufgehäusevariante ist aus aerodynamischer Sicht ungünstiger gestaltet. Hier zeigen die Simulationen, dass sich im Einlaufgehäuse Wirbel ausbilden, die zum einen im Einlaufgehäuse selbst und zum anderen in der Transsonikstufe hohe Verluste hervorrufen. Darüber hinaus kommt es zu einer Abnahme des Stufendruckverhältnisses, und es ist auch mit negativen Auswirkung auf folgende Stufen zu rechnen, da die Wirbel hinter der ersten Stufe immer noch abgeschwächt vorhanden sind. Obwohl die hinter einem radial umlenkenden Einlaufgehäuse entstehenden Geschwindigkeitsprofile komplex sind, lassen sie sich auch in einem axialen Einlaufgehäuse durch Einbauten simulieren. Auch wenn sich die verschiedenen Verlustentstehungsmechanismen gegenseitig beeinflussen und eine exakte Trennung nicht möglich ist, konnte mit einer groben Abschätzung festgestellt werden, wie groß der Anteil der Stoß- und Spaltverluste an den Gesamtverlusten ist. So haben beispielsweise im Auslegungspunkt nur etwa 15 % der Verluste ihre Ursache in den Verdichtungsstößen, und weniger als 10 % der Verluste sind auf die Spaltströmung zwischen Rotorblattspitze und Gehäuse zurückzuführen. Mit fast 80 % entsteht der überwiegende Anteil der Verluste in den Profil- und Seitenwandgrenzschichten. Die berechneten Strömungs- und Druckprofile zeigen eine sehr gute Übereinstimmung mit den durchgeführten Messungen.
Die kommensalen, in der Mundhöhle lebenden Bakterien-Arten S. mitis und S. oralis zählen zusammen mit dem humanpathogenen Bakterium S. pneumoniae zu den Streptokokken der Mitis-Gruppe (Kawamura et al., 1995). Mitglieder dieser phylogenetischen Gruppe besitzen nachweislich die Fähigkeit zum Austausch von genetischem Material (Whatmore et al., 2000; Hakenbeck et al., 2001; King et al., 2005), was durch die natürliche Kompetenz dieser Streptokokken-Spezies begünstigt wird. Das Ergebnis sind Gene mit Mosaikstruktur ─ ein Indiz für horizontalen Gentransfer. Als Reservoir für solche, in S. pneumoniae auftretende Mosaik-strukturen wurde der Genpool der verwandten, kommensalen Streptokokken identifiziert. Demnach werden Resistenz- und Virulenz-determinierende Sequenzen über Gentransfer und homologe Rekombination auf Pneumokokken übertragen (Dowson et al., 1993; Sibold et al., 1994; King et al., 2005; Chi et al., 2007). Die vorliegende Arbeit befasst sich mit der Spezifizierung von Streptokokken der Mitis-Gruppe. Hierzu wurden mit einer ausgewählten heterogenen Sammlung von oralen S. mitis- und S. oralis-Isolaten vergleichende Genom-Hybridisierungen mittels des kürzlich entwickelten S. mitis B6-Biochips (Denapaite et al., 2010) durchgeführt. Zentraler Aspekt dieser Unter-suchungen war die erstmalige Analyse eines gemeinsamen „Kerngenoms“ aller untersuchten oralen Streptokokken sowie des S. mitis-„Kerngenoms“. Letzteres beinhaltet insgesamt 972 Gene, von denen ein bemerkenswert großer Teil (94 %) auch in S. pneumoniae vorhanden ist. Dies belegt eindeutig die sehr nahe Verwandschaft von S. mitis und S. pneumoniae (Chi et al., 2007; Kilian et al., 2008; Bishop et al., 2009; Denapaite et al., 2010) und stützt die Evolutionstheorie, dass sich S. pneumoniae aus einem spezialisierten S. mitis-Klon entwickelt hat (Denapaite et al., 2010). Das erstmals ermittelte „Gesamt-Kerngenom“ von S. mitis, S. pneumoniae und S. oralis ist mit 386 Genen wesentlich kleiner. Wie die vorliegenden Daten demonstrieren, enthält es eine Reihe von nachgewiesenen S. pneumoniae-Virulenzfaktoren. Die Tatsache, dass S. mitis und S. oralis im Gegensatz zu S. pneumoniae meist apathogen sind, suggeriert, dass in S. pneumoniae erst das Zusammenspiel mehrerer unterschiedlicher Virulenzdeterminanten den bekannten, krankheitserregenden Phänotyp bewirkt. Ein weiteres Ziel war die Analyse der genomischen Varianz der S. mitis- und S. oralis-Stämme. Neben dem S. mitis B6-Chip wurde der S. pneumoniae R6/TIGR4-Chip zur vergleichenden Genom-Analyse eingesetzt. Die Ergebnisse dieser globalen Untersuchungen weisen auf eine große genomische Diversität innerhalb der Mitis-Gruppe hin und bestätigen das Fehlen einer klaren Art-Grenze zwischen S. mitis, S. oralis und S. pneumoniae (Hakenbeck et al., 2001). Ursache für diese genomische Varianz sind inner- und inter-artliche Gentransfer-Ereignisse innerhalb dieser transformierbaren Spezies, die neben Antibiotika-Resistenzgenen wie den pbp auch bestimmte Virulenzgene betreffen. Besonderes Interesse galt der Identifizierung von Pneumokokken-spezifischen Virulenzgenen, wobei an dieser Stelle die Cholin-Bindeproteine PspA, PspC und PcpA, die Hyaluronidase HysA sowie die PiaA-Komponente des Eisen-Aufnahme-Systems PiaA/PiuA zu nennen sind. Zum ersten Mal konnten entscheidende, das Pathogenitätspotenzial betreffende Unterschiede zu den meist nicht krankheitserregenden Kommensalen herausgestellt werden. Einen weiteren wichtigen Punkt der Arbeit bildeten zwei S. mitis-Isolate, für die im Rahmen der Microarray-Analysen gezeigt wurde, dass sie im Besitz der Pathogenitätsfaktoren Pneumolysin (Ply) und Autolysin (LytA) sind. Beide Gene wurden lange Zeit für S. pneumoniae-spezifisch gehalten, liegen auf dem Genom von S. pneumoniae zirka 7 kb voneinander entfernt und werden von einem 94 bp langen „direct repeat“ flankiert (Denapaite et al., 2010). Eine ausführliche Sequenzanalyse der lytA/ply-Region ergab in beiden Fällen eine genetisch ähnliche Organisation wie in S. pneumoniae R6. Zudem konnte gezeigt werden, dass einer der beiden S. mitis-Stämme neben dem chromosomal kodierten lytA ein zweites Prophagen-assoziiertes lytA-Allel besitzt. Die Tatsache, dass im Gegensatz zu S. mitis alle Pneumokokken die „Pathogenitäts- insel“ in ihrem Genom enthalten, bestätigt die oben besprochene Evolutionstheorie: Die lytA/ply-Insel wurde vermutlich vor der Evolution von S. pneumoniae aus S. mitis erworben, wobei der 94 bp „direct repeat“ mit großer Wahrscheinlichkeit die Integrationsstelle darstellt.
Im Rahmen dieser Arbeit konnte die physiologische Funktion des AtENT1 weitestgehend aufgeklärt werden. Durch Untersuchungen an RNAi- und Überexpressionslinien konnte gezeigt werden, dass dieser Nukleosidtransporter in unterschiedlichen Geweben verschiedene Aufgaben erfüllt. Die verringerte Expression des AtENT1 in den RNAi-Pflanzen hat hauptsächlich Auswirkungen auf den Nukleotidhaushalt in Pollen. Diese zeigen eine geringere Keimungsrate, eine niedrigere Nukleosidaufnahme sowie verringerte Mengen an intra- und extrazellulärem ATP. Daraus kann man schließen, dass der AtENT1 eine wichtige Funktion in der Versorgung von Pollen mit Nukleosiden während der Entwicklung und zu Beginn der Keimung hat. Die veränderte Menge an eATP in den RNAi-Pollen führt möglicherweise zu einer veränderten Signaltransduktion, was ebenfalls ein Grund für die schlechtere Keimungsrate im Vergleich mit WT-Pollen sein könnte. Weiterhin deutet die verminderte Aufnahme von Adenosin in RNAi-Pollen darauf hin, dass AtENT1 in diesen Zellen in der Plasmamembran lokalisiert ist. Sowohl in Blatt-Rohextrakten als auch in isolierten Vakuolen der AtENT1-RNAi-Pflanzen konnte ein erhöhter Adenosingehalt festgestellt werden, während dieser in Blättern und Vakuolen der AtENT1-35S-Pflanzen deutlich verringert war. Weiterhin konnte an Liposomen mit rekostituiertem Tonoplastenprotein aus Überexpressionspflanzen ein höherer Adenosinexport verglichen mit Liposomen mit WT-Tonoplastenprotein beobachtet werden. Als wahrscheinlichste Quelle der Nukleoside konnte der in der Vakuole stattfindende RNA-Abbau mit Nukleosiden als End- und 2‘3‘-cAMP als Zwischenprodukt nachgewiesen werden. Ein gesteigerter Nukleosidtransport aus der Vakuole durch Überexpression des AtENT1 führt zu einem Anstieg der zytosolischen Nukleosidkonzentration. Als Reaktion darauf sind die Aktivitäten der Enzyme des „salvage pathway“ in den entsprechenden Mutanten erhöht. Ein Anstieg der zytosolischen Adenosinkonzentration führt durch Feedback-Inhibierung zu einer Verringerung der Transmethylierungsreaktionen. In der stärksten Überexpressionspflanze konnte, als Folge dieser Inhibierung, eine verringerte Zellwandmethylierung beobachtet werden. Betrachtet man alle Ergebnisse der Untersuchungen in vegetativem Gewebe ist eine Lokalisierung des AtENT1 im Tonoplasten sehr wahrscheinlich. Der letzte Teil der Arbeit befasste sich mit der biochemischen Charakterisierung der putativen Nukleosidtransporter StENT1 und StENT3 aus Solanum tuberosum. Dabei konnte gezeigt werden dass es sich beim StENT1 um einen hoch affinen Transporter für Purin- und Pyrimidinnukleoside handelt. Aufgrund der Ähnlichkeit der Transporteigenschaften zum AtENT1 und der ebenfalls vorhandenen möglichen Signalsequenz für eine tonoplastidäre Lokalisierung könnte StENT1 auch ein physiologisches Homolog zum AtENT1 sein. StENT3 vermittelt einen hoch affinen, pyrimidinspezifischen Nukleosidtransport. Dieser Transporter könnte vor allem in Knollen für die Aufnahme von Pyrimidinen aus der Erde oder dem Phloem zuständig sein.
Diese Arbeit untersucht Möglichkeiten der berührungslosen Vermessung von Durchmessern von Bohrungen in leitfähigen Materialien mit Hilfe des kapazitiven Messprinzips. Dazu wird ein Messkopf in die Bohrung eingeführt. Zwischen der Bohrungswand und Messelektroden auf dem Messkopf entstehen Kondensatoren, deren Kapazität mit einer Kapazitätsmessschaltung gemessen und daraus auf den Bohrungsdurchmesser zurückgerechnet wird. Es wurden dabei Ansätze mit Messköpfen mit einer oder mehreren Messelektroden verfolgt. Für Messköpfe mit einer Messelektrode wurden ein umfangreiches Fehlermodell und darauf basierend ein Kalibrierverfahren mit Fehlerkompensation erstellt.
Zur Entwicklung und Optimierung leistungsfähiger Katalysatoren werden zahlreiche Versuche durchgeführt, die geplant, dokumentiert und ausgewertet werden müssen. Das im Rahmen dieses interdisziplinären Promotionsvorhabens entwickelte elektronische Dokumentationssystem beschleunigt diese Arbeitsschritte deutlich und hilft, Fehler zu vermeiden. Es wurde im Rahmen mehrerer Forschungsprojekte zu innovativen Decarboxylierenden Kreuzkupplungsreaktionen mit Cu/Pd-Katalysatorsystemen erfolgreich eingesetzt. Die neu entwickelten Eintopfsynthesen eröffnen einen neuen Zugangsweg zu unsymmetrischen Arylketonen und Azomethinen in guten bis sehr guten Ausbeuten. Gegenüber herkömmlichen Decarboxylierungsreaktionen konnte die erforderliche Reaktionstemperatur erheblich abgesenkt werden.
Alle derzeit in Deutschland gültigen Bemessungsnormen sind für Neubauten oder neu anzufertigende Bauteile konzipiert. Diese Normen unterliegen dem semi-probabilistischen Sicherheitskonzept, das mithilfe von Teilsicherheitsbeiwerten und charakteristischen Werten der Materialien bzw. Einwirkungen die in DIN 1055-100 (2001) geforderte Zuverlässigkeit sicherstellen soll. Die Nachbemes-sung von Stahlbetonbauteilen im Bestand, die beispielweise eine direkte Lasterhöhung infolge einer Nutzungsänderung erfahren, hat grundsätzlich nach aktueller DIN 1045-1 (2008) zu erfolgen. Die direkte Anwendung der Nachweisfor-mate der DIN 1045-1 ist aber in vielen Fällen nicht zielführend, da alle Unsicherheiten der Planungs- und Errichtungsphase durch die Teilsicher-heitsbeiwerte mit abgedeckt werden. Im Bestand können die Unsicherheiten z. B. der Geometrie, der Materialkennwerte sowie Lage und Menge der vorhandenen Bewehrung oder der ständigen Einwirkungen infolge einer qualifizierten Bestandsaufnahme eingeschränkt werden. Die Tatsache, dass die oben genannten streuenden Größen genauer quantifiziert werden können, erlaubt eine Anpassung der Teilsicherheitsbeiwerte an die am Bauwerk vorherrschenden Streuungen der Festigkeitswerte und geometrischen Größen. Ziel dieser Arbeit ist die Ausweisung modifizierter Teilsicherheitsbeiwerte unter Beachtung des geforderten Zielzuverlässigkeitsniveaus für im Bestand übliche Nachweisformate. Die tabelliert ausgewiesenen Teilsicherheitsbeiwerte auf Widerstandsseite ermöglichen je nach angetroffener Materialstreuung eine praxisgerechte, wirtschaftliche und erfolgreiche Nachweisführung von Bestandsbauten bei Anwendung des semiprobabilistischen Teilsicherheitskonzeptes.
Point defects in piezoelectric materials – continuum mechanical modelling and numerical simulation
(2010)
The topic of this work is the continuum mechanic modelling of point defects in piezoelectric materials. Devices containing piezoelectric material and especially ferroelectrics require a high precision and are exposed to a high number of electrical and mechanical load cycles. As a result, the relevant material properties may decrease with increasing load cycles. This phenomenon is called electric fatigue. The transported ionic and electric charge carriers can interact with each other, as well as with structural elements (grain boundaries, inhomogeneities) or with material interfaces (domain walls). A reduced domain wall mobility also reduces the electromechanical coupling effect, which leads to the electric fatigue effect. The materials considered here are barium titanate and lead zirconate titanate (PZT), in which oxygen vacancies is the most mobile and most frequently appearing defect species. Intentionally introduced foreign atoms (dopants) can adjust the material properties according to their field of application by generating electric dipoles with the vacancies. Agglomerations of point defects can strongly influence the domain wall motion. The domain wall can be slowed down or even be stopped by the locally varying fields in the vicinity of the clusters. Accumulations of point defects can be detected at electrodes, pores or in the bulk of fatigued samples. The present thesis concentrates focuses on the self interaction behaviour of point defects in the bulk. A micro mechanical continuum model is used to show the qualitative and the quantitative interaction behaviour of defects in a static setup and during drift processes. The modelling neglects the ferroelectric switching mechanisms, but is applicable to every piezoelectric material. The underlying differential equations are solved by means of analytical (Green's functions) and numerical (Finite Differences with discrete Fourier Transform) methods, depending on the boundary conditions. The defects are introduced as localised Eigenstrains, as electric charges and as electric dipoles. The required defect parameters are obtained by comparisons with atomistic methods (lattice statics). There are no standardised procedures available for the parameter identification. In this thesis, the mechanical parameter is obtained by a comparison of relaxation volumes of the atomic lattice and the continuum solution. Parameters for isotropic and anisotropic defect descriptions are identified. The strength of the electric defect is obtained by a comparison of the electric internal energies of atomistics and continuum. The appearing singularities are eliminated by taking only the energy difference of a infinite crystal and a periodic cell into account. Both identification processes are carried out for the cubic structure of barium titanate, which decouples the mechanical and the electrical problem. The defect interaction is analysed by means of configurational forces. The mechanical defect parameter generates a directional short-range attraction between defects. An electrical defect parameter produces the long-range Coulomb interaction, which predicts a repulsion of two similar charges. Additionally, an interaction with defect dipoles is taken into account. It is shown that a defect agglomeration is possible for any static defect configuration. Finally, defect drift is simulated using a thermodynamically motivated migration law based on configurational forces. In this context, the migration of point defects due to self interaction, and the influence of external fields is investigated.
Ionische Flüssigkeiten werden häufig als Reaktionsmedien (Lösungsmittel) zur Durchführung von chemischen Reaktionen diskutiert. An vielen solcher Reaktionen (z. B. Hydroformylierungen, Hydrierungen und Oxidationen) sind Gase beteiligt. Deshalb ist die Kenntnis der Gaslöslichkeit in ionischen Flüssigkeiten nicht nur von wissenschaftlichem, sondern auch von technischem Interesse. Langfristiges Ziel von wissenschaftlichen Arbeiten auf diesem Gebiet ist die Entwicklung und Erprobung von Methoden zur Vorhersage solcher Gaslöslichkeiten, z.B. durch eine „Molekulare Simulation“. Dazu sind jedoch zuverlässige experimentelle Angaben erforderlich. Deshalb hat im letzten Jahrzehnt die experimentelle Bestimmung von Gaslöslichkeiten in ionischen Flüssigkeiten stark an Bedeutung gewonnen. Trotzdem liegen in der Literatur nur vergleichsweise wenige, zuverlässige, quantitative Angaben vor. Aufbauend auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Universität Kaiserslautern zur Löslichkeit von Gasen in wässrigen (teilweise mit den Gasen reagierenden) Lösungen wurde in der vorliegenden Arbeit die Löslichkeit von sieben Gasen (CO2, CO, H2, CH4, O2, Xe und CF4) in vier ionischen Flüssigkeiten (den drei imidazolbasierten Flüssigkeiten - [bmim][PF6], [bmim][CH3SO4], [hmim][Tf2N] - und einer Pyrrolidiniumverbindung - [bmpy][Tf2N] - ) experimentell im Temperaturbereich zwischen 293 K und 413 K bei Drücken zwischen 0.1 und 10 MPa untersucht. Die experimentellen Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsanlage. Sie musste jedoch an die neue Aufgabenstellung adaptiert werden. Im Verlauf der Messungen wurden auch volumetrische Daten der Mischungen (Gas + Ionische Flüssigkeit) bestimmt. Dabei war in allen untersuchten ionischen Flüssigkeiten Kohlendioxid das am besten lösliche und Wasserstoff das am schlechtesten lösliche Gas. Die Löslichkeit von Wasserstoff in den untersuchten ionischen Flüssigkeiten ist dabei so gering, dass das (für sehr schlecht lösliche Gase typische, aber selten beobachtete) Phänomen der Zunahme der Gaslöslichkeit mit steigender Temperatur auftritt. Die Löslichkeit des gleichen Gases in den vier untersuchten ionischen Flüssigkeiten unterscheidet sich dagegen vergleichsweise wenig (Unterschiede etwa um einen Faktor zwei). Die Messwerte wurden mit Hilfe des erweiterten Henryschen Gesetzes korreliert. Dazu wurde zunächst die Henrysche Konstante (beim Druck null) für die Löslichkeit des jeweiligen Gases in der betrachteten ionischen Flüssigkeit bestimmt. Die Genauigkeit der so erhaltenen Henryschen Konstanten beträgt etwa ein Prozent. Die Abweichungen vom vereinfachten Henryschen Gesetz wurden durch Berücksichtigung der Krichevsky-Kasarnowsky-Korrektur zur Henryschen Konstante und/bzw. durch Berücksichtigung der Wechselwirkungen zwischen den gelösten Gasmolekülen (über Aktivitätskoeffizienten) erfasst. Zur Beschreibung der Krichevsky-Kasarnowsky-Korrektur wird das partielle molare Volumen des Gases in der ionischen Flüssigkeit (im Grenzfall der unendlichen Verdünnung) benötigt. Dieses Volumen bestimmt auch entscheidend die Volumenveränderung der Flüssigkeit beim Lösen eines Gases. Diese Volumenexpansion kann bei einem „gutlöslichen“ Gas bei Löslichkeitsdrücken von ca. 10 MPa bis 20 Prozent des Volumens der reinen ionischen Flüssigkeit betragen. Für „gutlösliche“ Gase konnte durch eine Auswertung der während der Messungen angefallenen volumetrischen Daten, dieses partielle molare Volumen bestimmt und damit die Krichevsky-Kasarnowsky-Korrektur berechnet werden. Bei hohen Drücken (d.h. hohen Gaskonzentrationen) muss darüber hinaus auch der Aktivitätskoeffizient des gelösten Gases berücksichtigt werden. Dieser wurde mit Hilfe eines ursprünglich von Pitzer für wässrige Elektrolytlösungen angegebenen empirischen Ansatzes für die Gibbssche Exzessenergie ausgedrückt. Die darin erforderlichen Wechselwirkungsparameter wurden – unter Verwendung der jeweiligen Henryschen Konstanten und des partiellen molaren Volumens des gelösten Gases - aus den experimentell bestimmten Gaslöslichkeitsdaten ermittelt. Für „schlecht lösliche“ Gase erlaubten die volumetrischen Daten keine zuverlässige Bestimmung des partiellen molaren Volumens des Gases. Allerdings sind dann i.d.R. die Konzentrationen des gelösten Gases in der ionischen Flüssigkeit auch bei hohen Drücken so gering, dass eine Berücksichtigung der Aktivitätskoeffizienten nicht erforderlich ist. Deshalb konnte in diesen Fällen, das partielle molare Volumen des Gases unmittelbar durch eine Anpassung an die Gaslöslichkeitsdaten - unter Verwendung der jeweiligen Henryschen Konstanten beim Druck null - bestimmt werden. Die so erhaltenen Korrelationen (Henrysche Konstante, partielles molares Volumen des Gases in unendlicher Verdünnung im Lösungsmittel und (teilweise) Wechselwirkungsparameter des Pitzerschen Ansatzes) geben die experimentell bestimmten Gaslöslichkeiten im Rahmen der experimentellen Unsicherheiten wieder.
2,3,7,8-Tetrachlorodibenzo-p-dioxin (TCDD) is a highly toxic and persistent organic pollutant, which is ubiquitously found in the environment. The prototype dioxin compound was classified as a human carcinogen by the International Agency for Research on Cancer. TCDD acts as a potent liver tumor promoter in rats, which is one of the major concerns related to TCDD exposure. There is extensive evidence, that TCDD exerts anti-estrogenic effects via arylhydrocarbon receptor (AhR)-mediated induction of cytochromes P450 and interferes with the estrogen receptor alpha (ERalpha)-mediated signaling pathway. The present work was conducted to shed light on the hypothesis that enhanced activation of estradiol metabolism by TCDD-induced enzymes, mainly CYP1A1 and CYP1B1, leads to oxidative DNA damage in liver cells. Furthermore, the possible modulation by 17beta-estradiol (E2) was investigated. The effects were examined using four different AhR-responsive species- and sex-specific liver cell models, rat H4II2 and human HepG2 hepatoma cell lines as well as rat primary hepatocytes from male and female Wistar rats. The effective induction of CYP1A1 and CYP1B1 by TCDD was demonstrated in all liver cell models. Basal and TCDD-induced expression of CYP1B1, which is a key enzyme in stimulating E2 metabolism via the more reactive formation of the genotoxic 4-hydroxyestradiol, was most pronounced in rat primary hepatocytes. CYP-dependent induction of reactive oxygen species (ROS) was only observed in rodent cells. E2 induced ROS only in primary rat hepatocytes, which was associated with a weak CYP1B1 mRNA induction. Thus, E2 itself was suggested to induce its own metabolism in primary rat hepatocytes, resulting in the redox cycling of catechol estradiol metabolites leading to ROS formation. In this study the role of TCDD and E2 on oxidative DNA damage was investigated for the first time in vitro in the comet assay using liver cells. Both TCDD and E2 were shown to induce oxidative DNA base modifications only in rat hepatocytes. Additionally, direct oxidative DNA-damaging effects of the two main E2 metabolites, 4-hydroxyestradiol and 2-hydroxyestradiol, were only observed in rat hepatocytes and revealed that E2 damaged the DNA to the same extent. However, the induction of oxidative DNA damage by E2 could not completely be explained by the metabolic conversion of E2 via CYP1A1 and CYP1B1 and has to be further investigated. The expression of low levels of endogenous ERalpha mRNA in primary rat hepatocytes and the lack of ERalpha in hepatoma cell lines were identified as crucial. Therefore, the effects of interference of ERalpha with AhR were examined in HepG2 cells, which were transiently transfected with ERalpha. The over-expression of ERalpha led to enhanced AhR-mediated transcriptional activity by E2, suggesting a possible regulation of E2 levels. In turn, TCDD reduced E2-mediated ERalpha signaling, confirming the anti-estrogenic action of TCDD. Such a modulation of the combined effects of TCDD with E2 was not observed in any of the other experiments. Thus, the role of low endogenous ERalpha levels has to be further investigated in transfection experiments using rat primary hepatocytes. Overall, rat primary hepatocyte culture turned out to be the more adaptive cell model to investigate metabolism in the liver, reflecting a more realistic situation of the liver tissue. Nevertheless, during this work a crosstalk between ERalpha and AhR was shown for the first time using human hepatoma cell line HepG2 by transiently transfecting ERalpha.