Doctoral Thesis
Refine
Year of publication
- 2010 (61) (remove)
Document Type
- Doctoral Thesis (61) (remove)
Has Fulltext
- yes (61)
Keywords
- Bemessung (3)
- Homogene Katalyse (3)
- Palladium (3)
- Acrylamid (2)
- Biaryle (2)
- Carbonsäuren (2)
- Datenbank (2)
- Erwarteter Nutzen (2)
- Glycidamid (2)
- Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich ARUBI (11)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (4)
- Kaiserslautern - Fachbereich Informatik (4)
In the classical Merton investment problem of maximizing the expected utility from terminal wealth and intermediate consumption stock prices are independent of the investor who is optimizing his investment strategy. This is reasonable as long as the considered investor is small and thus does not influence the asset prices. However for an investor whose actions may affect the financial market the framework of the classical investment problem turns out to be inappropriate. In this thesis we provide a new approach to the field of large investor models. We study the optimal investment problem of a large investor in a jump-diffusion market which is in one of two states or regimes. The investor’s portfolio proportions as well as his consumption rate affect the intensity of transitions between the different regimes. Thus the investor is ’large’ in the sense that his investment decisions are interpreted by the market as signals: If, for instance, the large investor holds 25% of his wealth in a certain asset then the market may regard this as evidence for the corresponding asset to be priced incorrectly, and a regime shift becomes likely. More specifically, the large investor as modeled here may be the manager of a big mutual fund, a big insurance company or a sovereign wealth fund, or the executive of a company whose stocks are in his own portfolio. Typically, such investors have to disclose their portfolio allocations which impacts on market prices. But even if a large investor does not disclose his portfolio composition as it is the case of several hedge funds then the other market participants may speculate about the investor’s strategy which finally could influence the asset prices. Since the investor’s strategy only impacts on the regime shift intensities the asset prices do not necessarily react instantaneously. Our model is a generalization of the two-states version of the Bäuerle-Rieder model. Hence as the Bäuerle-Rieder model it is suitable for long investment periods during which market conditions could change. The fact that the investor’s influence enters the intensities of the transitions between the two states enables us to solve the investment problem of maximizing the expected utility from terminal wealth and intermediate consumption explicitly. We present the optimal investment strategy for a large investor with CRRA utility for three different kinds of strategy-dependent regime shift intensities – constant, step and affine intensity functions. In each case we derive the large investor’s optimal strategy in explicit form only dependent on the solution of a system of coupled ODEs of which we show that it admits a unique global solution. The thesis is organized as follows. In Section 2 we repeat the classical Merton investment problem of a small investor who does not influence the market. Further the Bäuerle-Rieder investment problem in which the market states follow a Markov chain with constant transition intensities is discussed. Section 3 introduces the aforementioned investment problem of a large investor. Besides the mathematical framework and the HJB-system we present a verification theorem that is necessary to verify the optimality of the solutions to the investment problem that we derive later on. The explicit derivation of the optimal investment strategy for a large investor with power utility is given in Section 4. For three kinds of intensity functions – constant, step and affine – we give the optimal solution and verify that the corresponding ODE-system admits a unique global solution. In case of the strategy-dependent intensity functions we distinguish three particular kinds of this dependency – portfolio-dependency, consumption-dependency and combined portfolio- and consumption-dependency. The corresponding results for an investor having logarithmic utility are shown in Section 5. In the subsequent Section 6 we consider the special case of a market consisting of only two correlated stocks besides the money market account. We analyze the investor’s optimal strategy when only the position in one of those two assets affects the market state whereas the position in the other asset is irrelevant for the regime switches. Various comparisons of the derived investment problems are presented in Section 7. Besides the comparisons of the particular problems with each other we also dwell on the sensitivity of the solution concerning the parameters of the intensity functions. Finally we consider the loss the large investor had to face if he neglected his influence on the market. In Section 8 we conclude the thesis.
In robotics, information is often regarded as a means to an end. The question of how to structure information and how to bridge the semantic gap between different levels of abstraction in a uniform way is still widely regarded as a technical issue. Ignoring these challenges appears to lead robotics into a similar stasis as experienced in the software industry of the late 1960s. From the beginning of the software crisis until today, numerous methods, techniques, and tools for managing the increasing complexity of software systems have evolved. The attempt to transfer several of these ideas towards applications in robotics yielded various control architectures, frameworks, and process models. These attempts mainly provide modularisation schemata which suggest how to decompose a complex system into less complex subsystems. The schematisation of representation and information flow however is mostly ignored. In this work, a set of design schemata is proposed which is embedded into an action/perception-oriented design methodology to promote thorough abstractions between distinct levels of control. Action-oriented design decomposes control systems top-down and sensor data is extracted from the environment as required. This comes with the problem that information is often condensed in a premature fashion. That way, sensor processing is dependent on the control system design resulting in a monolithical system structure with limited options for reusability. In contrast, perception-oriented design constructs control systems bottom-up starting with the extraction of environment information from sensor data. The extracted entities are placed into structures which evolve with the development of the sensor processing algorithms. In consequence, the control system is strictly dependent on the sensor processing algorithms which again results in a monolithic system. In their particular domain, both design approaches have great advantages but fail to create inherently modular systems. The design approach proposed in this work combines the strengths of action orientation and perception orientation into one coherent methodology without inheriting their weaknesses. More precisely, design schemata for representation, translation, and fusion of environmental information are developed which establish thorough abstraction mechanisms between components. The explicit introduction of abstractions particularly supports extensibility and scalability of robot control systems by design.
Untersuchungen zum Zugtragverhalten hochduktiler Faserbetone mit zusätzlicher Textilbewehrung
(2010)
Hochduktiler Faserbeton zeigt ein dehnungsverfestigendes Zugtragverhalten mit ausgeprägter Vielfachrissbildung und einer Bruchdehnung von bis zu 5 %. Aufgrund der sehr kleinen Rissbreiten im Gebrauchszustand von weniger als 0,1 mm können hochduktile Faserbetone als quasi-wasserundurchlässig angesehen werden. Ausgehend von diesen Materialeigenschaften entstand die Überlegung, Fugen, z.B. zwischen Betonfertigteilen im Hochbau, mit einer Abdeckung aus hochduktilem Faserbeton zu überbrücken. Hiermit könnten Bewegungen der Betonfertigteile, z.B. infolge Temperaturänderungen ausgeglichen werden, ohne dass breite Risse an der Oberseite der Abdeckung entstehen. Im Laufe vorangegangener Untersuchungen [Mechtcherine 2007/1] hat sich jedoch gezeigt, dass das Dauerstandverhalten des für die vorliegende Arbeit verwendeten hochduktilen PVA-Faserbetons unter Dauerlast unzureichend ist. Zur Verbesserung des Tragverhaltens unter Dauerlast wurde daher eine zusätzliche leichte Textilbewehrung verwendet. Die vorliegende Arbeit befasst sich mit der Untersuchung des Zugtragverhaltens eines hochduktilen Kurzfaserbetons mit zusätzlicher Textilbewehrung unter Kurzzeit- und Langzeit-Zugbeanspruchung. Auf der Grundlage der Versuchsergebnisse wird ein einfaches empirisches Bemessungskonzept für Faserbeton mit zusätzlicher Textilbewehrung entwickelt. Auf der Grundlage dieses Bemessungskonzeptes soll in weiterführenden Arbeiten, die sich u. a. mit dem Tragverhalten unter zyklischer Beanspruchung befassen sollten, die Entwicklung einer Fugenabdeckung zwischen Betonfertigteildecken möglich sein.
We tackle the problem of obtaining statistics on content and structure of XML documents by using summaries which may provide cardinality estimations for XML query expressions. Our focus is a data-centric processing scenario in which we use a query engine to process such query expressions. We provide three new summary structures called LESS (Leaf-Element-in-Subtree), LWES (Level-Wide Element Summarization), and EXsum (Element-centered XML Summarization) which are targeted to base an estimation process in an XML query optimizer. Each of these collects structural statistical information of XML documents, and the latter (EXsum) gathers, in addition, statistics on document content. Estimation procedures and/or heuristics for specic types of query expressions of each proposed approach are developed. We have incorporated and implemented our proposals in XTC, a native XML database management system (XDBMS). With this common implementation base, we present an empirical and comparative study in which our proposals are stressed against others published in the literature, which are also incorporated into the XTC. Furthermore, an analysis is made based on criteria pertinent to a query optimizer process.
Neben dem Verzehr von Obst und Gemüse wird auch Fruchtsäften eine Bedeutung für die Prävention chronisch entzündlicher Darmerkrankungen und Dickdarmkrebs beigemessen. Neben der direkten antioxidativen Kapazität polyphenolischer Inhaltstoffe spielt vermutlich auch deren Einfluss auf die Expression redoxsensitiver Gene, wie z.B. der gamma-Glutamylcystein-Ligase (g-GCL) eine protektive Rolle. Die in-vitro Arbeiten an den Kolontumorzelllinien verfolgten das Ziel die antioxidative Wirksamkeit verschiedener Apfelsaftextrakte zu charakterisieren. Hierbei wurde der Einfluss der Aglyka Quercetin und Phloretin, der Inhaltsstoffe Chlorogensäure und Kaffeesäure, sowie der Apfelsaftextrakte AE02 /03 und AE05 auf die Transkription redoxsensitiver Zielgene in HT-29 und Caco-2 Zellen nach 6- und 24h-Inkubation mittels Real Time TaqMan PCR untersucht. Als Referenzverbindungen wurden Sulforaphan und Menadion eingesetzt. Die für den Glutathion-Redoxstatus relevanten ARE-abhängigen Gene GPX2 und GSR, sowie die Nrf2 Genexpression wurden in die Untersuchungen miteinbezogen. Die Ergebnisse zeigen u.a. charakteristische, zellspezifische Unterschiede in der Modulation der antioxidativen Genexpression, bei der sich die HT-29 Zellen vor allem im Hinblick auf die gewählte Inkubationszeit und Konzentration der untersuchten Testmaterialien als sensitiver erwiesen. Ein weiteres Ziel dieser Arbeit war die Charakterisierung eines polyphenolreichen Smoothies im Hinblick auf Bioverfügbarkeit und antioxidative Wirksamkeit im menschlichen Darm. Die Interventionsstudie mit Ileostoma-Patienten ermöglichte es, Saftinhaltstoffe und Metabolite eines Smoothiees der Apfelsorte Winesap unmittelbar vor der Dickdarmpassage aus den Inhalten der Ileostomabeutel zu gewinnen und in-vitro auf antioxidative Wirksamkeit hin zu überprüfen. Hierbei konnten sowohl zellfrei (TEAC und ORAC Assay) als auch mit der humanen Kolonkarzinomzellinie HT29 ein antioxidatives Potenzial der Ileostoma-Beutelinhalte nachgewiesen werden. Die TEAC- und ORAC-Werte der Ileostoma-Proben zeigten einen deutlichen Anstieg mit einem Maximum bei 4h nach Saftverzehr. Im Vergleich zu den 0h- Ileostombeutel-Inhalten bewirkten die 2h- und 4h-Ileostoma-Beutelinhalte eine signifikanten Reduktion des TBH-induzierten ROS-Levels (DCF-Assay) nach 24h Inkubation in HT29-Zellen. Die Identifizierung als auch die quantitative Erfassung der in den Ileostoma-Proben enthaltenen polyphenolischen Inhaltsstoffe, sowie deren Abbauprodukte könnte Hinweise auf aktivitätsgeleitete Strukturen einzelner polyphenolischer Verbindungen geben. In einer Interventionsstudie an Ratten wurde der Einfluss unterschiedlich hergestellter Apfelsäfte (klarer/ trüber AS, Smoothie, im Vergleich zu einem polyphenolfreien Kontrollsaft) auf die Modulation ARE abhängiger Genexpression in Kolon und Leber männlicher SD-Ratten mittels duplex RT-PCR untersucht. Die aus der vorliegenden Interventionsstudie an Ratten gewonnen Ergebnisse, weisen auf eine Erhöhung der antioxidativen Abwehr durch polyphenolische Apfelsäfte hin. Die Induktion der redoxsensitiven Genexpression variierte hierbei in ihrer Stärke je nach Zielgewebe (Kolon > Leber) und Art des Saftes (trüber > klarer ~ Smoothie). Ergänzend zu den von Spormann et al. untersuchten Biomarkern wurden Genexpressionsuntersuchungen aus PBMCs von Hämodialyse-Patienten mittels Real Time TaqMan PCR durchgeführt. Hierbei wurde neben der Expression ausgewählter glutathionbezogener Gene (g-GCL, GPX1, GSR) auch die Nrf2 Transkription, sowie die Genexpression des inflammatorischen Enzyms COX-2 erfasst. Im Vergleich zur Woche 1 der run-in Phase zeigt sich nach Intervention mit rotem Mehrfruchtsaft ein deutlicher Anstieg der mRNA Expression in den meisten antioxidativen Zielgenen, die COX-2 Genexpression wurde dagegen während der Saftaufnahme leicht herunterreguliert.
Die Entwicklung von beta-Laktam-Resistenz in dem Pathogen Streptococcus pneumoniae (S. pneu-moniae) stellt einen komplexen Prozess dar, welcher auf einer Modifikation der Penicillin-Bindeproteine (PBP), der Targetstrukturen von beta-Laktam-Antibiotika beruht. PBP sind Membran-gebundene Enzyme, welche essentielle Reaktionen bei der bakteriellen Zellwand-Synthese katalysieren. Diese Proteine werden im Zuge der Resistenzentstehung so verändert, dass beta-Laktame nicht mehr oder nur noch mit geringer Affinität gebunden werden, das physiologische Substrat aber noch erkannt werden muß. Die vorliegende Arbeit befasst sich mit dem PBP2x von S. pneumoniae, das als essentielles PBP und wichtigste primäre Resistenzdeterminante einen hohen Stellenwert bei der Entstehung von beta-Laktam-Resistenz in diesem Organismus einnimmt. Obwohl dieses PBP zu den am besten untersuchten PBP gehört, bleiben die Resistenzrelevanz einzelner Punktmutationen und die mit der Veränderung des Proteins einhergehenden physiologischen Folgen für die Zelle weitgehend unklar. Zentraler Inhalt dieser Arbeit war die Untersuchung des Effekts von PBP2x-Mutationen auf die Resistenz, Funktionalität von PBP2x und Zellphysiologie im Kontext mit der sekundären Resistenzdeterminante PBP1a und den beiden Zwei-Komponenten-Systemen CiaRH, welches in die Cefotaxim-Resistenz, genetische Kompetenz und Virulenz involviert ist und ComDE, das die genetische Kompetenz reguliert. Besonderes Interesse galt dabei der Position Thr338, welche sich unmittelbar benachbart zum aktiven Serin befindet und in den meisten resistenten klinischen Isolaten zu Alanin, Prolin oder Glycin mutiert ist. Durch eine gerichtete Mutagenese dieser Position im Wildtyp R6 konnte zum ersten Mal gezeigt werden, dass eine Thr338-Punktmutation einen selektionierbaren Resistenz-Phänotyp in vivo vermittelt, wobei abhängig von dem jeweiligen Austausch unterschiedliche Resistenzniveaus und Kreuzresistenzspektren zu beobachten waren. Abgesehen von einem nur moderaten Beitrag zur Resistenz, betraf eine solche Substitution offenbar auch die Funktionalität von PBP2x, was sich auf dramatische Art und Weise in Abwesenheit eines intakten CiaRH-Regulationssystems äußerte: Es kam zu Wachstumsdefekten, insbesondere einer verfrühten und verstärkten Autolyse, morphologischen Aberrationen und einer verminderten Lebensfähigkeit. Entgegen aller Erwartungen führte die Präsens eines Mosaik-PBP1a in dem genetischen Hintergrund der Thr338-Mutation nicht zu einem weiteren Anstieg der Resistenz, sondern bewirkte sogar einen leichten Abfall. Dennoch komplementierte das Mosaik-PBP1a die durch das Fehlen eines funktionsfähigen CiaRH-Systems hervorgerufenen Wachstumsdefizienzen. Der Vergleich zwischen dem PBP2x mit Thr338-Punktmutation und einem Mosaik-PBP2x deckte gravierende Unterschiede im Hinblick auf das Resistenzpotential und die physiologischen Auswirkungen auf. Anders als bei der PBP2x-Punktmutation waren bei dem Mosaik-PBP2x fast keine Wachstumseinbußen zu verzeichnen, wenn es mit einem inaktiven Zwei-Komponenten-System CiaRH kombiniert wurde, und die Anwesenheit eines Mosaik-PBP1a brachte eine starke Erhöhung der Cefotaxim-Resistenz mit sich. Beiden pbp2x-Allelen war jedoch gemeinsam, dass die Abwesenheit eines PBP1a massive Defekte im Wachstum zur Folge hatte. Alle diese Beobachtungen deuteten auf eine mögliche Interaktion zwischen PBP2x und PBP1a hin. Die Analyse der Zellwand einer Mutante mit zwei PBP2x-Aminosäureaustauschen, von denen einer in resistenten klinischen Stämmen anzutreffen ist, ergab eine biochemisch modifizierte Zellwand, in der bei einem fast gleichbleibenden Anteil an verzweigten Dimeren, Monomere erhöht, und lineare Dimere und Trimere reduziert waren. Diese Befunde ließen auf eine enzymatische Beeinträchtigung dieses PBP2x schließen. Ein von CiaRH ausgehender Effekt konnte nicht festgestellt werden. Eine Inaktivierung des für den Export des Kompetenz-stimulierenden Peptids CSP verantwortlichen ABC-Transporters ComAB in Kombination mit einem nicht-funktionellen CiaRH-System bewirkte im Wildtyp eine vollständige, in PBP2x-Punktmutanten eine nur teilweise Aufhebung der vorzeitigen stationären Phase-Autolyse. Darüber hinaus machte sich bei einem der PBP2x-Derivate, welches zusätzlich über eine Cefotaxim-Resistenz-vermittelnde Aminosäuresubstitution in CiaH verfügte, bei ciaR-Inaktivierung sowohl ein Verlust der CiaH- als auch eine partielle Einbuße der PBP2x-Resistenz bemerkbar, bei comAB-Inaktivierung hingegen aber ausschließlich ersteres. Hieraus konnte zum einen auf einen direkten Bezug des Lyse-Phänotyps zu der Kompetenz und der CiaRH-Resistenz zu ComAB geschlossen werden, zum anderen auf einen CiaRH-unabhängigen Einfluss von PBP2x auf die Kompetenz und Autolyse. Tatsächlich bestätigte eine Bestimmung der Transformationseffizienz von Mutanten mit verschiedenen Konstellationen aus niederaffinen und unmodifizierten PBP, dass das Kompetenzmuster bzw. -ausmaß von der jeweiligen PBP-Ausstattung moduliert wird. Auch eine Microarray-basierte globale Transkriptomanalyse dieser Mutanten sowie spontan resistenter Labormutanten mit PBP2x- und CiaH-Mutationen suggerierte eine von CiaRH-entkoppelte Einflussnahme der PBP auf die Kompetenz. Zudem zeugten die Transkriptionsmuster von einem vielschichtigen Regulationsnetzwerk der Resistenzentwicklung unter Beteiligung von Kompetenz, Bakteriocinproduktion, Virulenz, Metabolismus, Transportprozessen und Energiestatus, was möglicherweise eine indirekte Folge einer gestörten Zellwand- und Membranintegrität darstellt. Durch die Extraktion von intergenen Bereichen, sowie potentiellen neuen Resistenzdeterminanten bzw. Resistenz-unterstützenden Genen, wie den Gen-Clustern spr1545-spr1549 und spr0096-spr0110 oder den Genen des Purinstoffwechsels wurde die Basis für weiterführende Untersuchungen geschaffen. Die hier vorgestellten Daten demonstrieren, dass der Erwerb von beta-Laktam-Resistenz nicht nur von Vorteil ist, sondern auch physiologische Konsequenzen für die Zelle hat, die sie kompensiert, um ein möglichst stabiles Wachstum zu gewährleisten. Über die Zellwand-Zusammensetzung und Kompetenz konnte erstmalig eine Verbindung von PBP2x zu CiaRH hergestellt werden. Eine konkrete kompensatorische Wirkung dieses Regulons hinsichtlich PBP2x-Mutationen wurde mit der Repression der Kompetenzlyse ausfindig gemacht. Im letzten Teil dieser Arbeit wurde basierend auf einer früheren Veröffentlichung, in der eine Inaktivierung des Gens für das PBP2b von S. pneumoniae erfolglos blieb, erneut versucht, eine solche Mutante herzustellen. Obwohl lebensfähige Transformanten generiert werden konnten, war es nicht möglich eine pbp2b-Inaktivierungs- bzw. Deletionsmutante zu isolieren, sodass PBP2b in diesem Organismus weiterhin als essentielles Protein angesehen werden kann.
Wissenschaftliche Studien deuten auf eine gesundheitsförderndes und gewichtsregulierendes Potential des Kaffees hin, welches vor allem mit dem hohen Gehalt an Antioxidantien in Verbindung gebracht wird. In dieser Arbeit wurden Kaffeeextrakte, -inhaltsstoffe sowie Kaffeegetränke hinsichtlich ihrer antioxidativen Wirksamkeit untersucht. In-vitro wurde die präventive Wirkung von Extrakten aus leicht (AB1), mittel (RI, AC, AB) und stark (AB 2) gerösteten Kaffees mit Markern oxidativer Zellschädigung und Zellantwort in den Kolonkarzinomzelllinien HT-29 und Caco-2 charakterisiert. Vergleichend wurden die ausgewählten originären Kaffeeinhaltstoffe 5-Caffeoylchinasäure (5-CQA) und Trigonellin (TRIG) sowie die Röstprodukte Kaffeesäure (CA), Catechol (Cat), 1,2,4-Trihydroxybenzol (THB), N-Methylpyridinium (NMP) und methylierte NMP-Analoga untersucht. Erfasste Parameter waren zellulärer ROS-Level, (oxidative) DNA-Schädigung und Proteinexpression der ARE-abhängigen Enzyme NQO1, g-GCL und GSR. Zusätzlich wurde die direkte antioxidative Aktivität mittels TEAC- und ORAC-Assay gemessen. Die Ergebnisse zeigten eine radikalabfangende Eigenschaft aller Kaffeeextrakte mit Werten von 0,9-1,5 mM Trolox (TEAC) bzw. 2,5-2,8 mM Trolox (ORAC). Der zelluläre ROS-Level wurde in HT-29 Zellen durch die Extrakte AB, AC, RI und stark gerösteten AB 2 signifikant verringert. Eine konzentrationsabhängige und signifikante Induktion ARE- abhängiger Enzyme (NQO1, g-GCL und GSR) in HT-29 Zellen wurde durch den CQA-reichen AB 1 beobachtet, der NMP-reiche AB 2 war dagegen unwirksam. Von den untersuchten Kaffeeinhaltsstoffen zeigten nur die phenolischen Verbindungen 5-CQA und CA eine ausgeprägte zellfreie antioxidative Aktivität. Der zelluläre ROS-Level konnte durch 5-CQA verringert werden, dagegen waren methylierte NMP-Analoga in der Lage (oxidative) DNA-Schäden in Caco-2 Zellen zu reduzieren. 5-CQA induzierte wie leicht gerösteter AB 1 die Proteinexpression alle untersuchten Enzyme in HT-29 Zellen. Weiterhin wurde in zwei aufeinander folgenden humanen Interventionsstudien das antioxidative Potential unterschiedlicher Kaffeegetränke mit hohem Anteil an Antioxidantien charakterisiert; in der zweiten Studie wurde zusätzlich auf gewichtsregulierende Wirkung des Studienkaffees geprüft. Im Rahmen der ersten Pilotstudie, durchgeführt durch AG. Somoza (DFA Garching) wurde die Modulation von DNA-Schäden im Blut von Probanden nach Konsum zweier Kaffeegetränke erfasst, die reich an Chlorogensäuren oder an N-Methylpyridinium waren (Kaffeekonsum: 0,5 L pro Tag, 4 Wochen). Beide Kaffeegetränke bewirkten im Blut gesunder Probanden eine deutliche Abnahme oxidativer DNA-Schäden. In der zweiten Interventionsstudie nahmen 35 männliche Probanden nach einer vierwöchigen Wash-out Phase über vier Wochen täglich 750 ml eines Antioxidantien reichen Kaffees (580 mg/l CQAs; 71,7 mg/l NMP) auf, anschließend folgte eine vierwöchige Wash-out Phase. Zu Beginn der Studie und am Ende jeder Phase wurden Blutentnahmen zur Bestimmung der Biomarker (oxidative) DNA-Schäden, Glutathion (Gesamtglutathion tGSH, oxidiertes Glutathion GSSG) sowie Bioimpedanzanalysen zur Bestimmung der Körperzusammensetzung durchgeführt. Zusätzlich wurden Energie und Nährstoffaufnahme der Probanden erfasst. Die Ergebnisse zeigten eine signifikante Abnahme (oxidativer) DNA-Schäden (p < 0,001), Anstieg des tGSH-Spiegels (p<0,05) und des GSH-Status (Trend) und eine Erniedrigung des GSSG-Spiegels. Weiterhin wurde eine signifikante Abnahme von Körpergewicht und Körperfett der Probanden während der Kaffeeintervention im Vergleich zur beiden Wash-out Phasen beobachtet, welche vor allem bei Probanden mit BMI < 25 stärker ausgeprägt war. Die Verringerung der Energie- und Nährstoffaufnahme während der Kaffeephase weist auf eine Kaffeeabhängige beeinflussung der Sättigungsregulation hin. Zusammenfassend besitzt der Antioxidantien reiche Studienkaffee ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung sowie gewichtsregulierende Wirkung in gesunden Probanden. Aufgrund der von uns erhaltenen in vitro Daten kann die antioxidative Wirksamkeit zum Teil auf die untersuchten originären Kaffeeinhaltsstoffen (vor allem CQAs) und Röstprodukte zurückgeführt werden. Andere bisher nicht charakterisierte Sustanzen/Stoffgruppen tragen vermutlich ebenfalls zu der beobachteten Wirkung bei.
Die vorliegende Dissertation besteht aus zwei Hauptteilen: Neue Ergebnisse aus der Gaußchen Analysis und ihre Anwendung auf die Theorie der Pfadintegrale. Das zentrale Resultat des ersten Teils ist die Charakterisierung aller regulären Distributionen die man mit Donsker's Delta multiplizieren kann. Dabei wird eine explizite Formel für solche Produkte, die sogenannte Wick-Formel, angegeben. Im Anwendungsteil dieser Arbeit wird zunächst eine komplex skalierte Feynman-Kac-Formel und ihre zugehörigen Kerne mit Hilfe dieser Wick-Formel gezeigt. Desweiteren werden Feynman Integranden für neue Klassen von Potentialen als White Noise Distributionen konstruiert.
A prime motivation for using XML to directly represent pieces of information is the ability of supporting ad-hoc or 'schema-later' settings. In such scenarios, modeling data under loose data constraints is essential. Of course, the flexibility of XML comes at a price: the absence of a rigid, regular, and homogeneous structure makes many aspects of data management more challenging. Such malleable data formats can also lead to severe information quality problems, because the risk of storing inconsistent and incorrect data is greatly increased. A prominent example of such problems is the appearance of the so-called fuzzy duplicates, i.e., multiple and non-identical representations of a real-world entity. Similarity joins correlating XML document fragments that are similar can be used as core operators to support the identification of fuzzy duplicates. However, similarity assessment is especially difficult on XML datasets because structure, besides textual information, may exhibit variations in document fragments representing the same real-world entity. Moreover, similarity computation is substantially more expensive for tree-structured objects and, thus, is a serious performance concern. This thesis describes the design and implementation of an effective, flexible, and high-performance XML-based similarity join framework. As main contributions, we present novel structure-conscious similarity functions for XML trees - either considering XML structure in isolation or combined with textual information -, mechanisms to support the selection of relevant information from XML trees and organization of this information into a suitable format for similarity calculation, and efficient algorithms for large-scale identification of similar, set-represented objects. Finally, we validate the applicability of our techniques by integrating our framework into a native XML database management system; in this context we address several issues around the integration of similarity operations into traditional database architectures.
Vor kurzem wurde MOT1 als Molybdat-Transportprotein in Arabidopsis thaliana identifiziert. Unter Zuhilfenahme von GFP-Fusionsproteinen konnte als subzelluläre Lokalisierung des Proteins die Membran des Endoplasmatischen Retikulums (ER) in dieser Arbeit identifiziert werden. Auch wurde hier demonstriert, dass das mit Abstand nächste Homolog des Proteins, MOT2, ist in der vakuolären Membran, dem Tonoplasten, lokalisiert ist. Unter Standarbedingungen zeigten mot1-KO-Pflanzen reduzierte Molybdatgehalte im Blatt und Keimlinge wiesen Wachstumsdefizite in Abwesenheit von Molybdat auf. Dies führte zu der Annahme, dass MOT1 nicht, wie bislang angenommen, den Hauptimporter für Molybdat in die Zelle darstellt. Durch die Quantifizierung vakuolärer Molybdatgehalte konnte einerseits die Vakuole als Hauptspeicherort für Molybdat in der pflanzlichen Mesophyllzelle und andererseits MOT1 als wichtigstes Protein zur Beladung der Vakuole mit dem Spurenelement identifiziert werden. Die Blätter von mot2-KO-Pflanzen zeigten erhöhte Molybdatgehalte und die Bedeutung des Proteins für die Remobilisierung des essentiellen Molybdats während der Seneszenz konnte mittels Transkriptanalysen und Molybdatquantifizierung in Samen und seneszenten Blättern gezeigt werden. Mittels Fluoreszenzanalysen konnte zusätzlich eine wichtige Determinante der Zielsteuerung von Proteinen zum Tonoplasten identifiziert werden. Durch Mutagenese zweier Leucinreste am N-Terminus von MOT2 ist das korrekte Targeting in die vakuoläre Membran gestört und das Protein lokalisiert fälschlicherweise in der Plasmamembran. Es konnte ein Modell für den intrazellulären Molybdattransport vorgestellt werden. So transportiert MOT1 das Anion ins ER, von wo aus es über Vesikelfluss zur Vakuole gelangt. MOT2 stellt das tonoplastidäre Protein für den Export des Spurenelements aus der Vakuole, besonders während der Seneszenz, dar. Auch konnte eine Korrelation zwischen dem Molybdatgehalt und der Konzentration von Moco, sowie dessen Vorstufe MPT, identifiziert werden. Dies liefert Hinweise auf eine Regulation der Moco-Biosynthese in Abhängigkeit von der zellulären Molybdatkonzentration.
The purpose of Exploration in Oil Industry is to "discover" an oil-containing geological formation from exploration data. In the context of this PhD project this oil-containing geological formation plays the role of a geometrical object, which may have any shape. The exploration data may be viewed as a "cloud of points", that is a finite set of points, related to the geological formation surveyed in the exploration experiment. Extensions of topological methodologies, such as homology, to point clouds are helpful in studying them qualitatively and capable of resolving the underlying structure of a data set. Estimation of topological invariants of the data space is a good basis for asserting the global features of the simplicial model of the data. For instance the basic statistical idea, clustering, are correspond to dimension of the zero homology group of the data. A statistics of Betti numbers can provide us with another connectivity information. In this work represented a method for topological feature analysis of exploration data on the base of so called persistent homology. Loosely, this is the homology of a growing space that captures the lifetimes of topological attributes in a multiset of intervals called a barcode. Constructions from algebraic topology empowers to transform the data, to distillate it into some persistent features, and to understand then how it is organized on a large scale or at least to obtain a low-dimensional information which can point to areas of interest. The algorithm for computing of the persistent Betti numbers via barcode is realized in the computer algebra system "Singular" in the scope of the work.
Im ersten Teil der Arbeit wurden die Synthesen der verschiedenen Liganden vorgestellt. Ausgehend von optisch reiner Weinsäure (natürlich und unnatürlich) ist es möglich zweizähnige C2-symmetrische P,P- und S,S-Liganden zu synthetisieren. Die N,N-Liganden mit Pyrazol als Stickstoffdonor können nicht durch eine SN-2 Reaktion ausgehend von RMOP oder RTfOP und Natriumpyrrazolid synthetisiert werden. Bei den P,P-Liganden können verschiedene Phosphinitliganden und Phosphitliganden mit unterschiedlichen elektronischen und sterischen Eigenschaften hergestellt werden. Die P,N- und P,S-Liganden mit Pyrrolidin als chiralem Rückgrat können über verschiedene Synthesewege hergestellt werden. Eine Trennung der durch die Epoxidöffung entstehenden Enantiomere ist zumindest durch eine CDA-Derivatisierung (Diastereomerenbildung) in einem Fall möglich. Weitere Versuche, andere Alkohole durch enzymatische Racematspaltung oder Kristallisation von Diastereomeren zu trennen, schlugen fehl. Die synthetisierten P,N- und P,S-Liganden und ihre Komplexe lagen somit als Racemat vor. Die Untersuchung ihrer katalytischen Eigenschaften beschränkte sich deshalb nur auf Regioselektivität und Aktivität. Für die mit einem Cyclohexan als chiralem Rückgrat hergestellten P,P‘- und P,N-Liganden wurden die im Arbeitskreis vorhandenen Vorstufen verwendet. Die Katalysatoren mit dem optisch reinem Ligand konnten auf ihre Enantioselektivität in der Katalyse hin untersucht werden. Im zweiten Teil der Arbeit wurden mit den verschiedenen Liganden mit Molybdän(0), Ruthenium(II), Rhodium(I), Iridium(I), Palladium(II), Platin(II), Kupfer(I) und Gold(I) Komplexe hergestellt. Insbesondere Ruthenium(II), Rhodium(I) und Palladium (II) waren wegen ihrer hohen katalytischen Aktivitäten von Interesse. Im dritten Teil der Arbeit wurden erste Katalyseexperimente durchgeführt. Bei der Direkthydrierung der Dehydroaminosäuren α-Acetamidozimtsäure mit Rhodium-, Ruthenium- und Iridium-Katalysatoren liefern die Komplexe [RhI(η4-COD)(κ2-(S,S)-BzOPhPOB)]+BF4- und das Gemisch aus verschiedenen Rutheniumkomplexen mit dem Liganden (S,S)-PhPhPOP die höchste Enantioselektivitäten von OR = 22–24 %. Insgesamt sind bei diesem Substrat die katalytischen Aktivitäten der getesteten Komplexe sehr niedrig. Bei Itaconsäuredimethylsäureester liefern die Rhodiumkomplexe mit den (S,S)-PhPhPOP- und (S,S)-PhTPOP-Liganden nur ein racemischen Produkt bei Aktivitäten von bis zu TOF = 3300 h-1 (T = 40 °C; p = 40 bar). Eine relative hohe Enantioseletivität von ee = 75 % bei der Hydrierung von Itaconsäuremethylester erzielt man mit der Verbindung [RhI(η4-COD)(κ2-(S,S)-BzOPhPOB)]+BF4- bei sehr geringen Aktivitäten (TOF < 20 h-1). Gute optische Reinheiten liefern die Rhodiumsalze mit (S,S)-PhPhPOP- und (S,S)-BzOPhPOB-Liganden bei der Aminosäure N-Acetylalanin (OP = 43–60 %) bei Aktivitäten von bis zu TOF > 400 h-1 bei dem Komplex [RhI(η4-NBD)(κ2-(S,S)-PhPhPOP)]+BF4-. Der Katalysator [RhI(η4-NBD)(κ2-(S,S)-PhPhPOP)]+BF4- ergibt bei dem Produkt N-Acetylalaninmethylester einen Enantiomerenüberschuss von ee = 50 % (TOF = 100 h-1). Der Komplex [RhI(μ1-Cl)(η4-COD)(κ2-(R,R)-PzPhPOC)]/NaBPh4 liefert bei N-Acetylalaninmethylester eine Enantioseletivität von ee = 80 % (TON = 80; TOF = 20 h-1) Die Komplexe mit P,N-, P,S- und S,S-Liganden sind bei den rhodiumkatalysierten Direkthydrierungen gegenüber den P,P-Liganden bei allen getesten Systemen weniger aktiv. Die Transferhydrierungen mit Ruthenium- und Rhodiumkomplexen liefern bei moderaten Aktivitäten nur sehr schlechte Enantiomerenüberschüsse bei allen getesteten Substraten. Höhere Selektivitäten erreicht man bei der rhodiumkatalysierten Hydrosilylierung mit dem PhPhPOP-Liganden (Acetophenon ee = max 50 %). Bei Trost-Tsuji-Allylierungen liefern die verwendeten Komplexen bei den getesteten Systemen bei guten Aktivitäten (TON  66; TOF < 170 h-1) nur sehr geringe Enantioselektivitäten. So ergibt die Verbindung [PdII(η3-Allyl)(κ2-(R,R/S,S)-PhPhPOP)]+PF6- bei dem Produkt Dimethyl-1-(1,3-diphenylprop-2-enyl)malonat eine Enantioseletivität von ee = 11–17 % Die ist nahezu unabhängig vom Lösungsmittel, Temperatur und vom Anion. Im Vergleich dazu ist die Enantioselektivität bei dem Komplex [PdII(η3-Allyl)(κ2-(R,R)-PzPhPOC)]+PF6- mit ee = 9 % nur unwesentlich geringer. Die höchste Enantioselektivität von ee = 48 % liefert der Komplex mit dem Liganden PhPhenphos bei dem Produkt Dimethyl-3-cyclohexenylmalonat. Die Allylierung von (E)-1-Phenyl-2-propen-1-ylacetat mit DMM liefert bei den getesteten Komplexen mit hohen Regioselektivitäten das unerwünschte Linearprodukt (E)-2-(3-Phenyl-allyl)malonsäuredimethylester.
This thesis deals with the solution of special problems arising in financial engineering or financial mathematics. The main focus lies on commodity indices. Chapter 1 addresses the important issue for the financial engineering practice of developing well-suited models for certain assets (here: commodity indices). Descriptive analysis of the Dow Jones-UBS commodity index compared to the Standard & Poor 500 stock index provides us with first insights of some features of the corresponding distributions. Statistical tests of normality and mean reversion then helps us in setting up a model for commodity indices. Additionally, chapter 1 encompasses a thorough introduction to commodity investment, history of commodities trading and the most important derivatives, namely futures and European options on futures. Chapter 2 proposes a model for commodity indices and derives fair prices for the most important derivatives in the commodity markets. It is a Heston model supplemented with a stochastic convenience yield. The Heston model belongs to the model class of stochastic volatility models and is currently widely used in stock markets. For the application in the commodity markets the stochastic convenience yield is included in the drift of the instantaneous spot return process. Motivated by the results of chapter 1 it seems reasonable to model the convenience yield by a mean reverting Ornstein-Uhlenbeck process. Since trading desks only apply and consider models with closed form solutions for options I derive such formulas for commodity futures by solving the corresponding partial differential equation. Additionally, semi-closed form formulas for European options on futures are determined. The Cauchy problem with respect to these options is more challenging than the first one. A solution can be provided. Unlike equities, which typically entitle the holder to a continuing stake in a corporation, commodity futures contracts normally specify a certain date for the delivery of the underlying physical commodity. In order to avoid the delivery process and maintain a futures position, nearby contracts must be sold and contracts that have not yet reached the delivery period must be purchased (so called rolling). Optimal trading days for selling and buying futures are determined by applying statistical tests for stochastic dominance. Besides the optimization of the rolling procedure for commodity futures we dedicate ourselves in chapter 3 with the optimization of the weightings of the commodity futures that make up the index. To this end, I apply the Markowitz approach or mean-variance optimization. The mean-variance optimization penalizes up-side and down-side risk equally, whereas most investors do not mind up-side risk. To overcome this, I consider in the next step other risk measures, namely Value-at-Risk and Conditional Value-at-Risk. The Conditional Value-at-Risk is generalized to discontinuous cumulative distribution functions of the loss. For continuous loss distributions, the Conditional Value-at-Risk at a given confidence level is defined as the expected loss exceeding the Value-at-Risk. Loss distributions associated with finite sampling or scenario modeling are, however, discontinuous. Various risk measures involving discontinuous loss distributions shall be introduced and compared. I then apply the theoretical results to the field of portfolio optimization with commodity indices. Furthermore, I uncover graphically the behavior of these risk measures. For this purpose, I consider the risk measures as a function of the confidence level. Based on a special discrete loss distribution, the graphs demonstrate the different properties of these risk measures. The goal of the first section of chapter 4 is to apply the mathematical concept of excursions for the creation of optimal highly automated or algorithmic trading strategies. The idea is to consider the gain of the strategy and the excursion time it takes to realize the gain. In this section I calculate formulas for the Ornstein-Uhlenbeck process. I show that the corresponding formulas can be calculated quite fast since the only function appearing in the formulas is the so called imaginary error function. This function is already implemented in many programs, such as in Maple. My main contribution of this topic is the optimization of the trading strategy for Ornstein-Uhlenbeck processes via the Banach fixed-point theorem. The second section of chapter 4 deals with statistical arbitrage strategies, a long horizon trading opportunity that generates a riskless profit. The results of this section provide an investor with a tool to investigate empirically if some strategies (for example momentum strategies) constitute statistical arbitrage opportunities or not.
In der vorliegenden Arbeit wird das Tragverhalten von durchlaufenden stahlfaserbewehrten Stahlverbunddecken analysiert. Auf der Basis von experimentellen und rechnerischen Untersuchungen werden zwei Bemessungsmodelle entwickelt. Anhand der experimentellen Untersuchungen an einfeldrigen und durchlaufenden stahlfaserbewehrten Verbunddecken werden Aufschlüsse über das Trag- und Verformungsverhalten der Decken gewonnen. Dabei werden sowohl offene trapezförmige als auch hinterschnittene Profilbleche verwendet. Auf eine konventionelle Betonstahlbewehrung wird gänzlich verzichtet. Das Stützmoment wird vom Stahlfaserbeton alleine aufgenommen. In vier Versuchsserien mit insgesamt 18 Versuchen werden einzelne Parameter wie z. B. unterschiedliche Deckenstärken, unterschiedliche Profilblechgeometrien sowie unterschiedliche Stahlfaserbetonmischungen untersucht. Für die Berechnung und Bemessung werden die im Verbundbau üblichen Nachweisverfahren aufgegriffen und modifiziert. Die Traganteile des Stahlfaserbetons werden über den Ansatz von Spannungsblöcken implementiert. Bei der Nachrechnung der einzelnen Versuche zeigt sich die Eignung der Verfahren. Für die einzelnen Nachweise werden in Parameterstudien Bemessungsdiagramme und –tabellen erstellt, die dem anwendenden Ingenieur ein einfaches und sicheres Bemessen ermöglichen. Anhand der experimentellen Ergebnisse und der rechnerischen Untersuchungen werden zwei mögliche Bemessungsmodelle entwickelt, mit denen die Tragfähigkeit von stahlfaserbewehrten durchlaufenden Verbunddecken nachgewiesen werden kann. Dabei kann der Nachweis entweder nach den Verfahren Elastisch-Plastisch oder Plastisch-Plastisch erfolgen.
Der TRPV5 Ionenkanal ist ein hoch selektiver Kalziumkanal, der in der Niere exprimiert wird und dort für den transzellulären Kalziumtransport im distalen Konvolut verantwortlich ist. TRPV5 Transkripte sind auch in anderen Geweben, wie z.B. der Plazenta, identifiziert worden. In dieser Arbeit wurde versucht, das TRPV5 Protein in verschiedenen Geweben nachzuweisen und den Kanal sowie eventuell daran assoziierte Proteine aus der Plazenta zu isolieren. Hierzu wurden verschiedene Strategien verfolgt. Zum einen wurden vier polyklonale Peptidantikörper generiert, einer gegen einen N- und drei gegen C-terminale Bereiche des humanen TRPV5 Proteins. Diese wurden eingehend mittels ELISA, Peptidblot-Analysen, Western Blot Analysen und immunhistochemischen Färbungen bezüglich ihrer Spezifität und Affinität charakterisiert. Alle generierten Antikörper erkennen spezifisch nur die antigenen Bindungsregionen in Glutathion-S-Transferase (GST)-TRPV5-Fusionsproteinen und detektieren das endogen in humaner Plazenta exprimierte Protein. Der Antikörper, der gegen den absoluten C-Terminus des TRPV5 Ionenkanals gerichtet ist (982/3), erwies sich zum Nachweis des TRPV5 Proteins im distalen Konvolut in Mausnieren als geeignet, allerdings zum Nachweis des TRPV5 Proteins im Synzytiotrophoblasten der humanen Plazenta, ist einer der anderen C-terminalen TRPV5 Antikörper besser geeignet. Der Antikörper 982/3 wurde auch in Immunpräzipitationen und Antikörper-Affinitäts-chromatographien eingesetzt. Mit diesen beiden Methoden konnte das TRPV5 zwar in kleinen Mengen aus humanem Plazentagewebe bzw. Mausnieregewebe angereichert und im anschließenden Western Blot detekiert werden, allerdings war die Menge des isolierten Proteins so gering, dass eine massenspektrometrische Identifikation nicht möglich war. Parallel wurden GST-Pulldown Versuche mit Fusionsproteinen, die den N- und C-Terminus des TRPV5 Proteins enthalten, mit Proteinextrakten der humanen Plazenta durchgeführt. Hierbei wurden insgesamt 38 Proteine als putative Interaktionspartner von TRPV5 identifiziert. Darunter befinden sich bereits in der Literatur beschriebene Interaktionspartner, wie NHERF2 und Galectin-1, und zahlreiche potentielle TRPV5 bindende Proteine. Zu den häufigsten identifizierten Proteinen zählen die Proteine 11ß-HSD2, Ku70 und Calpain-6. Ihre Bindung an N- und C-terminale Bereiche des Ionenkanals, nicht aber an GST konnte in weiteren GST-Pulldown-Experimenten und anschließender Identifikation im Western Blot bestätigt werden. Zusammenfassend zeigen diese Ergebnisse, dass das TRPV5 Protein in der humanen Plazenta an der Blut-Plazenta Schranke exprimiert wird. Aller Wahrscheinlichkeit nach ist dort das Protein mit anderen Proteinen assembliert. Inwiefern diese Interaktionen die Kanalaktivität beeinflussen müsste in weiteren Experimenten untersucht werden.
Zum Tragverhalten von Stahlbetonplatten ohne Querkraftbewehrung mit integrierten Leitungsführungen
(2010)
In der vorliegenden Arbeit wird das Querkrafttragverhalten von einachsig gespannten Stahlbetondecken mit integrierten Leitungsführungen untersucht. Anhand zahlreicher Traglastversuche an Deckenstreifen mit unterschiedlicher Öffnungsgeometrie, -lage und -gruppierung sowie variierender Deckendicken konnte die Reduzierung der Querkrafttragfähigkeit experimentell nachgewiesen werden. Die Versuche wurden mit einem zweidimensionalen FE-Modell, welches an Hand der experimentellen Ergebnisse kalibriert wurde, nachgebildet. Anschließend wurde mit Hilfe des Modells eine Parameteruntersuchung durchgeführt, worin die Parameter Plattendicke, Öffnungsdurchmesser und Lage der Öffnung im Querschnitt variiert wurden. Die Ergebnisse der experimentellen und rechnerischen Untersuchungen dienten zur Definition eines Abminderungsfaktors, der die Reduktion der Querkrafttragfähigkeit infolge der Öffnungen im Deckenquerschnitt beschreibt. Mit dem im Rahmen dieser Arbeit entwickelten Modell konnten die Grundlagen für eine ingenieurmäßige Querkraftbemessung von Stahlbetondecken mit integrierter Leitungsführung geschaffen werden.
Decarboxylierende Kreuzkupplungen verkörpern eine neue Strategie zur C-C-Bindungsknüpfung, bei der Kohlenstoffnucleophile in situ durch übergangsmetallvermittelte Decarboxylierung von ubiquitär vorhandenen Carbonsäuren erzeugt und dann im weiteren Verlauf der Reaktion mit Kohlenstoffelektrophilen gekuppelt werden. Diese Vorgehensweise verbindet zwei Vorteile, nämlich die Regioselektivität, den die traditionellen Kreuzkupplungen gegenüber den Reaktionen haben, die über eine C-H-Aktivierung verlaufen, und den Einsatz von kostengünstigen und einfach zugänglichen, luft- und wasserstabilen Carbonsäuresalzen. Die Vorteile dieser neuen Transformation bestätigten sich durch die Synthese ortho-substituierter Biaryle ausgehend von aktivierten Carbonsäuren und Arylbromiden in der Gegenwart eines kupfer- und palladiumbasierten Katalysatorsystems. Die ursprünglich in Bezug auf das Substitutionsmuster der eingesetzten Carbonsäure beobachtete Substratrestriktion konnte aufgehoben werden. Dies konnte durch die Entwicklung neuer Katalysatorsysteme erreicht werden, die es ermöglichen Kohlenstoffelektrophile mit nicht koordinierenden Abgangsgruppen, wie zum Beispiel Aryltriflate oder -tosylate, in decarboxylierenden Kreuzkupplungen zu verwenden. Dadurch wurde zum ersten Mal das volle Substratspektrum an aromatischen und heteroaromatischen Carbonsäuren für decarboxylierende Kreuzkupplungen erschlossen. Weiterhin führte die separate Untersuchung des Decarboxylierungschritts zu zwei sich ergänzenden Katalysatorsystemen. Das erste, kupferbasierte Katalysatorsystem ermöglicht selbst die Protodecarboxylierung nicht aktivierter Carbonsäuren. Weiterhin wurde ein silberbasiertes Katalysatorsystem entwickelt, welches die Protodecarboxylierung einer Vielzahl von ortho-substituierten aromatischen und heteroaromatischen Carbonsäuren bei Temperaturen von nur 80 °C bis 120 °C ermöglicht. Dies liegt 50 °C unterhalb der Reaktionstemperatur des kupferbasierten Systems. Auf der Grundlage des silberbasierten Tieftemperatur-Decarboxylierungs-Katalysatorsystems wurde ein neues Katalysatorsystem entwickelt, mit dem sich die Reaktionstemperatur decarboxylierender Kreuzkupplungen auf 130 °C verringern lässt. Abschließend kann man sagen, dass das neuartige synthetische Konzept der decarboxylierenden Kreuzkupplung im Rahmen dieser Doktorarbeit zu einer allgemein anwendbaren Methode weiterentwickelt wurde.
Während der bayerisch-böhmische Grenzraum früher mit dem Image der Rückständigkeit behaftet war, stellt seine Lage an zwei Märkten und zwei Kulturregionen heute eine gewisse Standortgunst dar. Die abnehmende Bedeutung der Staatsgrenze führt dazu, dass Unter-nehmen die neuen Optionen zur Gewinnung von Arbeitskräften, Geschäftspartnern und Kunden im Nachbarland nutzen und horizontale und vertikale Kooperationen im Nachbarland eingehen. Dies bietet die Chance, die grenzüberschreitenden Verflechtungen weiter-zu entwickeln. Voraussetzung hierfür ist allerdings der erfolgreiche Umgang mit der kulturellen Diversität des Raumes. Kulturelle Diversität in Grenzregionen wird durch die durchlässige Grenze verursacht, z. B. durch Aufenthalte im Nachbarland. In jeder Verflechtung treffen fremdkulturelle Partner aufeinander und nutzen ihre kulturelle Prägung weiter als Orientierungssystem. Ein hohes Interesse an Kultur ist grenzüberschreitenden Akteuren aus der Wirtschaft zuzuschreiben. Oft werden die Kooperationen zwischen Deutschland und Tschechien als ein Dilemma be-zeichnet. Obwohl die Rahmenbedingungen für grenzüberschreitende Kooperationen als gut und die Notwendigkeit der Zusammenarbeit als offensichtlich einzustufen sind, sind viele Kooperationen wenig erfolgreich. Ziel der bewussten Zusammenarbeit fremdkultureller Partner ist die Erzielung kultureller Synergien. Es gilt zum Einen die enormen Potenziale unterschiedlicher Denk- und Handlungsweisen in Europa ökonomisch zu nutzen. Zum Anderen muss kultursensibles Verhalten gelehrt werden, um Fehleinschätzungen und Konflikten vor-beugen zu können. Kultur ist universell und dient den Angehörigen einer Kultur als Orientierungssystem. Sie ist die Basis, unter der Menschen Wirtschaftsformen und -prozesse entwickeln. Bei einer Zusammenarbeit von Partnern aus beiden Teilen der Grenzregionen, die beide entsprechend ihrer kulturellen Prägung ein und dasselbe Umfeld unterschiedlich wahrnehmen, ist die Entstehung von Konflikten häufig. BERNREUTHER sieht kulturelle Nähe daher als eine Voraussetzung für ökonomische Verflechtungen an. Ausgangspunkt ist die Überlegung, dass ökonomisches Handeln nicht zwischen isolierten Akteuren, sondern in sozialen Systemen eingebettet ist. Für die Qualität der Beziehungen sind Vertrauen und der Wille zur Zusammenarbeit entscheidend. Durch die Zugehörigkeit der Akteure zu verschiedenen Kulturen bei grenzüberschreitenden Interaktionen vergrößert sich die soziokulturelle Heterogenität, wo-mit der Vertrauensaufbau schwieriger wird. Es können aber auch kulturelle Synergien ent-stehen und die regionale Innovationsfähigkeit gesteigert werden. So belegen empirische Studien, dass Regionen mit einer hohen Multikulturalität ein sehr hohes Innovationspotenzial besitzen. Der ostbayerische Grenzlandkreis Cham konnte sich in den 1990er Jahren von einer Problemregion zu einem prosperierenden Standort entwickeln. Es gibt bereits gute Erfahrungen mit grenzüberschreitenden Projekten und kulturellen Synergien. Der Landkreise wurde als qualitatives Fallbeispiel ausgewählt, um auf Grundlage von Experteninterviews zu analysieren, wie kulturelle Diversität auf die Handlungsfelder der Wirtschaftsförderung wirkt und kulturelle Synergien entstehen. Regionale Herausforderungen sind die Anlässe im Landkreis Cham, die die Zusammenarbeit mit der westböhmischen Nachbarregion befördern. So gibt es einen direkten Bezug zwischen den aktuellen Herausforderungen und der Erhöhung grenzüberschreitender Verflechtungen. Als Herausforderungen der wirtschaftlichen Entwicklung werden von den befragten Experten -demographischer Wandel/Fachkräftemangel -Erhöhung der regionalen Innovationsfähigkeit -Weiterentwicklung des Fremdenverkehrs (durch regionale Kooperationen) -Abgrenzung zu den Metropolregionen München und Nürnberg genannt. Die kulturelle Diversität wirkt sich über wirtschaftliche Verflechtungen aus. Grenzüberschreitende Verflechtungen und somit kulturelle Synergien mit der tschechischen Nachbarregion sind für die Wirtschaftsförderung von zunehmender Bedeutung. Das tschechische Improvisationsgeschick wird als Basis für die bayerisch-böhmische Synergieentwicklung und eine langfristige Zusammenarbeit angesehen. Auf Grund der kulturellen Gegebenheiten ist ein Vertrauensaufbau nur über gegenseitige persönliche Wertschätzung zu erlangen. Dieses Vertrauen ist grundsätzlich für die Entfaltung des tschechischen Improvisationsgeschicks notwendig. Vertrauen ist in diesem Kontext stark personalisiert und eng an die hohe Bedeutung der Netzwerkreputation verknüpft. Für die Kontaktaufnahme ist deshalb der Leumund einer Person über dem Akteur bekannte Dritte ein wichtiges Faktum. So haben in Tschechien informelle Netzwerke einen hohen Stellenwert. Sie sind die Basis, um in Kontakt zu treten und Kooperationen aufzubauen.
Ionische Flüssigkeiten werden häufig als Reaktionsmedien (Lösungsmittel) zur Durchführung von chemischen Reaktionen diskutiert. An vielen solcher Reaktionen (z. B. Hydroformylierungen, Hydrierungen und Oxidationen) sind Gase beteiligt. Deshalb ist die Kenntnis der Gaslöslichkeit in ionischen Flüssigkeiten nicht nur von wissenschaftlichem, sondern auch von technischem Interesse. Langfristiges Ziel von wissenschaftlichen Arbeiten auf diesem Gebiet ist die Entwicklung und Erprobung von Methoden zur Vorhersage solcher Gaslöslichkeiten, z.B. durch eine „Molekulare Simulation“. Dazu sind jedoch zuverlässige experimentelle Angaben erforderlich. Deshalb hat im letzten Jahrzehnt die experimentelle Bestimmung von Gaslöslichkeiten in ionischen Flüssigkeiten stark an Bedeutung gewonnen. Trotzdem liegen in der Literatur nur vergleichsweise wenige, zuverlässige, quantitative Angaben vor. Aufbauend auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Universität Kaiserslautern zur Löslichkeit von Gasen in wässrigen (teilweise mit den Gasen reagierenden) Lösungen wurde in der vorliegenden Arbeit die Löslichkeit von sieben Gasen (CO2, CO, H2, CH4, O2, Xe und CF4) in vier ionischen Flüssigkeiten (den drei imidazolbasierten Flüssigkeiten - [bmim][PF6], [bmim][CH3SO4], [hmim][Tf2N] - und einer Pyrrolidiniumverbindung - [bmpy][Tf2N] - ) experimentell im Temperaturbereich zwischen 293 K und 413 K bei Drücken zwischen 0.1 und 10 MPa untersucht. Die experimentellen Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsanlage. Sie musste jedoch an die neue Aufgabenstellung adaptiert werden. Im Verlauf der Messungen wurden auch volumetrische Daten der Mischungen (Gas + Ionische Flüssigkeit) bestimmt. Dabei war in allen untersuchten ionischen Flüssigkeiten Kohlendioxid das am besten lösliche und Wasserstoff das am schlechtesten lösliche Gas. Die Löslichkeit von Wasserstoff in den untersuchten ionischen Flüssigkeiten ist dabei so gering, dass das (für sehr schlecht lösliche Gase typische, aber selten beobachtete) Phänomen der Zunahme der Gaslöslichkeit mit steigender Temperatur auftritt. Die Löslichkeit des gleichen Gases in den vier untersuchten ionischen Flüssigkeiten unterscheidet sich dagegen vergleichsweise wenig (Unterschiede etwa um einen Faktor zwei). Die Messwerte wurden mit Hilfe des erweiterten Henryschen Gesetzes korreliert. Dazu wurde zunächst die Henrysche Konstante (beim Druck null) für die Löslichkeit des jeweiligen Gases in der betrachteten ionischen Flüssigkeit bestimmt. Die Genauigkeit der so erhaltenen Henryschen Konstanten beträgt etwa ein Prozent. Die Abweichungen vom vereinfachten Henryschen Gesetz wurden durch Berücksichtigung der Krichevsky-Kasarnowsky-Korrektur zur Henryschen Konstante und/bzw. durch Berücksichtigung der Wechselwirkungen zwischen den gelösten Gasmolekülen (über Aktivitätskoeffizienten) erfasst. Zur Beschreibung der Krichevsky-Kasarnowsky-Korrektur wird das partielle molare Volumen des Gases in der ionischen Flüssigkeit (im Grenzfall der unendlichen Verdünnung) benötigt. Dieses Volumen bestimmt auch entscheidend die Volumenveränderung der Flüssigkeit beim Lösen eines Gases. Diese Volumenexpansion kann bei einem „gutlöslichen“ Gas bei Löslichkeitsdrücken von ca. 10 MPa bis 20 Prozent des Volumens der reinen ionischen Flüssigkeit betragen. Für „gutlösliche“ Gase konnte durch eine Auswertung der während der Messungen angefallenen volumetrischen Daten, dieses partielle molare Volumen bestimmt und damit die Krichevsky-Kasarnowsky-Korrektur berechnet werden. Bei hohen Drücken (d.h. hohen Gaskonzentrationen) muss darüber hinaus auch der Aktivitätskoeffizient des gelösten Gases berücksichtigt werden. Dieser wurde mit Hilfe eines ursprünglich von Pitzer für wässrige Elektrolytlösungen angegebenen empirischen Ansatzes für die Gibbssche Exzessenergie ausgedrückt. Die darin erforderlichen Wechselwirkungsparameter wurden – unter Verwendung der jeweiligen Henryschen Konstanten und des partiellen molaren Volumens des gelösten Gases - aus den experimentell bestimmten Gaslöslichkeitsdaten ermittelt. Für „schlecht lösliche“ Gase erlaubten die volumetrischen Daten keine zuverlässige Bestimmung des partiellen molaren Volumens des Gases. Allerdings sind dann i.d.R. die Konzentrationen des gelösten Gases in der ionischen Flüssigkeit auch bei hohen Drücken so gering, dass eine Berücksichtigung der Aktivitätskoeffizienten nicht erforderlich ist. Deshalb konnte in diesen Fällen, das partielle molare Volumen des Gases unmittelbar durch eine Anpassung an die Gaslöslichkeitsdaten - unter Verwendung der jeweiligen Henryschen Konstanten beim Druck null - bestimmt werden. Die so erhaltenen Korrelationen (Henrysche Konstante, partielles molares Volumen des Gases in unendlicher Verdünnung im Lösungsmittel und (teilweise) Wechselwirkungsparameter des Pitzerschen Ansatzes) geben die experimentell bestimmten Gaslöslichkeiten im Rahmen der experimentellen Unsicherheiten wieder.
Point defects in piezoelectric materials – continuum mechanical modelling and numerical simulation
(2010)
The topic of this work is the continuum mechanic modelling of point defects in piezoelectric materials. Devices containing piezoelectric material and especially ferroelectrics require a high precision and are exposed to a high number of electrical and mechanical load cycles. As a result, the relevant material properties may decrease with increasing load cycles. This phenomenon is called electric fatigue. The transported ionic and electric charge carriers can interact with each other, as well as with structural elements (grain boundaries, inhomogeneities) or with material interfaces (domain walls). A reduced domain wall mobility also reduces the electromechanical coupling effect, which leads to the electric fatigue effect. The materials considered here are barium titanate and lead zirconate titanate (PZT), in which oxygen vacancies is the most mobile and most frequently appearing defect species. Intentionally introduced foreign atoms (dopants) can adjust the material properties according to their field of application by generating electric dipoles with the vacancies. Agglomerations of point defects can strongly influence the domain wall motion. The domain wall can be slowed down or even be stopped by the locally varying fields in the vicinity of the clusters. Accumulations of point defects can be detected at electrodes, pores or in the bulk of fatigued samples. The present thesis concentrates focuses on the self interaction behaviour of point defects in the bulk. A micro mechanical continuum model is used to show the qualitative and the quantitative interaction behaviour of defects in a static setup and during drift processes. The modelling neglects the ferroelectric switching mechanisms, but is applicable to every piezoelectric material. The underlying differential equations are solved by means of analytical (Green's functions) and numerical (Finite Differences with discrete Fourier Transform) methods, depending on the boundary conditions. The defects are introduced as localised Eigenstrains, as electric charges and as electric dipoles. The required defect parameters are obtained by comparisons with atomistic methods (lattice statics). There are no standardised procedures available for the parameter identification. In this thesis, the mechanical parameter is obtained by a comparison of relaxation volumes of the atomic lattice and the continuum solution. Parameters for isotropic and anisotropic defect descriptions are identified. The strength of the electric defect is obtained by a comparison of the electric internal energies of atomistics and continuum. The appearing singularities are eliminated by taking only the energy difference of a infinite crystal and a periodic cell into account. Both identification processes are carried out for the cubic structure of barium titanate, which decouples the mechanical and the electrical problem. The defect interaction is analysed by means of configurational forces. The mechanical defect parameter generates a directional short-range attraction between defects. An electrical defect parameter produces the long-range Coulomb interaction, which predicts a repulsion of two similar charges. Additionally, an interaction with defect dipoles is taken into account. It is shown that a defect agglomeration is possible for any static defect configuration. Finally, defect drift is simulated using a thermodynamically motivated migration law based on configurational forces. In this context, the migration of point defects due to self interaction, and the influence of external fields is investigated.
Alle derzeit in Deutschland gültigen Bemessungsnormen sind für Neubauten oder neu anzufertigende Bauteile konzipiert. Diese Normen unterliegen dem semi-probabilistischen Sicherheitskonzept, das mithilfe von Teilsicherheitsbeiwerten und charakteristischen Werten der Materialien bzw. Einwirkungen die in DIN 1055-100 (2001) geforderte Zuverlässigkeit sicherstellen soll. Die Nachbemes-sung von Stahlbetonbauteilen im Bestand, die beispielweise eine direkte Lasterhöhung infolge einer Nutzungsänderung erfahren, hat grundsätzlich nach aktueller DIN 1045-1 (2008) zu erfolgen. Die direkte Anwendung der Nachweisfor-mate der DIN 1045-1 ist aber in vielen Fällen nicht zielführend, da alle Unsicherheiten der Planungs- und Errichtungsphase durch die Teilsicher-heitsbeiwerte mit abgedeckt werden. Im Bestand können die Unsicherheiten z. B. der Geometrie, der Materialkennwerte sowie Lage und Menge der vorhandenen Bewehrung oder der ständigen Einwirkungen infolge einer qualifizierten Bestandsaufnahme eingeschränkt werden. Die Tatsache, dass die oben genannten streuenden Größen genauer quantifiziert werden können, erlaubt eine Anpassung der Teilsicherheitsbeiwerte an die am Bauwerk vorherrschenden Streuungen der Festigkeitswerte und geometrischen Größen. Ziel dieser Arbeit ist die Ausweisung modifizierter Teilsicherheitsbeiwerte unter Beachtung des geforderten Zielzuverlässigkeitsniveaus für im Bestand übliche Nachweisformate. Die tabelliert ausgewiesenen Teilsicherheitsbeiwerte auf Widerstandsseite ermöglichen je nach angetroffener Materialstreuung eine praxisgerechte, wirtschaftliche und erfolgreiche Nachweisführung von Bestandsbauten bei Anwendung des semiprobabilistischen Teilsicherheitskonzeptes.
Die kommensalen, in der Mundhöhle lebenden Bakterien-Arten S. mitis und S. oralis zählen zusammen mit dem humanpathogenen Bakterium S. pneumoniae zu den Streptokokken der Mitis-Gruppe (Kawamura et al., 1995). Mitglieder dieser phylogenetischen Gruppe besitzen nachweislich die Fähigkeit zum Austausch von genetischem Material (Whatmore et al., 2000; Hakenbeck et al., 2001; King et al., 2005), was durch die natürliche Kompetenz dieser Streptokokken-Spezies begünstigt wird. Das Ergebnis sind Gene mit Mosaikstruktur ─ ein Indiz für horizontalen Gentransfer. Als Reservoir für solche, in S. pneumoniae auftretende Mosaik-strukturen wurde der Genpool der verwandten, kommensalen Streptokokken identifiziert. Demnach werden Resistenz- und Virulenz-determinierende Sequenzen über Gentransfer und homologe Rekombination auf Pneumokokken übertragen (Dowson et al., 1993; Sibold et al., 1994; King et al., 2005; Chi et al., 2007). Die vorliegende Arbeit befasst sich mit der Spezifizierung von Streptokokken der Mitis-Gruppe. Hierzu wurden mit einer ausgewählten heterogenen Sammlung von oralen S. mitis- und S. oralis-Isolaten vergleichende Genom-Hybridisierungen mittels des kürzlich entwickelten S. mitis B6-Biochips (Denapaite et al., 2010) durchgeführt. Zentraler Aspekt dieser Unter-suchungen war die erstmalige Analyse eines gemeinsamen „Kerngenoms“ aller untersuchten oralen Streptokokken sowie des S. mitis-„Kerngenoms“. Letzteres beinhaltet insgesamt 972 Gene, von denen ein bemerkenswert großer Teil (94 %) auch in S. pneumoniae vorhanden ist. Dies belegt eindeutig die sehr nahe Verwandschaft von S. mitis und S. pneumoniae (Chi et al., 2007; Kilian et al., 2008; Bishop et al., 2009; Denapaite et al., 2010) und stützt die Evolutionstheorie, dass sich S. pneumoniae aus einem spezialisierten S. mitis-Klon entwickelt hat (Denapaite et al., 2010). Das erstmals ermittelte „Gesamt-Kerngenom“ von S. mitis, S. pneumoniae und S. oralis ist mit 386 Genen wesentlich kleiner. Wie die vorliegenden Daten demonstrieren, enthält es eine Reihe von nachgewiesenen S. pneumoniae-Virulenzfaktoren. Die Tatsache, dass S. mitis und S. oralis im Gegensatz zu S. pneumoniae meist apathogen sind, suggeriert, dass in S. pneumoniae erst das Zusammenspiel mehrerer unterschiedlicher Virulenzdeterminanten den bekannten, krankheitserregenden Phänotyp bewirkt. Ein weiteres Ziel war die Analyse der genomischen Varianz der S. mitis- und S. oralis-Stämme. Neben dem S. mitis B6-Chip wurde der S. pneumoniae R6/TIGR4-Chip zur vergleichenden Genom-Analyse eingesetzt. Die Ergebnisse dieser globalen Untersuchungen weisen auf eine große genomische Diversität innerhalb der Mitis-Gruppe hin und bestätigen das Fehlen einer klaren Art-Grenze zwischen S. mitis, S. oralis und S. pneumoniae (Hakenbeck et al., 2001). Ursache für diese genomische Varianz sind inner- und inter-artliche Gentransfer-Ereignisse innerhalb dieser transformierbaren Spezies, die neben Antibiotika-Resistenzgenen wie den pbp auch bestimmte Virulenzgene betreffen. Besonderes Interesse galt der Identifizierung von Pneumokokken-spezifischen Virulenzgenen, wobei an dieser Stelle die Cholin-Bindeproteine PspA, PspC und PcpA, die Hyaluronidase HysA sowie die PiaA-Komponente des Eisen-Aufnahme-Systems PiaA/PiuA zu nennen sind. Zum ersten Mal konnten entscheidende, das Pathogenitätspotenzial betreffende Unterschiede zu den meist nicht krankheitserregenden Kommensalen herausgestellt werden. Einen weiteren wichtigen Punkt der Arbeit bildeten zwei S. mitis-Isolate, für die im Rahmen der Microarray-Analysen gezeigt wurde, dass sie im Besitz der Pathogenitätsfaktoren Pneumolysin (Ply) und Autolysin (LytA) sind. Beide Gene wurden lange Zeit für S. pneumoniae-spezifisch gehalten, liegen auf dem Genom von S. pneumoniae zirka 7 kb voneinander entfernt und werden von einem 94 bp langen „direct repeat“ flankiert (Denapaite et al., 2010). Eine ausführliche Sequenzanalyse der lytA/ply-Region ergab in beiden Fällen eine genetisch ähnliche Organisation wie in S. pneumoniae R6. Zudem konnte gezeigt werden, dass einer der beiden S. mitis-Stämme neben dem chromosomal kodierten lytA ein zweites Prophagen-assoziiertes lytA-Allel besitzt. Die Tatsache, dass im Gegensatz zu S. mitis alle Pneumokokken die „Pathogenitäts- insel“ in ihrem Genom enthalten, bestätigt die oben besprochene Evolutionstheorie: Die lytA/ply-Insel wurde vermutlich vor der Evolution von S. pneumoniae aus S. mitis erworben, wobei der 94 bp „direct repeat“ mit großer Wahrscheinlichkeit die Integrationsstelle darstellt.
Zur Entwicklung und Optimierung leistungsfähiger Katalysatoren werden zahlreiche Versuche durchgeführt, die geplant, dokumentiert und ausgewertet werden müssen. Das im Rahmen dieses interdisziplinären Promotionsvorhabens entwickelte elektronische Dokumentationssystem beschleunigt diese Arbeitsschritte deutlich und hilft, Fehler zu vermeiden. Es wurde im Rahmen mehrerer Forschungsprojekte zu innovativen Decarboxylierenden Kreuzkupplungsreaktionen mit Cu/Pd-Katalysatorsystemen erfolgreich eingesetzt. Die neu entwickelten Eintopfsynthesen eröffnen einen neuen Zugangsweg zu unsymmetrischen Arylketonen und Azomethinen in guten bis sehr guten Ausbeuten. Gegenüber herkömmlichen Decarboxylierungsreaktionen konnte die erforderliche Reaktionstemperatur erheblich abgesenkt werden.
Diese Arbeit untersucht Möglichkeiten der berührungslosen Vermessung von Durchmessern von Bohrungen in leitfähigen Materialien mit Hilfe des kapazitiven Messprinzips. Dazu wird ein Messkopf in die Bohrung eingeführt. Zwischen der Bohrungswand und Messelektroden auf dem Messkopf entstehen Kondensatoren, deren Kapazität mit einer Kapazitätsmessschaltung gemessen und daraus auf den Bohrungsdurchmesser zurückgerechnet wird. Es wurden dabei Ansätze mit Messköpfen mit einer oder mehreren Messelektroden verfolgt. Für Messköpfe mit einer Messelektrode wurden ein umfangreiches Fehlermodell und darauf basierend ein Kalibrierverfahren mit Fehlerkompensation erstellt.
Im Rahmen dieser Arbeit konnte die physiologische Funktion des AtENT1 weitestgehend aufgeklärt werden. Durch Untersuchungen an RNAi- und Überexpressionslinien konnte gezeigt werden, dass dieser Nukleosidtransporter in unterschiedlichen Geweben verschiedene Aufgaben erfüllt. Die verringerte Expression des AtENT1 in den RNAi-Pflanzen hat hauptsächlich Auswirkungen auf den Nukleotidhaushalt in Pollen. Diese zeigen eine geringere Keimungsrate, eine niedrigere Nukleosidaufnahme sowie verringerte Mengen an intra- und extrazellulärem ATP. Daraus kann man schließen, dass der AtENT1 eine wichtige Funktion in der Versorgung von Pollen mit Nukleosiden während der Entwicklung und zu Beginn der Keimung hat. Die veränderte Menge an eATP in den RNAi-Pollen führt möglicherweise zu einer veränderten Signaltransduktion, was ebenfalls ein Grund für die schlechtere Keimungsrate im Vergleich mit WT-Pollen sein könnte. Weiterhin deutet die verminderte Aufnahme von Adenosin in RNAi-Pollen darauf hin, dass AtENT1 in diesen Zellen in der Plasmamembran lokalisiert ist. Sowohl in Blatt-Rohextrakten als auch in isolierten Vakuolen der AtENT1-RNAi-Pflanzen konnte ein erhöhter Adenosingehalt festgestellt werden, während dieser in Blättern und Vakuolen der AtENT1-35S-Pflanzen deutlich verringert war. Weiterhin konnte an Liposomen mit rekostituiertem Tonoplastenprotein aus Überexpressionspflanzen ein höherer Adenosinexport verglichen mit Liposomen mit WT-Tonoplastenprotein beobachtet werden. Als wahrscheinlichste Quelle der Nukleoside konnte der in der Vakuole stattfindende RNA-Abbau mit Nukleosiden als End- und 2‘3‘-cAMP als Zwischenprodukt nachgewiesen werden. Ein gesteigerter Nukleosidtransport aus der Vakuole durch Überexpression des AtENT1 führt zu einem Anstieg der zytosolischen Nukleosidkonzentration. Als Reaktion darauf sind die Aktivitäten der Enzyme des „salvage pathway“ in den entsprechenden Mutanten erhöht. Ein Anstieg der zytosolischen Adenosinkonzentration führt durch Feedback-Inhibierung zu einer Verringerung der Transmethylierungsreaktionen. In der stärksten Überexpressionspflanze konnte, als Folge dieser Inhibierung, eine verringerte Zellwandmethylierung beobachtet werden. Betrachtet man alle Ergebnisse der Untersuchungen in vegetativem Gewebe ist eine Lokalisierung des AtENT1 im Tonoplasten sehr wahrscheinlich. Der letzte Teil der Arbeit befasste sich mit der biochemischen Charakterisierung der putativen Nukleosidtransporter StENT1 und StENT3 aus Solanum tuberosum. Dabei konnte gezeigt werden dass es sich beim StENT1 um einen hoch affinen Transporter für Purin- und Pyrimidinnukleoside handelt. Aufgrund der Ähnlichkeit der Transporteigenschaften zum AtENT1 und der ebenfalls vorhandenen möglichen Signalsequenz für eine tonoplastidäre Lokalisierung könnte StENT1 auch ein physiologisches Homolog zum AtENT1 sein. StENT3 vermittelt einen hoch affinen, pyrimidinspezifischen Nukleosidtransport. Dieser Transporter könnte vor allem in Knollen für die Aufnahme von Pyrimidinen aus der Erde oder dem Phloem zuständig sein.
Um die bei modernen stationären Industriegasturbinen geforderten Leistungsdichten bei hohem Wirkungsgrad zu erreichen, werden sehr oft transsonische Axialkompressoren eingesetzt. Neben vielen Vorteilen, haben sie eine erhöhte Sensibilität gegenüber Ungleichförmigkeiten im Geschwindigkeits- und Druckprofil der Zuströmung als entscheidenden Nachteil. Da diese Ungleichförmigkeiten direkt von der Gestaltung des Einlaufgehäuses mitbestimmt werden, spielt das Design eine außerordentlich wichtige Rolle bei der Auslegung der Gesamtmaschine. Diese Arbeit beschäftigt sich mit den Strömungen in der ersten Transsonikstufe eines mehrstufigen Axialverdichters und untersucht deren Wechselwirkung mit den Strömungen im Einlaufgehäuse. Durch die Geometrie des Einlaufgehäuses, welche die Strömung in den meisten Fällen von vertikaler in horizontale Richtung umlenkt, entstehen Ungleichförmigkeiten im Strömungsprofil, die den Druckaufbau, den Wirkungsgrad und den stabilen Betriebsbereich der Maschine einschränken können. Zusätzlich können stärkere Blattschwingungen auftreten, die die mechanische Beanspruchung der Rotorstruktur erhöhen. Mit Hilfe der numerischen Strömungsmechanik werden drei verschiedene Einlaufgehäuse untersucht, um festzustellen, welche Strömungsungleichförmigkeiten auftreten und wie diese die Strömung in der Transsonikstufe beeinflussen. Zwei der drei Varianten sind um 90° umlenkend und entsprechen denen, wie sie in realen Gasturbinen eingesetzt werden. Dabei ist eine Variante strömungstechnisch optimiert, die andere im Sinne einer möglichst einfachen Fertigung gestaltet. Die dritte Variante ist ein rein axiales Gehäuse mit einer eingebauten Versperrung, um zu untersuchen, wie gut sich Strömungsungleichförmigkeiten, die in einem radial umlenkenden Einlaufgehäuse einer stationären Gasturbine entstehen, durch Einbauten simulieren lassen. Desweiteren bietet sich diese Simulation an, da das Einlaufgehäuse zusammen mit dem 5-stufigen Axialkompressor auf einem Prüfstand vermessen wurde und so ein Vergleich mit Messwerten möglich ist. Die Simulationen haben gezeigt, dass es möglich ist, mit einem aerodynamisch günstig gestalteten Einlaufgehäuse Zuströmbedingungen zu erzeugen, die in der darauffolgenden Transsonikstufe nicht zu nennenswerten Einschränkungen in Wirkungsgrad, Druckverhältnis und Betriebsbereich führen. Eine Parameterstudie mit verschiedenen axialen Baulängen hat gezeigt, dass eine Verkürzung des Einlaufgehäuses durchgeführt werden kann, ohne zusätzliche Verluste in Kauf nehmen zu müssen. Erst bei Unterschreitung eines kritischen Maßes kommt es zu deutlichen Verlusten und einer Reduktion des Druckverhältnisses. Hier ist eine Anpassung der Vorleitreihe nötig, um den geänderten Zuströmbedingungen der Vorleitreihe hinter der verkürzten Einlaufgehäusevariante Rechnung zu tragen. Die zweite radial umlenkende Einlaufgehäusevariante ist aus aerodynamischer Sicht ungünstiger gestaltet. Hier zeigen die Simulationen, dass sich im Einlaufgehäuse Wirbel ausbilden, die zum einen im Einlaufgehäuse selbst und zum anderen in der Transsonikstufe hohe Verluste hervorrufen. Darüber hinaus kommt es zu einer Abnahme des Stufendruckverhältnisses, und es ist auch mit negativen Auswirkung auf folgende Stufen zu rechnen, da die Wirbel hinter der ersten Stufe immer noch abgeschwächt vorhanden sind. Obwohl die hinter einem radial umlenkenden Einlaufgehäuse entstehenden Geschwindigkeitsprofile komplex sind, lassen sie sich auch in einem axialen Einlaufgehäuse durch Einbauten simulieren. Auch wenn sich die verschiedenen Verlustentstehungsmechanismen gegenseitig beeinflussen und eine exakte Trennung nicht möglich ist, konnte mit einer groben Abschätzung festgestellt werden, wie groß der Anteil der Stoß- und Spaltverluste an den Gesamtverlusten ist. So haben beispielsweise im Auslegungspunkt nur etwa 15 % der Verluste ihre Ursache in den Verdichtungsstößen, und weniger als 10 % der Verluste sind auf die Spaltströmung zwischen Rotorblattspitze und Gehäuse zurückzuführen. Mit fast 80 % entsteht der überwiegende Anteil der Verluste in den Profil- und Seitenwandgrenzschichten. Die berechneten Strömungs- und Druckprofile zeigen eine sehr gute Übereinstimmung mit den durchgeführten Messungen.
Der erhebliche Anstieg an Penicillin-resistenten Bakterienstämmen stellt ein weltweit immer größer werdendes Problem in der Medizin dar. Für die Bekämpfung solcher resistenten Stämme ist es wichtig, die Entstehung und den Mechanismus der Penicillin-Resistenz auf molekularer Ebene zu verstehen und dadurch Targets für neue Klassen antimikrobieller Wirkstoffe zu identifizieren. Die Lösung dieser Problemstellung war somit der Schwerpunkt der Untersuchungen in der vorliegenden Arbeit. Die Arbeit befasste sich mit der Übertragung der beta-Laktam-Resistenz von einem hochresistenten klinischen S. oralis Isolat aus Ungarn auf den sensitiven S. pneumoniae R6 Stamm. Dabei sollte durch Transformationsexperimente überprüft werden, ob und wie weit S. oralis als Donor für die Penicillin-Resistenz in S. pneumoniae fungieren kann und welche Gene dabei eine Rolle spielen. Solche Experimente bilden die Grundlage für das bessere Verständnis der Evolution und Ausbreitung der beta-Laktam-Resistenz in kommensalen und pathogenen Streptokokken. Durch sukzessive DNA-Transformation konnte der Resistenzphänotyp des Donorstammes zu einem hohen Grad in den sensitiven S. pneumoniae Stamm R6 übertragen werden. Von Interesse war zunächst, welche S. oralis PBPs dabei eine Rolle spielen. Für die bekannten Resistenzdeterminanten PBP2x, PBP2b und PBP1a konnte nachgewiesen werden, dass sie auch hier einen entscheidenden Beitrag für die Resistenzentwicklung leisten. Nach insgesamt sechs aufeinanderfolgenden Transformationsstufen mit chromosomaler S. oralis DNA konnte das Resistenzniveau des Rezipienten ca. 600- bis 700-fach erhöht werden; PBPs waren nur bei den ersten drei Stufen beteiligt. Microarray-Analysen mit DNA der Transformanten gaben Hinweise darauf, welche anderen Gene übertragen wurden und erlaubten in einem Fall die Identifizierung einer neuen Resistenzdeterminante: MurE. Die gesamte Resistenz des Donors konnte nicht in S. pneumoniae übertragen werden; die Gründe hierfür sind denkbar vielfältig und wurden in der Diskussion aufgegriffen. Die Charakterisierung der Nicht-PBP-Resistenzdeterminate MurE standen nach deren Identifizierung im Mittelpunkt der Analysen in der vorliegenden Arbeit. Die Selektion von beta-Laktam-resistenten Transformanten mit modifiziertem MurE zeigten zum ersten Mal die Rolle dieses Proteins in der Entwicklung der Penicillin-Resistenz in S. pneumoniae. Austausche in diesem Gen führten zu einer ca. 3- bis 5-fachen Erhöhung der Resistenz gegenüber Cefotaxim und Piperacillin und bewirkten einen 40-fachen Anstieg der Cefotaxim-Resistenz und 20-fachen Anstieg der Oxacillin-Resistenz in Verbindung mit einem Mosaik-PBP2x. In Verbindung mit einem Mosaik-PBP2b führte das ausgetauschte MurE zu einem 20-fachen Anstieg der Piperacillin-Resistenz. Durch Herstellung von Stämmen mit ektopischer Kopie von murE mit unterschiedlichen Promotor- und Genfragmenten und anschließender Deletion des Wildtyp-Allels im Genom konnte nachgewiesen werden, dass sowohl veränderte Bereiche im Strukturgen als auch der murE-Promotorbereich von S. oralis Uo5 zu einem Anstieg der Resistenz in S. pneumoniae führen. Einige der Veränderungen, die Aminosäuren betreffen, sind in der Nähe des aktiven Zentrums lokalisiert und könnten die Bindung zum Substrat bzw. ATP beeinflussen. Die Bestimmung der Promotoraktivität von murE aus S. oralis Uo5 und S. pneumoniae R6 ergab, dass das Gen aus S. oralis etwa zweifach stärker exprimiert wird. Die stärkere Expression von murE hat allerdings keinen Einfluss auf die Produktion von PBP2x, PBP1a oder PBP2b, wie durch spezifische Antikörper und Western-Blots für alle drei PBPs festgestellt werden konnte. Dies konnte auch mit Hilfe von Reporter-Assays zur Bestimmung der Promotoraktivität von pbp2x bestätigt werden. Signifikante Veränderungen in der Zellwandzusammensetzung der murE-Transformanten konnten ebenfalls nicht beobachtet werden. Eine Hypothese geht davon aus, dass sowohl die erhöhte Promotoraktivität als auch die Mutationen im Strukturprotein dasselbe bewirken, nämlich die Bereitstellung von mehr MurE-Produkt (durch mehr Enzym oder durch aktiveres Enzym). Möglicherweise ist dadurch der Pool an Muropeptidvorstufen erhöht, was wiederrum Einfluss auf die Mureinbiosynthese hat und somit ein besseres Wachstum in Gegenwart von beta-Laktamen erlaubt, d.h. unter den hier verwendeten Selektions- und Testbedingungen.
Unter „endokrinen Stoffen“ (Endocrin Disruptors) versteht man synthetisch erzeugte und in die Umwelt gelangte Chemikalien, die in die hormonellen Regelkreise von Mensch und Tier eingreifen. Sie entfalten ihre Wirkung i. d. R. bereits bei geringer Konzentration. Die aus der Einwirkung solcher Stoffe resultierenden negativen Folgen (z. B. Wachstumsstörungen, sinkende Fruchtbarkeit) werden unter dem Begriff „endokrine Effekte“ zusammengefasst. Die Untersuchung endokriner Effekte von Chemikalien ist ein hochaktuelles Forschungsgebiet in verschiedenen Fachgebieten z. B. in der Toxikologie und der Medizin. Unter den endokrinen Chemikalien finden wir zahlreiche Pestizide, die man in der Landwirtschaft benutzt. Die Aufgabe der vorliegenden Arbeit besteht darin, einen wichtigen Teilaspekt bei der Ausbreitung endokriner Stoffe, nämlich das Phasengleichgewicht bei deren Verteilung auf eine feste Phase (einen Boden) und eine damit koexistierende wässrige Phase in experimentellen Arbeiten zu untersuchen, mit dem Ziel, die Entwicklung von zuverlässigen Methoden zur Vorhersage solcher Phasengleichgewichte zu ermöglichen. In der vorliegenden Arbeit wurde der Verteilungskoeffizient von endokrinen Stoffen auf Boden/Wasser–Systeme experimentell bestimmt. Dazu wurde der Verteilungskoeffizient von 26 Substanzen mit endokriner Wirkung mit Hilfe von zwei Messmethoden ermittelt. Für die Untersuchungen wurden die klassische Standardmethodeschüttelkolbenmethode und die HPLC-Methode eingesetzt. Das Ziel dieser Arbeit war die HPLC-Methode gegenüber der Schüttelkolbenmethode zu erproben, um die dabei erzielten Verteilungskoeffizienten mit den vorhandenen Literaturangaben zu vergleichen. Die Verteilung dieser Stoffe wurde in Eurosoil/Wasser – Systemen untersucht. Mit der Schüttelkolbenmethode wurden 17 Substanzen untersucht und mit der HPLC – Methode alle 26 ausgewählten Stoffe. Die Verteilungskoeffizienten sind, sofern möglich, jeweils für eine Substanz mit zwei Versuchsmethoden bestimmt worden.
Mrázek et al. [25] proposed a unified approach to curve estimation which combines localization and regularization. Franke et al. [10] used that approach to discuss the case of the regularized local least-squares (RLLS) estimate. In this thesis we will use the unified approach of Mrázek et al. to study some asymptotic properties of local smoothers with regularization. In particular, we shall discuss the Huber M-estimate and its limiting cases towards the L2 and the L1 cases. For the regularization part, we will use quadratic regularization. Then, we will define a more general class of regularization functions. Finally, we will do a Monte Carlo simulation study to compare different types of estimates.
Die industrielle Oberflächeninspektion und insbesondere die Defekterkennung ist ein wichtiges Anwendungsgebiet für die automatische Bildverarbeitung (BV). Für den Entwurf und die Konfiguration der entsprechenden Softwaresysteme, in der Regel anwendungsspezifische Einzellösungen, werden im industriellen Umfeld zumeist entweder firmeneigene Bildverarbeitungsbibliotheken, kommerzielle oder freie Toolboxen verwendet. In der Regel beinhalten diese u.a. Standardalgorithmen der Bildverarbeitung in modularer Form, z. B. Filter- oder Schwellwertoperatoren. Die einzelnen BV-Methoden werden in der Regel nach dem Prinzip der visuellen Programmierung in einer grafischen Entwicklungsumgebung ausgewählt und zu einer BV-Kette bzw. einem -Graph zusammengesetzt. Dieses Prinzip ermöglicht es auch einem Programmierunkundigen, BV-Systeme zu erstellen und zu konfigurieren. Eine gewisse Grundkenntnis der Methoden der Bildverarbeitung ist jedoch notwendig. Je nach Aufgabenstellung und Erfahrung des Systementwicklers erfordern manueller Entwurf und Konfiguration eines BV-Systems erheblichen Zeiteinsatz. Diese Arbeit beschäftigt sich mit automatischen Entwurfs-, Konfigurations- und Optimierungsmöglichkeiten dieser modularen BV-Systeme, die es auch einem ungeübten Endnutzer ermöglichen, adäquate Lösungen zu generieren mit dem Ziel, ein effizienteres Entwurfswerkzeug für Bildverarbeitungssysteme mit neuen und verbesserten Eigenschaften zu schaffen. Die Methodenauswahl und Parameteroptimierung reicht von der Bildvorverarbeitung und -verbesserung mittels BV-Algorithmen bis hin zu ggf. eingesetzten Klassifikatoren, wie Nächste-Nachbar-Klassifikator (NNK) und Support-Vektor-Maschinen (SVM) und verschiedenen Bewertungsfunktionen. Der flexible Einsatz verschiedener Klassifikations- und Bewertungsmethoden ermöglicht einen automatischen problemspezifischen Entwurf und die Optimierung des BV-Systems für Aufgaben der Fehlerdetektion und Texturanalyse für 2d-Bilder, sowie die Trennung von Objekten und Hintergrund für 2d- und 3d-Grauwertbilder. Für die Struktur- und Parameteroptimierung des BV-Systems werden Evolutionäre Algorithmen (EA) und Partikelschwarmoptimierung (PSO) verwendet.
Model-based fault diagnosis and fault-tolerant control for a nonlinear electro-hydraulic system
(2010)
The work presented in this thesis discusses the model-based fault diagnosis and fault-tolerant control with application to a nonlinear electro-hydraulic system. High performance control with guaranteed safety and reliability for electro-hydraulic systems is a challenging task due to the high nonlinearity and system uncertainties. This thesis developed a diagnosis integrated fault-tolerant control (FTC) strategy for the electro-hydraulic system. In fault free case the nominal controller is in operation for achieving the best performance. If the fault occurs, the controller will be automatically reconfigured based on the fault information provided by the diagnosis system. Fault diagnosis and reconfigurable controller are the key parts for the proposed methodology. The system and sensor faults both are studied in the thesis. Fault diagnosis consists of fault detection and isolation (FDI). A model-base residual generating is realized by calculating the redundant information from the system model and available signal. In this thesis differential-geometric approach is employed, which gives a general formulation of FDI problem and is more compact and transparent among various model-based approaches. The principle of residual construction with differential-geometric method is to find an unobservable distribution. It indicates the existence of a system transformation, with which the unknown system disturbance can be decoupled. With the observability codistribution algorithm the local weak observability of transformed system is ensured. A Fault detection observer for the transformed system can be constructed to generate the residual. This method cannot isolated sensor faults. In the thesis the special decision making logic (DML) is designed based on the individual signal analysis of the residuals to isolate the fault. The reconfigurable controller is designed with the backstepping technique. Backstepping method is a recursive Lyapunov-based approach and can deal with nonlinear systems. Some system variables are considered as ``virtual controls'' during the design procedure. Then the feedback control laws and the associate Lyapunov function can be constructed by following step-by-step routine. For the electro-hydraulic system adaptive backstepping controller is employed for compensate the impact of the unknown external load in the fault free case. As soon as the fault is identified, the controller can be reconfigured according to the new modeling of faulty system. The system fault is modeled as the uncertainty of system and can be tolerated by parameter adaption. The senor fault acts to the system via controller. It can be modeled as parameter uncertainty of controller. All parameters coupled with the faulty measurement are replaced by its approximation. After the reconfiguration the pre-specified control performance can be recovered. FDI integrated FTC based on backstepping technique is implemented successfully on the electro-hydraulic testbed. The on-line robust FDI and controller reconfiguration can be achieved. The tracking performance of the controlled system is guaranteed and the considered faults can be tolerated. But the problem of theoretical robustness analysis for the time delay caused by the fault diagnosis is still open.
The aim of this thesis was to link Computational Fluid Dynamics (CFD) and Population Balance Modelling (PBM) to gain a combined model for the prediction of counter-current liquid-liquid extraction columns. Parts of the doctoral thesis project were done in close cooperation with the Fraunhofer ITWM. Their in-house CFD code Finite Pointset Method (FPM) was further developed for two-phase simulations and used for the CFD-PBM coupling. The coupling and all simulations were also carried out in the commercial CFD code Fluent in parallel. For the solution methods of the PBM there was a close cooperation with Prof. Attarakih from the Al-Balqa Applied University in Amman, Jordan, who developed a new adaptive method, the Sectional Quadrature Method of Moments (SQMOM). At the beginning of the project, there was a lack of two-phase liquid-liquid CFD simulations and their experimental validation in literature. Therefore, stand-alone CFD simulations without PBM were carried out both in FPM and Fluent to test the predictivity of CFD for stirred liquid-liquid extraction columns. The simulations were validated by Particle Image Velocimetry (PIV) measurements. The two-phase PIV measurements were possible when using an iso-optical system, where the refractive indices of both liquid phases are identical. These investigations were done in segments of two Rotating Disc Contactors with 150mm and 450mm diameter to validate CFD at lab and at industrial scale. CFD results of the aqueous phase velocities, hold-up, droplet raising velocities and turbulent energy dissipation were compared to experimental data. The results show that CFD can predict most phenomena and there was an overall good agreement. In the next steps, different solution methods for the PBM, e.g. the SQMOM and the Quadrature Method of Moments (QMOM) were implemented, varied and tested in Fluent and FPM in a two-fluid model. In addition, different closures for coalescence and breakage were implemented to predict drop size distributions and Sauter mean diameters in the RDC DN150 column. These results show that a prediction of the droplet size distribution is possible, even when no adjustable parameters are used. A combined multi-fluid CFD-PBM model was developed by means of the SQMOM to overcome drawbacks of the two-fluid approach. Benefits of the multi-fluid approach could be shown, but the high computational load was also visible. Therefore, finally, the One Primary One Secondary Particle Method (OPOSPM), which is a very easy and efficient special case of the SQMOM, was introduced in CFD to simulate a full pilot plant column of the RDC DN150. The OPOSPM offers the possibility of a one equation model for the solution of the PBM in CFD. The predicted results for the mean droplet diameter and the dispersed phase hold up agree well with literature data. The results also show that the new CFD-PBM model is very efficient from computational point of view (two times less than the QMOM and five times less than the method of classes). The overall results give rise to the expectation that the coupled CFD-PBM model will lead to a better, faster and more cost-efficient layout of counter-current extraction columns in future.
2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD) wurde im Jahr 1997 von der International Agency for Research on Cancer als Gruppe 1 Kanzerogen eingestuft, obwohl die molekularen Mechanismen der kanzerogenen Wirkung von TCDD bislang nicht vollständig geklärt werden konnten. TCDD zeigte im Tierversuch ein erhöhtes hepatokarzinogenes Potential an Ratten, und im Initiations-Promotions-Modell in der Rattenleber konnte TCDD eine starke tumorpromovierende Wirkung zugeschrieben werden. Eine Reihe von Studien zeigten sowohl in vivo als auch in vitro in unterschiedlichen Zellsystemen eine Hemmung des durch verschiedene Stimuli induzierten programmierten Zelltodes, der Apoptose durch TCDD. Diese antiapoptotische Wirkung wird als ein möglicher Mechanismus für die Tumorpromotion von TCDD diskutiert. In der vorliegenden Arbeit sollte der Mechanimus der Apoptose-Hemmung durch TCDD in Leberzellsystemen der Ratte und des Menschen untersucht werden. Außerdem sollte die Frage geklärt werden, ob die anti-apoptotische Wirkung dieses Fremdstoffes über den Arylhydrokarbon-Rezeptor (AhR) vermittelt wird. Die Aufklärung der bislang noch unbekannten molekularen Mechanismen der TCDDvermittelten Kanzerogenese könnte die Risikobewertung einer TCDD-Exposition des Menschen auf eine erheblich solidere Basis stellen als bisher. Es konnte sowohl in primären Rattenhepatozyten als auch in der humanen Hepatomzelllinie Huh-7 bestätigt werden, dass TCDD die durch UVC-Licht induzierte Apoptose hemmt. Dies wurde auf Ebene der DNS-Fragmentierung und an Hand morphologischer Veränderungen des Zellkerns gezeigt. In den Primärhepatozyten war der anti-apoptotische Effekt von TCDD abhängig von einer Aktivierung des AhR. Die Apoptose durch die beiden Proteinbiosynthese-Inhibitoren Ochratoxin A und Cycloheximid wurde im Gegensatz zur UVC-Licht-induzierten Apoptose nicht durch TCDD gehemmt. Dies lässt den Schluss zu, dass eventuell die Neusynthese eines durch den AhR induzierten Proteins für die Hemmung der Apoptose in diesen Zellen nötig ist. Darüber hinaus konnte gezeigt werden, dass entgegen früherer Studien, eine Hemmung der Aktivität des Tumorsuppressors p53 vermutlich nicht für die Apoptosehemmung durch TCDD verantwortlich ist. TCDD-bedingte Änderungen in der Expression von an der Apoptose beteiligten Genen ließen die Vermutung zu, dass diese Substanz zu einer Aktivierung des anti226 apoptotischen Transkriptionsfaktors NF-κB führt. Dies würde letztendlich zu einer Hemmung der Caspase-abhängigen Apoptosewege führen. Es konnte dennoch keine Wirkung des Fremdstoffes auf die Charakteristiken der durch UVC-Licht induzierten Caspasen-abhängigen Apoptose beobachtet werden. Weder wurden die proteolytische Aktivierung, noch die katalytische Aktivität von Caspasen oder die Spaltung von Caspasensubstraten durch TCDD moduliert. Daher wurde angenommen, dass TCDD im Signalweg der Apoptose zwischen der Caspasenaktivität und der apoptotischen DNS-Fragmentierung wirken müsste. Auf Grund dieser Hypothese wurde der Einfluss der Testsubstanz auf die Charakteristiken apoptotischer Nukleasen untersucht. Weder konnte eine verringerte Proteinmenge an Endonuklease G oder Caspase-aktivierter DNase (CAD) festgestellt werden, noch wurde die Aktivität rekombinant exprimierter CAD durch TCDD moduliert. In isolierten Zellkernen primärer Rattenhepatozyten konnte eine intrinsische Nukleaseaktivität identifiziert werden, die Calcium- und Magnesium-abhängig war und vermutlich durch nicht-physiologische Konzentrationen an monovalenten Ionen aktiviert wird. TCDD besaß eine hemmende Wirkung auf diese Nukleaseaktivität. Es erscheint plausibel, dass TCDD die apoptotische DNS-Fragmentierung über einen bisher unbekannten, AhR-abhängigen Mechanismus hemmt, und damit trotz einer Initiation der Apotpose die Integrität der DNS aufrecht erhält, um der Zelle die Möglichkeit zur Entgiftung von Aktivatoren des Fremdstoffmetabolismus zu geben. Diese Zellen könnten sich nach Entzug des pro-apoptotischen Stimulus letztendlich wieder erholen. Da solche Zellen DNS-Schäden tragen können, durch die sie unter normalen Umständen in die Apoptose getrieben worden wären, könnte dieser Mechanismus schließlich eine Rolle in der Tumorpromotion durch TCDD und verwandte Verbindungen spielen.
Die vorliegende Arbeit befasst sich mit dem Thema der Fortentwicklung von Visualisierungs- und Simulationsmethoden in der städtebaulichen Gestaltungs-planung. Für einen Einstieg in die Materie ist eine tief gehende Auseinandersetzung mit dem Begriff der Planung und deren Prozesse im Allgemeinen und der Versuch der Abgrenzung von städtebaulicher Struktur – und Gestaltungsplanung im Besonderen unerlässlich, auch um das bisher zu Verfügung stehende Methodenrepertoire einer kritischen Untersuchung zu kommen zu lassen. Es wird deutlich, dass die Methoden in der städtebauliche Gestaltungsplanung in den letzten fünf Jahren einem radikalen Wechsel unterzogen worden: Neben der schnelleren Erstellung von virtuellen Umgebungsmodellen sind vor allem die Einflüsse aus der sogenannten Web 2.0 Bewegung und dem veränderten Nutzungsverhalten im Internet die treibenden Motoren, die die Arbeit und die damit verbundenen Methoden in der Gestaltungsplanung verändert haben. Für den Planer hat dies den Vorteil, dass zum Einen Planungsinhalte frühzeitig schneller und transparenter für eine erfolgreiche Plankommunikation aufbereitet werden können, und zum Anderen, dass der Planer diese ehemals sehr anspruchsvollen Arbeit bis zu einem gewissen Umfang auch selbstständig erledigen kann und nicht mehr auf die Hilfe von Spezialisten angewiesen ist. Die dafür benötigten Methoden sind in allen ihren Facetten in dieser Arbeit beleuchtet und zugleich in einem in sich konsistenten Workflow untereinander vernetzt, so dass alle vorgestellten Arbeitsweisen keine eindimensionale Lösungen darstellen, sondern immer wieder untereinander, ähnlich dem Mashup-Gedanken der Web2.0 Community, neu kombinierbar sind. Der Einsatz der Arbeitstechniken inklusiver des Workflows ist dann die Methode der Echtzeitplanung urban vis & sim, die auf die städtebauliche Gestaltungsplanung abgestimmt ist. Zur besseren Verständlichkeit wird die Methode im Laufe der Arbeit nur „Echtzeitplanung“ genannt. Anhand von verschiedenen Einsatzbereichen ist die Methode der Echtzeitplanung in der Praxis auf ihre Umsetzung hin überprüft worden, wobei Bereiche unterschieden werden, die entweder mit einer kurzen Einarbeitungszeit auch von „Visualisierungsneulingen“ bewältigt werden können oder in weiterführende Arbeitstechniken, die das hohe Maß der Flexibilität der Methode durch die Kombination von verschiedenen Techniken auslotet. Die Methode der Echtzeitplanung eignet sich beim Einsatz in der Planung für eine allseits transparente Kommunikation, sofern die in der Arbeit erläuterten Rahmenparameter eingehalten werden. Echtzeitplanungsmethoden sollten frühzeitig und in Abstimmung aller am Prozess beteiligten Akteure dazu verwendet werden, um die Kommunikation und das Verständnis zu stärken. Sie sollten nicht durch ihre beeindruckenden Grafikpräsentation dazu verwendet werden - bewusst oder unbewusst - bestimmte Elemente einer Planung zu überhöhen oder andere dadurch zu negieren.
Polyphenole sind sekundäre Pflanzeninhaltsstoffe und werden mit unserer täglichen Nahrung aufgenommen. Um die Relevanz der einzelnen Polyphenole für die positiven Effekte auf die Gesundheit abschätzen zu können, ist es wichtig ihre intestinale Absorption und ihren Metabolismus zu kennen. Äpfel (Malus domestica Borkh.) enthalten eine Vielzahl an Polyphenolen aus den Gruppen der Hydroxyzimtsäuren, Dihydrochalkone, Flavonole und Flavan-3-ole. Es wurden die intestinale Absorption und der Metabolismus dieser Polyphenole in intestinalen Konzentrationen in der Ussing-Kammer anhand verschiedener Modelle (Monolayer der Kolonkarzinomzellline T84, Schweinedarmmukosa und humane Biopsien) untersucht. Parallel wurde der transepitheliale Widerstand (TER) des verwendeten Monolayers gemessen. Er spiegelt die Integrität der intestinalen Barriere wider, die eine wichtige Rolle bei der Aufnahme von Nährstoffen im Körper und bei der Abwehr von Mikroorganismen und pro-inflammatorischen Faktoren spielt. Bei Patienten mit chronisch entzündlichen Darmerkrankungen ist die Integrität der intestinalen Barriere gegenüber gesunden Personen herabgesetzt. In der vorliegenden Arbeit wurde untersucht, ob die Polyphenole des Apfels einen Einfluss auf die intestinale Barriere haben. Die Analytik der Mediumüberstände aus der Ussing-Kammer auf der apikalen (Darmlumen-) und basolateralen (Blut-) Seite sowie der Zellsuspensionen auf ihre Polyphenolgehalte erfolgte mittels HPLC-ESI-MS/MS und HPLC-DAD. Die transepitheliale Absorption der Polyphenole in den verschiedenen Modellen war strukturabhängig und auch zwischen den Modellen unterschiedlich. Bei den Hydroxyzimtsäuren und ihren Derivaten wurden weniger polare Verbindungen in höherem Maße auf der basolateralen Seite ermittelt als polare. Die untersuchten Flavan-3-ole wurden in beiden Modellen nicht auf die basolaterale Seite absorbiert. Die ausschließlich im Apfel vorkommenden Phloretinglycoside wurden ebenso wie das untersuchte Quercetinglycosid nicht basolateral identifiziert. Das freie Aglykon Phloretin dagegen war auf der basolateralen Seite nachweisbar. Mit den humanen Biopsien erfolgte die Inkubation nur exemplarisch mit den Hydroxyzimtsäuren, auf die basolaterale Seite gelangten nur Mengen unterhalb der Bestimmungsgrenze. Weiterhin wurde untersucht, auf welchem Mechanismus die transepitheliale Absorption der Polyphenole beruht. Die erzielten Ergebnisse weisen darauf hin, dass es sich bei der Aufnahme von Polyphenolen in der Mukosa um eine passive transzelluläre Diffusion handelt. Die Inkubationen von Ferulasäure mit Konzentrationen von bis zu 1000 µM zeigten, dass sowohl Enzyme der T84-Monolayer als auch der Schweinedarmmukosa in der Lage sind, Glucuronide und Sulfate zu bilden, die aber erst bei Inkubationskonzentrationen ab 100 µM nachweisbar waren. Bei der Inkubation von Phloretin und Quercetin in T84-Monolayern wurden außerdem Spuren von Glucuroniden in den Zellsuspensionen nachgewiesen, bei der Inkubation von Phloretin-2‘-O-glucosid wurde das Aglykon Phloretin detektiert. Weiterhin wurde der Einfluss der Polyphenole auf die intestinale Barriere im T84-Modell untersucht, indem der trans¬epitheliale Widerstand (TER) der Monolayer ermittelt wurde. Die intestinale Barriere wird unter anderem durch die sogenannten „Tight junctions“ (TJs) – Verknüpfungen zwischen den Epithelzellen – ausgebildet. Der TER lässt Rückschlüsse auf den Zustand der TJs zu. Die Messung des TER der T84-Monolayer während der Inkubation mit Polyphenolen zeigte, dass es im Gegensatz zur Kontrolle zu einem Anstieg des TER kam, d.h. es kam zu einer Verstärkung der intestinalen Barriere. Als Modell für die intestinale Barriere bei Patienten mit chronisch entzündlichen Darmerkrankungen wurden mit Caprinsäure (C10) vorbehandelte T84-Monolayer gewählt. Auch hier kam es bei den Inkubationen mit Polyphenolen im Vergleich zur Kontrolle zu einer Steigerung des TER. Außerdem wurde der Einfluss der Polyphenole auf das TJ-Protein Occludin mittels Immunofluoreszenz¬mikroskopie belegt. Für vier ausgewählte Polyphenole (Ferulasäure, 5 Kaffeoylchinasäure, Phloretin und Phloretin-2‘-O-glucosid) wurde gezeigt, dass sie einen Einfluss auf die Expression von Occludin haben, das einen integralen Bestandteil der intestinalen Barriere darstellt. Im Rahmen der vorliegenden Arbeit wurden neue Erkenntnisse zur intestinalen Absorption und zum Metabolismus von Polyphenolen des Apfels gewonnen. Es wurde gezeigt, dass ein Teil der den Dickdarm erreichenden Apfel¬polyphenole dort absorbiert und metabolisiert werden kann. Weiterhin wurden neue Daten zum Einfluss der Polyphenole auf die intestinale Barriere gewonnen. Die in vitro erzielten Daten weisen darauf hin, dass die Apfelpolyphenole in vivo möglicherweise vor chronisch entzündlichen Darmerkrankungen schützen können. Langfristig wäre eine Nutzung von Lebensmitteln aus Äpfeln oder Apfelpolyphenolen zur Prävention dieser Erkrankungen möglich.
Wireless Sensor Networks (WSN) are dynamically-arranged networks typically composed of a large number of arbitrarily-distributed sensor nodes with computing capabilities contributing to –at least– one common application. The main characteristic of these networks is that of being functionally constrained due to a scarce availability of resources and strong dependence on uncontrollable environmental factors. These conditions introduce severe restrictions on the applicability of classic real-time methods aiming at guaranteeing time-bounded communications. Existing real-time solutions tend to apply concepts that were originally not conceived for sensor networks, idealizing realistic application scenarios and overlooking at important design limitations. This results in a number of misleading practices contributing to approaches of restricted validity in real-world scenarios. Amending the confrontation between WSNs and real-time objectives starts with a review of the basic fundamentals of existing approaches. In doing so, this thesis presents an alternative approach based on a generalized timeliness notion suitable to the particularities of WSNs. The new conceptual notion allows the definition of feasible real-time objectives opening a new scope of possibilities not constrained to idealized systems. The core of this thesis is based on the definition and application of Quality of Service (QoS) trade-offs between timeliness and other significant QoS metrics. The analysis of local and global trade-offs provides a step-by-step methodology identifying the correlations between these quality metrics. This association enables the definition of alternative trade-off configurations (set points) influencing the quality performance of the network at selected instants of time. With the basic grounds established, the above concepts are embedded in a simple routing protocol constituting a proof of concept for the validity of the presented analysis. Extensive evaluations under realistic scenarios are driven on simulation environments as well as real testbeds, validating the consistency of this approach.
In this work, we develop a framework for analyzing an executive’s own- company stockholding and work effort preferences. The executive, character- ized by risk aversion and work effectiveness parameters, invests his personal wealth without constraint in the financial market, including the stock of his own company whose value he can directly influence with work effort. The executive’s utility-maximizing personal investment and work effort strategy is derived in closed form for logarithmic and power utility and for exponential utility for the case of zero interest rates. Additionally, a utility indifference rationale is applied to determine his fair compensation. Being unconstrained by performance contracting, the executive’s work effort strategy establishes a base case for theoretical or empirical assessment of the benefits or otherwise of constraining executives with performance contracting. Further, we consider a highly-qualified individual with respect to her choice between two distinct career paths. She can choose between a mid-level management position in a large company and an executive position within a smaller listed company with the possibility to directly affect the company’s share price. She invests in the financial market including the share of the smaller listed company. The utility maximizing strategy from consumption, investment, and work effort is derived in closed form for logarithmic utility and power utility. Conditions for the individual to pursue her career with the smaller listed company are obtained. The participation constraint is formulated in terms of the salary differential between the two positions. The smaller listed company can offer less salary. The salary shortfall is offset by the possibilityto benefit from her work effort by acquiring own-company shares. This givesinsight into aspects of optimal contract design. Our framework is applicable to the pharmaceutical and financial industry, as well as the IT sector.
Zur Auslegung von Rührwerken der Biogasapplikationen sind rheologische Kenntnisse über das zu rührende Medium von großer Bedeutung. Diese Kenntnisse sind jedoch meist nicht vorhanden. Eine Bestimmung der rheologischen Größen dieser Medien mit konventionellen Verfahren ist in der Regel nicht möglich. Herkömmliche Verfahren nutzen zur Bestimmung der rheologischen Größen oft eine Auswertung des laminaren Geschwindigkeitsprofils in einem bekannten Spalt aus. In diesem Spalt kann es infolge der großen Anzahl an Festkörpern zu Misch- und Festkörperreibung kommen, die das Messergebnis verfälschen, oder die Messung unmöglich machen. Diese Arbeit hat zum Ziel ein Verfahren zu entwickeln, das die Bestimmung der Fließkurve von inhomogenen, nicht-Newtonschen Medien ermöglicht. Hierzu wird der Leistungsbedarf eines Rührwerks untersucht und mit Hilfe des Verfahrens von Rieger und Novak eine Viskositätskurve in Abhängigkeit der Rührerdrehzahl gebildet. Mit dem Verfahren von Metzner und Otto kann anschließend auf die scheinbare Viskosität eines Mediums geschlossen werden. Im Rahmen dieser Arbeit wird gezeigt, dass das Verfahren nach Metzner und Otto von dem zu rührenden nicht-Newtonschen Fluid beeinflusst wird. Weiterhin konnte der konstante Charakter der Metzner-Otto Größe nicht bestätigt werden. Daher wird ein alternatives Verfahren entwickelt und vorgestellt. Im Verlauf der Arbeit wird ein Propellerviskosimeter entwickelt und kalibriert. Die nötigen Kalibrierungsschritte werden erläutert und vorgeführt. Neben der experimentelle Versuchsdurchführung erfolgt dies mit numerischen Methoden. Weiterhin wird ein exemplarischer Messvorgang mit einer Realsubstratprobe durchgeführt.
Die Paarungsstörung mit Pheromonen ist ein etabliertes Verfahren der ökologischen Schädlingsbekämpfung in vielen Bereichen der Landwirtschaft. Um dieses Verfahren zu optimieren, ist es erforderlich, genauere Erkenntnisse über die Verteilung des Pheromons über den behandelten Agrarflächen zu erhalten. Die Messung dieser Duftstoffe mit dem EAG-System ist eine Methode, mit der man schnell und zuverlässig Pheromonkonzentrationen im Freiland bestimmen kann. Diese Arbeit beschreibt Beiträge, die zur Weiterentwicklung des Systems von großer Bedeutung sind. Die Steuerung des Messablaufs durch eine Ablaufdatei, die erst zur Laufzeit ins Programm geladen wird, ermöglicht eine zeitgenaue und flexible Steuerung des Messsystems. Die Auswertung der Messergebnisse wird durch Methoden der Gesamtdarstellung der Konzentrationsberechnung und durch rigorose Fehlerbetrachtung auf eine solide Grundlage gestellt. Die für die Konzentrationsberechnung erforderlichen Grundvoraussetzungen werden anhand experimenteller Beispiele ausführlich erläutert und verfiziert. Zusätzlich wird durch ein iteratives Verfahren die Konzentrationsberechnung von der mathematischen oder empirischen Darstellung der Dosis-Wirkungskurve unabhängig gemacht. Zur Nutzung einer erweiterten EAG-Apparatur zur Messung komplexer Duftstoffgemische wurde das Messsystem im Bereich der Steuerung und der Auswertung tiefgreifend umgestaltet und vollständig einsatztauglich gemacht. Dazu wurde das Steuerungssystem erweitert, das Programm für die Messwerterfassung neu strukturiert, eine Methode zur Konzentrationsberechnung für Duftstoffgemische entwickelt und in einer entsprechenden Auswertesoftware implementiert. Das wichtigste experimentelle Ergebnis besteht in der Durchführung und Auswertung einer speziellen Messung, bei der das EAG-System parallel mit einer klassischen Gaschromatograph-Methode eingesetzt wurde. Die Ergebnisse ermöglichen erstmals eine absolute Festlegung der Konzentrations-Messergebnisse des EAG-Messsystems für das Pheromon des Apfelwicklers. Bisher konnten nur Ergebnisse in Relativen Einheiten angegeben werden.
Zusammenfassung. In dieser Arbeit werden Probleme der numerischen Lösung finiter Differenzenverfahren partieller Differentialgleichungen in einem algebraischen Ansatz behandelt. Es werden sowohl theoretische Ergebnisse präsentiert als auch die praktische Implementierung mithilfe der Systeme SINGULAR und QEPCAD vorgeführt. Dabei beziehen sich die algebraischen Methoden auf zwei unterschiedliche Aspekte bei finiten Differenzenverfahren: die Erzeugung von Schemata mithilfe von Gröbnerbasen und die darauf folgende Stabilitätsanalyse mittels Quantorenelimination durch algebraische zylindrische Dekomposition. Beim Aufbau der Arbeit werden in den ersten drei Kapiteln in einer Rückschau die nötigen Begriffe aus der Computeralgebra gelegt, die Grundzüge der numerischen Konvergenztheorie finiter Differenzenschemata erklärt sowie die Anwendung des CAD-Algorithmus zur Quantorenelimierung skizziert. Das Kapitel 4 entwickelt ausgehend vom zugrunde liegenden Kontext die Formulierung und die dafür nötigen Bedingungen an Differenzenschemata, die algebraisch nach Definition ein Ideal in einem Polynomring darstellen. Neben der praktischen Handhabbarkeit der Objekte liegt die Betonung auf größtmöglicher Allgemeinheit in den Definitionen der Begriffe. Es werden äquivalente Wege der Erzeugung sowie Eigenschaften der Eindeutigkeit unter sehr speziellen Bedingungen an die verwendeten Approximationen gezeigt. Die Anwendung des CAD-Algorithmus auf die Abschätzung des Symbols eines Schemas wird erläutert. Das fünfte Kapitel beschreibt die SINGULAR-Bibliothek findiff.lib, welche das Zusammenspiel von SINGULAR und QEPCAD garantiert und eine vollständige Automatisierung der Erzeugung und Stabilitätsanalyse eines finiten Differenzenverfahrens ermöglicht.
Bei Acrylamid handelt es sich um ein genotoxisches Kanzerogen, welches beim Erhitzen von Lebensmitteln gebildet wird. Im Rahmen dieser Arbeit wurde untersucht, inwieweit spezifische Lebensmittelmatrices die Bioverfügbarkeit und den Metabolismus von Acrylamid beeinflussen. Lebkuchen als zuckerhaltiges, fettarmes und trockenes Lebensmittel auf Getreidebasis und Pommes frites (fett- und wasserreich; Kartoffelbasis) die entweder direkt aus der Kartoffel geschnitten (mit intakter Gewebestruktur) oder aus Kartoffelerzeugnissen „rekombiniert“ wurden sowie Brotkruste wurden an männliche Sprague Dawley-Ratten über 1, 3, 5, 7 und 9 Tage verfüttert und mit der Aufnahme von Acrylamid über Trinkwasser (Schlundsondierung)verglichen. Die täglich verabreichte Acrylamid-Dosis lag bei 100 µg/kg KG für Pommes frites und Lebkuchen bzw. 50 µg/kg KG für Brotkruste. Als Langzeit-Expositionsbiomarker wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin (Val) am Hämoglobin (Hb) herangezogen. Das Ausmaß der AAVal-Bildung in den Tieren, denen Acrylamid über Pommes frites verabreicht wurde, entsprach jener nach Gabe einer entsprechenden Dosis Acrylamid in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen), was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Lediglich in den Gruppen, die Acrylamid über Brotkruste erhielten, wurde eine geringfügig verminderte Bildung von AAVal-Hb-Addukten im Vergleich zu den AA-TW-Gruppen beobachtet. Nach Aufnahme von Acrylamid über Pommes frites wurde kein signifikanter Unterschied in der Gesamtausscheidung an Mercaptursäuren im Vergleich zur Gabe in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen) beobachtet, was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Bei den mit Brotkruste gefütterten Tieren wurde eine im Vergleich zu AA-TW-Gruppen geringfügig erniedrigte Ausscheidung an AAMA beobachtet, was im Einklang mit der erniedrigten AA-Val-Bildung steht. Für die Ermittlung der Gesamtbilanz an Acrylamid-Ausscheidung aus dem Organismus wurde auch die Acrylamid- und Glycidamid-Ausscheidung im 24-Stunden-Sammelurin bestimmt. Die ausgeschiedenen Anteile an der verabreichten Tagesdosis leisten einen im Vergleich zu den Mercaptursäuren verhältnismäßig geringen Beitrag zur Gesamtausscheidung einer verabreichten Acrylamid-Dosis. Zur Untersuchung der Resorptionskinetik von Acrylamid bei Verabreichung über Pommes frites im Vergleich zur Aufnahme in Trinkwasser (Schlundsondierung) wurden über einen Zeitraum von 4 Stunden die Acrylamid- und Glycidamid-Gehalte in Rattenserum bestimmt. Insgesamt deutet der zeitliche Verlauf der Acrylamid-Serumkonzentration in der mit Pommes frites gefütterten Gruppe auf eine im Vergleich zur AA-TW-Gruppe verzögerte Freisetzung bzw. verlangsamte Resorption von Acrylamid im Gastrointestinaltrakt hin. Zur Abschätzung der Hintergrundbelastung mit Acrylamid wurden in 8 humanen Blutproben die Gehalte an Acrylamid- und Glycidamid-Hämoglobin-Addukten (AAVal, GAVal) sowie in 10 humanen Urinproben die Gehalte an Acrylamid- und Glycidamid-Mercaptursäuren (AAMA, GAMA) bestimmt. Bei den Rauchern wurden deutlich höhere AAVal-Gehalte im Vergleich zu Nichtrauchern gemessen, wohingegen die Gehalte an GAVal auf vergleichbarem Niveau lagen. Darüber hinaus wurde bei den Rauchern eine im Vergleich zu Nichtrauchern signifikant höhere Ausscheidung von AAMA und GAMA beobachtet, wobei die entsprechenden GAMA/AAMA-Verhältnisse bei Rauchern erniedrigt waren. Im Rahmen einer humanen Verzehrsstudie „Bedeutung der CYP450 2E1-Aktivität für die Toxikokinetik von Acrylamid beim Menschen“ wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin des Hämoglobin bestimmt. Dabei wurde das Ausmaß der Addukt-Bildung bei 13 Probanden nach Aufnahme von ca. 1 mg Acrylamid über Kartoffel-Chips jeweils bei unbeeinflusster, gehemmter und induzierter CYP450 2E1-Aktivität untersucht. In der Referenzperiode ohne Komedikation wurde bei diesen Probanden ein Anstieg der AAVal-Gehalte um 8 ± 5 pmol/g Hb beobachtet. Ein im Vergleich zur R-Phase signifikant erhöhter AAVal-Anstieg (12 ± 5 pmol/g Hb) zeigte sich in der Testperiode T1, in der CYP450 2E1 durch Disulfiram gehemmt wurde. In der Testperiode T2, in der CYP450 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wiesen die AAVal-Gehalte einen mit der R-Phase vergleichbaren Anstieg um 9 ± 5 pmol/g Hb auf. Für GAVal hingegen konnten aufgrund der größeren Messwertschwankungen keine signifikanten Veränderungen in der Testperiode T1 bzw. T2 im Vergleich zur Referenzperiode festgestellt werden. Darüber hinaus wurde bei 3 Probanden der zeitliche Verlauf der AAVal-Bildung in den jeweiligen Testperioden über einen Zeitraum von 24 Stunden untersucht. Die maximale AAVal-Konzentration wurde bei den untersuchten Probanden im Zeitraum von 8-10 Stunden erreicht, wobei anschließend ein Plateau-förmiger Verlauf der Bildungskurven beobachtet wurde.
The main focus of this dissertation is the synthesis and characterization of more recent zeolites with different pore architectures. The unique shape-selective properties of the zeolites are important in various chemical processes and the new zeolites containing novel internal pore architectures are of high interest, since they could lead to further improvement of existing processes or open the way to new applications. This dissertation is organized in the following way: The first part is focused on the synthesis of selected recent zeolites with different pore architectures and their modification to the acidic and bifunctional forms. The second part comprises the characterization of the physicochemical properties of the prepared zeolites by selected physicochemical methods, viz. powder X-ray diffractometry (XRD), N2 adsorption, thermogravimetric analysis (TGA/DTA/MS), ultraviolet-visible (UV-Vis) spectroscopy, atomic absorption spectroscopy (AAS), infrared (IR) spectroscopy, scanning electron microscopy (SEM), 27Al and 29Si magic angle spinning nuclear magnetic resonance (MAS NMR) spectroscopy, temperature-programmed reduction (TPR), temperature-programmed desorption of pyridine (pyridine TPD) and adsorption experiments with hydrocarbon adsorptives. The third part of this work is devoted to the application of test reactions, i.e., the acid catalyzed disproportionation of ethylbenzene and the bifunctional hydroconversion of n-decane, to characterize the pore size and architecture of the prepared zeolites. They are known to be valuable tools for exploring the pore structure of zeolites. Finally, an additional test, viz. the competitive hydrogenation of 1-hexene and 2,4,4-trimethyl-1-pentene, has been applied to probe the location of noble metals in medium pore zeolite. The synthesis of the following zeolite molecular sieves was successfully performed in the frame of this thesis (they are ranked according to the largest window size in the respective structure): • 14-MR pores: UTD-1, CIT-5, SSZ-53 and IM-12 • 12-MR pores: ITQ-21 and MCM-68 • 10-MR pores: SSZ-35 and MCM-71 All of them were obtained as pure phase (except zeolite MCM-71 with a minor impurity phase that is hardly to avoid and also present in samples shown in the patent literature). The synthesis conditions are very critical with respect to the formation of the zeolite with a given structure. In this work, the recommended synthesis recipes are included. Among the 14-MR zeolites, the aluminosilicates UTD-1 (nSi/nAl = 28), CIT-5 (nSi/nAl = 116) and SSZ-53 (nSi/nAl = 55) with unidimensional extra-large pore opening formed from 14-MR rings exhibit promising catalytic properties with high thermal stability and they possess strong Brønsted-acid sites. By contrast, the germanosilicate IM-12 with a structure containing 14-MR channels intersecting with 12-MR channels is unstable toward moisture. It was found that UTD-1 and SSZ-53 zeolites are highly active catalysts for the acid catalyzed disproportionation of ethylbenzene and n-decane hydroconversion due to their high Brønsted acidity. To explore their pore structures, the applied two test reactions suggest that UTD-1, CIT-5 and SSZ-53 zeolites contain a very open pore system (12-MR or larger pore systems) because the product distributions are not hampered by too small pores. ITQ-21, a germanoaluminosilicate zeolite with a three-dimensional pore system and large spherical cages accessible through six 12-MR windows, can be synthesized with nSi/nAl ratios between 27 and >200. It possesses a large amount of Brønsted-acid sites. The aluminosilicate zeolite MCM-68 (nSi/nAl = 9) is an extremely active catalyst in the disproportionation of ethylbenzene and in the n-decane hydroconversion. This is due to the presence of a high density of strong Brønsted-acid sites in its structure. The disproportionation of ethylbenzene suggests that MCM-68 is a large pore (i.e., at least 12-MR) zeolite, in agreement with its crystallographic structure. In the hydroconversion of n-decane, the presence of tribranched and ethylbranched isomers and a high isopentane yield of 58 % in the hydrocracked products suggest the presence of large (12-MR) pores in its structure. By contrast, a relatively high value for CI* (modified constraint index) of 2.9 suggests the presence of medium (10-MR) pores in its structure. As a whole, the results are in-line with the crystallographic structure of MCM-68. SSZ-35, a 10-MR zeolite, can be synthesized in a broad range of nSi/nAl ratios between 11 and >500. This zeolite is interesting in terms of shape selectivity resulting from its unusual pore system having unidimensional channels alternating between 10-MR windows and large 18-MR cages. This thermally very stable zeolite contains both, strong Brønsted- and strong Lewis-acid sites. The disproportionation of ethylbenzene classifies SSZ-35 as a large pore zeolite. In the hydroconversion of n-decane, the suppression of bulky ethyloctanes and propylheptane clearly suggests the presence of 10-MR sections in the pore system. By contrast, the low CI* values of 1.2-2.3 and the high isopentane yields of 56-60 % in the hydrocracked products suggest that SSZ-35 also possesses larger intracystalline voids, i.e., the 18-MR cages. The results from the catalytic characterization are in good agreement with the crystallographic structure of zeolite SSZ-35. It was also found that the nSi/nAl ratio influences the crystallite size and therefore the external surface area. As a consequence, product selectivities are also influenced: The lowest nSi/nAl ratio or the smallest crystallite size sample produces larger amounts of the relatively bulky products. The formation of these products probably results from the higher conversion or they are preferentially formed on the external surface area of the catalyst. Zeolite MCM-71 (nSi/nAl = 8) possesses an extremely thermally stable structure and contains a high concentration of Brønsted-acid sites. Its structure allows for the separation of n-alkanes from branched alkanes by selective adsorption. MCM-71 exhibits unique shape-selective properties towards the product distribution in ethylbenzene disproportionation, which is different to those obtained in the medium pore SSZ-35 zeolite. All reaction parameters are fulfilled to classify MCM-71 as medium pore zeolite and this is in good agreement with its reported structure consisting of two-dimensional network of elliptical 10-MR channels and an orthogonal sinusoidal 8-MR channels. The competitive hydrogenation of 1-hexene and 2,4,4-trimethyl-1-pentene was exploited to probe that the major part of the noble metal is located inside the intracrystalline void volume of the medium pore zeolite SSZ-35.
This thesis deals with the numerical study of multiscale problems arising in the modelling of processes of the flow of fluid in plain and porous media. Many of these processes, governed by partial differential equations, are relevant in engineering, industry, and environmental studies. The overall task of modelling and simulating the filtration-related multiscale processes becomes interdisciplinary as it employs physics, mathematics and computer programming to reach its aim. Keeping the challenges in mind, the main focus is to overcome the limitations of accuracy, speed and memory and to develop novel efficient numerical algorithms which could, in part or whole, be utilized by those working in the field of porous media. This work has essentially four parts. A single grid basic algorithm and a corresponding parallel algorithm to solve the macroscopic Navier-Stokes-Brinkmann model is discussed. An upscaling subgrid algorithm is derived and numerically tested for the same model. Moving a step further in the line of multiscale methods, an iterative Mutliscale Finite Volume (iMSFV) method is developed for the Stokes-Darcy system. Additionally, the last part of the thesis deals with ways to incorporate changes occurring at different (meso) scale level. The flow equations are coupled with the Convection-Diffusion-Reaction (CDR) equation, which models the transport and capturing of particle concentrations. By employing the numerical method for the coupled flow and transport problem, we understand the interplay between the flow velocity and filtration.
Mit der Erweiterten Technischen Biegelehre (ETB) steht eine Möglichkeit zur Verfügung, den Gesamtverzerrungszustand von biege- und schubbeanspruchten Stahlbeton- und Spannbetonquerschnitten sowohl für den Grenzzustand der Gebrauchstauglichkeit (GZG) als auch den Grenzzustand der Tragfähigkeit (GZT) zu ermitteln. Bisher fehlte jedoch für eine allgemeine Anwendung der ETB eine statistische Absicherung durch einen umfangreichen Vergleich mit Versuchen. Als Grundlage für diesen Vergleich wurde zunächst ein Konzept zur Berücksichtigung von Tension-Stiffening und Tension-Softening in der Berechnung erarbeitet. Die Integration dieses Konzepts in die ETB erfolgte durch Dr. Hartung, der die ETB ursprünglich entwickelt hat. Im Rahmen der vorliegenden Arbeit wurden dann an der TU Kaiserslautern insgesamt 222 Querkraftversuche an Stahlbeton- und Spannbetontragern mit der ETB nachgerechnet. Dazu mussten zunachst fur die in den Versuchen auftretenden drei Schubbrucharten geeignete Versagenskriterien definiert werden. Aus der abschliesenden statistischen Bewertung ergaben sich mit der ETB fur die Tragfahigkeit gegenuber dem Fachwerkmodell wesentlich wirtschaftlichere Ergebnisse. Sowohl die verbleibende, nicht nutzbare Modellsicherheit war im Mittel deutlich geringer, als auch die Streuung der erzielten Ergebnisse. Damit wird eine Anwendung der ETB fur den GZT grundsatzlich ermoglicht. Auffallig ist hier u. a. die gegenuber dem Fachwerkmodell deutlich bessere Erfassung des Tragverhaltens von Spannbetontragern. Hier schrankt die untere Begrenzung der Druckstrebenneigung auf 18,4° die Effektivitat des Fachwerkmodells stark ein. Weiterhin wurde im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern an insgesamt sechs großmaßstäblichen Versuchen das Trag- und Verformungsverhalten von Stahlbeton- und Spannbetonträgern untersucht. Für die Bügeldehnungen ergaben sich daraus auch auf dem Niveau des Gebrauchszustandes gute Übereinstimmungen zwischen Versuch und Berechnung. Die bei einem Versuch im Momentennullpunkt erfolgten Messungen der Längsdehnungen haben zudem gezeigt, dass die durch die Schubbeanspruchung bedingte Stabverlängerung bereits im GZG nennenswerte Größen annehmen kann und somit bei Spannungsnachweisen berücksichtigt werden sollte. Eine statistische Absicherung für den GZG war jedoch aufgrund der geringen Anzahl der Versuche nicht möglich. In Verbindung mit der Vorstellung eines auf der ETB basierenden Bemessungskonzeptes wurde abschließend noch auf die Frage der erforderlichen Mindestquerkraftbewehrung eingegangen. Für den Nachweis von bestehenden Tragwerken wurde hier ein zu DIN 1045-1 2008 alternativer Nachweis der erforderlichen Duktilität auf Basis der ETB aufgezeigt.
A number of natural products are known that contain an enamide as a key structural feature. This functionality is a very important subunit in various biologically active products and pharmaceutical drug lead compounds. In addition, enamides serve as highly versatile synthetic intermediates, particularly in the pericyclic reaction, formation of heterocycles, cross-coupling and in asymmetric synthesis. As a result, several protocols have been devised for the preparation of enamides. Traditional syntheses include condensation of aldehydes and ketones with amides or from hydroxylamines and acetic anhydride, require harsh conditions and yield mixtures of E/Z products. Several metal catalyzed approaches have been also investigated, such as isomerization of N-allylamides and catalytic cross-coupling of amides with vinyl halides or pseudohalides. These protocols proceed under milder conditions but suffer from the limited availability of these starting materials. The research described in this dissertation focuses on efficient and atom-economic preparation of enamides and thioenamides, using readily available starting materials. We developed catalyst systems generated in situ from bis(2-methallyl)-cycloocta-1,5-diene-ruthenium(II), phosphines and Lewis acid or base, efficiently catalyze the addition of primary amides and thioamides to terminal alkynes with exclusive formation of the anti-Markovnikov products in high yield and stereoselectivity under mild reaction conditions. The generality of the newly developed methodologies is demonstrated by common functional group tolerance. Furthermore, Markovnikov products were formed via phosphine-catalyzed addition of cyclic amides to phenylacetylene derivatives. The hydroamidation protocol of primary amides was successfully used in the synthesis of naturally occurring compounds, such as alatamide, lansiumamide A, botryllamides C and E, and the key intermediate in the synthesis of aristolactam. In order to investigate the reaction mechanism, the addition of various amides and carboxylic acids to terminal alkynes was performed using deuterium labeled starting materials and followed by in situ NMR and GC-MS studies.
A classical conjecture in the representation theory of finite groups, the McKay conjecture, states that for any finite group and prime number p the number of complex irreducible characters of degree prime to p is equal to the number of complex irreducible characters of degree prime to p of the normalizer of a p-Sylow subgroup. Recently a reduction theorem was proved by Isaacs, Malle and Navarro: If all simple groups are “good”, then the McKay conjecture holds. In this work we are concerned with the problem of goodness for finite groups of Lie type in their defining characteristic. A simple group is called “good” if certain equivariant bijections between the involved character sets exist. We present a structural approach to the construction of such a bijection by utilizing the so-called “Steinberg-Map”. This yields very natural bijections and we prove most of the desired properties.
Ziel dieser Arbeit war, die Entwicklung von übergangsmetallkatalysierten Kreuzkupplungsreaktionen zur Kohlenstoff-Kohlenstoff-Bindungsknüpfungen, bei denen Carbonsäuren anstelle der traditionell verwendeten, jedoch ökologisch bedenklichen Organometall-verbindungen (z. B. metallorganische Verbindungen der Elemente Bor, Zinn, Zink, Kupfer oder Magnesium) als Startmaterialien eingesetzt werden. Der wesentlich Schwerpunkt dieser Arbeit bestand darin, die zu diesem Zeitpunkt neu entwickelte decarboxylierende Kreuzkupplungsreaktion von aromatischen Carbonsäuren mit Arylhalogeniden zur synthetischen Reife zu führen.
Fiber-reinforced plastics are hybrid materials designed for the needs of the 21st century.
With their capability to form low weight structures, while preserving high stiffness
and excellent damping, these composites provide solutions for a broad range of markets.
Unfortunately, some of these advantages are not used in practice because there exist
no fast and automated manufacturing processes for efficient production. In the research
field of continuous-reinforced thermoplastic composites, industry is facing a
challenge of high viscose polymer melt and thereby an imperfect fiber wet-out. As a
result, synergy effects of fibers within a polymer could not be fully exploited.
The topic of this work is to adapt new processing technologies for reactive thermoplastic
polymers. On one hand, fast heating and cooling options offer processes with
shorter cycle time, and on the other hand, low viscosity of reactive polymers impregnates
the textile structures faster. This results in faster and cheaper manufacturing of
composites that are yet to be realized for the market.
All FRPCs were produced on a continuous compression molding press. As a noncontinuous
technology, an inductive heated CageSystem® from RocTool has been
selected. Entropically driven ring-opening cyclic oligomers form Cyclics with waterlike
melt viscosities are chosen as reactive matrix.
The viscosity of Cyclic Butylene Terephthalate (CBT*) was measured using a rheometer.
The rheological behavior is determined under isothermal conditions for various
temperatures. The chemical transformation from oligomer to macromolecule pCBT1
was assessed by size exclusion chromatography. Based on these studies, a kinetic
polymerization model was constructed which involved an Arrhenius-type equation. By
using the activation energy and pre-exponential factor, it was possible to offer an
exact mathematical solution for the prediction of isothermal conversion. A numerical
solution of the Arrhenius equation helped to predict the polymerization for any timetemperature
conditions. Furthermore, the polymerization model was extended to describe
the chemo-rheology. Inserting specific material parameters, the bipartite model
was able to provide a numerical prognosis for the viscosity with the input parameters
time-temperature. All models were calibrated and validated with the experimental
data. The continuous compression molding press was used to consolidate CBT-prepregs
and PBT-prepregs. As reinforcing phase, a multiaxial non-crimp-fabric from Ahlstrom
was used. This fabric contained glass fibers with a “CBT*-compatible” sizing. The
design of experiments was mainly focusing on the variation in the temperature distribution
in process direction with respect to process speeds. An extensive analysis,
from optical to energy absorption, was performed on the resulting FRPC-product,
called organic sheet. All test results showed a better performance for GF-pCBT
compared to GF-PBT. Even for much higher process speed, the material properties
of GF-pCBT did not deteriorate strongly in contrast to GF-PBT. The enhancement
was traced to a better fiber-matrix interface (e.g., ILSS values) and to an excellent
fiber wet-out with pCBT (e.g., SEM pictures).
Viscosity and impregnation are the main factors behind the transversal visco-elastic
impregnation model that was deduced. An arithmetic function that tracks the impregnation
process for the classical thermoplastic PBT and its reactive pendant CBT*
was derived. This was based on the dimensionless B-factor which was considered as
technology independent performance indicator. The model was able to link the fast
impregnation with CBT* - the viscosity of which is 10-5 magnitude lower than PBT - to
all temperature-time-conditions. An optimization method was used to find process
parameters to realize a minimum cycle time for the continuous process. This model
was adapted to the non-continuous pressing technology to find the minimum cycle
time.
To evaluate the economic potential, a transparent process analysis was set up in
form of a static cost calculation. In a first step, all monetary activities from each technology
were identified and rated. The cycle time - as main capacity indicator - was
based on the chemo-rheological model introduced above. Different break-even
analyses and production costs highlighted the techno-economic potential of the related
process-material-combination. A synergistic effect between innovative process
technologies and reactive thermoplastic polymer was found.
Faster and more efficient technologies for the production of fiber-reinforced plastics
have been systematically developed and evaluated. The results were achieved with
an intelligent combination of manufacturing technology and modern reactive thermoplastic
polymers. Moreover, the approach of this work can be transferred to the other
reactive thermoplastic matrix-based composites.