Refine
Year of publication
- 2009 (76) (remove)
Document Type
- Doctoral Thesis (76) (remove)
Has Fulltext
- yes (76)
Keywords
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
- Visualisierung (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Mathematik (16)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
Verteilung von Na+/Ca2+-Austauschern während der Ontogenese des auditorischen Hirnstamms der Ratte
(2009)
Die Homöostase der intrazellulären Ca2+-Konzentration ist eine essenzielle Aufgabe in allen Zellen, da Ca2+ an diversen zellulären Prozessen beteiligt ist. Besonders Neurone des auditorischen Hirnstamms sind auf eine optimale Ca2+-Regulation angewiesen, da ihr Überleben und ihre Entwicklung von der intrazellulären Ca2+-Konzentration abhängen. Neben Ca2+-bindenden Proteinen und Ca2+-ATPasen sind besonders Na+/Ca2+-Austauscher, welche sich in die Familien NCX (NCX1-3), NCKX (NCKX1-5) und CCX (NCKX6) gliedern, in vielen neuronalen und nicht-neuronalen Strukturen maßgeblich für die Ca2+-Regulation verantwortlich. In meiner Arbeit wurde die Verteilung von NCX1-3 sowie NCKX2-6 im Nucleus cochlearis(CN), superioren Olivenkomplex (SOC) und inferioren Colliculus (IC), welche Strukturen des auditorischen Hirnstamms darstellen, untersucht. Dies erfolgte auf Boten-Ribonukleinsäure(messenger ribonucleic acid, mRNA)-Ebene qualitativ mittels reverser Transkription (RT)gefolgt von genspezifischer Polymerasekettenreaktion (PCR) sowie quantitativ mittels realtime-PCR, auf Proteinebene qualitativ mittels Immunhistochemie. Um auch ontogenetische Aspekte der Ca2+-Homöostase zu berücksichtigen, wurden Ratten in einem unreifen Entwicklungsstadium (P4) sowie junge adulte Ratten (P60) analysiert. Die Genexpression aller untersuchten ncx- und nckx-Isoformen wurde mittels RT-PCR in beiden Entwicklungsstadien in CN, SOC und IC nachgewiesen. Besonders auffallend war bei den ncx-Isoformen eine im Verlauf der Entwicklung meist verstärkte Transkription, während die nckx-Isoformen in den meisten Fällen eine verminderte Transkription im adulten Tier zeigten. Mittels Immunhistochemie zeigt meine Arbeit zum ersten Mal eine entwicklungsabhängige Umverteilung der Austauscher. Während die Isoformen bei P4 hauptsächlich im Neuropil lokalisiert waren, zeigte sich im Gegensatz dazu bei P60 eine verstärkte Immunfluoreszenz innerhalb der Somata. Ausnahme war hier NCKX2, welcher im CN auch bei P60 hauptsächlich im Neuropil exprimiert wurde. Die Expression von NCX1-3 und NCKX2 im Neuropil junger auditorischer Hirnstammneurone legt eine Ca2+-regulierende Funktion im Bereich dendritischer Synapsen nahe. Die Synapsen befinden sich in diesem Alter noch in einem unreifen Zustand, so dass die Na+/Ca2+-Austauscher einen maßgeblichen Einfluss auf die synaptische Plastizität ausüben können. Abschließend deutet die Verteilung der Na+/Ca2+-Austauscher darauf hin, dass alle NCX- und NCKX-Isoformen, im Zusammenspiel mit weiteren Ca2+-regulierenden Proteinen, an der Ca2+-Homöostase in den Strukturen des auditorischen Hirnstamms beteiligt sind.
This thesis deals with the application of binomial option pricing in a single-asset Black-Scholes market and its extension to multi-dimensional situations. Although the binomial approach is, in principle, an efficient method for lower dimensional valuation problems, there are at least two main problems regarding its application: Firstly, traded options often exhibit discontinuities, so that the Berry- Esséen inequality is in general tight; i.e. conventional tree methods converge no faster than with order 1/sqrt(N). Furthermore, they suffer from an irregular convergence behaviour that impedes the possibility to achieve a higher order of convergence via extrapolation methods. Secondly, in multi-asset markets conventional tree construction methods cannot ensure well-defined transition probabilities for arbitrary correlation structures between the assets. As a major aim of this thesis, we present two approaches to get binomial trees into shape in order to overcome the main problems in applications; the optimal drift model for the valuation of single-asset options and the decoupling approach to multi-dimensional option pricing. The new valuation methods are embedded into a self-contained survey of binomial option pricing, which focuses on the convergence behaviour of binomial trees. The optimal drift model is a new one-dimensional binomial scheme that can lead to convergence of order o(1/N) by exploiting the specific structure of the valuation problem under consideration. As a consequence, it has the potential to outperform benchmark algorithms. The decoupling approach is presented as a universal construction method for multi-dimensional trees. The corresponding trees are well-defined for an arbitrary correlation structure of the underlying assets. In addition, they yield a more regular convergence behaviour. In fact, the sawtooth effect can even vanish completely, so that extrapolation can be applied.
Es ist bekannt, dass die Genese von Darmerkrankungen von der aufgenommenen Nahrung beeinflusst wird. Der Genuss von Apfelprodukten mit hoher antioxidativer Wirksamkeit könnte daher zur Prävention ROS-assoziierter Erkrankungen beitragen. Ziel der vorliegenden Arbeit war die Untersuchung von polyphenolreichen Extrakte aus Apfelsaft (AE01–AE07), Tresterextraktionssaft (AE03B, AE06B) und Apfelschalen (GS, PE) sowie von Polyphenolen auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Caco-2 Zellen. Zur Annäherung an die in vivo-Situation wurden mit Darmbakterien fermentierte Apfelsaftextrakte/Trub in die Untersuchungen einbezogen, dabei entstehende Abbauprodukte wurden charakterisiert und ebenfalls geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level, GSH-Spiegel und SOD1-Expression. Zusätzlich wurde die zellfreie antioxidative Kapazität (ORAC/TEAC) erfasst. Die antioxidative Kapazität aller Extrakte war hoch und korrelierte mit dem Gehalt an Polyphenolen bzw. Procyanidinen. Der zelluläre ROS-Level wurde am effektivsten durch AE07 und GS reduziert, während AE05, AE06B und GS den besten Schutz vor oxidativen DNA-Schäden boten. Eine Erhöhung des tGSH-Spiegels konnte durch Inkubation mit AE06, AE07, GS und PE erreicht werden. Die Ergebnisse legen nahe, dass vor allem Flavonol/Procyanidin-reiche Extrakte eine gute protektive Wirksamkeit aufweisen. Die fermentierten Extrakte zeigten eine deutliche antioxidative Wirksamkeit, was vor allem den identifizierten phenolischen Abbauprodukten zugeschrieben werden konnte, die fast alle eine ausgeprägte Wirksamkeit im zellfreien und zellulären System zeigten. Es ist nicht auszuschließen, dass auch andere Komponenten (wie z.B. SCFA) zur protektiven Wirksamkeit fermentierter Extrakte beitragen könnten. Der fermentierte Trub erwies sich in den Untersuchungen als unwirksam, da in ihm keine Polyphenole identifiziert werden konnten. Weiterhin wurden auch Polyphenol-vermittelte prooxidative Effekte untersucht, für die sich neben einer starken Strukturabhängigkeit die Wahl des verwendeten Mediums als entscheidender Faktor für die beobachtete H2O2-Bildung erwies. Es wurden keine adversen Effekte auf zelluläre Marker beobachtet, vielmehr könnte die Wirksamkeit der Polyphenole durch geringe Mengen an ROS unterstützt werden, da diese die antioxidative Abwehr der Zellen aktivieren. Insgesamt erwiesen sich phenolische Extrakte aus Apfelbestandteilen als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzellen. In begleitenden Untersuchungen mit Einzelstoffen wurden Polyphenole identifiziert, die wesentlich zur protektiven Wirkung der Extrakte beitragen. Es konnte gezeigt werden, dass die protektive Wirksamkeit von Extrakten und Inhaltsstoffen trotz intestinalen Abbaus persistiert und dass eine moderate prooxidative Wirksamkeit der Polyphenole in Zellen einen günstigen Einfluss auf deren antioxidative Abwehr ausüben kann.
Die vorliegende Arbeit befasst sich mit der grundlegenden Untersuchung von Verfahren zur mechanischen Dispergierung agglomerierter Nanopartikel in Epoxidharz und der werkstofflichen Charakterisierung der daraus resultierenden Nanoverbundwerkstoffe. Dazu wurden Dispergierexperimente unter Verwendung eines Titandioxid-Nanopartikelpulvers mit Hilfe einer horizontalen und einer vertikalen Rührwerkskugelmühle durch systematische Variation von Dispergierparametern, wie beispielsweise der Rührwerksumfangsgeschwindigkeit, der Dispergierdauer, dem spezifischen Energieeintrag, dem Mahlkörperdurchmesser und dem Mahlkörperfüllgrad durchgeführt. Die Herausforderung liegt in der Erzielung möglichst geringer Partikelgrößen einhergehend mit einer homogenen Verteilung der Primärpartikel in der polymeren Matrix, ohne dabei die Molekülstruktur des verwendeten Epoxidharzes zu degradieren. Zur Ermittlung des Einflusses der einzelnen Dispergierparameter auf die Partikelgrößen und deren Häufigkeitsverteilungen wurden Proben der Suspension bestehend aus Epoxidharz und TiO2-Nanopartikeln während des Dispergierprozesses entnommen und nach dem Prinzip der dynamischen Lichtstreuung untersucht. Aus den Suspensionen wurden Nanoverbundwerkstoffe gefertigt, die umfangreich werkstoffwissenschaftlich durch mechanische, thermoanalytische und rasterelektronenmikroskopische Untersuchungen charakterisiert wurden, um den Einfluss der Partikelgrößen und -verteilungen auf die Struktur und die Eigenschaften der Nanoverbundwerkstoffe zu ermitteln. Das erarbeitete Dispergierverfahren wurde anschließend zugrunde gelegt, um Nanopartikelpulver aus Titandioxid, Aluminiumdioxid und Zirkoniumdioxid in Epoxidharz zu dispergieren und dadurch Nanoverbundwerkstoffe mit gesteigerten Werkstoffeigenschaften zu fertigen. Diese wurden mechanischen und rasterelektronenmikroskopischen Untersuchungen unterzogen. Aufbauend auf den Erkenntnissen der vorangegangen Dispergierexperimente und theoretischen Betrachtungen wurde anhand eines Modells die Vorhersage erzielbarer Partikelgrößenverteilungen in Abhängigkeit physikalischer Einflussgrößen des Dispergierprozesses geprüft.
Der Kernrezeptor PXR spielt eine bedeutende Rolle im Fremdstoffmetabolismus als auch im Stoffwechsel endogener Substrate. Er reguliert die Expression zahlreicher Proteine des Fremdstoffwechsels. Deshalb hat die Aktivierung oder Hemmung des PXR einen großen Einfluss auf den Stoffwechselstatus dieser Proteine. Zum derzeitigen Stand der Forschung nimmt der PXR eine Schlüsselfunktion bei der Regulation der CYP3A-Enzyme ein. Es besteht deshalb Interesse Substanzen, die in Verdacht stehen PXR abhängig CYP3A zu induzieren, zu untersuchen. In dieser Arbeit wurden bromierte Flammschutzmittel und der Arzneimittelkandidat EMD untersucht. Aus den Vorversuchen wurde ersichtlich, dass die Rattenhepatomzelllinie H4IIE und die humane Hepatomzelllinie HepG2 geeignete in vitro Systeme zur Untersuchung der PXR-abhängigen CYP3A-Aktivierung darstellen. Untersuchungen zum Genexpressionsverhalten zahlreicher Gene des Fremdstoffmetabolismus mittels TLDA-Karten zeigten, dass die beiden Zelllinien viele dieser Gene exprimieren, die nach Inkubation mit den Prototypinduktoren Rifampicin und Dexamethason spezies-spezifisch reguliert wurden. Die beiden Zelllinien wurden schließlich mit einem Reportergenvektor, der die PXR responsiven Elemente des CYP3A4-Gens enthält, stabil transfiziert. An den stabil transfizierten HepG2-XREM3- und H4IIE-XREM3-Zellen wurden bekannte CYP-Induktoren sowie der Arzneimittelkandidat EMD und die Flammschutzmittel HBCD and der pentaBDE Mix getestet. Die Flammschutzmittel HBCD und der pentaBDE-Mix, werden in Textilwaren, Kunststoffen, Möbeln, Teppichen, Elektrogeräten und Baumaterialen eingesetzt. Falls sie tatsächlich den PXR spezies-spezifisch aktivieren sollten, könnten sie eine Gefahr für Mensch und Umwelt darstellen. Deshalb wurde in dieser Arbeit die CYP3A-mRNA-Expression, die Protein- sowie die Reportergenaktivität überprüft. Als gemeinsamer Aktivator des hPXR und rPXR stellte sich Clotrimazol, aber auch das Flammschutzmittel HBCD heraus, während pentaBDE ein besserer Ligand des hPXR ist. Omeprazol und Phenobarbital induzierten die rPXR-vermittelte CYP3A-Induktion in H4IIE-XREM3-Zellen nicht; in den humanen HepG2-XREM3-Zellen konnte jedoch eine moderate Reportergenaktivität gemessen werden. Weiteres Interesse besteht an dem Arzneimittelkandidaten EMD zur Behandlung des metabolischen Syndroms und Typ II-Diabetes. In vivo (Affen, Ratten) und in vitro (Hepatozyten) wurden bereits spezies-spezifische Effekte auf die CYP3A-Induktion durch EMD beobachtet. Deshalb wurde in dieser Arbeit der über aktivierten PXR vermittelte Mechanismus an Zelllinien überprüft. Dabei stellte sich heraus, dass EMD ein hPXR-Aktivator und CYP3A-Induktor in HepG2-Zellen, jedoch kein Aktivator von rPXR in H4IIE-Zellen ist. Um schwerwiegende Nebenwirkungen und unvorhersehbare Arzneimittelwechselwirkungen durch die Aufnahme von Fremdstoffen zu verhindern, ist es bei der Neuentwicklung von Wirkstoffen aller Art notwendig, die Stoffe auf eine mögliche Induktion der Fremdstoff-metabolisierenden Enzyme zu untersuchen. Deshalb war das Ziel dieser Arbeit die Etablierung von zell-basierten in vitro Assays zur Ermittlung der spezies-spezifischen PXR-abhängigen Induktion von CYP3A durch Chemikalien und Arzneimittelkandidaten, um mögliche Arzneimittel- und Fremdstoffwechselwirkungen und damit verbundene Sicherheitsrisiken vorhersagen zu können. Das etablierte PXR- Screeningsystem repräsentiert zwei in vitro Modelle, die erlauben spezies-spezifische Wirkungen auf die CYP3A-Induktion von Chemikalien, Umweltkontaminanten, Lebensmittelinhaltsstoffe und Arzneimittel schnell, einfach und kostengünstig abschätzen zu können. Eine frühe Erkennung der PXR-Aktivierung und CYP-Induktion von Arzneimitteln in der Entwicklung kann einen Weiterentwicklungsstopp dieser zur Folge haben. Dies hilft zusätzliche Tierversuche und Kosten einzusparen. Dem 3R-Prinzip (Reduce, Refine, Replace) vom Reduzieren der Anzahl der Tierversuche, der Verbesserung der existierenden Experimente und dem Ersetzen von Tierversuchen durch alternative Methoden (Russel & Burch, 1959) wird durch die stabil transfizierten Zelllinien in zweierlei Hinsicht Rechnung getragen: unnötige Tierversuche können vermieden reduction und die Aussagekraft von durchgeführten Tierstudien (z.B. vom Gesetzgeber geforderte Studien zur Arzneimittelentwicklung) verbessert werden (dies trägt auch zu einem refinement bei). Damit stellen die HepG2-XREM3- und H4IIE-XREM3-Zellen eine wichtige innovative Verbesserung bei der Entwicklung von Arzneistoffen sowie bei der regulatorischen Testung von Chemikalien dar.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Motivation dieser Arbeit war die Synthese und Charakterisierung von Katalysatoren zur selektiven Dimerisierung von 1-Hexen zu n-Dodecen und zu möglichst wenig verzweigten Produkten. Untersucht wurden die Zeolithe Y, L und ZSM-12 sowie die Silicoalumophosphate SAPO-5, SAPO-11, SAPO-31 und SAPO-41. Für die BrØnsted-aciden Katalysatoren ist festzuhalten: Alle hergestellten Zeolithe, das heißt H-Y, H-L und H-ZSM-12, verfügten über starke acide Zentren. Zeolith H-L erwies sich ebenfalls als sehr aktives Material. Die Selektivitäten zu den Zielprodukten waren bei vergleichbaren Umsätzen etwas höher als bei Verwendung von H-Y, was für einen schwachen formselektiven Effekt spricht. An Zeolith H-ZSM-12 wurden nur geringe Umsätze erzielt. Für die Silicoalumophosphate wurde gefunden: Alle verfügen über acide Zentren, welche jedoch etwas schwächer waren als die der BrØnsted-aciden Zeolithe. Um vergleichbare Umsätze wie an den Zeolithen zu erzielen, waren daher höhere Reaktionstemperaturen oder längere Reaktionszeiten erforderlich. H-SAPO-5 zeigte dabei eine gegenüber H-L erhöhte Selektivität zu den Zielprodukten, vermutlich aufgrund der etwas engeren Poren. H-SAPO-11, H-SAPO-31 und H-SAPO-41 zeigten trotz vorhandener und zugänglicher acider Zentren nur vernachlässigbare Umsätze. Analog zu Zeolith H-ZSM-12 wird dies auch hier auf die zu engen Poren zurückgeführt, welche die Bildung des Übergangszustandes offensichtlich nicht zulassen. Wurde Nickel in die Katalysatoren eingebracht, zeigten sich Unterschiede, die vor allem von der Präparationsmethode abhängen. Durch verschiedene Methoden gelang es, Katalysatoren herzustellen, die eine hohe Selektivität entweder zu n-Dodecen oder zu einfach verzweigten Dodecenen aufwiesen. Durch Ionenaustausch mit Nickelacetat in wässriger Lösung wurden Ni-Y, Ni-L und NiH-SAPO-5 hergestellt. Diese Materialien verfügten wahrscheinlich über Nickel auf Kationenpositionen. Sie zeigten eine gegenüber der sauren Form deutlich erhöhte Selektivität zu den Zielprodukten, der Effekt nahm in der Reihe Ni-Y < Ni-L < NiH-SAPO-5 zu. Analog zu den Resultaten an H-Y, H-L und H-SAPO-5 lässt sich dies mit einer zunehmenden Formselektivität durch das Porensystem der Katalysatoren begründen. Bei Ni-Y und NiH-SAPO-5 ließen sich mittels Temperaturprogrammierter Reduktion zwei verschiedene Nickelspezies nachweisen, die sich vermutlich durch die ihre Position in Gitter unterscheiden und dadurch eine unterschiedliche Stabilisierung gegenüber einer Reduktion erfahren. Wurde bei Ni-Y und NiH-SAPO-5 die jeweils leichter zu reduzierende Nickelspezies mit Wasserstoff reduziert, zeigten die so behandelten Katalysatoren eine stark verringerte Aktivität in der Katalyse. Dies ist in Einklang mit dem vorgeschlagenen Reaktionsmechanismus, der von Ni(I) als aktiver Spezies ausgeht (welche durch eine Autoreduktion von Ni(II) während der Aktivierung des Katalysators erzeugt werden): Wird Nickel durch den Träger sehr stark stabilisiert, ist keine Autoreduktion mehr möglich und somit die Aktivität des Katalysators sehr gering. NiH-SAPO-5 wurde mit verschiedenen Siliciumanteilen hergestellt, was das Einbringen verschiedener Mengen an Nickel durch Ionenaustausch erlaubte. Hierbei zeigte sich, dass die Selektivität zu den Zielprodukten mit dem Nickelgehalt zunimmt und durch Verwendung eines H-SAPO-5 mit xSi = 0,20 (und damit hoher Ionenaustauschkapazität) bis zu 89 % Selektivität zu C12-Isomeren erreicht werden können, wobei diese je etwa zur Hälfte aus n-Dodecen und zur Hälfte einfach verzweigte Dimeren bestanden. Sollten bevorzugt einfach verzweigte Dodecene hergestellt werden, so war es durch Festkörperreaktion des BrØnsted-aciden Trägers mit Nickelacetat möglich, einen Katalysator zu präparieren, der keine linearen Produkte lieferte und bei geeignetem Nickelgehalt eine hohe Selektivität zu einfach verzweigten Dimeren aufwies. Dieser Effekt ist nur wenig vom Porensystem des Trägers, jedoch stark von dessen Ionenaustauschkapazität abhängig. Je höher diese ist, umso höher ist auch die Selektivität des resultierenden Katalysators. Wie TPD-Messungen mit 1-Aminopentan und Ammoniak als Sondenmoleküle zeigten, besaßen die so präparierten Materialien keine sauren Zentren mehr. Aufgrund der vorliegenden Ergebnisse konnte gezeigt werden, dass es durch geeignete Wahl der Präparationsmethode und der Porengeometrie möglich ist, Katalysatoren zu erhalten, die entweder zur Herstellung von n-Dodecen oder zu überwiegend wenig verzweigten C12-Isomeren geeignet sind. Überraschenderweise, gelang es außerdem, mit dem gleichem Trägermaterial Katalysatoren herzustellen, welche kein n-Dodecen liefern, aber eine sehr hohe Selektivität zu einfach verzweigten C12-Isomeren besitzen. Vor allem anhand von NiH-SAPO-5 konnte weiterhin belegt werden, dass die Kombination aus geeigneter Porengeometrie und Nickel eine geeignete Methode zur Herstellung von Katalysatoren für die selektive Dimerisierung von 1-Hexen zu n-Dodecen ist.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
This PhD thesis aims at finding a global robot navigation strategy for rugged off-road terrain which is robust against inaccurate self-localization, scalable to large environments, but also cost-efficient, e.g. able to generate navigation paths which optimize a cost measure closely related to terrain traversability. In order to meet this goal, aspects of both metrical and topological navigation techniques are combined. A primarily topological map is extended with the previously lacking capability of cost-efficient path planning and map extension. Further innovations include a multi-dimensional cost measure for topological edges, a method to learn these costs based on live feedback from the robot and a set of extrapolation methods to predict the traversability costs for untraversed edges. The thesis presents two sophisticated new image analysis techniques to optimize cost prediction based on the shape and appearance of surrounding terrain. Experimental results indicate that the proposed global navigation system is indeed able to perform cost-efficient, large scale path planning. At the same time, the need to maintain a fine-grained, global world model which would reduce the scalability of the approach is avoided.
Adaptive Extraction and Representation of Geometric Structures from Unorganized 3D Point Sets
(2009)
The primary emphasis of this thesis concerns the extraction and representation of intrinsic properties of three-dimensional (3D) unorganized point clouds. The points establishing a point cloud as it mainly emerges from LiDaR (Light Detection and Ranging) scan devices or by reconstruction from two-dimensional (2D) image series represent discrete samples of real world objects. Depending on the type of scenery the data is generated from the resulting point cloud may exhibit a variety of different structures. Especially, in the case of environmental LiDaR scans the complexity of the corresponding point clouds is relatively high. Hence, finding new techniques allowing the efficient extraction and representation of the underlying structural entities becomes an important research issue of recent interest. This thesis introduces new methods regarding the extraction and visualization of structural features like surfaces and curves (e.g. ridge-lines, creases) from 3D (environmental) point clouds. One main part concerns the extraction of curve-like features from environmental point data sets. It provides a new method supporting a stable feature extraction by incorporating a probability-based point classification scheme that characterizes individual points regarding their affiliation to surface-, curve- and volume-like structures. Another part is concerned with the surface reconstruction from (environmental) point clouds exhibiting objects that are more or less complex. A new method providing multi-resolutional surface representations from regular point clouds is discussed. Following the applied principles of this approach a volumetric surface reconstruction method based on the proposed classification scheme is introduced. It allows the reconstruction of surfaces from highly unstructured and noisy point data sets. Furthermore, contributions in the field of reconstructing 3D point clouds from 2D image series are provided. In addition, a discussion concerning the most important properties of (environmental) point clouds with respect to feature extraction is presented.
Microfibrillar reinforced composites (MFC) have attracted considerable academic and practical interests after the concept was introduced more than a decade years ago. This new type of composites will be created by blending of two polymers with different melting temperatures and processing the blend under certain thermo-mechanical conditions to generate in-situ formed microfibrils of the higher melting polymer grade of temperature in the blend. The compression molded microfibrillar composites were reported to possess excellent mechanical properties and thus they are promising materials for different applications. In the present work, a typical immiscible polymer blend PET/PP was selected for the preparation of PET/PP, PET/PP/TiO2 microfibrillar reinforced composites. The objective of this study is to analyse the processing-structure-property relationship in the PET/PP based MFCs. The morphology of the PET microfibrils and the dispersion of the TiO2 nanoparticles were characterized by scanning electron microscopy (SEM) and transmission electron microscopy (TEM), and discussed. The crystallization behaviour of PET and PP was studied by means of differential scanning calorimetry (DSC). The thermomechanical and mechanical properties of the composites were determined by dynamic mechanical thermal analysis (DMTA) and uniaxial tensile tests and the related results discussed as a function of the composition of the corresponding system. During stretching of the PET/PP extrudate, the PET dispersed phase was deformed into microfibrils. These microfibrils were still well persevered after compression molding of the drawn strands. Therefore the PET microfibrils acted as the reinforcement for the PP matrix. Compared with neat PP, the tensile properties of the PET/PP MFC were greatly improved. For the PET/PP/TiO2 MFC, the effects of polypropylene grafted maleic anhydride (PP-g-MA, introduced as compatibilizer) and TiO2 particles on the structure and properties of drawn strands and composites were investigated. Upon the addition of PP-g-MA, the preferential location of TiO2 particles changed: they migrated from the PET dispersed phase to the continuous PP matrix phase. This was accompanied with structural changes of the drawn strands. The microfibril formation mechanism was also investigated. After injection molding of the microfibrillar composites, the preferential location of TiO2 particles was still preserved. DMTA analysis of drawn strands, the tensile and impact tests of the composites demonstrated that the mechanical properties of the drawn strands of the microfibrillar composites were strongly dependent on the respective structures of the tested materials. To further investigate the preferential location of TiO2 particles in the PET/PP blend which were discovered during the preparation of PET/PP/TiO2 MFCs, PET/PP/TiO2 ternary nanocomposites were prepared according to four blending procedures. The preferential location of TiO2 nanoparticles was influenced by the blending sequence and the amount of PP-g-MA incorporated. Furthermore, it was discovered that TiO2 nanoparticles exerted a compatibilizing effect on the morphology of the composites. Three different compatibilization mechanisms of nanoparticles were proposed depending on the location of the nanoparticles.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Knowledge discovery from large and complex collections of today’s scientific datasets is a challenging task. With the ability to measure and simulate more processes at increasingly finer spatial and temporal scales, the increasing number of data dimensions and data objects is presenting tremendous challenges for data analysis and effective data exploration methods and tools. Researchers are overwhelmed with data and standard tools are often insufficient to enable effective data analysis and knowledge discovery. The main objective of this thesis is to provide important new capabilities to accelerate scientific knowledge discovery form large, complex, and multivariate scientific data. The research covered in this thesis addresses these scientific challenges using a combination of scientific visualization, information visualization, automated data analysis, and other enabling technologies, such as efficient data management. The effectiveness of the proposed analysis methods is demonstrated via applications in two distinct scientific research fields, namely developmental biology and high-energy physics. Advances in microscopy, image analysis, and embryo registration enable for the first time measurement of gene expression at cellular resolution for entire organisms. Analysis of highdimensional spatial gene expression datasets is a challenging task. By integrating data clustering and visualization, analysis of complex, time-varying, spatial gene expression patterns and their formation becomes possible. The analysis framework MATLAB and the visualization have been integrated, making advanced analysis tools accessible to biologist and enabling bioinformatic researchers to directly integrate their analysis with the visualization. Laser wakefield particle accelerators (LWFAs) promise to be a new compact source of highenergy particles and radiation, with wide applications ranging from medicine to physics. To gain insight into the complex physical processes of particle acceleration, physicists model LWFAs computationally. The datasets produced by LWFA simulations are (i) extremely large, (ii) of varying spatial and temporal resolution, (iii) heterogeneous, and (iv) high-dimensional, making analysis and knowledge discovery from complex LWFA simulation data a challenging task. To address these challenges this thesis describes the integration of the visualization system VisIt and the state-of-the-art index/query system FastBit, enabling interactive visual exploration of extremely large three-dimensional particle datasets. Researchers are especially interested in beams of high-energy particles formed during the course of a simulation. This thesis describes novel methods for automatic detection and analysis of particle beams enabling a more accurate and efficient data analysis process. By integrating these automated analysis methods with visualization, this research enables more accurate, efficient, and effective analysis of LWFA simulation data than previously possible.
This thesis deals with 3 important aspects of optimal investment in real-world financial markets: taxes, crashes, and illiquidity. An introductory chapter reviews the portfolio problem in its historical context and motivates the theme of this work: We extend the standard modelling framework to include specific real-world features and evaluate their significance. In the first chapter, we analyze the optimal portfolio problem with capital gains taxes, assuming that taxes are deferred until the end of the investment horizon. The problem is solved with the help of a modification of the classical martingale method. The second chapter is concerned with optimal asset allocation under the threat of a financial market crash. The investor takes a worst-case attitude towards the crash, so her investment objective is to be best off in the most adverse crash scenario. We first survey the existing literature on the worst-case approach to optimal investment and then present in detail the novel martingale approach to worst-case portfolio optimization. The first part of this chapter is based on joint work with Ralf Korn. In the last chapter, we investigate optimal portfolio decisions in the presence of illiquidity. Illiquidity is understood as a period in which it is impossible to trade on financial markets. We use dynamic programming techniques in combination with abstract convergence results to solve the corresponding optimal investment problem. This chapter is based on joint work with Holger Kraft and Peter Diesinger.
This study deals with the optimal control problems of the glass tube drawing processes where the aim is to control the cross-sectional area (circular) of the tube by using the adjoint variable approach. The process of tube drawing is modeled by four coupled nonlinear partial differential equations. These equations are derived by the axisymmetric Stokes equations and the energy equation by using the approach based on asymptotic expansions with inverse aspect ratio as small parameter. Existence and uniqueness of the solutions of stationary isothermal model is also proved. By defining the cost functional, we formulated the optimal control problem. Then Lagrange functional associated with minimization problem is introduced and the first and the second order optimality conditions are derived. We also proved the existence and uniqueness of the solutions of the stationary isothermal model. We implemented the optimization algorithms based on the steepest descent, nonlinear conjugate gradient, BFGS, and Newton approaches. In the Newton method, CG iterations are introduced to solve the Newton equation. Numerical results are obtained for two different cases. In the first case, the cross-sectional area for the entire time domain is controlled and in the second case, the area at the final time is controlled. We also compared the performance of the optimization algorithms in terms of the solution iterations, functional evaluations and the computation time.
Product development with end-user integration is not an end in itself but a logical necessity due to divergent types of knowledge of the user and the developer of a product. While the user is an expert in regard to the product’s usage the developer is an expert in the product’s construction and functioning. For the development of high-end products both types of expertises were a prerequisite at all times. The efficient and throughout integration of the user’s perspective into existing product development approaches is the core of user-centred product development. Activities that are the basic ingredient of just any user-centred development approach can be roughly categorized into analysis, design and evaluation activities. Research and practice prove the early integration of real end-users within those activities to add significant and sustainable value to product innovation. The instrumental, methodological and procedural impact of globalization tendencies, on modern user-centred product development in particular, is the primary research focus of the field of cross-cultural user-centred product development. This research aims at the further advancement of the methodological foundations of cross-cultural user centred product development approaches based on a stabile and profound theoretical basis. Primary research objects are established user-analysis methodologies, which are mainly based on Western concepts and theories, and their applicability in disparate cultural contexts of the Far East (China and Korea in particular). For facilitating the adaptation of abstract method characteristics to the situational context of method application as foundation of cross-cultural methodological advancement, a model of method localization was developed. In alignment with internationalization and localization activities within product development processes, a framework for localizing user-centred methodologies was developed. Equivalent to internationalization activities of real product development, the abstraction of method traits from specific methodologies is a necessity in a first step. Methodological adaptation with the primary objective of optimizing situational application of a methodology is to be done in a second step – the step of method-localization. This model of method localization and its underlying theories and principles were tested within an extensive empirical study in Germany, China and Korea. Within this study the applicability of six distinct user-centred product development methodologies, each with its very own profile of abstract method traits, was tested with 248 participants in total. Results clearly back the basic hypothesis of method-localization, i.e. that the application of a user-centred methodology rises and falls with the alignment of its characteristic traits with the cross-cultural application context. Beyond, applicability-influencing factors identified within this study could be proven to be valid indicators of adaptation-necessities and –potentials of user-centred product development methodologies.
This dissertation deals with two main subjects. Both are strongly related to boundary problems for the Poisson equation and the Laplace equation, respectively. The oblique boundary problem of potential theory as well as the limit formulae and jump relations of potential theory are investigated. We divide this abstract into two parts and start with the oblique boundary problem. Here we prove existence and uniqueness results for solutions to the outer oblique boundary problem for the Poisson equation under very weak assumptions on boundary, coefficients and inhomogeneities. Main tools are the Kelvin transformation and the solution operator for the regular inner problem, provided in my diploma thesis. Moreover we prove regularization results for the weak solutions of both, the inner and the outer problem. We investigate the non-admissible direction for the oblique vector field, state results with stochastic inhomogeneities and provide a Ritz-Galerkin approximation. Finally we show that the results are applicable to problems from Geomathematics. Now we come to the limit formulae. There we combine the modern theory of Sobolev spaces with the classical theory of limit formulae and jump relations of potential theory. The convergence in Lebesgue spaces for integrable functions is already treated in literature. The achievement of this dissertation is this convergence for the weak derivatives of higher orders. Also the layer functions are elements of Sobolev spaces and the surface is a two dimensional suitable smooth submanifold in the three dimensional space. We are considering the potential of the single layer, the potential of the double layer and their first order normal derivatives. Main tool in the proof in Sobolev norm is the uniform convergence of the tangential derivatives, which is proved with help of some results taken from literature. Additionally, we need a result about the limit formulae in the Lebesgue spaces, which is also taken from literature, and a reduction result for normal derivatives of harmonic functions. Moreover we prove the convergence in the Hölder spaces. Finally we give an application of the limit formulae and jump relations. We generalize a known density of several function systems from Geomathematics in the Lebesgue spaces of square integrable measureable functions, to density in Sobolev spaces, based on the results proved before. Therefore we have prove the limit formula of the single layer potential in dual spaces of Soboelv spaces, where also the layer function is an element of such a distribution space.
Im Rahmen dieser Arbeit konnte gezeigt werden, dass Cobalt(II)-Komplexe mit Akzeptor-substituierten β-Diketonat-abgeleiteten Liganden geeignete Reagenzien sind, um molekularen Sauerstoff effektiv zu aktivieren und zur stereoselektiven Synthese β-hydroxylierter Tetrahydrofurane aus 1-substituierter Bishomoallylalkoholen zu verwenden. Die Reaktionen verliefen hoch diastereoselektiv (cis:trans < 1:99) und lieferten 2,5-trans-konfigurierte 2-Hydroxymethyltetrahydrofurane. Reaktivität und Selektivität waren abhängig von Solvens, Temperatur, Katalysatormenge und -konzentration, O2-Druck sowie Substitutionsgrad an den reaktiven Teilstrukturen, d. h. der olefinischen Doppelbindung und der Hydroxylgruppe. Es konnten Beiträge präparativer und mechanistischer Art geleistet werden, die einerseits zu einem vertieften Verständnis der Gesamtreaktion und andererseits zu einer weiteren Anwendung der Cobalt(II)-katalysierten Oxidation von Alkenolen führten. In präparativer Hinsicht wurde zunächst eine verbesserte Methodik entwickelt, um Alkenoloxygenierungen in einer stationären O2-Atmosphäre ohne Substrat- und Produktverlust durchzuführen. Zur Optimierung der Reaktionsbedingungen bezüglich der oben genannten Parameter wurde die aerobe Oxidation von 2,2-Dimethyl-6-hepten-3-ol im Detail untersucht. Hierbei wurden unter Verwendung der Kombination aus Lösungsmittel iPrOH, 60 °C, c0 (CoIIKat.) = 1.25 ´ 10–2 M und 1 bar O2-Druck die höchsten Ausbeuten an Zielmolekül [5-(tert-Butyl)tetrahydrofur-2-yl]methanol (63–64 %) erzielt. Präparativ interessante Ausbeuten (53–66 %) an β-hydroxylierten Tetrahydrofuranen konnten ebenfalls für die Oxidation von 4-Phenylpent-4-en-1-ol sowie von (E)- und (Z)-konfigurierten Methyl- und Phenyl-substituierten Bishomoallylalkoholen unter Anwendung der optimierten Bedingungen erzielt werden. Die erhaltene 2,5-trans-Selektivität und die Diastereoselektivität in der Seitenkette waren hierbei unabhängig – die Reaktivität und Produktselektivität dagegen abhängig – von den Substituenten und der ursprünglichen Konfiguration der π-Bindung. Im Zusammenhang mit mechanistischen Fragenstellungen gelang zum ersten Mal eine nahezu vollständige Massenbilanzierung bei aeroben Oxidationen 1-substituierter Bishomoallylalkohole. Hierbei wurden Verbindungen, deren Bildung auf reduktive Cyclisierungen, C,C-π-Bindungsspaltungen, Dehydrierungen sowie Alken-Hydratisierungen und -Reduktionen zurückgeführt wird, als Nebenprodukte identifiziert und quantifiziert. Zudem konnte eine Umkehr der Produktselektivität zugunsten der Bildung von 2-Methyl-, 2-Ethyl- und 2-Benzyl-substituierten 2,5-trans-Tetrahydrofuranen nach Durchführung der Reaktion in einem Gemisch aus Cyclohexa-1,4-dien und Benzol [50:50 (v/v)] erreicht werden. Darüber hinaus gelang eine Quantifizierung von Wasser und Aceton, den Redoxkoppelprodukten aerober Alkenoloxidationen in Isopropanol. Dabei korrelierten die ermittelten Acetonmengen mit der Bildung der 2-Hydroxymethyltetrahydrofurane und die des Wassers mit dem Reaktionsumsatz. Basierend auf den erhaltenen Daten und unter Berücksichtigung vorliegender Informationen über ähnliche Umsetzungen aus der Literatur wurde ein mechanistischer Vorschlag für den Reaktionsverlauf Cobalt(II)-katalysierter Oxidationen von Bishomoallylalkoholen entworfen, welcher die Bevorzugung des 5-exo-Ringschlusses und die beobachteten Selektivitäten erklärt. Hierbei wurde das Auftreten eines Tetrahydrofurylalkylradikals als zentrale Zwischenstufe postuliert, welches durch Heteroatomdonoren oder durch Alkene zu 1/1-Addukten abgefangen werden könnten. Aufgrund der hohen Stereoselektivität des vorangegangenen Ringschlusses würde eine Anwendung der Methode insbesondere in der Naturstoffsynthese ganz neue Perspektiven eröffnen.
Der Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Umweltprüfung von Bebauungsplänen
(2009)
Die im Jahr 2001 erlassene europäische SUP-Richtlinie schreibt vor, dass die Umweltauswirkungen bestimmter Pläne und Programme frühzeitig und umfassend ermittelt, beschrieben und bewertet sowie bei der Aufstellung oder Änderung der betreffenden Pläne und Programme berücksichtigt werden müssen. Seit der Implementierung der Vorschriften der SUP-Richtlinie in nationales Recht ist die so genannte Strategische Umweltprüfung auch für bestimmte Pläne und Programme des deutschen Planungssystems verpflichtend durchzuführen. Der Verfahrensschritt der Öffentlichkeitsbeteiligung und die Berücksichtigung der Ergebnisse der Öffentlichkeitsbeteiligung bei der Entscheidungsfindung sind unverzichtbare Bestandteile der Strategischen Umweltprüfung. Nach Erwägungsgrund 15 der SUP-Richtlinie soll durch die Öffentlichkeitsbeteiligung zu einer transparenteren Entscheidungsfindung beigetragen und die Vollständigkeit und Zuverlässigkeit der für die Prüfung bereitgestellten Informationen gewährleistet werden. Danach hat die Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung eine Kontroll- und Informationsfunktion. Bisher gibt es kaum wissenschaftlich fundierte Erkenntnisse darüber, ob die Öffentlichkeitsbeteiligung diese Funktionen erfüllt oder inwieweit sie sich auf die Strategische Umweltprüfung auswirkt. Dieses Wissensdefizit wurde zum Anlass genommen, im Rahmen dieser Arbeit den Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Strategischen Umweltprüfung zu ermitteln. Anhand der beispielhaften Auswertung von 41 Bebauungsplanverfahren 6 verschiedener Kommunen wurde untersucht, ob durch die Öffentlichkeit neue, abwägungsrelevante Umweltinformationen eingebracht werden und diese zu Modifikationen von Untersuchungsrahmen, Umweltbericht und Plan führen. Überdies wurden Einflussfaktoren ermittelt, die sich auf die Öffentlichkeitsbeteiligung und deren Beitrag zur Berücksichtigung von Umweltschutzbelangen im Planungs- und Entscheidungsprozess auswirken können. Die Untersuchung hat gezeigt, dass die Öffentlichkeit sich im Rahmen der untersuchten Bebauungsplanverfahren beteiligt und Stellungnahmen abgegeben hat. Von allen aus der Öffentlichkeit eingebrachten Einwendungen hatten durchschnittlich 37 Prozent Umweltschutzbelange zum Inhalt. Diese können als Einwendungen zur Umweltprüfung betrachtet werden, da diese der Ermittlung des umweltrelevanten Abwägungsmaterials dient. Wichtigstes Ergebnis der Untersuchung ist somit, dass die Informationsfunktion der Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung erfüllt wurde. Privatpersonen wollten v.a. ihre persönlichen Interessen in der Planung vertreten sehen. Von ihnen wurden in erster Linie Umwelteinwendungen zu den Themen Lärm und Verkehr sowie zu Pflanzen eingebracht. Umweltakteure haben sich mit ihren Umwelteinwendungen in erster Linie für Pflanzen eingesetzt. Weiterhin wurden die Naturgüter Wasser und Luft vermehrt angesprochen. Daneben bildeten Einwendungen zu aktuellen umweltpolitischen Themen einen Schwerpunkt der Umwelteinwendungen von Umweltakteuren. Dazu zählten Einwendungen zum Klima, zu erneuerbaren Energien und zur Flächeninanspruchnahme. Auch wichtig war den Umweltakteuren die Eingriffsregelung. Abweichend von den Erwartungen wurden dagegen kaum Einwendungen zu Tieren gemacht. Die Einwendungen der Öffentlichkeit führten zu Modifikationen von Untersuchungsrahmen, Umweltberichten und Plänen. Es wurden insgesamt 15 Prozent der untersuchten Umweltberichte und 44 Prozent der Pläne modifiziert. Neue Informationen, die zu Veränderungen von Untersuchungsrahmen und Umweltberichten geführt haben, wurden in erster Linie von Umweltakteuren eingebracht. Der Großteil der Modifikationen von Plänen ist dagegen auf Umwelteinwendungen von Privatpersonen zurückzuführen. Auch der Anteil der Umwelteinwendungen, der zu Modifikationen von Untersuchungsrahmen und Umweltbericht führte, war bei Umweltakteuren größer als bei Privatpersonen. Der Anteil der Umwelteinwendungen, der zu Modifikationen des Plans führte, war dagegen bei Umweltakteuren und Privatpersonen annährend gleich. Beim Großteil der untersuchten Verfahren waren zur frühzeitigen Beteiligung die Resonanz der Öffentlichkeit und deren Einfluss auf den Plan und die Umweltprüfung größer als zur regulären Beteiligung. Hieraus kann geschlussfolgert werden, dass der Zeitpunkt der Beteiligung ein wichtiger Einflussfaktor ist, der sich auf die Öffentlichkeitsbeteiligung auswirkt.
Der Entkopplermechanismus von UCP-2 sollte weitergehend untersucht sowie eine Methode zur Messung des Einfluss von UCP-2 auf die ROS-Homöostase gefunden werden. Durch Kompetitionsmessungen mit spinmarkierten Fettsäuren an rekonstituiertem UCP-2 sollte das Flip Flop Modell als Entkopplungsmechanismus weiter unterstützt und Bindungskonstanten abgeschätzt werden. Dies sollte in Titrationsmessungen mit kompetitierenden Fettsäuren und Purinnucleotiden gezeigt und mit Messungen in Gegenwart eines Kontrollproteins ohne Fettsäurebindungsstelle verglichen werden. Es konnte allerdings kein substöchiometrischer Verdrängungseffekt mit den Fettsäuren oder ATP gezeigt werden. Deswegen wurde der Einfluss des Detergens sowie der Ionenstärke auf das ESR-Signal untersucht und das Vorhandensein hochimmobilisierter spektraler Komponenten, typisch für die Einlagerung in eine Bindungsstelle, auch in Abwesenheit von UCP-2 gefunden. Um einen potenziellen Einfluss von UCP-2 auf die Homöostase von ROS zeigen zu können, sollte ein ESR-basierter Assay etabliert werden. Dazu wurden Spin Trapping Experimente mit ex vivo Detektion (Extraktion der generierten ROS in Ethylacetat) und in situ Detektion (direktes Messen bei der Entstehung) mit biologischen Proben (Mitochondrien, Mitoplasten und Zellen aus Zellkulturen) durchgeführt. Der in situ Assay schien geeigneter, allerdings waren die Radikalkonzentrationen nahe der Nachweisgrenze. Um dennoch eine zeitaufgelöste Auswertung der Daten zu ermöglichen und das Signal-Rauschen-Verhältnis zu verbessern, wurde zur Datenanalyse das Rauschen mit einer auf Singulärwertzerlegung basierten Methode gefiltert und zum Teil die zeitlichen Spuren der verschiedenen Radikaladdukte bestimmt. Eine weitere Methode zum Nachweis von UCP-2 auf die ROS-Homöostase ist die Verwendung fluoreszierender Double Spin Traps. Hier erlischt die zuächst vorhandene Fluoreszenz durch ROS-Einwirkung. Die Double Trap p-Nitrostilbentert.butylnitron sollte durch veränderte Substitution so modifiziert werden, dass sich die spektroskopischen Eigenschaften verbessern. Beide Spin Traps wurden hinsichtlich optischer und ESR-spektroskopischer Eigenschaften sowie dem Verhalten in der Zelle verglichen. Da die Einführung eines Coumarinrestes als Fluorophor nicht zur erhofften Rotverschiebung der Anregungswellenlänge führt, aber die Cytotoxizität ausgeprägter ist, ist NSN geeigneter, zumal dessen Fluoreszenz deckungsgleich mit dem mitochondrialem Marker TMRE ist. Das spricht für Akkumulation an diesem wichtigen Entstehungsort von ROS. In Gegenwart von ROS zeigen beide Spin Traps ein ESR-Signal und auch das Löschen der Fluoreszenz aufgrund des nahe gelegenen stabilen Radikals. Bei NSN war der Effekt ausgeprägter: Die Halbwertszeiten des Fluoreszenzrückgangs wurden zu typischerweise 25 s in Anwesenheit von ROS-induzierenden Atmungsketteninhibitoren und 180 s in deren Abwesenheit bestimmt. Zusammenfassend kann mit den vorgestellten Spin Trapping Methoden der Einfluss von UCP-2 auf die ROS-Homöostase direkt gemessen werden, indem Zellen mit deletierter Expression von UCP-2 mit adäquaten Wildtypzellen verglichen werden. Mit NSN lässt sich ROS mittels Fluoreszenzmikroskopie mit subzellulärer Auflösung in Mitochondrien detektieren.
Das zelluläre Uhrwerk der circadianen Rhythmik enthält eine autoregulatorische negative Feedbackschleife. Dabei induzieren am Beginn des circadianen Rhythmus die heterodimeren Komplexe aus CLOCK- und BMAL1-Proteinen die Transkription ihrer Zielgene, darunter auch die der Period- (PER) und Cryptochrom- (CRY)-Gene. Am Ende des circadianen Rhythmus inhibieren die CRY- und PER-Proteine die CLOCK/BMAL1-gesteuerte Transkription. Die durch Sauerstoffmangel gesteuerte Regulation der Transkription wird durch die Hypoxie-induzierbaren Faktoren (HIF) reguliert, von denen HIF-1α eine besondere Rolle bei vielen physiologischen und pathophysiologischen Vorgängen spielt. Im Schlaf, d.h. in der circadianen Nachtphase ändert sich die funktionelle Organisation der Atmung grundlegend und es kommt zu einer leichten Reduktion des Sauerstoffpartialdruckes und das Auftreten hypoxischer Perioden wird begünstigt, was auf einen Zusammenhang zwischen circadianer Rhythmik und Hypoxie-gesteuerter Transkription hindeutet. Daher wurde in der vorliegenden Studie untersucht, welchen Einfluss die circadianen Proteine CRY1 und PER1 auf HIF-1α und die HIF-1 regulierte Transkription haben. Es konnte die Interaktion zwischen den circadianen Proteinen CRY1 und PER1 mit HIF-1α erstmalig in lebenden Zellen nachgewiesen werden. Die HIF-1α-Proteinregion in der sich die basic-Helix-Loop-Helix-(bHLH)-Domäne befindet und die C-terminale tail-Region des CRY1-Proteins konnten als verantwortliche Proteindomänen für die Interaktion zwischen CRY1 und HIF-1α identifiziert werden. Die Interaktion von HIF-1α mit PER1 erfolgte ebenso über die bHLH Domäne des HIF-1α-Proteins. Die CRY1-HIF-1α-Interaktion beeinflusste die transkriptionelle Aktivität von HIF-1α negativ und verringerte die Expression von HIF-1-Targetgenen, wie dem Plasminogen-Aktivator-Inhibitor-1 (PAI-1). Darüberhinaus konnte mit CRY- und PER-defizienten Zellen gezeigt werden, dass CRY1 und PER1 unabhängig von der Interaktion mit HIF-1α auch eine Repression der HIF-1α-mRNA-Expression und der HIF-1α-Promotoraktivität verursachen. Diese Daten zeigen, dass die Regulation der Transkription durch Hypoxie durch die negativen Regulatoren der circadianen Rhythmik beeinflusst werden kann. Diese Befunde könnten somit zum besseren Verständnis bestimmter Krankheiten, wie der Tumorigenese oder dem Schlaf-Apnoe-Syndrom beitragen. Da HIF-1α ein wichtiger Faktor in der Tumorigenese ist, der durch Veränderungen im Redoxzustand der Zellen beeinflusst wird und dabei möglicherweise mitochondriale ROS, die einem circadianen Rhythmus unterliegen, eine wichtige Rolle spielen, wurde untersucht, inwiefern eine Erhöhung der mitochondrialen ROS-Spiegel durch Defizienz der MnSOD tumorprogressiv ist. Die MnSOD wird als eines der wichtigsten intrazellulären antioxidativen Enzyme angesehen und soll eine Rolle als Tumorsuppressor spielen. Mittels Microarraytechnologie wurde die differentielle Genexpression in den Lebern der Hepatozyten-spezifischen MnSOD-defizienten Mäuse untersucht. Es konnte die Repression von vielen Genen gefunden werden, deren Produkte eine wichtige Rolle in der Abwehr gegen oxidativen Stress, der Krebsabwehr und der Hemmung der Apoptose spielen. Auf der anderen Seite konnte die Überexpression vieler Indikatoren für oxidativen Stress festgestellt werden. Desweiteren konnte die Induktion von nur zwei Genen, die eine Rolle in der Abwehr gegen den oxidativen Stress spielen gemessen werden, so dass insgesamt nur ein geringer kompensatorischer Effekt auf die MnSOD-Defizienz erreicht wird. Ein Vergleich der differentiell exprimierten Gene in der Hepatozyten-spezifischen MnSOD-defizienten Maus mit differentiell exprimierten Genen aus unter Hypoxie inkubierten bzw. HIF-1α-dominant-aktiven arteriellen Endothelzellen brachte keine Überschneidungen und zeigt, dass die höheren ROS-Level in den MnSOD-defizienten Hepatozyten die Hypoxie nicht imitieren bzw. nicht zu einer Expression von HIF-1-Targetgenen führen. Die MnSOD-defizienten Lebern waren auch anfälliger für die Entwicklung von hepatozellulären präneoplastischen Läsionen nach Induktion durch eine Einzeldosis Diethylnitrosamin (DEN). Die Anzahl der präneoplastischen Herde und die Bildung von Adenomen war im Vergleich zu den Wildtyptieren bei den Hepatozyten-spezifischen MnSOD-defizienten Tieren signifikant erhöht. Diese Daten zeigten, dass die Entstehung von präneoplastischen Läsionen und Tumoren unter Einwirkung von karzinogenen Substanzen bei den Hepatozyten-spezifischen MnSOD(-/-)-Mäusen mit einer stark erhöhten Rate im Vergleich zu den Wildtyptieren auftritt. Damit konnte die Rolle der MnSOD als Tumorsuppressor zumindest für die Leber bestätigt bzw. direkt aufgezeigt werden.
The enamide moiety is an important substructure often encountered in biologically active compounds and synthetic drugs. Furthermore, enamides and their derivatives are versatile synthetic intermediates for polymerization, [4+2] cycloaddition, crosscoupling, Heck-olefinination, Halogenation, enantioselective addition or asymmetric hydrogenation. Traditional syntheses of this important substrate class involve rather harsh reaction conditions such as high temperatures and/or the use of strong bases. In continuation of our work on the addition of secondary amides to alkynes, we have developed a broadly applicable protocol for the catalytic addition of N-nucleophiles such as primary amides, imides and thioamides to terminal alkynes. The choice of ligands and additives determines the regiochemical outcome so that with two complementary catalyst systems, both the E-anti-Markovnikov products and the Z-anti-Markovnikov products can be synthesized highly regio- and stereoselectively.
It was recently reported that imatinib causes cell death in neonatal rat ventricular cardiomyocytes (NRVCM) by triggering endoplasmic reticulum (ER) stress and collapsed mitochondrial membrane potential. Retroviral gene transfer of an imatinib-resistant mutant c-Abl into NRVCM appeared to alleviate imatinib-induced cell death and it was concluded that the observed imatinib-induced cytotoxicity is mediated through direct interactions of imatinib with c-Abl. The imatinib effects were described as being specific for cardiomyocytes only, which are relevant also for the in vivo situation in man. [Kerkelä et al. 2006] The goal of the present study was to reproduce the published experiments and to further explore the dose-response relationship of imatinib-induced cell death in cardiomyocytes. Additional markers of toxicity were investigated. The following biochemical assays were applied: LDH release (membrane leakage marker), MTS-reduction (marker of mitochondrial integrity), ATP cellular contents (energy homoeostasis) and caspase 3/7 activity (apoptosis). The endoplasmatic reticulum (ER) stress markers eIF2α (elongation initiation factor 2α), XBP1 (X Box binding Protein 1), and CHOP (cAMP response element-binding transcription factor (C/EBP) homologous protein) were determined at the transcriptional and protein level. Online monitoring of cell attachment of, oxygen consumption and acidification of the medium by rat heart cells (H9c2) seated on chips (Bionas) allowed the determination of the onset and reversibility of cellular functions. Image analysis measured the spontaneous beating rates after imatinib treatment. The role of imatinib-induced reactive oxygen species was evaluated directly by 2’,7’-Dichlorofluorescein fluorescence and indirectly by means of interference experiments with antioxidants. The specificity of imatinib-induced effects were specific to cardiomyocytes was evaluated in fibroblasts derived from rat heart, lung and skin. The specific role of c-Abl in the imatinib-induced cellular toxicity was investigated by specific gene silencing of c-Abl in NRVCM. The results demonstrated that imatinib caused concentration-dependent cytotoxicity, apoptosis, and ER stress in heart, skin and lung fibroblasts, similar or stronger to those observed in cardiomyocytes. Similar to the results from cardiomyocytes, ER stress markers in fibroblasts were only increased at cytotoxic concentrations of imatinib. This effect was not reversible; also, reactive oxygen species did not participate in the mechanism of the imatinib-induced cytotoxicity in NRVCM. Small interfering RNA (siRNA)-mediated reduction of c-Abl mRNA levels by 51 % and c-Abl protein levels by 70 % had neither an effect on the spontaneous beating frequency of cardiomyocytes nor did it induce cytotoxicity, apoptosis, mitochondrial dysfunction or ER stress in NRVCM. Incubation of imatinib with c-Abl siRNA-transfected NRVCM suggested that reduced c-Abl protein levels did not rescue cardiomyocytes from imatinib-induced cytotoxicity. In conclusion, results from this study do not support a specific c-Abl-mediated mechanism of cytotoxicity in NRVCM.
This thesis is devoted to two main topics (accordingly, there are two chapters): In the first chapter, we establish a tropical intersection theory with analogue notions and tools as its algebro-geometric counterpart. This includes tropical cycles, rational functions, intersection products of Cartier divisors and cycles, morphisms, their functors and the projection formula, rational equivalence. The most important features of this theory are the following: - It unifies and simplifies many of the existing results of tropical enumerative geometry, which often contained involved ad-hoc computations. - It is indispensable to formulate and solve further tropical enumerative problems. - It shows deep relations to the intersection theory of toric varieties and connected fields. - The relationship between tropical and classical Gromov-Witten invariants found by Mikhalkin is made plausible from inside tropical geometry. - It is interesting on its own as a subfield of convex geometry. In the second chapter, we study tropical gravitational descendants (i.e. Gromov-Witten invariants with incidence and "Psi-class" factors) and show that many concepts of the classical Gromov-Witten theory such as the famous WDVV equations can be carried over to the tropical world. We use this to extend Mikhalkin's results to a certain class of gravitational descendants, i.e. we show that many of the classical gravitational descendants of P^2 and P^1 x P^1 can be computed by counting tropical curves satisfying certain incidence conditions and with prescribed valences of their vertices. Moreover, the presented theory is not restricted to plane curves and therefore provides an important tool to derive similar results in higher dimensions. A more detailed chapter synopsis can be found at the beginning of each individual chapter.
Doppelbindungen verminderter Konjugation auftreten, ähnlich der 9,10-Doppelbindung in Phenanthren. Die Eignung von Dbf-1 als η5-Metallocenligand konnte durch die Darstellung einer Reihe von Übergangsmetallkomplexen gezeigt werden: Neben dem symmetrischen Ferrocen Dbf2Fe, dessen analoge Fluorenylverbindung nicht bekannt ist, konnten auch die unsymmetrisch substituierten Ferrocene (η5-Dbf)Fe(η5-4Cp) (4Cp: 1,2,3,4- Tetraisopropylcyclopentadienyl) und (η5-Dbf)Fe(η5-Cp’’’) (Cp’’’: 1,2,4-Tri-tert-butylcyclopentadienyl) erhalten werden. Weiterhin wurden Metallocen- und Arenkomplexe mit Gruppe VI-Metallen ((η3-Allyl)(η5-Dbf)M(CO)2, M = Mo, W und (η6-DbfH)Cr(CO)3 isoliert, sowie Metallocene der Metalle Mangan ((η5-Dbf)Mn(CO)3), Cobalt ([(η5-Dbf)Co(η5-Cp*)]PF6, Cp*: 1,2,3,4,5-Pentamethylcyclopentadienyl), Ruthenium ((η5-Dbf)Ru(PPh3)2Cl, [(η5-Dbf)Ru(PPh3)2(NCMe)]SbF6) und Titan (η5-Dbf)(η1-Dbf)Ti(OiPr)2. Für die lokalisierten Doppelbindungen in 3,4- und 3’,4’-Position wird – wie im Fall des Phenanthren – partielle olefinische Reaktivität erwartet. Dies konnte durch die selektive Anwendung olefintypischer Reaktionen an diesen Positionen bestätigt werden. Reaktion von Dbf-Ferrocenen mit molekularem Wasserstoff in Gegenwart von Pd/C erlaubt selektive Hydrierung der Komplexe an Position 3,4 und 3’,4’ und liefert die entsprechenden 3,3’,4,4’-Tetrahydrodibenzo[c,g]fluorenylkomplexe (H4-Dbf)2Fe und (H4-Dbf)Fe(4Cp). Die Umsetzung mit ZnEt2 und ClCH2I erlaubt die selektive Cyclopropanierung der Ferrocens (Dbf)Fe(Cp’’’).
In dieser Arbeit wurden für die Moleküle B3, B3- und C3+ mit dem MR-CI-Verfahren hochgenaue Potentialfächen für ein oder mehrere elektronische Zustände berechnet. Alle drei Moleküle besitzen elektronisch entartete Jahn-Teller-Zustände. Im Gegesatz zu den früher untersuchten Alkalitrimeren liegt hier die konische Durchschneidung so tief, dass sie bei der Schwingungsanalyse berücksichtigt werden muss und daher eine diabatische Behandlung erfordlich ist. Für den X<-1E'-Übergang im B3 konnte die Übereinstimmung des berechneten Spektrum mit dem gemessenen durch den Einsatz des größeren Basissatzes VQZ, im Vergleich zu den bereits veröffentlichten Ergebnissen, nochmals deutlich verbessert werden. Für den berechneten 00-Übergang ist im gemessen Spektrum kein Übergang zu beobachten. Neben der guten Übereinstimmung der anderen Peaks wird diese These auch die T00 Energie gestützt. Die einfache Progression des experimentellen X<-2E'-Übergangs im B3 konnte ebenfalls in gute Übereinstimmung berechnet werden. Die einfache und kurze Progression ergibt sich aus der Tatsache, dass praktisch keine Jahn-Teller-Verzerrung vorhanden ist, und beide Teilflächen fast deckungsgleich sind. Für den X<-1E'-Übergang des B3- wurde ebenfalls ein Spektrum simuliert, allerdings findet sich keine Übereinstimmung zu den gemessenen Übergängen. Da die beobachtete Elektronenablöseenergie nur unwesentlich oberhalb der Elektronenanregungsenergie liegt und im Hinblick auf die starken X<-2E'-Absorptionen des B3 in der gleichen Messung bleibt offen, welche Strukturn im Experiment zu sehen sind. Zum C3+ wurde eine Schwingungsanalyse für den E'-Grundzustand durchgeführt. Experimentelle Vergleichswerte fehlen in diesem Fall. Allerdings konnte die bereits seit mehr als einem Jahrzehnt diskutierte Höhe der Isomerisierungsenergie zwischen gewinkelter und linearer Geometrie sehr genau, auf nun 6.8 +- 0.5 kcal/mol festgelegt werden. Bei vibronischer Betrachtung unter Einbeziehung der Nullpunktsenergien reduziert sich diese auf bzw. 4.8 kcal/mol. Ausserdem wurde die Existenz eines linearen Minimums bestätigt. C3+ liefert auch ein sehr schönes Beispiel für die Verschränkung verschiedener lokaler und globaler Schwingungszustände, was zu einer irregulären Abfolge von Zuständen führt. Für die Reaktivität des C3+ wurde beobachtet, dass es unterhalb von 50 K die höchste Reaktivität besitzt und darüber deutlich abnimmt. Auf dieses Verhalten liefert die Schwingungsanalyse keine Antwort, da bis selbst zur Raumtemperatur keine thermische Schwingungsanregung statt finden kann.
Die vorliegende Arbeit befasst sich mit den Anforderungen und der Programmarchitektur moderner objektorientierter 3D-CAD-Programme im Bauwesen. Die digitale Revolution des letzten Jahrzehnts hatte auch Auswirkungen auf die Bauplanung. Das Zeichenbrett wurde aus den Architektur- und Ingenieurbüros verbannt und die Arbeit wird in allen Bereichen durch den Computer bestimmt. In diesem Zeitraum setzten sich viele Innovationen im Bereich der CAD-Anwendungen durch. Heutige moderne CAD-Programme sind objektorientiert, verfügen über eine graphische Oberfläche und besitzen ein dreidimensionales Datenmodell. Die innovativen 3D-Datenmodelle der CAD-Programme ermöglichen nicht nur die Erstellung von Zeichnungen, sondern auch die Verwendung des Datenmodells für die Gebäudeausrüstung, Tragwerksplanung, Ausschreibung und Abrechnung des Bauwerkes. Die Programme besitzen eine mehrschichtige Architektur, welche die Möglichkeit der einfachen Änderung und Erweiterung der Anwendung bietet. Ziel dieser Arbeit ist die Beschreibung der Programmarchitektur und der Anforderungen an die Funktionalität, die Oberfläche und das Datenmodell moderner, objektorientierter 3D-CAD-Systeme für die Verwendung im Bauwesen. Für die Demonstration einer modernen Softwarearchitektur wurde das CAD-Programm GoCAD entwickelt, in welchem verschiedene moderne Architekturmuster exemplarisch implementiert wurden.
The thesis at hand deals with the numerical solution of multiscale problems arising in the modeling of processes in fluid and thermo dynamics. Many of these processes, governed by partial differential equations, are relevant in engineering, geoscience, and environmental studies. More precisely, this thesis discusses the efficient numerical computation of effective macroscopic thermal conductivity tensors of high-contrast composite materials. The term "high-contrast" refers to large variations in the conductivities of the constituents of the composite. Additionally, this thesis deals with the numerical solution of Brinkman's equations. This system of equations adequately models viscous flows in (highly) permeable media. It was introduced by Brinkman in 1947 to reduce the deviations between the measurements for flows in such media and the predictions according to Darcy's model.
Die vorliegende Untersuchung beschäftigt sich mit thermodynamischen Grundlagen einiger Prozesse der chemischen Industrie, in denen ionische Flüssigkeiten eingesetzt werden. Die ionischen Flüssigkeiten werden z.B. als Lösungsmittel für chemische Reaktionen, oder als Alternativen zu klassischen Lösungsmitteln diskutiert. Im ersten kommerziellen Verfahren mit ionischen Flüssigkeiten, sog. BASIL-Prozess (2002), wird eine organische Base (z.B. eine Imidazolium-Verbindung) zum „Abfangen“ einer bei einer Reaktion anfallenden Säure verwendet, wobei eine ionische Flüssigkeit entsteht. Diese zeigt mit dem bei der Reaktion entstehenden Wertstoff häufig eine große flüssig-flüssig Mischungslücke, wodurch sich die Aufarbeitung des Wertstoffes vereinfacht. Die Rückgewinnung dieser organischen Base aus der ionischen Flüssigkeit geschieht i.d.R. durch eine chemische Umsetzung mit einer starken, anorganischen Base in einer wässrigen Lösung und einer Extraktion in ein organisches Lösungsmittel. Dabei fallen wässrig/organische Lösungsmittel mit starken Elektrolyten an. Im Fokus des ersten Teils der Arbeit standen experimentelle Untersuchungen zum binären Phasengleichgewicht von Systemen aus einer Imidazolium-basierten ionischen Flüssigkeit und einem organischen Lösungsmittel. Die ionische Flüssigkeit 1-n-Butyl-3-Methylimidazolium Hexafluorophosphat, [bmim][PF6], wurde auf ihre Mischbarkeit mit sieben organischen Lösungsmitteln (Ethanol, bzw. 1-Propanol, bzw. 1-Butanol, bzw. Cyclohexan, bzw. Butylacetat, bzw. Toluol, bzw. Chloroform) mittels Trübungstitration bei verschiedenen Temperaturen geprüft. Wegen nicht ausreichender Genauigkeit der Trübungsmethode im Bereich geringer Löslichkeiten wurde für die Systeme aus ([bmim][PF6] + Alkohol) die organisch-reiche Seite der Binodalkurve mittels UV/Vis - Spektroskopie untersucht. Im zweiten Teil der Arbeit wurden die gegenseitige Löslichkeit der ionischen Flüssigkeit 1-Methylimidazolium Hydrochlorid, HMIMCl, mit Butylacetat als Funktion der Temperatur, sowie binäre und ternäre Phasengleichgewichte in Systemen aus Wasser, 1-Propanol, 1-Methylimidazol und Natriumchlorid im Temperaturbereich zwischen 25 und 60 °C experimentell untersucht. Dazu wurden z.B. aus den im Phasengleichgewicht existierenden flüssigen Phasen Proben entnommen und mit verschiedenen Analysenmethoden (titrimetrischen Verfahren (pH-, Karl-Fischer-) und chromatographischen Verfahren (IC, GC)) die Zusammensetzung dieser Phasen bestimmt. Die Ergebnisse der experimentellen Untersuchungen sollen die für die Entwicklung und Erprobung thermodynamischer Modelle zur Beschreibung solcher Phasengleichgewichte erforderliche Datenbasis erweitern.
The goal of this work is the development and investigation of an interdisciplinary and in itself closed hydrodynamic approach to the simulation of dilute and dense granular flow. The definition of “granular flow” is a nontrivial task in itself. We say that it is either the flow of grains in a vacuum or in a fluid. A grain is an observable piece of a certain material, for example stone when we mean the flow of sand. Choosing a hydrodynamic view on granular flow, we treat the granular material as a fluid. A hydrodynamic model is developed, that describes the process of flowing granular material. This is done through a system of partial differential equations and algebraic relations. This system is derived by the kinetic theory of granular gases which is characterized by inelastic collisions extended with approaches from soil mechanics. Solutions to the system have to be obtained to understand the process. The equations are so difficult to solve that an analytical solution is out of reach. So approximate solutions must be obtained. Hence the next step is the choice or development of a numerical algorithm to obtain approximate solutions of the model. Common to every problem in numerical simulation, these two steps do not lead to a result without implementation of the algorithm. Hence the author attempts to present this work in the following frame, to participate in and contribute to the three areas Physics, Mathematics and Software implementation and approach the simulation of granular flow in a combined and interdisciplinary way. This work is structured as follows. A continuum model for granular flow which covers the regime of fast dilute flow as well as slow dense flow up to vanishing velocity is presented in the first chapter. This model is strongly nonlinear in the dependence of viscosity and other coefficients on the hydrodynamic variables and it is singular because some coefficients diverge towards the maximum packing fraction of grains. Hence the second difficulty, the challenging task of numerically obtaining approximate solutions for this model is faced in the second chapter. In the third chapter we aim at the validation of both the model and the numerical algorithm through numerical experiments and investigations and show their application to industrial problems. There we focus intensively on the shear flow experiment from the experimental and analytical work of Bocquet et al. which serves well to demonstrate the algorithm, all boundary conditions involved and provides a setting for analytical studies to compare our results. The fourth chapter rounds up the work with the implementation of both the model and the numerical algorithm in a software framework for the solution of complex rheology problems developed as part of this thesis.
Der Schwerpunkt dieser Arbeit liegt auf der präzisen Beschreibung von geschweißten einschnittigen Überlappverbindungen aus Metall / Faser-Kunststoff-Verbunden unter mechanischer Belastung. Durch Synergieeffekte von optischen und thermischen Messverfahren kann das Deformations- und Dehnungsverhalten verschiedenste Probeformen charakterisiert werden. Zunächst wird ein kurzer Überblick über die genutzten optischen und thermischen Messverfahren gegeben. Vor- und Nachteile der Verfahren werden hierbei detailliert erläutert. Nachfolgend geraten Ultraschallgeschweißte einschnittige Überlappverbindungen in den Fokus der Betrachtungen. Dabei kommen statische, dynamische und schlagartige Beanspruchungen zum Einsatz. Das Deformations- und Dehnungsverhalten wird jeweils mit einem geeigneten Messverfahren beschrieben. Vor- und Nachteile der einzelnen Messverfahren werden, für eine spätere Nutzung von Synergieeffekten, durch Messungen an demselben Probekörper deutlich herausgearbeitet. Im letzten Kapitel der Arbeit wird eine Finite Element Simulation der einschnittigen Überlappverbindungen erstellt. Es wird gezeigt, dass unter zu Hilfenahme der ortsaufgelösten Deformations- und Dehnungsmessungen die Genauigkeit der FE - Simulation deutlich verbessert werden kann. Die wichtigsten Ergebnisse dieser Arbeit sind zusammenfassend dargestellt: -Kopplung von Grauwertkorrelation und Scanning Acoustic Microscopy zur Dehnungsdarstellung in optisch nicht zugänglichen Bereichen -Verbesserung der FE-Simulation durch genaueste Dehnungsmessungen -Kopplung verschiedener optischer Systeme zur Dehnungsmessung über mehrere Größenordnungen -Vergleich von Grauwertkorrelation und Elektronischer Speckle Pattern Interferenz -Erklärung des thermoelastischen Spannungssignals mittels FE-Simulation
Interactive visualization of large structured and unstructured data sets is a permanent challenge for scientific visualization. Large data sets are for example created by magnetic resonance imaging (MRI), computed tomography (CT), Computational fluid dynamics (CFD) finite element method (FEM), and computer aided design (CAD). For visualizing those data sets not only accelerated rasterization by means of using specialized hardware i.e. graphics cards is of interest, but also ray casting, as it is perfectly suited for scientific visualization. Ray casting does not only support many rendering modes (e.g., opaque rendering, semi transparent rendering, iso surface rendering, maximum intensity projection, x-ray, absorption emitter model, ...) for which it allows the creation of high quality images, but it also supports many primitives (e.g., not only triangles but also spheres, curved iso surfaces, NURBS, implicit functions, ...). It furthermore scales basically linear to the amount of processor cores used and - this makes it highly interesting for the visualization of large data sets - it scales for static scenes sublinear to data size. Interactive ray casting is currently not widely used within the scientifc visualization community. This is mainly based on historical reasons, as just a few years ago no applicable interactive ray casters for commodity hardware did exist. Interactive scientific visualization has only been possible by using graphics cards or specialized and/or expensive hardware. The goal of this work is to broaden the possibilies for interactive scientific visualization, by showing that interactive CPU based ray casting is today feasible on commodity hardware and that it may efficiently be used together with GPU based rasterization. In this thesis it is first shown that interactive CPU based ray casters may efficiently be integrated into already existing OpenGL frameworks. This is achieved through an OpenGL friendly interface that supports multiple threads and single instruction multiple data (SIMD) operations. For the visualization of rectilinear (and not necessarily cartesian) grids are new implicit kd-trees introduced. They have fast construction times, low memory requirements, and allow ontoday's commodity desktop machines interactive iso surface ray tracing and maximum intensity projection of large scalar fields. A new interactive SIMD ray tracing technique for large tetrahedral meshes is introduced. It is very portable and general and is therefore suited for portation upon different (future) hardware and for usage upon several applications. The thesis ends with a real life commercial application which shows that CPU-based ray casting has already reached the state where it may outperform GPU-based rasterization for scientific visualization.
In the context of inverse optimization, inverse versions of maximum flow and minimum cost flow problems have thoroughly been investigated. In these network flow problems there are two important problem parameters: flow capacities of the arcs and costs incurred by sending a unit flow on these arcs. Capacity changes for maximum flow problems and cost changes for minimum cost flow problems have been studied under several distance measures such as rectilinear, Chebyshev, and Hamming distances. This thesis also deals with inverse network flow problems and their counterparts tension problems under the aforementioned distance measures. The major goals are to enrich the inverse optimization theory by introducing new inverse network problems that have not yet been treated in the literature, and to extend the well-known combinatorial results of inverse network flows for more general classes of problems with inherent combinatorial properties such as matroid flows on regular matroids and monotropic programming. To accomplish the first objective, the inverse maximum flow problem under Chebyshev norm is analyzed and the capacity inverse minimum cost flow problem, in which only arc capacities are perturbed, is introduced. In this way, it is attempted to close the gap between the capacity perturbing inverse network problems and the cost perturbing ones. The foremost purpose of studying inverse tension problems on networks is to achieve a well-established generalization of the inverse network problems. Since tensions are duals of network flows, carrying the theoretical results of network flows over to tensions follows quite intuitively. Using this intuitive link between network flows and tensions, a generalization to matroid flows and monotropic programs is built gradually up.
The manuscript divides in 7 chapters. Chapter 2 briefly introduces the reader to the elementary measures of classical continuum mechanics and thus allows to familiarize with the employed notation. Furthermore, deeper insight of the proposed first-order computational homogenization strategy is presented. Based on the need for a discrete representative volume element (rve), Chapter 3 focuses on a proper rve generation algorithm. Therein, the algorithm itself is described in detail. Additionally, we introduce the concept of periodicity. This chapter finalizes by granting multiple representative examples. A potential based soft particle contact method, used for the computations on the microscale level, is defined in Chapter 4. Included are a description of the used discrete element method (dem) as well as the applied macroscopically driven Dirichlet boundary conditions. The chapter closes with the proposition of a proper solution algorithm as well as illustrative representative examples. Homogenization of the discrete microscopic quantities is discussed in Chapter 5. Therein, the focus is on the upscaling of the aggregate energy as well as on the derivation of related macroscopic stress measures. Necessary quantities for coupling between a standard finite element method and the proposed discrete microscale are presented in Chapter 6. Therein, we tend to the derivation of the macroscopic tangent, necessary for the inclusion into the standard finite element programs. Chapter 7 focuses on the incorporation of inter-particle friction. We select to derive a variational based formulation of inter-particle friction forces, founded on a proposed reduced incremental potential. This contribution is closed by providing a discussion as well as an outlook.
Diese Arbeit beschreibt einen in der Praxis bereits vielfach erprobten, besonders leistungsfähigen Ansatz zur Verifikation digitaler Schaltungsentwürfe. Der Ansatz ist im Hinblick auf die Schaltungsqualität nach der Verifikation, als auch in Bezug auf den Verifikationsaufwand der simulationsbasierten Schaltungsverifikation deutlich überlegen. Die Arbeit überträgt zunächst das Paradigma der transaktionsbasierten Verifikation aus der Simulation in die formale Verifikation. Ein Ergebnis dieser Übertragung ist eine bestimmte Form von formalen Eigenschaften, die Operationseigenschaften genannt werden. Schaltungen werden mit Operationseigenschaften untersucht durch Interval Property Checking, einer be-sonders leistungsfähigen SAT-basierten funktionalen Verifikation. Dadurch können Schaltungen untersucht werden, die sonst als zu komplex für formale Verifikation gelten. Ferner beschreibt diese Arbeit ein für Mengen von Operationseigenschaften geeignetes Werkzeug, das alle Verifikationslücken aufdeckt, komplexitätsmäßig mit den Fähigkeiten der IPC-basierten Schaltungsuntersuchung Schritt hält und als Vollständigkeitprüfer bezeichnet wird. Die Methodik der Operationseigenschaften und die Technologie des IPC-basierten Eigenschaftsprüfers und des Vollständigkeitsprüfers gehen eine vorteilhafte Symbiose zum Vorteil der funktionalen Verifikation digitaler Schaltungen ein. Darauf aufbauend wird ein Verfahren zur lückenlosen Überprüfung der Verschaltung derartig verifizierter Module entwickelt, das aus den Theorien zur Modellierung digitaler Systeme abgeleitet ist. Der in dieser Arbeit vorgestellte Ansatz hat in vielen kommerziellen Anwendungsprojekten unter Beweis gestellt, dass er den Namen "vollständige funktionale Verifikation" zu Recht trägt, weil in diesen Anwendungsprojekten nach dem Erreichen eines durch die Vollständigkeitsprüfung wohldefinierten Abschlusses keine Fehler mehr gefunden wurden. Der Ansatz wird von OneSpin Solutions GmbH unter dem Namen "Operation Based Verification" und "Gap Free Verification" vermarktet.
Der Flächennutzungsplan ist das zentrale Instrument der Gesamtplanung auf der gesamtstädtischen Ebene und kann gleichzeitig als Paradebeispiel für den – angesichts der in der Praxis zu lösenden Probleme nicht gerechtfertigten – Bedeutungsverlust formeller Pläne herangezogen werden. Mit der Bewältigung aktueller Herausforderungen der Stadtentwicklung konfrontiert, werden vor allem die seiner Aufstellung dienenden, zu langwierigen Verfahren und seine zu starren, Unsicherheiten in der tatsächlichen Entwicklung ungenügend berücksichtigenden Inhalte kritisiert. Folglich muss nach Möglichkeiten einer Weiterentwicklung des formellen Instrumentariums gesucht werden. Im Laufe der letzten Jahrzehnte wurden einige punktuelle Anpassungen im Modell des Flächennutzungsplanes vorgenommen. Des Weiteren sind Entwicklungen im benachbarten europäischen Ausland beachtenswert: Der im englischen Planungssystem neu eingeführte Local Development Framework soll sich durch Flexibilität und Modularität bei gleichzeitiger Stärkung der strategischen Steuerungswirkung seiner Inhalte auszeichnen. An einer systematischen Untersuchung der Erfordernisse, Potenziale und Grenzen einer Weiterentwicklung des Modells des Flächennutzungsplanes fehlt es bislang. Damit ein zukünftiges Modell die ihm zugedachten Wirkungen entfalten kann, ist zudem eine grundlegende Auseinandersetzung mit dem vorherrschenden Verständnis von gesamtstädtischer Planung und ihren Ergebnissen erforderlich. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, das Modell des Flächennutzungsplanes systematisch abzuleiten und zu untersuchen, um es anschließend mit dem Ziel einer Erhöhung der Steuerungskraft der Inhalte des gesamtstädtischen Planes weiterentwickeln zu können. Hierbei fließen die Erkenntnisse aus einer Betrachtung des Local Development Framework mit ein. Die Arbeit kommt zu dem Ergebnis, dass trotz zahlreicher Anpassungen des Modells des Flächennutzungsplanes einige Charakteristika aus dessen Anfangszeit erhalten geblieben sind, die als nicht mehr angemessen bezeichnet werden müssen. Zu den Hauptschwächen des gegenwärtigen Modells zählen sein statischer Charakter und die unzureichende Berücksichtigung der Prozesshaftigkeit von Stadtentwicklung inklusive der Auseinandersetzung mit potenziellen Entwicklungsalternativen. Die Beschäftigung mit dem Local Development Framework zeigt, dass von einer Übertragbarkeit von Elementen auf das deutsche System auszugehen ist. Die erarbeiteten Vorschläge zu den Anpassungen am Modell des Flächennutzungsplanes eröffnen insgesamt die Möglichkeit, den Flächennutzungsplan zum modularen, dynamischen und strategischen Instrument gesamtstädtischer Planung weiterzuentwickeln. Im Fokus der Anpassungen stehen die neue Gesamtstruktur als Portfolio aus zeichnerischen und textlichen, formellen und informellen Bestandteilen, die Integration des Faktors „Zeit“ sowie sonstiger strategischer Aspekte von Stadtentwicklung – begleitet von einem neuen Verständnis vom Ergebnis gesamtstädtischer Planung, nach dem der Flächennutzungsplan nicht mehr als der eine Plan das kanonische Endprodukt darstellt, sondern kontinuierlich und mit seinen diversen Bestandteilen überprüft und fortentwickelt wird.
Within this thesis we present a novel approach towards the modeling of strong discontinuities in a three dimensional finite element framework for large deformations. This novel finite element framework is modularly constructed containing three essential parts: (i) the bulk problem, ii) the cohesive interface problem and iii) the crack tracking problem. Within this modular design, chapter 2 (Continuous solid mechanics) treats the behavior of the bulk problem (i). It includes the overall description of the continuous kinematics, the required balance equations, the constitutive setting and the finite element formulation with its corresponding discretization and required solution strategy for the emerging highly non-linear equations. Subsequently, we discuss the modeling of strong discontinuities within finite element discretization schemes in chapter 3 (Discontinuous solid mechanics). Starting with an extension of the continuous kinematics to the discontinuous situation, we discuss the phantom-node discretization scheme based on the works of Hansbo & Hansbo. Thereby, in addition to a comparison with the extended finite element method (XFEM), importance is attached to the technical details for the adaptive introduction of the required discontinuous elements: The splitting of finite elements, the numerical integration, the visualization and the formulation of geometrical correct crack tip elements. In chapter 4 (The cohesive crack concept), we consider the treatment of cohesive process zones and the associated treatment of cohesive tractions. By applying this approach we are able to merge all irreversible, crack propagation accompanying, failure mechanisms into an arbitrary traction separation relation. Additionally, this concept ensures bounded crack tip stresses and allows the use of stress-based failure criteria for the determination of crack growth. In summary, the use of the discontinuous elements in conjunction with cohesive traction separation allows the mesh-independent computation of crack propagation along pre-defined crack paths. Therefore, this combination is defined as the interface problem (ii) and represents the next building block in the modular design of this thesis. The description and the computation of the evolving crack surface, based on the actual status of a considered specimen is the key issue of chapter 5 (Crack path tracking strategies). In contrast to the two-dimensional case, where tracking the path in a C0-continuous way is straightforward, three-dimensional crack path tracking requires additional strategies. We discuss the currently available approaches regarding this issue and further compare the approaches by means of usual quality measures. In the modular design of this thesis these algorithms represent the last main part which is classified as the crack tracking problem (iii). Finally chapter 6 (Representative numerical examples) verifies the finite element tool by comparisons of the computational results which experiments and benchmarks of engineering fracture problems in concrete. Afterwards the finite element tool is applied to model folding induced fracture of geological structures.
This thesis is devoted to applying symbolic methods to the problems of decoding linear codes and of algebraic cryptanalysis. The paradigm we employ here is as follows. We reformulate the initial problem in terms of systems of polynomial equations over a finite field. The solution(s) of such systems should yield a way to solve the initial problem. Our main tools for handling polynomials and polynomial systems in such a paradigm is the technique of Gröbner bases and normal form reductions. The first part of the thesis is devoted to formulating and solving specific polynomial systems that reduce the problem of decoding linear codes to the problem of polynomial system solving. We analyze the existing methods (mainly for the cyclic codes) and propose an original method for arbitrary linear codes that in some sense generalizes the Newton identities method widely known for cyclic codes. We investigate the structure of the underlying ideals and show how one can solve the decoding problem - both the so-called bounded decoding and more general nearest codeword decoding - by finding reduced Gröbner bases of these ideals. The main feature of the method is that unlike usual methods based on Gröbner bases for "finite field" situations, we do not add the so-called field equations. This tremendously simplifies the underlying ideals, thus making feasible working with quite large parameters of codes. Further we address complexity issues, by giving some insight to the Macaulay matrix of the underlying systems. By making a series of assumptions we are able to provide an upper bound for the complexity coefficient of our method. We address also finding the minimum distance and the weight distribution. We provide solid experimental material and comparisons with some of the existing methods in this area. In the second part we deal with the algebraic cryptanalysis of block iterative ciphers. Namely, we analyze the small-scale variants of the Advanced Encryption Standard (AES), which is a widely used modern block cipher. Here a cryptanalyst composes the polynomial systems which solutions should yield a secret key used by communicating parties in a symmetric cryptosystem. We analyze the systems formulated by researchers for the algebraic cryptanalysis, and identify the problem that conventional systems have many auxiliary variables that are not actually needed for the key recovery. Moreover, having many such auxiliary variables, specific to a given plaintext/ciphertext pair, complicates the use of several pairs which is common in cryptanalysis. We thus provide a new system where the auxiliary variables are eliminated via normal form reductions. The resulting system in key-variables only is then solved. We present experimental evidence that such an approach is quite good for small scaled ciphers. We investigate further our approach and employ the so-called meet-in-the-middle principle to see how far one can go in analyzing just 2-3 rounds of scaled ciphers. Additional "tuning techniques" are discussed together with experimental material. Overall, we believe that the material of this part of the thesis makes a step further in algebraic cryptanalysis of block ciphers.
In engineering and science, a multitude of problems exhibit an inherently geometric nature. The computational assessment of such problems requires an adequate representation by means of data structures and processing algorithms. One of the most widely adopted and recognized spatial data structures is the Delaunay triangulation which has its canonical dual in the Voronoi diagram. While the Voronoi diagram provides a simple and elegant framework to model spatial proximity, the core of which is the concept of natural neighbors, the Delaunay triangulation provides robust and efficient access to it. This combination explains the immense popularity of Voronoi- and Delaunay-based methods in all areas of science and engineering. This thesis addresses aspects from a variety of applications that share their affinity to the Voronoi diagram and the natural neighbor concept. First, an idea for the generalization of B-spline surfaces to unstructured knot sets over Voronoi diagrams is investigated. Then, a previously proposed method for \(C^2\) smooth natural neighbor interpolation is backed with concrete guidelines for its implementation. Smooth natural neighbor interpolation is also one of many applications requiring derivatives of the input data. The generation of derivative information in scattered data with the help of natural neighbors is described in detail. In a different setting, the computation of a discrete harmonic function in a point cloud is considered, and an observation is presented that relates natural neighbor coordinates to a continuous dependency between discrete harmonic functions and the coordinates of the point cloud. Attention is then turned to integrating the flexibility and meritable properties of natural neighbor interpolation into a framework that allows the algorithmically transparent and smooth extrapolation of any known natural neighbor interpolant. Finally, essential properties are proved for a recently introduced novel finite element tessellation technique in which a Delaunay triangulation is transformed into a unique polygonal tessellation.
Continuous stochastic control theory has found many applications in optimal investment. However, it lacks some reality, as it is based on the assumption that interventions are costless, which yields optimal strategies where the controller has to intervene at every time instant. This thesis consists of the examination of two types of more realistic control methods with possible applications. In the first chapter, we study the stochastic impulse control of a diffusion process. We suppose that the controller minimizes expected discounted costs accumulating as running and controlling cost, respectively. Each control action causes costs which are bounded from below by some positive constant. This makes a continuous control impossible as it would lead to an immediate ruin of the controller. We give a rigorous development of the relevant theory, where our guideline is to establish verification and convergence results under minimal assumptions, without focusing on the existence of solutions to the corresponding (quasi-)variational inequalities. If the impulse control problem can be characterized or approximated by (quasi-)variational inequalities, it remains to solve these equations. In Section 1.2, we solve the stochastic impulse control problem for a one-dimensional diffusion process with constant coefficients and convex running costs. Further, in Section 1.3, we solve a particular multi-dimensional example, where the uncontrolled process is given by an at least two-dimensional Brownian motion and the cost functions are rotationally symmetric. By symmetry, this problem can be reduced to a one-dimensional problem. In the last section of the first chapter, we suggest a new impulse control problem, where the controller is in addition allowed to invest his initial capital into a market consisting of a money market account and a risky asset. The costs which arise upon controlling the diffusion process and upon trading in this market have to be paid out of the controller's bond holdings. The aim of the controller is to minimize the running costs, caused by the abstract diffusion process, without getting ruined. The second chapter is based on a paper which is joint work with Holger Kraft and Frank Seifried. We analyze the portfolio decision of an investor trading in a market where the economy switches randomly between two possible states, a normal state where trading takes place continuously, and an illiquidity state where trading is not allowed at all. We allow for jumps in the market prices at the beginning and at the end of a trading interruption. Section 2.1 provides an explicit representation of the investor's portfolio dynamics in the illiquidity state in an abstract market consisting of two assets. In Section 2.2 we specify this market model and assume that the investor maximizes expected utility from terminal wealth. We establish convergence results, if the maximal number of liquidity breakdowns goes to infinity. In the Markovian framework of Section 2.3, we provide the corresponding Hamilton-Jacobi-Bellman equations and prove a verification result. We apply these results to study the portfolio problem for a logarithmic investor and an investor with a power utility function, respectively. Further, we extend this model to an economy with three regimes. For instance, the third state could model an additional financial crisis where trading is still possible, but the excess return is lower and the volatility is higher than in the normal state.
A series of (oligo)phenthiazines, thiazolium salts and sulfonic acid functionalized organic/inorganic hybrid materials were synthesized. The organic groups were covalently bound on the inorganic surface through reactions of organosilane precursors with TEOS or with the silanol groups of material surface. These synthetic methods are called the co-condensation process and the post grafting. The structures and the textural parameters of the generated hybrid materials were characterized by XRD, N2 adsorption-desorption measurements, SEM and TEM. The incorporations of the organic groups were verified by elemental analysis, thermogravimetric analysis, FT-IR, UV-Vis, EPR, CV, as well as by 13C CP-MAS NMR and 29Si CP-MAS NMR spectroscopy. Introduction of various organic groups endow different phsysical, chemical properties to these hybrid materials. The (oligo)phenothiazines provide a group of novel redox acitive hybrid materials with special electronic and optic properties. The thiazolium salts modified materials were applied as heterogenized organo catalysts for the benzoin condensation and the cross-coupling of aldehydes with acylimines to yield a-amido ketones. The sulfonic acid containing materials can not only be used as Broensted acid catalysts, but also can serve as ion exchangable supports for further modifications and applications.
Das Zwei-Komponenten System CiaRH von S. pneumoniae ist an der ß-Laktam-Resistenz, Regulation der genetischen Kompetenz, Lyse und Virulenz beteiligt. Unter den 16 Promotoren, die von diesem System kontrolliert werden, befanden sich die fünf stärksten Promotoren in intergenen Regionen. Hieraus resultierte die Vermutung, dass diese Promotoren die Expression von kleinen nichtkodierenden RNAs steuern könnten. Mittels Northern-Analyse konnte nachgewiesen werden, dass von diesen Promotoren aus kleine RNAs mit einer Größe von 87 bis 151 Basen exprimiert werden. Im Stamm mit deletierten ciaR waren diese RNAs nicht bzw. kaum detektierbar. Die fünf CiaRH-abhängigen kleinen RNAs wurden csRNAs benannt (cia controlled small RNAs). Durch Northern-Analyse an vier verschiedenen Zeitpunkten des Wachstums konnte gezeigt werden, dass die csRNAs in hoher Konzentration sowohl während der exponentiellen als auch in der stationären Wachstumsphase in den Zellen von S. pneumoniae vorhanden sind. Mittels 3´-RACE-Analyse wurde die Länge der csRNAs auf die Base genau bestimmt. csRNA1, csRNA2, csRNA3 und csRNA4 bestehen aus 87 bis 101 Nukleotiden. csRNA5 besitzt dagegen eine Länge aus 151 Basen. Die Promotoren der stromabwärts der kleinen RNAs liegenden Gene wurden mittels 5´-RACE-Analyse kartiert und ihre Expression mittels realtime RT-PCR-Analyse im Wildtyp, im ciaR-Deletionsstamm und einem Stamm mit aktiviertem CiaRH-System untersucht. Hierbei konnte gezeigt werden, dass diese Gene unabhängig von CiaRH exprimiert werden. Um die Beteiligung der csRNAs an den CiaRH-assoziierten Phänotypen aufzuklären, wurden die Gene für alle fünf csRNAs deletiert und mit verschiedenen Antibiotika-Resistenz-Genen ersetzt. Durch Kombination aller Deletionen wurde der Stamm S. pneumoniae RK12345 konstruiert, welcher keine csRNA mehr exprimiert. In Stamm RK12345 konnte eine erniedrigte Transformationseffizienz und eine erhöhte Lyserate im Vergleich zum Wildtyp S. pneumoniae R6 beobachtet werden. Hierdurch wurde gezeigt, dass die csRNAs eine Rolle bei den CiaRH-regulierten Prozessen spielen. Kleine RNAs üben ihren regulatorischen Effekt meist durch Wechselwirkung mit der mRNA ihrer Zielgene aus. Die beiden RNA-Moleküle interagieren hierbei über komplementäre Sequenzbereiche. Durch diese Basenpaarungen kommt es zur Hemmung oder Aktivierung der Translation bzw. zum Abbau des RNA-RNA-Interaktionskomplexes. Um die Ursachen der csRNA-vermittelten phänotypischen Veränderungen bestimmen zu können, wurde die Identifizierung der csRNA-Zielgene angestrebt. Mittels bioinformatischer Analyse wurde eine große Anzahl putativer Zielgene vorhergesagt, wovon nach Anlegung verschiedener Kriterien letztendlich 13 zu den weiteren Untersuchungen eingesetzt wurden. Um diese teilweise uncharakterisierten Gene auf eine posttranskriptionelle Regulation durch die csRNAs untersuchen zu können, wurde ein integratives Translations Probe Plasmid namens pTP3 konstruiert. Dieses Plasmid ermöglicht die Klonierung von 5´-Genfragmenten vor das ´lacZ-Gen, wodurch in frame-Zielgen´-´lacZ-Fusionsproteine entstehen. Die Expression des entstandenen Fusionsgens erfolgt hierbei von einem konstitutiven CiaRH-unabhängigen Promotor, namens PvegT. Die Klonierung und Untersuchung der ß-Galaktosidase- Expression der Zielgen´-´lacZ-Fusionsproteine ergab, dass die klonierten Fragmente der Gene spr0081, comC, spr1645 und cibB durch die csRNAs reguliert werden. Die Untersuchung dieser vier Zielgene bei Expression von den eigenen Promotoren und Intaktheit der entsprechenden mRNAs zeigte, dass letztendlich zwei Gene posttranskriptionell negativ durch die csRNAs reguliert werden. Interessanterweise ist eines dieser Zielgene das comC-Gen, welches für das Vorläuferpeptid des Kompetenz-Phäromons CSP kodiert. Diese Beobachtung könnte eine mögliche Ursache für die csRNA-abhängige veränderte Transformierbarkeit von Stamm RK12345 darstellen. Das zweite Zielgen der csRNAs, spr0081, kodiert für einen bisher uncharakterisierten ABC-Transporter, welcher möglicherweise am Transport eines Kohlenhydrats beteiligt ist. Letztendlich wurde die direkte Interaktion der in vitro produzierten mRNA dieser beiden Zielgene mit den csRNAs durch die Entwicklung und Etablierung einer neuartigen Methode der Bandshift-Analyse untersucht. Hierbei konnte nachgewiesen werden, dass die mRNA von comC mit allen fünf csRNAs Interaktions-komplexe bildet und die mRNA von spr0081 befähigt ist mit vier csRNAs Interaktionskomplexe zu bilden. Schließlich wurde der Effekt einzelner RNAs auf die Expression des ComC´-´lacZ-Fusionsproteins getestet. Hierbei konnte gezeigt werden, dass csRNA1, csRNA2 und csRNA3 einerseits bzw. csRNA4 und csRNA5 andererseits genügen, um den Effekt aller fünf RNAs ausüben zu können. Die stärkste Hemmungsaktivität einer einzelnen csRNA konnte bei csRNA4 festgestellt werden.
This thesis deals with the following question. Given a moduli space of coherent sheaves on a projective variety with a fixed Hilbert polynomial, to find a natural construction that replaces the subvariety of the sheaves that are not locally free on their support (we call such sheaves singular) by some variety consisting of sheaves that are locally free on their support. We consider this problem on the example of the coherent sheaves on \(\mathbb P_2\) with Hilbert polynomial 3m+1.
Given a singular coherent sheaf \(\mathcal F\) with singular curve C as its support we replace \(\mathcal F\) by locally free sheaves \(\mathcal E\) supported on a reducible curve \(C_0\cup C_1\), where \(C_0\) is a partial normalization of C and \(C_1\) is an extra curve bearing the degree of \(\mathcal E\). These bundles resemble the bundles considered by Nagaraj and Seshadri. Many properties of the singular 3m+1 sheaves are inherited by the new sheaves we introduce in this thesis (we call them R-bundles). We consider R-bundles as natural replacements of the singular sheaves. R-bundles refine the information about 3m+1 sheaves on \(\mathbb P_2\). Namely, for every isomorphism class of singular 3m+1 sheaves there are \(\mathbb P_1\) many equivalence classes of R-bundles. There is a variety \(\tilde M\) of dimension 10 that may be considered as the space of all the isomorphism classes of the non-singular 3m+1 sheaves on \(\mathbb P_2\) together with all the equivalence classes of all R-bundles. This variety is obtained by blowing up the moduli space of 3m+1 sheaves on \(\mathbb P_2\) along the subvariety of singular sheaves. We modify the definition of a 3m+1 family and obtain a notion of a new family over an arbitrary variety S. In particular 3m+1 families of the non-singular sheaves on \(\mathbb P_2\) are families in this sense. New families over one point are either non-singular 3m+1 sheaves or R-bundles. For every variety S we introduce an equivalence relation on the set of all new families over S. The notion of equivalence for families over one point coincides with isomorphism for non-singular 3m+1 sheaves and with equivalence for R-bundles. We obtain a moduli functor \(\tilde{\mathcal M}:(Sch) \rightarrow (Sets)\) that assigns to every variety S the set of the equivalence classes of the new families over S. There is a natural transformation of functors \(\tilde{\mathcal M}\rightarrow \mathcal M\) that establishes a relation between \(\tilde{\mathcal M}\) and the moduli functor \(\mathcal M\) of the 3m+1 moduli problem on \(\mathbb P_2\). There is also a natural transformation \(\tilde{\mathcal M} \rightarrow Hom(\__ ,\tilde M)\), inducing a bijection \(\tilde{\mathcal M}(pt)\cong \tilde M\), which means that \(\tilde M\) is a coarse moduli space of the moduli problem \(\tilde{\mathcal M}\).
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
Untersuchungen zu Raum und Abschirmung am Beispiel der privaten Wohnhäuser von Philip Johnson
(2009)
Architektur ist geprägt vom Wandel. Auch wenn viele Architekten den daraus resultierenden Verlust von Konstanz in der Architektur bemängeln, lohnt sich die Auseinandersetzung mit dem Wandel. Er beinhaltet Entwicklungsmöglichkeiten der Architektur, aus denen wiederum Rückschlüsse für das eigene Entwerfen gewonnen werden können. Da sich die Gründe des Wandels selten eindeutig bestimmen lassen, liegt der Interessensschwerpunkt der Dissertation auf dessen Erscheinungen. Die Aufmerksamkeit wird deshalb auf die wesentlichen Elemente der Architektur, nämlich Raum und Abschirmung, gerichtet. An ihnen werden die Prinzipien des Wandels beschrieben. Dazu werden die Veränderungen von Raum und Abschirmung exemplarisch an den privaten Wohnhäusern von Philip Johnson untersucht. Diese Analyse ergibt, dass sich der Wandel in der Transformation von Raumtyp und Abschirmung bzw. im Wechsel zwischen Raumtypen manifestiert. Während durch die Transformation ein Raumtyp weiterentwickelt wird - Mittel der Transformation sind z.B. die Verformung oder die Verselbständigung von Elementen-, steht der Wechsel von einem Raumtyp zu einem anderen für den fundamentalen Wandel eines Raum- und Gestaltungskonzeptes. Die Wohnhäuser von Philip Johnson können in Bezug auf den Wandel nicht als inhaltlich abschließend bezeichnet werden. Zum einen arbeitet Johnson bei den Wohnhäusern nur mit den vier Raumtypen „Das klar definierte Innen“, „Das Ineinanderfließen von Innen und Außen“, „Innen und Außen als Raumeinheiten“ und „Das Innen im Außen“, zum anderen blendet er z.B. konstruktive Aspekte, wie Bauteilstärken aus. Dennoch können aus der Untersuchung allgemeingültige Rückschlüsse gewonnen werden. Zunächst ist festzustellen, dass der Wandel nicht so komplex ist, wie er durch die Masse diffuser Erscheinungsformen der Architektur erscheint. Er ist rückführbar auf die Veränderungen von Raum und Abschirmung. Sie bilden gemeinsam ein gedankliches und gebautes System, innerhalb dessen sich Architektur bewegt. Dieses System ist offen für potentielle Entwicklungen, d.h. es lässt neue Raumtypen oder aber Veränderungen des Raumtyps und der Abschirmung zu. Darüber hinaus ermöglicht es ein systematisches Vorgehen beim Entwerfen. Entwurfsalternativen und -varianten können aufbauend auf diesen Erkenntnissen aus Raum und Abschirmung gezielt entwickelt werden.
Von der Bauplanung zur Gebäudebewirtschaftung: Ein integrales Bewertungs- und Transformationsmodell
(2009)
Gegenstand der vorliegenden Arbeit ist der Entwurf eines integralen Bewertungs- und Transformationsmodells zur Integration der Gebäudebewirtschaftung in die Bauplanungsphase. Das Ziel der Untersuchung ist die Bildung eines Modells zur Identifizierung einer Bauplanungsvariante, die hinsichtlich ihrer späteren Nutzung bezüglich des Ressourcenverbrauchs, der Belastung für Mensch und Umwelt, der Durchführung von Bewirtschaftungsprozessen und bezüglich der Umgebungsressourcen eine optimierte Variante darstellt. Im ersten Teil der Arbeit werden nach einer kurzen Einführung zunächst die Motivation zur vorliegenden Arbeit, ihre Zielsetzung und die Grundlagen des Facility Management, der Bauplanung und Baukosten erläutert. Die ganzheitliche Betrachtung von Facility Management über den gesamten Lebenszyklus unter Berücksichtigung auch nicht monetärer Ziele wie Belastungsvermeidung oder Optimierung der Umgebungsressourcen macht eine eigene Neudefinition von Facility Management notwendig. Basis der weiteren Untersuchungen sind die entwickelten Übergeordneten Ziele des Facility Management. Zur Befriedigung der Übergeordneten Ziele des Facility Management muss Facility Management schon in der frühen Phase der Rahmen- und Nutzungsplanung und auf der funktional organisatorischen Bauplanungsebene integriert werden und muss die Interessen aller an Bau und Nutzung beteiligten integrieren. Der zweite Teil der Arbeit befasst sich mit der Integration von Facility Management in den Bauplanungsprozess. Dazu werden in einem ersten Schritt planungsabhängige Kosten und Leistungen des Facility Management identifiziert. Durch eine Analyse der Planungsabhängigkeiten der Übergeordneten Ziele des Facility Management wird aufgezeigt, wie Planungsobjekte identifiziert werden. Das entwickelte Transformationsmodell erlaubt die Transformation von Planungsobjekten zu Bewirtschaftungsobjekten, deren Variation in der Planungsphase die Bewirtschaftungsphase maßgeblich beeinflussen. Das erarbeitete Objektmodell zeigt im Sinne der Objektorientierung die Beziehungen der Bewirtschaftungsobjekte untereinander auf. Das Transformationsmodell bildet die Grundlage zur abschließenden Planungsbewertung anhand derer verschiedene Bauplanungsalternativen untereinander vergleichbar gemacht werden und hinsichtlich ihres Nutzwertes bezüglich der Bewirtschaftungsphase bewertet werden können.
Pflasterflächen bilden heute einen hohen Anteil der befestigten Siedlungsfläche. Dabei kommen diverse Pflastersysteme mit ganz unterschiedlichem VErsickerungsvermögen zum Einsatz. Die Quantifizierung des Abflussbeitrages der unterschiedlichen Befestigungsarten ist jedoch bislang mit erheblichen Unsicherheiten behaftet, da fundierte und ausreichend differenzierte Kennwerte zum Versickerungsvermögen fehlen. Im Rahmen der vorliegenden Forschungsarbeit wurde das Versickerungsvermögen gängiger Pflasterbauweisen systematisch untersucht. Den Kern der Untersuchung bilden mehrere hundert Messungen an Bestandflächen sowie im Labor. Im Zuge der Untersuchungen konnte eine Vielzahl gewinnbringender und teilweise neuer Erkenntnisse zur Charakterisierung und Quantifizierung des Versickerungsphänomens auf durchlässig befestigten Siedlungsflächen gewonnen und zur Ableitung substanzieller Anwendungsempfehlungen genutzt werden. Mit den erarbeiteten Versickerungskennwerten wird eine deutlich verbesserte und zugleich durch umfangreiche Messungen und Analysen abgesicherte Grundlage zur quantitativen Bewertung des Versickerungsvermögens bereit gestellt. Die Kennwerte tragen hierbei dem Einfluss wesentlicher Randbedingungen wie dem Eintrag von Feinpartikeln in den Fugenraum, der Niederschlagsintensität, dem Gefälle, der Liegezeit sowie der Nutzung Rechnung. Vielfach konnten anhand der Messwertanalysen Erkenntnisse früherer Untersuchungen bestätigt und mit messtechnisch abgesicherten Zahlenwerten untermauert werden. Ferner konnten für zahlreiche Belagsarten Häufigkeitsverteilungen des Versickerungsvermögens generiert werden, mit denen der ausgeprägte stochastische Charakter des Versickerungsverhaltens, der sich in einer enormen Variabilität des Versickerungsvermögens äußert, erstmals quantitativ umschrieben werden kann. Darüber hinaus wurde ein erster Schritt zu einer verbesserten urbanhydrologischen Erfassung des Abflussverhaltens versickerungsfähiger Siedlungsflächen getätigt. Neben der Ableitung von bauartspezifischen Abflussbeiwerten und Parameterempfehlungen zur Niederschlagsabflusssimulation wurde ein urbanhydrologischer Modellbaustein konzipiert. Die Infiltrationsprozesse werden hierbei über eine modifizierten Ansatz nach Horton/Paulsen abgebildet, bei dem die Berechnungsflächen in Teilflächen diskretisiert und mit nach Auftretenshäufigkeiten gestaffelten Parameterwerten verbunden werden. Der Ansatz hat sich als äußerst effektiv erwiesen und wird daher ausdrücklich zur weiteren programmtechnischen Umsetzung empfohlen.
In der vorliegenden Arbeit werden experimentelle und theoretische Untersuchungen für die Löslichkeiten von Methan in den organischen Lösungsmitteln Petroleumbenzin, 1-Oktanol, n-Hexan und n-Dodekan sowie Untersuchungen des LW-H-V-Gleichgewichts des Systems (CH4 + H2O) vorgestellt. Im Vergleich zu den Vorhersageergebnissen von Sloan sowie Parrish und Praus-nitz wurde mit dem in der vorliegenden Arbeit weiterentwickelten, thermodynamischen Modell für das Hydratgleichgewicht des Systems (CH4 + H2O) durch Berücksichtigung des Dampf-Flüssigkeits-Gleichgewichts gerade im Bereich erhöhter Drücke eine wesentlich bessere Übereinstimmung der berechneten Hydratgleichgewichtsdrücke mit den Messdaten der vorliegenden Arbeit sowie mit Literaturdaten erreicht. Die Untersuchungen zur physikalischen Löslichkeit von Methan in den organischen Lö-sungsmitteln und Wasser wurden in einem Temperaturbereich von 273,2 K bis 293 K bei Ge-samtdrücken bis maximal 10 MPa durchgeführt. Die Ergebnisse wurden mit Rechenwerten verglichen, die mit dem in der vorliegenden Arbeit entwickelten Modell erhalten wurden. Die maximale Konzentration von Methan in der organischen Lösemittelphase betrug im System (CH4 + n-Hexan) bei max. 8,7 Mol CH4 pro Kilogramm Hexan. Dieses entspricht einer Beladung des Lösungsmittels von 140 Gramm Methan pro Kilogramm Hexan. Die Untersuchungen zur Löslichkeit von Kohlendioxid (CO2) und Schwefelwasser-stoff (H2S) in wässrigen Aminlösungen (Amine A, B, C, D) waren Teil einer Industriekooperation mit der BASF AG, Ludwigshafen. Ziel des Gesamtprojekts war es, ein bestehendes Aminsystem zu ersetzen. Die experimentellen Ergebnisse für die Löslichkeit von Kohlendi-oxid in diesen Aminmischungen liefern fundierte Grundlagen zur Thermodynamik solcher Lösungen in einem industriellen Absorptionsprozess. Die Untersuchungen am System (CO2 + MDEA + PIPH2 + H2O) stellen eine Weiter-entwicklung des von Pérez-Salado Kamps entwickelten thermodynamischen Modells dar. Die experimentellen Untersuchungen der vorliegenden Arbeit und von Speyer erweitern den Konzentrationsbereich dieses Modells und führten zu einer Neuparametrisierung im Hoch- und Niederdruckbereich. Dabei wurden auch Wechselwirkungen zwischen den aus MDEA und Piperazin entstehenden Spezies berücksichtigt. Die Korrelations- und Vorhersa-geergebnisse werden im Vergleich zu den Vorhersagen von Ermatchkov deutlich verbessert. Die Messungen erfolgten in einer Phasengleichgewichtsapparatur, die nach der synthetischen, d.h. mit bekannter Zusammensetzung des Lösungsmittels/-gemisches und bekannter Gasmenge, Methode arbeitet. Bei der experimentellen Vorgehensweise wurde die evakuierte Hochdrucksichtzelle mit dem zu lösenden Gas bei gemessenem Druck und konstanter Temperatur und einem Teil des Lösungsmittels befüllt. Mit einem Hochdruckverdränger wird gerade soviel Lösungsmittel in die Zelle nachgepresst, bis sich gerade eine homogene Phase bildet, d.h. bis keine Gasphase mehr sichtbar ist. Damit ist die gesamte Menge an Gas in der flüssi-gen Phase gelöst, allerdings liegt der Druck deutlich über dem Löslichkeitsdruck. Durch Entnehmen geringer Menge der Lösung (Herausdrehen der Verdrängerspindel) wird der Druck schrittweise gesenkt. Bei Erreichen der Siedelinie beginnt das Gas aus dem Lösungsmittel auszugasen. Der sich einzustellende Gleichgewichtsdruck ist derjenige Druck, der notwendig ist, um die gesamte Menge an Gas in der in die Zelle eingebrachte Lösungsmittelmenge zu lösen. Die Modellierung der gemessenen Gaslöslichkeiten erfolgte für die flüssigen Phasen mit dem von Edwards, Maurer und Newman modifizierten GE-Ansatz von Pitzer zur Be-rücksichtigung der Nichtidealitäten und Berechnung der Aktivitätskoeffizienten. Die Abweichungen von dem idealen Gasverhalten in der Gasphase wurden durch die Berech-nung der Fugazitätskoeffizienten mit der nach dem zweiten Koeffizienten abgebrochenen Virialgleichung ausgedrückt.
Modern digital imaging technologies, such as digital microscopy or micro-computed tomography, deliver such large amounts of 2D and 3D-image data that manual processing becomes infeasible. This leads to a need for robust, flexible and automatic image analysis tools in areas such as histology or materials science, where microstructures are being investigated (e.g. cells, fiber systems). General-purpose image processing methods can be used to analyze such microstructures. These methods usually rely on segmentation, i.e., a separation of areas of interest in digital images. As image segmentation algorithms rarely adapt well to changes in the imaging system or to different analysis problems, there is a demand for solutions that can easily be modified to analyze different microstructures, and that are more accurate than existing ones. To address these challenges, this thesis contributes a novel statistical model for objects in images and novel algorithms for the image-based analysis of microstructures. The first contribution is a novel statistical model for the locations of objects (e.g. tumor cells) in images. This model is fully trainable and can therefore be easily adapted to many different image analysis tasks, which is demonstrated by examples from histology and materials science. Using algorithms for fitting this statistical model to images results in a method for locating multiple objects in images that is more accurate and more robust to noise and background clutter than standard methods. On simulated data at high noise levels (peak signal-to-noise ratio below 10 dB), this method achieves detection rates up to 10% above those of a watershed-based alternative algorithm. While objects like tumor cells can be described well by their coordinates in the plane, the analysis of fiber systems in composite materials, for instance, requires a fully three dimensional treatment. Therefore, the second contribution of this thesis is a novel algorithm to determine the local fiber orientation in micro-tomographic reconstructions of fiber-reinforced polymers and other fibrous materials. Using simulated data, it will be demonstrated that the local orientations obtained from this novel method are more robust to noise and fiber overlap than those computed using an established alternative gradient-based algorithm, both in 2D and 3D. The property of robustness to noise of the proposed algorithm can be explained by the fact that a low-pass filter is used to detect local orientations. But even in the absence of noise, depending on fiber curvature and density, the average local 3D-orientation estimate can be about 9° more accurate compared to that alternative gradient-based method. Implementations of that novel orientation estimation method require repeated image filtering using anisotropic Gaussian convolution filters. These filter operations, which other authors have used for adaptive image smoothing, are computationally expensive when using standard implementations. Therefore, the third contribution of this thesis is a novel optimal non-orthogonal separation of the anisotropic Gaussian convolution kernel. This result generalizes a previous one reported elsewhere, and allows for efficient implementations of the corresponding convolution operation in any dimension. In 2D and 3D, these implementations achieve an average performance gain by factors of 3.8 and 3.5, respectively, compared to a fast Fourier transform-based implementation. The contributions made by this thesis represent improvements over state-of-the-art methods, especially in the 2D-analysis of cells in histological resections, and in the 2D and 3D-analysis of fibrous materials.