Refine
Year of publication
- 2023 (146)
- 2021 (117)
- 2022 (109)
- 2015 (100)
- 2020 (99)
- 2016 (92)
- 2017 (84)
- 2018 (79)
- 2014 (78)
- 2009 (76)
- 2019 (74)
- 2006 (69)
- 2012 (66)
- 2013 (65)
- 2007 (64)
- 2008 (63)
- 2011 (62)
- 2010 (61)
- 2005 (58)
- 2004 (55)
- 2002 (50)
- 2003 (50)
- 2024 (47)
- 2001 (35)
- 2000 (34)
- 1999 (28)
- 1998 (7)
- 1995 (3)
- 1996 (2)
- 1997 (2)
- 1994 (1)
Document Type
- Doctoral Thesis (1876) (remove)
Language
- English (939)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (235)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
The goal of this work is to develop a simulation-based algorithm, allowing the prediction
of the effective mechanical properties of textiles on the basis of their microstructure
and corresponding properties of fibers. This method can be used for optimization of the
microstructure, in order to obtain a better stiffness or strength of the corresponding fiber
material later on. An additional aspect of the thesis is that we want to take into account the microcontacts
between fibers of the textile. One more aspect of the thesis is the accounting for the thickness of thin fibers in the
textile. An introduction of an additional asymptotics with respect to a small parameter,
the relation between the thickness and the representative length of the fibers, allows a
reduction of local contact problems between fibers to 1-dimensional problems, which
reduces numerical computations significantly.
A fiber composite material with periodic microstructure and multiple frictional microcontacts
between fibers is studied. The textile is modeled by introducing small geometrical
parameters: the periodicity of the microstructure and the characteristic
diameter of fibers. The contact linear elasticity problem is considered. A two-scale
approach is used for obtaining the effective mechanical properties.
The algorithm using asymptotic two-scale homogenization for computation of the
effective mechanical properties of textiles with periodic rod or fiber microstructure
is proposed. The algorithm is based on the consequent passing to the asymptotics
with respect to the in-plane period and the characteristic diameter of fibers. This
allows to come to the equivalent homogenized problem and to reduce the dimension
of the auxiliary problems. Further numerical simulations of the cell problems give
the effective material properties of the textile.
The homogenization of the boundary conditions on the vanishing out-of-plane interface
of a textile or fiber structured layer has been studied. Introducing additional
auxiliary functions into the formal asymptotic expansion for a heterogeneous
plate, the corresponding auxiliary and homogenized problems for a nonhomogeneous
Neumann boundary condition were deduced. It is incorporated into the right hand
side of the homogenized problem via effective out-of-plane moduli.
FiberFEM, a C++ finite element code for solving contact elasticity problems, is
developed. The code is based on the implementation of the algorithm for the contact
between fibers, proposed in the thesis.
Numerical examples of homogenization of geotexiles and wovens are obtained in the
work by implementation of the developed algorithm. The effective material moduli
are computed numerically using the finite element solutions of the auxiliary contact
problems obtained by FiberFEM.
This thesis deals with the relationship between no-arbitrage and (strictly) consistent price processes for a financial market with proportional transaction costs
in a discrete time model. The exact mathematical statement behind this relationship is formulated in the so-called Fundamental Theorem of Asset Pricing (FTAP). Among the many proofs of the FTAP without transaction costs there
is also an economic intuitive utility-based approach. It relies on the economic
intuitive fact that the investor can maximize his expected utility from terminal
wealth. This approach is rather constructive since the equivalent martingale measure is then given by the marginal utility evaluated at the optimal terminal payoff.
However, in the presence of proportional transaction costs such a utility-based approach for the existence of consistent price processes is missing in the literature. So far, rather deep methods from functional analysis or from the theory of random sets have been used to show the FTAP under proportional transaction costs.
For the sake of existence of a utility-maximizing payoff we first concentrate on a generic single-period model with only one risky asset. The marignal utility evaluated at the optimal terminal payoff yields the first component of a
consistent price process. The second component is given by the bid-ask prices
depending on the investors optimal action. Even more is true: nearby this consistent price process there are many strictly consistent price processes. Their exact structure allows us to apply this utility-maximizing argument in a multi-period model. In a backwards induction we adapt the given bid-ask prices in such a way so that the strictly consistent price processes found from maximizing utility can be extended to terminal time. In addition possible arbitrage opportunities of the 2nd kind vanish which can present for the original bid-ask process. The notion of arbitrage opportunities of the 2nd kind has been so
far investigated only in models with strict costs in every state. In our model
transaction costs need not be present in every state.
For a model with finitely many risky assets a similar idea is applicable. However, in the single-period case we need to develop new methods compared
to the single-period case with only one risky asset. There are mainly two reasons
for that. Firstly, it is not at all obvious how to get a consistent price process
from the utility-maximizing payoff, since the consistent price process has to be
found for all assets simultaneously. Secondly, we need to show directly that the
so-called vector space property for null payoffs implies the robust no-arbitrage condition. Once this step is accomplished we can à priori use prices with a
smaller spread than the original ones so that the consistent price process found
from the utility-maximizing payoff is strictly consistent for the original prices.
To make the results applicable for the multi-period case we assume that the prices are given by compact and convex random sets. Then the multi-period case is similar to the case with only one risky asset but more demanding with regard to technical questions.
Molybdänoxobisperoxokomplexe von Pryrazolylpryridinliganden sind Katalysatoren für die Epoxidierung von Olefinen (Alkenen). Bereits in früheren Arbeiten der Arbeitsgruppe Thiel zeigte sich, dass das Verhältnis der beiden Isomere der Komplexe (Isomer A: Pyrazolring in trans-Position zur Oxogruppe und Isomer B: Pyridinring in trans-Position zur Oxogruppe) in Lösung vom Substitutionsmuster am Pyrazolring abhängt. Außerdem konnte eine Abhängigkeit der turn-over-Frequenz (TOF, katalytische Aktivität) bei der Epoxidierung vom Isomerenverhältnis A:B der Komplexe beobachtet werden. Spektroskopische und theoretische Betrachtungen der Arbeitsgruppe Thiel führten zu einer näheren Aufklärung des Katalysemechanismuses. Die Ursachen für die Korrelation der TOF und des Isomerenverhältnisses von den elektronischen Eigenschaften der Substituenten am Pyrazolring konnten aber nicht gefunden werden. Das Ziel dieser Arbeit war deshalb eine nähere Betrachtung der elektronischen Verhältnisse in Molybdänoxobisperoxokomplexen von Pyrazolylpyridinen. Dazu wurde eine kombinierte experimentelle und elektronische Ladungsdichtestudie in Zusammenarbeit mit dem AK Scherer der Universität Augsburg durchgeführt, um die Beziehung zwischen Ligandstruktur und den beobachteten katalytischen Aktivitäten näher zu untersuchen. Aus den Untersuchungen konnten eine Reihe wichtiger Erkenntnisse über die Ausprägung elektronenreicher und –armer Positionen in den Komplexen gewonnen werden, die Rückschlüsse auf Reaktionswege und Aktivitäten zulassen. Unteranderem konnte eine gute Erklärung für die Abhängigkeit des Isomerenverhältnisses in Lösung vom Substitutionsmuster am Pyrazolring abgeleitet werden. Eine schlüssige Erklärung für die Abhängigkeit der TOF bei der Epoxidierung ließ sich daraus jedoch nicht entnehmen. In diesem Zusammenhang konnte aber eine bisher angenommene mögliche Erklärung für diese Beobachtung, durch eine 195Pt-NMR-Studie an Pyrazolylpyridindichloroplatin(II)komplexen untermauert werden. Die Lage des Signals für das Platinzentralatom war in den 195Pt-NMR-Spektren verschiedener Platinkomplexe mit unterschiedlich substituierten Pyrazolylpyridinliganden unterschiedlich. Es konnte eine Korrelation zwischen der Lage des Signals und den elektronischen Eigenschaften der Substituenten aufgestellt werden, die erkennen lässt, dass das Metallzentrum von den elektronenziehenden oder –schiebenden Substituenten am Pyrazolring beeinflusst wird. Diese Erkenntnis bestärkt die bisherige Annahme, dass eine mögliche Ursache für die Abhängigkeit der TOF bei der molybdänkatalysierten Epoxidierung, die Beeinflussung der Lewisazidität des Molybdänzentrums durch die Substituenten am Pyrazolring ist. Weiterhin wurden im Rahmen dieser Arbeit, neben der Synthese einer Vielzahl an Pyrazolylpyridinliganden und den entsprechenden Molybdän(VI)oxobisperoxo- und Dichloroplatin(II)komplexen, verschieden substituierte Pyridinylpyrimidine und 4,4‘-Bipyrimidine synthetisiert.
Die über mehr als 100 Jahre gewachsenen komplexen Strukturen der Wasserver- und Abwasserentsorgungssysteme müssen sich zunehmend neuen Herausforderungen stellen. Die Forderung nach einer Anpassung hin zu flexiblen und nachhaltigen Systemen bedingt einen hohen Neu- und Umbaubedarf im Bestand. Als Alternativen und Ergänzung bestehender Systeme werden neben einer naturnahen Regenwasserbewirtschaftung auch Neuartige Sanitärsysteme diskutiert. Eine Umstellung bestehender Systeme auf Siedlungsebene findet hierbei allerdings äußert selten statt. Hierfür ist die Erarbeitung von Umgestaltungsstrategien erforderlich, um finanzielle Mittel und ökologischen Nutzen zu optimieren.
In dieser Arbeit wird ein multi-kriterielles lineares Optimierungsmodell genutzt, in dem Methoden der Projektplanungs- und Netzwerkflussprobleme verknüpft werden. Als wesentliche Nebenbedingung wird die Einhaltung der Funktionsfähigkeit der sich wandelnden Systeme und als Zielfunktionen werden ökonomische und ökologische Kosten eingeführt. Lösungen des formulierten mathematischen Problems sind Pareto-optimale funktionsfähige und zulässige Strategien der weitreichenden Integration einer ressourcenorientierten Abwasserbewirtschaftung. Als Ergebnis liegt ein Instrument vor, dass die Entscheidungsfindung zur Umgestaltung von bestehenden siedlungswasserwirtschaftlichen Infrastrukturen unterstützt und mögliche Kosten und Folgewirkungen zeitlich und räumlich differenziert aufzeigen kann.
Das Optimierungsmodell wurde an zwei Untersuchungsgebieten angewandt und optimale Umgestaltungsstrategien zu unterschiedlichen nachhaltigen Zielzuständen analysiert sowie eine Sensitivitätsanalyse bezüglich wichtiger Optimierungsparameter durchgeführt. Die Ergebnisse zeigen, dass die generelle Umsetzbarkeit einer weitreichenden Teilstromseparation gewährleistet ist, wenn neue Elemente zur Bewirtschaftung, Behandlung und Ableitung zeitlich optimiert integriert werden. Mögliche Umgestaltungen werden keine linearen Anpassungen an Zielwerte, Veränderungen von Umweltauswirkungen oder Kostenflüsse verursachen. Es ergeben sich vielmehr über den Umsetzungszeitraum veränderliche Verläufe, die je nach Zielgewichtung von ökonomischen und ökologischen Kosten große Wirkungen zu Beginn oder zum Ende der Betrachtungsdauer zeigen. Vor allem die Gewichtung der beiden Kosten und die Auswahl der zu minimierenden ökologischen Kriterien haben einen großen Einfluss auf die gefundenen Umgestaltungsstrategien. Die jeweiligen Empfehlungen zum Umgestaltungszeitraum, der Zielgewichtung und zur allgemeinen Vorgabe der Optimierungskriterien leiten sich vor allem aus der Veranlassung für eine Systemumgestaltung ab. Die für den spezifischen Anwendungsfall optimale Umgestaltungsstrategie kann sich nur durch Diskussion mit den Entscheidungsträgern vor Ort ergeben. Das Modell hat sich hierbei als sehr gut geeignetes Werkzeug zur Analyse der Systeme herausgestellt.
Es konnte gezeigt werden, dass eine Erweiterung derzeitiger Bewertungsmethoden hin zu Methoden, die zeitlich und räumlich differenzierte Aussagen für den ökologischen und ökonomischen Zustand ermöglichen, erforderlich ist. Die alleinige Planung und Betrachtung des zukünftigen Systemzustandes ist nicht ausreichend zur Beurteilung der Wirkungen einer weitreichenden Implementierung ressourcenorientierter Abwasserbewirtschaftung.
Image restoration and enhancement methods that respect important features such as edges play a fundamental role in digital image processing. In the last decades a large
variety of methods have been proposed. Nevertheless, the correct restoration and
preservation of, e.g., sharp corners, crossings or texture in images is still a challenge, in particular in the presence of severe distortions. Moreover, in the context of image denoising many methods are designed for the removal of additive Gaussian noise and their adaptation for other types of noise occurring in practice requires usually additional efforts.
The aim of this thesis is to contribute to these topics and to develop and analyze new
methods for restoring images corrupted by different types of noise:
First, we present variational models and diffusion methods which are particularly well
suited for the restoration of sharp corners and X junctions in images corrupted by
strong additive Gaussian noise. For their deduction we present and analyze different
tensor based methods for locally estimating orientations in images and show how to
successfully incorporate the obtained information in the denoising process. The advantageous
properties of the obtained methods are shown theoretically as well as by
numerical experiments. Moreover, the potential of the proposed methods is demonstrated
for applications beyond image denoising.
Afterwards, we focus on variational methods for the restoration of images corrupted
by Poisson and multiplicative Gamma noise. Here, different methods from the literature
are compared and the surprising equivalence between a standard model for
the removal of Poisson noise and a recently introduced approach for multiplicative
Gamma noise is proven. Since this Poisson model has not been considered for multiplicative
Gamma noise before, we investigate its properties further for more general
regularizers including also nonlocal ones. Moreover, an efficient algorithm for solving
the involved minimization problems is proposed, which can also handle an additional
linear transformation of the data. The good performance of this algorithm is demonstrated
experimentally and different examples with images corrupted by Poisson and
multiplicative Gamma noise are presented.
In the final part of this thesis new nonlocal filters for images corrupted by multiplicative
noise are presented. These filters are deduced in a weighted maximum likelihood
estimation framework and for the definition of the involved weights a new similarity measure for the comparison of data corrupted by multiplicative noise is applied. The
advantageous properties of the new measure are demonstrated theoretically and by
numerical examples. Besides, denoising results for images corrupted by multiplicative
Gamma and Rayleigh noise show the very good performance of the new filters.
This thesis addresses challenges faced by small package shipping companies and investigates the integration of 1) service consistency and driver knowledge aspects and 2) the utilization of electric vehicles into the route planning of small package shippers. We use Operations Research models and solution methods to gain insights into the newly arising problems and thus support managerial decisions concerning these issues.
Due to their N-glycosidase activity, ribosome-inactivating proteins (RIPs) are attractive candidates as antitumor and antiviral agents in medical and biological research. In the present study, we have successfully cloned two different truncated gelonins into pET-28a(+) vectors and expressed intact recombinant gelonin (rGel), recombinant C-terminally truncated gelonin (rC3-gelonin) and recombinant N- and C-terminally truncated gelonin (rN34C3-gelonin). Biological experiments showed that all these recombinant gelonins have no inhibiting effect on MCF-7 cell lines. These data suggest that the truncated-gelonins are still having a specific structure that does not allow for internalization into cells. Further, truncation of gelonin leads to partial or complete loss of N-glycosidase as well as DNase activity compared to intact rGel. Our data suggest that C-and N-terminal amino acid residues are involved in the catalytic and cytotoxic activities of rGel. In addition, the intact gelonin should be selected as a toxin in the immunoconjugate rather than truncated gelonin.
In the second part, an immunotoxin composed of gelonin, a basic protein of 30 kDa isolated from the Indian plant Gelonium multiflorum and the cytotoxic drug MTX has been studied as a potential tool of gelonin delivery into the cytoplasm of cells. Results of many experiments showed that, on the average, about 5 molecules of MTX were coupled to one molecule of gelonin. The MTX-gelonin conjugate is able to reduce the viability of MCF-7 cell in a dose-dependent manner (ID50, 10 nM) as shown by MTT assay and significantly induce direct and oxidative DNA damage as shown by the alkaline comet assay. However, in-vitro translation toxicity MTX-gelonin conjugates have IC50, 50.5 ng/ml which is less toxic than that of gelonin alone IC50, 4.6 ng/ml. It can be concluded that the positive charge plays an important role in the N-glycosidase activity of gelonin. Furthermore, conjugation of MTX with gelonin through α- and γ- carboxyl groups leads to the partial loss of its anti-folate activity compared to free MTX. These results, taken together, indicate that conjugation of MTX to gelonin permits delivery of the gelonin into the cytoplasm of cancer cells and exerts a measurable toxic effect.
In the third part, we have isolated and characterized two ribosome-inactivating proteins (RIPs) type I, gelonin and GAP31, from seeds of Gelonium multiflorum. Both proteins exhibit RNA-N-glycosidase activity. The amino acid sequences of gelonin and GAP31 were identified by MALDI and ESI mass spectrometry. Gelonin and GAP31 peptides - obtained by proteolytic digestion (trypsin and Arg-C) - are consistent with the amino acid sequence published by Rosenblum and Huang, respectively. Further structural characterization of gelonin and GAP31 (tryptic and Arg-C peptide mapping) showed that the two RIPs have 96% similarity in their sequence. Thus, these two proteins are most probably isoforms arisen from the same gene by alternative splicing. The ESI-MS analysis of gelonin and GAP31 exhibited at least three different post-translational modified forms. A standard plant paucidomannosidic N-glycosylation pattern (GlcNAc2Man2-5Xyl0-1 and GlcNAc2Man6-12Fuc1-2Xyl0-2) was identified using electrospray ionization MS for gelonin on N196 and GAP31 on N189, respectively. Based on these results, both proteins are located in the vacuoles of Gelonium multiflorum seeds.
Phosphane nehmen eine herausragende Stellung als Liganden in der homogen Katalyse ein. In der Arbeitsgruppe Thiel wurde kürzlich ein neuartiges Verfahren zur Synthese von Triarylphosphanen entwickelt. Im ersten Teil der Arbeit stand daher die Weiterentwicklung dieser fluoridkatalysierten Phosphor-Aryl-Kupplung im Mittelpunkt. Ein wichtiges Ziel hierbei war die Übertragung der Reaktionen in einen größeren Maßstab. In einem Ansatz konnte 1 kg an (4-[3-(N,N-Dimethylamino)prop-2-en-1-onyl]phen-yl)diphenylphosphan in einer Pilotanlage synthetisiert werden. Diese Verbindung diente als „Plattformchemikalie“ und ermöglichte die Synthese weiterer Pyrazol- und Pyrimidinderviate. Insbesondere gelang davon ausgehend die Synthese von Verbindungen, die mit einem Sulfonsäure- oder Hydroxamsäurelinker modifiziert sind.
Im zweiten Teil der Arbeit wurde das Prinzip der fluoridkatalysierten Phosphor-Aryl-Kupplung auf Amine übertragen. Die Motivation dafür ergab sich aus dem Vorkommen des N-Arylheterocyclen-Strukturmotivs in vielen Pharmazeutika. Eine entsprechende Erweiterung der Anwendungsbreite dieses Verfahrens sollte sich daher positiv auf die Vermarktungschancen auswirken. Ausgehend von Versuchen mit Trimethylsilylimidazol und Trimethylsilylpyrrolidin wurde eine milde und allgemein anwendbare Methode für die Synthese von N-Arylaminen entwickelt. Hierbei liegt der Vorteil insbesondere darin, dass auf den stöchiometrischen Einsatz von Basen verzichtet werden kann.
Der Hauptteil der Arbeit beschäftigte sich mit der Immobilisierung von phosphonsäurefunktionalisierten Triphenylphosphankomplexen auf Metalloxiden. Die Immobilisierung von homogenen Katalysatoren auf festen Trägermaterialien bietet großes Potential, um das Problem der Katalysatorabtrennung zu lösen. Der für die Immobilisierung benötigte Ligand 3-[4-(Diphenylphosphanyl)benzoylamino]propyl-1-phosphonsäurediethylester konnte über eine konvergente Synthese mit sieben Schritten synthetisiert werden. Ausgehend von diesem Liganden und dem entsprechenden Phosphonsäurederivat wurden Palladium- und Rhodiumkomplexe synthetisiert. Diese Komplexe wurden auf Titandioxid, Zirconiumdioxid und superparamagnetischen Eisenoxidnanopartikeln immobilisiert. Durch IR-Spektroskopie, thermogravimetrische Analyse und Festkörper-Kernspinresonanzspektroskopie konnte die Anbindung des jeweiligen Komplexes auf dem Trägermaterial belegt werden. Die erhaltenen Hybridmaterialien wurden erfolgreich für die Suzuki-Miyaura-Kupplung und die Hydrierung von Alkenen eingesetzt. Dabei konnten die Katalysatoren mehrfach wiederverwendet werden und zeigten eine gute Aktivität und Anwendungsbreite.
The scientific intention of this work was to synthesize and characterize new bidentate, tridentate and multidentate ligands and to apply them in heterogenous catalysis. For each type of the ligands, new methods of synthesis were developed. Starting from 1,1'-(pyridine-2,6-diyl)diethanone and dimethylpyridine-2,6-dicarboxylate different bispyrazolpyridines were
synthesized and novel ruthenium complexes of the type (L)(NNN)RuCl2 could be obtained. The complexes with L = triphenylphosphine turned out to be highly efficient
catalyst precursors for the transfer hydrogenation of aromatic ketones. Introduction of a butyl group in the 5-positions of the pyrazoles leads to a pronounced increase of catalytic activity.
To find a method for the synthesis of bispyrimidinepyridines, different reactants and condition were applied and it was found that these tridentate ligands can be obtained by mixing and grinding the tetraketone with guanidinium carbonate and silica, which plays the role of a catalyst in this ring closing reaction.
The bidentate 2-amino-4-(2-pyridinyl)pyrimidines were synthesized from different substrates according to the desired substituent on the pyrimidine ring.
Reacting these bidentate ligands with the ruthenium(II) precursor [(η6-cymene)Ru(Cl)(μ
2-Cl)]2 gave cationic ruthenium(II) complexes of the type [(η6-cymene)Ru(Cl)(adpm)]Cl (adpm = chelating 2-amino-4-(2-yridinyl)pyrimidine ligand). Stirring the freshly prepared complexes with either NaBPh4, NaBF4 or KPF6, the chloride anion was exchanged against other coordinating anions (BF4-, PF6-, BPh4-).Some of these ruthenium complexes have shown very special activities in the transfer hydrogenation of ketones by reacting them in the absence of the base. This led to detailed investigations on the mechanism of this reaction. According to the activities and with the help
of ESI-MS experiments and DFT calculations, a mechanism was proposed for the transfer hydrogenation of acetophenone in the absence of the base. It shows that in the absence of the base, a C-H bond activation at the pyrimidine ring should occur to activate the catalyst.
The palladium complexes of bidentate N,N ligands were examined in coupling reactions. As expected, they did not show very special activities.
Multidentate ligands, having pyrimidine groups as relatively soft donors for late transition metals and simultaneously possessing a binding position for a hard Lewis-acid, could be obtained using the new synthesized bidentate and tridentate ligands.
Die Arbeit zielt im Wesentlichen auf die Berücksichtigung der aus technischen Anlagen resultierenden Risiken in der räumlichen Planung durch Vorsorge ab und verbindet diese Elemente mit der inhaltlichen, sachlichen sowie zeitlichen Steuerung räumlicher Nutzungsentwicklung
hinsichtlich ihrer Ordnung und Entwicklung auf strategischer und operativer Planungsebene. Die Thematisierung des Risikos wird anhand der verwendeten Konzepte in der Risikoforschung,
der Analyse und der Bewältigung von Risiken durchgeführt. Im Folgenden wird die Relevanz
technischer Risiken als integrativer Bestandteil der Raumplanung und in diesem Zusammenhang
als eine zu bewältigende Aufgabe im Rahmen der Stadtplanung und Stadtentwicklung
dargestellt.
Dies wird durch die synoptische Zusammenstellung der historischen Stadtentwicklung und der
Ausformung technischer Risiken sowie durch ihre Bewältigung im Sinne räumlicher Risikovorsorge
anhand der Darstellung bestimmter Entwicklungslinien und Leitbilder verdeutlicht. Diese führen in eine Zusammenstellung planerischer Grundkonstellationen über, die im Wesentlichen
auf den entwicklungsbedingt unterschiedlichen Konstellationen risikobezogener Nachbarschaften
unverträglicher Nutzungen beruhen und einer vorsorgebezogen- räumlichen Bewältigung
bedürfen.
Die Fokussierung auf rechtliche Rahmenbedingungen spannt den Bogen zur normativen Umsetzung
räumlicher Risikovorsorge und ihren differenzierten Ausprägungen im Raumplanungsund
Umweltrecht. Als besonders belangvoll werden dabei die europarechtlichen Vorgaben des
Land Use Planning im Art. 12 der Richtlinie 96/82/EG – Seveso II- Richtlinie und ihre Übertragungen
auf nationalstaatlicher Ebene dargestellt und die Umsetzungsgrenzen diskutiert.
Die konzeptionelle Realisierung des Schutzes vor den Auswirkungen technischer Risiken wird anhand der Leitfadenerstellung der Kommission für Anlagensicherheit (KAS) zur Umsetzung räumlicher Risikovorsorge durch langfristige Schaffung und die dauerhafte Sicherung von Abständen zwischen Betriebsbereichen der Störfall- Verordnung sowie schutzbedürftigen Gebieten
im Rahmen der Bauleitplanung dargestellt.
Auf dieser Basis wird eine Modellentwicklung räumlicher Vorsorge auf überörtlicher und örtlicher Ebene durchgeführt. Diese bildet die strategischen und operativen Vorsorgeelemente auf die Ebenen der Standort-, Abstands- sowie Entwicklungsplanung ab. Die Umsetzung auf instrumenteller
Ebene erfolgt durch die Verbindung der entwickelten Modellelemente auf
raumordnerischer sowie bauleitplanerischer Ebene mit den raumrelevanten Erfordernissen
räumlicher Risikovorsorge im planerischen Störfallschutz.
Dies betrifft nicht nur Neuplanungen, sondern insbesondere die Beachtung der Anforderungen
bei Entwicklungen im Siedlungsbestand hinsichtlich der Abbildung privater und öffentlicher
Aspekte des planerischen Störfallschutzes. Die heterogene Entwicklung und Vorsorge von Betriebsstandorten
und Siedlungen werden dabei hinsichtlich ihrer risikovorsorgebezogenen
Adaptionsfähigkeit überprüft. Dies schließt im Weiteren auch eine Betrachtung und Überprüfung instrumenteller Ausgestaltungsmöglichkeiten und ihrer Alternativen unter raum- und stadtplanerischen Gesichtspunkten mit in die Überlegungen ein.
Dealing with information in modern times involves users to cope with hundreds of thousands of documents, such as articles, emails, Web pages, or News feeds.
Above all information sources, the World Wide Web presents information seekers with great challenges.
It offers more text in natural language than one is capable to read.
The key idea for this research intends to provide users with adaptable filtering techniques, supporting them in filtering out the specific information items they need.
Its realization focuses on developing an Information Extraction system,
which adapts to a domain of concern, by interpreting the contained formalized knowledge.
Utilizing the Resource Description Framework (RDF), which is the Semantic Web's formal language for exchanging information,
allows extending information extractors to incorporate the given domain knowledge.
Because of this, formal information items from the RDF source can be recognized in the text.
The application of RDF allows a further investigation of operations on recognized information items, such as disambiguating and rating the relevance of these.
Switching between different RDF sources allows changing the application scope of the Information Extraction system from one domain of concern to another.
An RDF-based Information Extraction system can be triggered to extract specific kinds of information entities by providing it with formal RDF queries in terms of the SPARQL query language.
Representing extracted information in RDF extends the coverage of the Semantic Web's information degree and provides a formal view on a text from the perspective of the RDF source.
In detail, this work presents the extension of existing Information Extraction approaches by incorporating the graph-based nature of RDF.
Hereby, the pre-processing of RDF sources allows extracting statistical information models dedicated to support specific information extractors.
These information extractors refine standard extraction tasks, such as the Named Entity Recognition, by using the information provided by the pre-processed models.
The post-processing of extracted information items enables representing these results in RDF format or lists, which can now be ranked or filtered by relevance.
Post-processing also comprises the enrichment of originating natural language text sources with extracted information items by using annotations in RDFa format.
The results of this research extend the state-of-the-art of the Semantic Web.
This work contributes approaches for computing customizable and adaptable RDF views on the natural language content of Web pages.
Finally, due to the formal nature of RDF, machines can interpret these views allowing developers to process the contained information in a variety of applications.
Diese Dissertation besteht aus zwei aktuellen Themen im Bereich Finanzmathematik, die voneinander unabhängig sind.
Beim ersten Thema, "Flexible Algorithmen zur Bewertung komplexer Optionen mit mehreren Eigenschaften mittels der funktionalen Programmiersprache Haskell", handelt es sich um ein interdisziplinäres Projekt, in dem eine wissenschaftliche Brücke zwischen der Optionsbewertung und der funktionalen Programmierung geschlagen wurde.
Im diesem Projekt wurde eine funktionale Bibliothek zur Konstruktion von Optionen
entworfen, in dem es eine Reihe von grundlegenden Konstruktoren gibt, mit denen
man verschiedene Optionen kombinieren kann. Im Rahmen der funktionalen Bibliothek
wurde ein allgemeiner Algorithmus entwickelt, durch den die aus den Konstruktoren
kombinierten Optionen bewertet werden können.
Der mathematische Aspekt des Projekts besteht in der Entwicklung eines neuen Konzeptes zur Bewertung der Optionen. Dieses Konzept basiert auf dem Binomialmodell, welches in den letzten Jahren eine weite Verbreitung im Forschungsgebiet der Optionsbewertung fand. Der kerne Algorithmus des Konzeptes ist eine Kombination von mehreren
sorgfältig ausgewählten numerischen Methoden in Bezug auf den Binomialbaum. Diese
Kombination ist nicht trivial, sondern entwikelt sich nach bestimmten Regeln und ist eng mit den grundlegenden Konstruktoren verknüpft.
Ein wichtiger Charakterzug des Projekts ist die funktionale Denkweise. D. h. der Algorithmus ließ sich mithilfe einer funktionalen Programmiersprache formulieren. In unserem Projekt wurde Haskell verwendet.
Das zweite Thema, Monte-Carlo-Simulation des Deltas und (Cross-)Gammas von
Bermuda-Swaptions im LIBOR-Marktmodell, bezieht sich auf ein zentrales Problem der
Finanzmathematik, nämlich die Bestimmung der Risikoparameter komplexer Zinsderivate.
In dieser Arbeit wurde die numerische Berechnung des Delta-Vektors einer Bermuda-
Swaption ausführlich untersucht und die neue Herausforderung, die Gamma-Matrix einer Bermuda-Swaption exakt simulieren, erfolgreich gemeistert. Die beiden Risikoparameter spielen bei Handelsstrategien in Form des Delta-Hedgings und Gamma-Hedgings eine entscheidende Rolle. Das zugrunde liegende Zinsstrukturmodell ist das LIBORMarktmodell, welches in den letzten Jahren eine auffällige Entwicklung in der Finanzmathematik gemacht hat. Bei der Simulation und Anwendung des LIBOR-Marktmodells fällt die Monte-Carlo-Simulation ins Gewicht.
Für die Berechung des Delta-Vektors einer Bermuda-Swaption wurden drei klassische und drei von uns entwickelte numerische Methoden vorgestellt und gegenübergestellt, welche fast alle vorhandenen Arten der Monte-Carlo-Simulation zur Berechnung des Delta-Vektors einer Bermuda-Swaption enthalten.
Darüber hinaus gibt es in der Arbeit noch zwei neu entwickelte Methoden, um die Gamma-Matrix einer Bermuda-Swaption exakt zu berechnen, was völlig neu im Forschungsgebiet der Computational-Finance ist. Eine ist die modifizierte Finite-Differenzen-Methode. Die andere ist die reine Pathwise-Methode, die auf pfadweiser Differentialrechnung basiert und einem robusten und erwartungstreuen Simulationsverfahren entspricht.
Rd. 30 % bis 40 % des durchschnittlichen Trinkwasserverbrauchs in deutschen Haushalten entfällt auf die Toilettenspülung. Das dabei anfallende Abwasser, das sogenannte Schwarzwasser, enthält neben dem Spülwasser die Fäkalien Urin und Fäzes sowie Toilettenpapier. Es ist durch eine vergleichsweise hohe organische Verschmutzung sowie sehr hohe Gehalte an Nährstoffen gekennzeichnet. Aufbauend auf dem Grundgedanken, den häuslichen Schmutzwasserkreislauf zu schließen, um den Bedarf an hochwertigem Trinkwasser nachhaltig zu senken, wurde in der vorliegenden Arbeit die Anwendung des Belebungsverfahrens zur biologischen Behandlung von Toilettenabwasser erforscht.
Um den mangelnden Kenntnisstand hinsichtlich der Schwarzwasserzusammensetzung zu verbessern, wurde zunächst die Quantität und chemisch-physikalische Qualität von Schwarzwasser an drei unterschiedlichen Versuchsstandorten mit unterschiedlicher Nutzung (Wohnen, Arbeitsplatz) eingehend untersucht. Hierdurch konnten eine Vielzahl neuer Erkenntnisse zur Charakteristik von Schwarzwasser gewonnen werden und spezifische Frachten für Parameter CSB, BSB5, TKN, Pges und AFS abgeleitet werden. Mit den erarbeiteten Kennwerten wird eine deutlich verbesserte und durch die umfangreichen Messungen abgesicherte Datengrundlage zur Abschätzung des Nutzungspotenzials von Schwarzwasser und zur Bemessung von Schwarzwasserbehandlungsanlagen möglich.
Im Hinblick auf die Erforschung der Eliminationsmechanismen der im Schwarzwasser enthal-tenen Kohlenstoff-, Stickstoff- und Phosphorverbindungen unter Betriebsbedingungen wurden zwei Versuchsanlagen (SBR, MBR) an den drei Versuchsstandorten betrieben. Neben der biologischen Behandlung von Roh-Schwarzwasser und von mechanisch gereinigtem Schwarzwasser wurde die biologische Behandlung von Schwarzwasser bei Kreislaufführung untersucht.
Es wurde festgestellt, dass Schwarzwasser nach biologischer Behandlung sehr hohe Gehalte an gelöst inertem CSB aufweist. Zudem wurde ein Zusammenhang zwischen der Schwarzwasserquelle und den erreichbaren Rest-CSB-Gehalten abgeleitet. Demnach ist der bei maximalem biologischem Reinigungseffekt erreichbare CSB-Gehalt für Schwarzwasser häuslicher Herkunft etwa doppelt so hoch wie bei Schwarzwasser gewerblicher Herkunft.
Mit Hilfe von Sauerstoffzehrungsmessungen, die durch Substratzehrungsmessungen ergänzt wurden, wurden abschließend kinetische und stöchiometrische Parameter des heterotrophen und autotrophen Stoffwechsels sowie die CSB-Fraktionen von Schwarzwasser experimentell ermittelt. Die Versuche wurden unter Verwendung von mechanisch gereinigtem Schwarzwasser und SBR-Belebtschlamm durchgeführt, welcher zwei verschiedene Schlammalter aufwies. Hierdurch konnte der Einfluss der Betriebsparameter Schlammalter und Schlammbelastung auf den Stoffwechsel der jeweils gewachsenen Schwarzwasser-Belebtschlammbiozönose ermittelt werden. Bei der Fraktionierung der organischen Verbindungen konnte u.a. ein Zusammenhang zwischen den abbaubaren CSB-Fraktionen und dem Schlammalter abgeleitet werden. Die in den Praxisversuchen gewonnen Erkenntnisse hinsichtlich der Rest-CSB-Gehalte konnten damit bestätigt werden. Darüber hinaus konnte gezeigt werden, dass bei der aeroben biologischen Behandlung von Schwarzwasser eine Entkopplung von Ammonium- und Nitritoxidation auftritt. Zur Bestimmung der kinetischen und stöchiometrischen Kenngrößen der Nitrifikation wurde zudem eine modifizierte Methode vorgestellt, die es erlaubt die momentane Nitritations- und Nitratationsrate in einem Versuch zu ermitteln. In stickstoffhaltigen Abwässern oder bei hohen Abwassertemperaturen liefert die Methode einen vertiefenden Einblick in die Prozesse der Nitrifikation und wird daher zur weiteren Umsetzung empfohlen.
The goal of this thesis is to find ways to improve the analysis of hyperspectral Terahertz images. Although it would be desirable to have methods that can be applied on all spectral areas, this is impossible. Depending on the spectroscopic technique, the way the data is acquired differs as well as the characteristics that are to be detected. For these reasons, methods have to be developed or adapted to be especially suitable for the THz range and its applications. Among those are particularly the security sector and the pharmaceutical industry.
Due to the fact that in many applications the volume of spectra to be organized is high, manual data processing is difficult. Especially in hyperspectral imaging, the literature is concerned with various forms of data organization such as feature reduction and classification. In all these methods, the amount of necessary influence of the user should be minimized on the one hand and on the other hand the adaption to the specific application should be maximized.
Therefore, this work aims at automatically segmenting or clustering THz-TDS data. To achieve this, we propose a course of action that makes the methods adaptable to different kinds of measurements and applications. State of the art methods will be analyzed and supplemented where necessary, improvements and new methods will be proposed. This course of action includes preprocessing methods to make the data comparable. Furthermore, feature reduction that represents chemical content in about 20 channels instead of the initial hundreds will be presented. Finally the data will be segmented by efficient hierarchical clustering schemes. Various application examples will be shown.
Further work should include a final classification of the detected segments. It is not discussed here as it strongly depends on specific applications.
Synthese, Charakterisierung und katalytische Eigenschaften von metallsubstituierten Alumophosphaten
(2012)
Ziel der vorliegenden Arbeit war es, Alumophosphate sowohl mit sauren Eigenschaften als auch solche mit oxidierendem Charakter herzustellen. Die katalytischen Zentren wurden durch den Einbau von Metallen in das Alumophosphat-Gitter erzeugt. Dies erfolgte durch die Zugabe von Metallsalzen zum Synthesegel der zu synthesierenden Alumophosphate. Ein besonderes Augenmerk wurde hierbei auf die Metalle Mg, Co, Zn, Mn, Cr, V und Ti gerichtet. Der Einbau der Metalle erfolgte an 10-Ring und 12-Ring Alumophosphaten. Die metallhaltigen 10 Ring Alumophosphate mit AEL und ATO Strukturen und 12-Ring Alumophosphate der AFI, ATS und AFO-Topologie sollten anschließend mittels physikalisch-chemischer Methoden charakterisiert werden. Hierzu gehörten:
- Röntgen-Pulverdiffraktometrie,
- Temperaturprogrammierte Desorption (TPD),
- Stickstoff-Adsorption,
- UV/Vis-Spektroskopie,
- IR-Spektroskopie.
Ein Schwerpunkt der vorliegenden Arbeit stellte die Untersuchung der katalytischen Eigenschaften der hergestellten und charakterisierten Proben dar. Ausgewählte Cr-, V- und Ti-haltige Katalysatoren wurden in der Flüssigphasenoxidation von Cyclohexen mit wässriger Wasserstoffperoxid- oder tert-Butylhydroperoxid-Lösung (TBHP) getestet. Die eingesetzten metallhaltigen Alumophosphate wiesen eine katalytische Aktivität für die Cyclohexen-Oxidation bei 80 °C auf. Während der Reaktion entstanden 1,2-Cyclohexandiol, 2-Cyclohexenol, 2-Cyclohexenon, Cyclohexenoxid und Cyclohexandion als Hauptprodukte. Die aus technischen Gesichtspunkten interessante Adipinsäure konnte zu keinem Zeitpunkt beobachtet werden. Die Aktivität der eingesetzten Katalysatoren wird durch die unterschiedlichen in die Alumophosphate eingebauten Metalle beeinflusst. Auch die Topologie der hergestellten Materialien beeinflusste den Verlauf der Reaktion. Der Einsatz von TBHP und H2O2 als Oxidationsmittel führte teilweise zu einem unterschiedlichen Produktbild. Nach mehreren Stunden wurde eine Desaktivierung der Katalysatoren beobachtet. Durch eine erneute Kalzination der in der Katalyse einsetzen Proben konnte die Aktivität fast vollständig wieder hergestellt werden.
In der Disproportionierung von Ethylbenzol erwiesen sich die Co-, Mn-, Mg- und Zn-haltigen Alumophosphate als aktive Katalysatoren. Bei den Umsetzungen an Alumophosphaten mit unterschiedlichem Metallgehalt entstanden ortho-, meta- und para-Diethylbenzol als Hauptprodukte. Hierbei wiesen Mg-haltige Katalysatoren die höchste Aktivität auf. Bei einem Metallgehalt von nMg/nAl = 0,01 entstanden neben den bisher erwähnten Hauptprodukten auch Triethylbenzole. Die Aktivität der eingesetzten Alumophosphate nimmt in der Reihenfolge MgAPO > CoAPO > ZnAPO > MnAPO ab. Diese Reihenfolge steht im Einklang mit den Ergebnissen aus den Aciditäts-Untersuchungen mittels TPD. Die Porengeometrie der verwendeten Alumophosphate übt einen entscheidenden Einfluss auf das Produktbild aus. Weitporige Alumophosphate mit der AFI und ATS Topologie weisen die höchsten Umsätze an Ethylbenzol auf. Alumophosphate des AFO und AEL besitzen einen geringeren Porendurchmesser und zeigen eine geringere Aktivitat in der Disproportionierung von Ethylbenzol. Zudem treten wegen des geringeren Porendurchmessers formselektive Effekte auf. So wird das schlankere para-Diethylbenzol bevorzugt gebildet. Katalysatoren auf Basis des ATO Alumophosphates zeigten keine signifikante Aktivitat.
In der vorliegenden Arbeit wurden die Verbesserungsmöglichkeiten der Mikro- und Ultrafiltration durch Ultraschall untersucht. Für die Analyse möglicher Mechanismen der Ultraschalleinkopplung, die zu einer Verbesserung der Membranfiltration führen könnten, wurden wichtige Erkenntnisse aus den beiden Technologiefeldern (Ultraschalltechnik und Membranfiltration) zusammengetragen. Für die Vielzahl der Ansätze zur Nutzung des Ultraschalls in der Membranfiltration wurde eine Systematik entwickelt. Zahlreiche Ansätze wurden in orientierenden Experimenten untersucht und bewertet. Ein wichtiger Aspekt bei der Bewertung der Methoden bestand in der Skalierbarkeit der Technologiekombinationen. Als Hauptakteure der Reinigungswirkung wurden gut sichtbare Bläschen in der Größenordnung von 10-500 µm identifiziert. Die erfolgreichste Methode stellt die durch Ultraschallreinigung unterstützte Rückspülung dar. Auf Basis dieser Erkenntnisse wurde eine Übertragung der Ultraschallreinigung auf ein handelsübliches Kapillarmembranmodul durchgeführt. Bei ersten Filtrationsversuchen mit natürlichem Oberflächenwasser konnten Schäden an der Membran festgestellt werden, die auf eine lokale Kavitationsstruktur an der Ankopplungsstelle des Ultraschallwandlers zurückzuführen waren. Bei geringeren Ultraschallleistungen und bei der Nutzung höherer Frequenzen traten keine Schäden an der Membran auf. Im Vergleich zu einem Referenzmodul konnten deutliche Verbesserungen durch die Einkopplung des Ultraschalls an verschiedenen Stoffsystemen nachgewiesen werden. Die Arbeit schließt mit Vorschlägen für Membranmodule mit integriertem Leistungsultraschall, die aus technischer Sicht empfehlenswert erscheinen.
Mechanisms underlying the biological effects of coffee and its constituents are incompletely understood. Many effects have been attributed solely to caffeine, neglecting that coffee is a mixture of many chemical substances. Some authors suggest that the main mechanism of action of caffeine is to antagonize adenosine receptors (AR); a second effect is the inhibition of phosphodiesterases with the subsequent accumulation of cAMP and an intensification of the effects of catecholamines. Although the inhibition of phosphodiesterases may contribute to the actions of caffeine, there is growing evidence that most pharmacological effects of this xanthine result from antagonism of AR.
One of the main objectives of this work was to investigate whether substances other than caffeine in coffee may influence the homeostasis of intracellular cyclic nucleotides in vitro and in vivo. The influence of selected coffee compounds, extracts and brews on key elements involved in the adenosine receptor-mediated signaling pathway have been investigated.
A further aim of this work was also to determine if coffee or some coffee constituents may have a stimulatory effect on the cellular heme oxygenase activity (HO-activity). Two coffee extracts, a slightly (AB1) and an intensively roasted coffee (AB2), were studied along with selected individual compounds. Caffeine and low substituted pyrazines showed no effect on the HO-activity, while NMP, pyrazines with a greater substitution pattern such as Tetramethylpyrazine (TMP) and 2-Ethyl-3,5(6)-dimethylpyrazine (2-E-3,5-DMP) and both coffee extracts significantly induced the HO-activity in liver hepatocellular carcinoma (HepG2), intestinal colo-rectal adenocarcinoma (Caco-2) and in some instances in monocytic leukemia (MM6) cells.
It was found that caffeine, theophylline, coffee extracts from conventional or functional coffees, pyrazines (2,3-DE-6-MP, 2-Isobutyl-3-methoxyP), 5-CQA and caffeic acid all significantly inhibited the basal cytoplasmatic PDE activity in lysates of lung tumour xenograft cells (LXFL529L) and human platelets. To a somewhat lesser extent, PDE inhibition was also found in experiments performed with paraxanthine and other pyrazines (2-E-3,5-DMP, TMP and 2-E-5-MP). Thus the degree of roasting has a considerable impact on constituents of influence for PDE activity. Caffeine, coffee polyphenols and some pyrazines and further, as yet unknown roasting products appear to represent the main modulating constituents.
In two coffee intervention studies, a short-term (8 weeks) and a long-term study (24 weeks), comprising 8 and 84 healthy volunteers respectively, we examined extracellular key elements of the adenosine pathway including plasma adenosine levels and adenosine deaminase activity. Additionally, we studied the intracellular cAMP concentration and the PDE activity in platelets as surrogate biomarkers of adipocytes.
Results of in vitro experiments had suggested that the concentrations of caffeine and coffee extracts required to obtain a half maximal inhibition were in the upper range of physiological conditions. Yet, it was demonstrated for the first time in vivo that moderate consumption of coffee can modulate the activity of platelet phosphodiesterases in humans in long and short term. In both studies, the first exposure to coffee showed a strong inhibition (p<0.001) of the PDE activity in the platelet lysates of the participants while the second coffee phase showed no or a slight effect when compared with the first coffee intervention.
In both studies a significant increase (p<0.001) in intraplatelet cAMP concentrations during the wash-out phase (after the first coffee phase) was observed. This response could be due to inhibition of the PDE activity in the previously phase extending in to the wash out phase. However, the behavior of cAMP in the following study phases cannot be easily explained. It may be hypothesized that this effect is attributable to adaptive effects to allow PDE inhibition. One possibility is the modulation of the expression of membrane-bound adenosine receptors in platelet precursors, which still have a nucleus. This may potentially influence adenylate cyclase activity in mature platelets. For the observed effects, in addition to caffeine other ingredients of coffee appear to play a role. The findings suggest that monitoring of cAMP homeostasis in platelets is not a useful surrogate biomarker for effects in other tissues.
Neither the activity of adenosine deaminase nor the adenosine concentrations in plasma were markedly modulated by the coffee consumption in both trials. This may reflect the fact that adenosine is subject to quick and effective enzymatic turnover by phosphorylation (adenosine kinase) or deamination (adenosine deaminase) allowing keep its concentration within a well balanced homeostasis. However, it is also well known, that considerable variability exists in the responses to coffee drinking. In part, such variability is due to caffeine tolerance, but there is also evidence for a genetic background.
Altogether the data reported here provide further evidence for the perception that coffee consumption is associated with beneficial health effects demonstrated for the cAMP enhancement in platelets, known to counteract platelet aggregation. The effects observed for the influence of cellular heme oxygenase (HO) are in line with the well documented antioxidative activity of coffee and its constituents.
Acrylamid und Acrolein gehören zu den alpha,beta-ungesättigten Carbonylverbindungen. Sie zeichnen sich wie andere alpha,beta-ungesättigte Carbonylverbindungen durch eine hohe Reaktionsfähigkeit aus. Einerseits können sie leicht mit Proteinen und DNA reagieren, was zytotoxische und genotoxische Wirkungen hervorrufen kann, andererseits können sie aber auch schnell durch Glutathionkonjugation detoxifiziert werden.
Acrylamid ist eine in großem Umfang produzierte Industriechemikalie, die hauptsächlich Anwendung bei der Herstellung von Polyacrylamidprodukten findet. Aus Acrylamid hergestellte Polymere und Copolymere werden in der Kosmetikindustrie, als Bindemittel bei der Papierherstellung, als Flockungsmittel in der Abwasseraufbereitung und in biochemischen Laboratorien verwendet. Nachdem Acrylamid-Hämoglobin-Addukte im Jahre 2002 auch in nicht Acrylamid-exponierten Personen gefunden wurden, vermutete man Lebensmittel als mögliche Expositionsquelle. Anschließende Studien konnten dies bestätigen und zeigten, dass Acrylamid beim Erhitzen von Lebensmitteln vor allem bei hohen Temperaturen im Verlauf der Maillard-Reaktion gebildet werden kann. Die World Health Organisation (WHO) beziffert die weltweite durchschnittliche Exposition mit Acrylamid über Lebensmittel auf 1-4 µg Acrylamid/kg Körpergewicht (KG) und Tag. Acrylamid zeigte in verschiedenen Studien neurotoxische, entwicklungs- und reproduktionstoxische, genotoxische und kanzerogene Wirkungen. Acrylamid wurde im Jahre 1994 von der International Agency for Research on Cancer (IARC) in die Gruppe 2A als Stoff eingestuft, der wahrscheinlich krebserzeugend beim Menschen ist.
Acrylamid wird im Organismus zum genotoxischen Metaboliten Glycidamid gegiftet. Glycidamid bildet DNA-Addukte vor allem mit dem N7 des Guanins. Glycidamid-DNA-Addukte konnten im Tierversuch an Nagern nach Verabreichung hoher Mengen Acrylamid in allen untersuchten Organen gefunden werden. Als Hauptweg der Entgiftung von Acrylamid und Glycidamid gilt die Bindung an Glutathion (GSH) und der Abbau und die Ausscheidung als Mercaptursäure (MA) in Urin. Aufgrund des oxidativen Metabolismus von Acrylamid hängt die biologische Wirkung wesentlich vom Gleichgewicht der giftenden und entgiftenden Metabolismuswege in der Leber ab.
Acrolein wird seit 1940 kommerziell zur Herstellung von Acrylsäure, dem Ausgangsprodukt für Acrylatpolymere industriell produziert. Außerdem kann Acrolein aus Aminosäuren, Fetten oder Kohlenhydraten während des Erhitzens von Lebensmitteln gebildet werden. Während der Zubereitung von kohlenhydratreichen Lebensmitteln kann Acrolein wie auch Acrylamid im Verlauf der Maillard-Reaktion entstehen. Acrolein ist als einfachster alpha,beta-ungesättigter Aldehyd hochreaktiv gegenüber Nukleophilen wie z.B. Thiol- oder Aminogruppen unter Ausbildung von Michael-Addukten. Die hohe Reaktivität und Flüchtigkeit von Acrolein führt dazu, dass derzeit nur wenig zuverlässige Daten zu Acrolein-Gehalten speziell in kohlenhydratreichen Lebensmitteln vorliegen; sofern Daten zu Gehalten vorhanden sind, bewegen sich diese im niedrigen µg/kg-Bereich. Zudem ist bisher ungeklärt, in welchem Ausmaß Acrolein zur humanen Gesamtexposition gegenüber hitzeinduzierten Schadstoffen neben Acrylamid in Lebensmitteln beiträgt. Die derzeitige Datenlage lässt eine eindeutige Risikobewertung nicht zu. Eine stetige Exposition mit Acrolein gilt als sicher. In verschiedenen Studien konnte gezeigt werden, dass die toxikologischen Effekte von Acrolein im Gegensatz zu Acrylamid insgesamt nicht auf einer erhöhten Tumorinzidenz beruhen. Daher wurde Acrolein von der IARC in Kategorie 3 eingestuft: Es gilt als möglicherweise krebserzeugend beim Menschen, allerdings ist die Datenlage nicht ausreichend, um eine eindeutige Beurteilung vornehmen zu können.
Ziel der vorliegenden Arbeit war es, die Toxikokinetik und -dynamik der beim Erhitzen von Lebensmitteln entstehenden Kontaminanten Acrylamid und Acrolein in vitro und in vivo zu untersuchen. Im Vordergrund stand die Erfassung dosisabhängiger Genotoxizität von Acrylamid sowie der MA als wichtigste Entgiftungsreaktion im Tierversuch im Bereich der derzeitigen Verbraucherexposition. Die Ergebnisse, insbesondere zur Toxikokinetik, sollten durch in vitro Versuche in primären Rattenhepatozyten untermauert werden. Außerdem sollte vergleichend die bisher kaum mithilfe von Biomarkern untersuchte nahrungsbezogene Exposition des Verbrauchers mit Acrylamid und Acrolein bestimmt werden. Eine Dosis-Wirkungsuntersuchung an Sprague Dawley (SD)-Ratten im Dosisbereich von 0,1 bis 10.000 µg/kg KG lieferte erstmals quantitative Informationen zur DNA-Adduktbildung durch den genotoxischen Acrylamid-Metaboliten Glycidamid bis in niedrigste Expositionsbereiche. In diesem Niedrigdosisbereich (0,1 bis 10 µg/kg KG) liegt die nach Einmaldosierung gemessene N7-GA-Gua-Bildung im unteren Bereich der humanen Hintergrundgewebsspiegel für DNA-Läsionen verschiedenen Ursprungs. Dieser Befund könnte die zukünftige Risikobewertung von Expositionen mit solchen genotoxischen Kanzerogenen auf eine neue und der Messung zugängliche Basis stellen. Mit der in dieser Arbeit eingesetzten extrem empfindlichen instrumentellen Analytik sind erstmals Messungen von genotoxischen Ereignissen bis in den Bereich der Verbraucherexposition möglich geworden. Es bleibt allerdings zu beachten, das Genotoxizität zwar eine notwendige, aber nicht hinreichende Bedingung für Mutagenität und maligne Transformation ist. Die auf ein genotoxisches Ereignis folgende biologische Antwort, muss jedoch in die Risikobewertung mit einbezogen werden.
In primären Rattenhepatozyten ließ sich bei Inkubation mit Acrylamid zeigen, dass GSH-Addukte deutlich früher bei niedrigeren Acrylamidkonzentrationen nachweisbar sind als Glycidamid und N7-GA-Gua-Addukte. Der direkte Vergleich der Bildung von Glycidamid mit jener der AA-GSH-Addukte ließ schließen, dass die Entgiftung von Acrylamid in primären Rattenhepatozyten bis zu dreifach schneller verläuft als die Giftung. Zusätzlich ließ sich erstmals zeigen, dass primäre Rattenhepatozyten neben der Kopplung von Xenobiotika an GSH, zumindest auch in kleinen Anteilen zur Umwandlung in die entsprechenden MA fähig sind.
Um das von Acrolein ausgehende Gefährdungspotential zu untersuchen, wurde dessen DNA-Adduktbildung in vitro untersucht. Als Biomarker für die Bildung eines Haupt-DNA-Adduktes wurde fünffach 15N-markiertes Hydroxypropanodeoxyguanosin (OH-[15N5]-PdG) synthetisiert und charakterisiert. DNA Inkubationsversuche mit Acrolein zeigten eine konzentrations- und zeitabhängige Bildung der OH-PdG-Addukte. Acrolein reagierte nur wenig langsamer als Glycidamid zu diesen Addukten.
Zur Untersuchung der Toxikokinetik von Acrylamid und Acrolein in vivo nach Aufnahme von hoch belasteten bzw. kommerziell erhältlichen Kartoffelchips wurden die Ergebnisse aus zwei Humanstudien durchgeführt und ausgewertet. Die Ausscheidungskinetiken Acrolein-assoziierter MA im Menschen korrelierten eindeutig mit der Aufnahme von Kartoffelchips. Der Vergleich der im Urin ausgeschiedenen Mengen an Acrolein- bzw. Acrylamid-assoziierten MA ließ auf eine wesentlich höhere nahrungsbezogene Exposition mit Acrolein (4- bis 12-fach) verglichen mit Acrylamid schließen. Analytische Messungen der Acroleingehalte in den Lebensmitteln hatten aber nur eine Kontamination ergeben, die nur einen geringen Anteil der expositionsbedingt im Urin erfassten MA-Mengen erklären kann. Ob Acrolein an der Lebensmittelmatrix in einer Weise gebunden vorliegt, dass es sich der analytischen Erfassung durch die zur Verfügung stehenden Verfahren wie Headspace-GC/MS entzieht und erst nach Aufnahme in den Organismus freigesetzt wird, wird Gegenstand künftiger Untersuchungen. Zusätzlich liefern die Ergebnisse beider Humanstudien starke Hinweise auf eine endogene Bildung von Acrolein, da auch in den Wash-out Phasen ein relativ hoher Anteil an Acrolein-assoziierten MA erfasst wurde. Zukünftige Untersuchungen sollten die endogene Exposition und die Bildungsmechanismen von Acrolein und anderen Alkenalen aus verschiedenen physiologischen Quellen genauer untersuchen, und in Beziehung setzen zur exogenen, ernährungsbezogenen Exposition. Ebenso sollten künftig verstärkt die Auswirkungen kombinierter Exposition durch solche erhitzungsbedingt gebildeten Stoffe untersucht werden.
Paper production is a problem with significant importance for the society and it is a challenging topic for scientific investigations. This study is concerned with the simulations of the pressing section of a paper machine. We aim at the development of an advanced mathematical model of the pressing section, which is able to recover the behavior of the fluid flow within the paper felt sandwich obtained in laboratory experiments.
From the modeling point of view the pressing of the paper-felt sandwich is a complex process since one has to deal with the two-phase flow in moving and deformable porous media. To account for the solid deformations, we use developments from the PhD thesis by S. Rief where the elasticity model is stated and discussed in detail. The flow model which accounts for the movement of water within the paper-felt sandwich is described with the help of two flow regimes: single-phase water flow and two-phase air-water flow. The model for the saturated flow is presented by the Darcy's law and the mass conservation. The second regime is described by the Richards' approach together with dynamic capillary effects. The model for the dynamic capillary pressure - saturation relation proposed by Hassanizadeh and Gray is adapted for the needs of the paper manufacturing process.
We have started the development of the flow model with the mathematical modeling in one-dimensional case. The one-dimensional flow model is derived from a two-dimensional one by an averaging procedure in vertical direction. The model is numerically studied and verified in comparison with measurements. Some theoretical investigations are performed to prove the convergence of the discrete solution to the continuous one. For completeness of the studies, the models with the static and dynamic capillary pressure–saturation relations are considered. Existence, compactness and convergence results are obtained for both models.
Then, a two-dimensional model is developed, which accounts for a multilayer computational domain and formation of the fully saturated zones. For discretization we use a non-orthogonal grid resolving the layer interfaces and the multipoint flux approximation O-method. The numerical experiments are carried out for parameters which are typical for the production process. The static and dynamic capillary pressure-saturation relations are tested to evaluate the influence of the dynamic capillary effect.
The last part of the thesis is an investigation of the validity range of the Richards’ assumption for the two-dimensional flow model with the static capillary pressure-saturation relation. Numerical experiments show that the Richards’ assumption is not the best choice in simulating processes in the pressing section.
Standard bases are one of the main tools in computational commutative algebra. In 1965
Buchberger presented a criterion for such bases and thus was able to introduce a first approach for their computation. Since the basic version of this algorithm is rather inefficient
due to the fact that it processes lots of useless data during its execution, active research for
improvements of those kind of algorithms is quite important.
In this thesis we introduce the reader to the area of computational commutative algebra with a focus on so-called signature-based standard basis algorithms. We do not only
present the basic version of Buchberger’s algorithm, but give an extensive discussion of different attempts optimizing standard basis computations, from several sorting algorithms
for internal data up to different reduction processes. Afterwards the reader gets a complete
introduction to the origin of signature-based algorithms in general, explaining the under-
lying ideas in detail. Furthermore, we give an extensive discussion in terms of correctness,
termination, and efficiency, presenting various different variants of signature-based standard basis algorithms.
Whereas Buchberger and others found criteria to discard useless computations which
are completely based on the polynomial structure of the elements considered, Faugère presented a first signature-based algorithm in 2002, the F5 Algorithm. This algorithm is famous for generating much less computational overhead during its execution. Within this
thesis we not only present Faugère’s ideas, we also generalize them and end up with several
different, optimized variants of his criteria for detecting redundant data.
Being not completely focussed on theory, we also present information about practical
aspects, comparing the performance of various implementations of those algorithms in the
computer algebra system Singular over a wide range of example sets.
In the end we give a rather extensive overview of recent research in this area of computational commutative algebra.
Neue katalytische Reaktionen zur Funktionalisierung ungesättigter Fettsäuren und ihrer Derivate
(2012)
Die Nutzbarmachung pflanzlicher Öle als erneuerbare Rohstoffquelle für die chemische Industrie gewinnt angesichts verknappender Erdölvorräte an Bedeutung. Den Schwerpunkt dieser Arbeit bildet die Entwicklung neuer katalytischer Reaktionen zur effektiven Verwertung ungesättigter Fettsäuren und ihrer Derivate durch isomerisierende Funktionalisierungen. Da sich die Doppelbindung in diesen Substraten an einer festgelegten Position befindet, ist nur eine begrenzte Anzahl von Reaktionen einsetzbar. Neue Möglichkeiten eröffnen sich durch die Verschiebung der Doppelbindung entlang der Kette in eine Position, die selektiv durch neue Methoden funktionalisiert werden kann. In dieser Arbeit wurden mehrere Übergangsmetallkatalysatoren zur schnellen Isomerisierung ungesättigter Fettsäurederivate entwickelt, die als Schlüsselkomponenten für drei neue katalytische Transformationen dienten: (1) Ein Silber-basiertes System erlaubt die direkte Lactonisierung freier Fettsäuren; (2) ein bifunktioneller Rhodiumkatalysator ermöglicht die isomerisierende Michael-Addition von Aryl- und Stickstoffnucleophilen an ungesättigte Fettsäureester; (3) ein vielseitiges Palladium/Ruthenium-System bewirkt die Umsetzung ungesättigter Fettsäurederivate in funktionalisierte Olefingemische. Diese Reaktionen zeichnen sich durch hohe Selektivitäten, gute bis exzellente Ausbeuten sowie Toleranz gegenüber funktionellen Gruppen aus. Sie erweitern das Methodenspektrum des Chemikers zur Nutzbarmachung von Oleochemikalien mittels Übergangsmetallkatalyse und eröffnen neue Wege zu bio-basierten Wertstoffen, die bisher nur auf petrochemischer Basis synthetisiert werden konnten.
Ländliche Räume stehen vor der vielschichtigen Herausforderung,
vom Wachstum der metropolitanen Räume nicht abgehängt zu werden.
Die durch die EU geförderte Regionalisierung verschiebt Handlungserfordernisse
zunehmend von der lokalen auf eine interkommunale sowie regionale
Ebene.
Zur Bewältigung der zentralen demografischen, sozialen und
ökonomisch-strukturellen Aufgabenstellungen bedarf es der konsequenten
und zielorientierten Bündelung aller regionalen Kräfte.
In der Regionalentwicklung ist derweil jedoch festzustellen, dass
sich zahlreiche regionale Initiativen etablieren, die in räumlicher
und thematischer Überschneidung parallel zueinander Regionalentwicklung
betreiben, ohne miteinander abgestimmt zu sein.
Eine koordinierte Ausrichtung auf gemeinsame Ziele der Regionalentwicklung
und mit Blick auf eine gesamtregionale Profilierung erfolgt nicht. Dies steht
dem Anstreben nach einer koordinierten Regionalentwicklung kontraproduktiv
entgegen.
Ländliche Entwicklungsinitiativen wie insbesondere LEADER sind ihren
ursprünglich landwirtschaftlich-stämmigen Kinderschuhen entwachsen.
Ihre regionalen Entwicklungskonzepte, Projekte und Maßnahmen zeigen in
weiten Teilen regionale Wirkungsweise.
Weisen konkrete LEADER-Projekte Raumbedeutsamkeit auf, dann kann sich die
für den Raum jeweils verantwortliche Regionalplanung auf raumordnungsrechtliche
Kooperationslegitimationen berufen.
Solche Kooperationen zwischen LEADER und Regionalplanung finden in der
aktuellen Praxis der Regionalentwicklung jedoch nicht statt. Die daraus resultierenden
‚Parallelstrukturen der Regionalentwicklung’ stehen der Forderung nach einer Bündelung
der regionalen Kräfte direkt entgegen.
Mit Blick auf die Lösung der benannten demografischen, sozialen oder wirtschaftlichen
Herausforderungen im ländlichen Raum ist eine abgestimmte koordinierte Regionalentwicklung
jedoch unbedingt erforderlich. Nicht zuletzt kann durch optimierte Kooperationsstrukturen
im regionalen Raum beispielsweise die Effizienz von generierten Fördermitteln wesentlich
gesteigert werden. Nur durch die Effizienz der Fördermittel und der Entwicklungsstrategien
wiederum können synergetische Prozesse initiiert werden und die ländlichen Räume als
gemeinsamer Potenzialraum profitieren.
Mit der Optimierung der organisatorischen Rahmenbedingungen zum Miteinander von Regionalplanung
und ländlichen regionalen Entwicklungsprozessen (neben LEADER vor allem ILE) können
strategische Allianzen der Regionalentwicklung gefördert werden.
Bleiben diese wichtigen Weichenstellungen künftig weiterhin aus, könnten die ländlichen Räume
zunehmend an Bedeutung verlieren. Nur durch die gebotene organisatorische und thematische Bündelung
regionaler Initiativen und Ressourcen sind die Herausforderungen bestmöglich zu meistern und eine
koordinierte Regionalentwicklung praktikabel.
Development of New Methods for the Synthesis of Aldehydes, Arenes and Trifluoromethylated Compounds
(2012)
In the 1st project, successful development of 2nd generation of a palladium catalyst for the selective hydrogenation of carboxylic acids to aldehydes was accomplished. This project was done in cooperation with Dipl. Chem. Thomas Fett from Boeringer Ingelheim, Austria. The new catalyst is highly effective for the conversion of diversely functionalized aromatic, heteroaromatic and aliphatic carboxylic acids to the corresponding aldehydes in the presence of pivalic anhydride at 5 bar hydrogen pressure, which was otherwise achieved either at 30 bar of hydrogen pressure or by using waste intensive hypophosphite bases as reducing agent. Our method has increased the synthetic importance of this valuable transformation. Selective hydrogenation of carboxylic acids to the corresponding aldehydes is now possible with industrial hydrogenation equipment as well as laboratory scale glass autoclaves. It might also convince the synthetic organic chemists to use this transformation for routine aldehyde synthesis in the laboratories.
In the 2nd project, a microwave assisted Cu-catalyzed protodecarboxylation of arenecarboxylic acids to arenes is achieved. This work was done in collaboration with Dipl. Chem. Filipe Manjolinho under the supervision of Dr. Nuria Rodríguez. In the presence of 1-5 mol% of inexpensive CuI/1,10-phenanthroline catalyst generated in situ under microwave radiations, diversely functionalized arenes and heteroarene carboxylic acids have been decarboxylated to the corresponding arenes in good yields at 190 °C in 5-15 min. The loss of volatile arenes with the release of CO2 is controled by the use of sealed high pressure resistant microwave vessels. These reactions are highly beneficial for parallel synthesis in drug discovery due to their short reaction time. Microwave technology will also help in the future to develop more effective catalysts for protodecarboxylation rections.
Based on the microwave assisted protodecarboxylation strategy, decarboxylative coupling of arenecarboxylic acids with aryl triflates and tosylates was also conducted under microwave radiation which provided higher yields of the corresponding biphenyls from deactivated substrates in short reaction time compared to the conventional heating.
In the 3rd project, crystalline, potassium (trifluoromethyl)trimethoxyborate was successfully applied for the synthesis of benzotrifluorides under the oxidative conditions. This project was done in cooperation with Dipl. Chem. Annette Buba. In the presence of Cu(OAc)2 and molecular oxygen, arylboronates were coupled with K+[CF3B(OMe)3] in DMSO at 60 °C. A variety of benzotriflurides was synthesized in good yields under the optimized reaction conditions. This protocol for the oxidative trifluoromethylation of arylboronates is the base for the development of decarboxylative trifluoromethylation reaction of arenecarboxylic acids.
The 4th project discloses the simple and straightforward synthesis of trifluoromethylated alcohols by nucleophilic addition of potassium (trifluoromethyl)trimethoxyborate to carbonyl compounds. This project was done in cooperation with Dr. Thomas Knauber and Dipl. Chem. Annette Buba. In the presence of K+[CF3B(OMe)3] in THF at 60 °C, diversely functionalized aldehydes and ketones were successfully converted into the corresponding trifluoromethylated alcohols.
The 3rd and 4th projects demonstrate the successful establishment of crystalline and shelf stable potassium (trifluoromethyl)trimethoxyborate as highly versatile CF3-source in nucleophilic trifluoromethylation reactions. These new protocols are characterized by their user-friendliness and broad applicability under mild reaction conditions, thus they are beneficial for late stage introduction of CF3-group into organic molecules.
Die weltweite Verbreitung Penicillin-resistenter Bakterienstämme, darunter auch S. pneumoniae, stellt ein erhebliches medizinisches Problem dar. Resistenzen gegen Antibiotika können mittels horizontalem Gentransfer zwischen verschiedenen Streptokokken-Spezies ausgetauscht und somit verbreitet werden. In diesem Zusammenhang ist es wichtig die Vorgänge bei der Entstehung und Ausbreitung der β-Lactamresistenz zu verstehen. Im Fokus dieser Arbeit stand die Analyse des horizontalen Gentransfers zwischen den beiden Spezies Streptococcus mitis und Streptococcus pneumoniae und die daraus resultierende Entwicklung der β-Lactamresistenz.
Ausgangspunkt dieser Arbeit war die CCCB-Transformantenfamilie, welche durch die sukzessive Transformation von S. pneumoniae R6 mit chromosomaler DNA von S. mitis B6 und Selektion mit β-Lactamantibiotika generiert wurde. Dabei konnten bisher ungeklärte Faktoren der Resistenzentwicklung dieser Stämme identifiziert werden. Im Rahmen dieser Arbeit wurde eindeutig bewiesen, dass PBP2a in Kombination mit PBP2x aus S. mitis B6 einen entscheidenden Beitrag zur β-Lactamresistenz leistet.
Ein weiterer Schwerpunkt dieser Arbeit bestand in der Charakterisierung der Ursache des Resistenzunterschieds zwischen CCCB und CCCO. Diese zwei hochresistenten Stämme der vierten Transformationsstufe weisen scheinbar das gleiche Profil nieder-affiner Varianten aller fünf hochmolekularen PBP auf. Es konnte im Zuge dieser Arbeit gezeigt werden, dass das murM Gen aus S. mitis B6 lediglich in CCCB ausgetauscht wurde. Weiterführende Experimente bestätigten, dass sowohl MurMB6 als auch MurMHu17 aus einem resistenten S. pneumoniae Isolat, das über einen nahezu identischen Mosaikblock wie MurMB6 verfügt, erhöhte β-Lactamresistenz vermitteln. Das Mosaik-MurMB6 trägt somit entscheidend zur höheren Resistenz von CCCB bei. Zudem wurde nachgewiesen, dass der Resistenzunterschied zwischen CCCB und CCCO zusätzlich durch die Anwesenheit des kompletten PBP2bB6 in CCCB verursacht wird. Dabei konnte herausgestellt werden, dass die Aminosäuresubstitutionen des C-Terminus von PBP2bB6, die in CCCO nicht vorhanden sind, eine zentrale Rolle bei der Entwicklung von β-Lactamresistenz spielen.
Ein weiterer Fokus dieser Arbeit lag auf der Identifizierung möglicher neuer Resistenzdeterminanten, welche von S. mitis B6 auf den bereits hochresistenten Stamm CCCB übertragen werden könnten. Durch die Transformation chromosomaler S. mitis B6 DNA in CCCB und Selektion mit diversen β-Lactamantibiotika konnten Stämme mit erhöhter β-Lactamresistenz isoliert werden. DNA-Microarray-Analysen dieser CCCB-Derivate dienten der Detektion möglicher übertragener Gene. Anstelle ausgetauschter, intakter Genloci zeigten diese Mutanten jedoch die Inaktivierung der Gene spr0683 bzw. spr1851. Im Rahmen dieser Arbeit wurde gezeigt, dass der beobachtete Resistenzanstieg aus der Deletion dieser beiden Gene resultiert. Beide Gene kodieren für hypothetische Proteine mit potentiellen Nukleinsäure-bindenden R3H- bzw. KH-Domänen. Die genaue Funktion beider Domänen ist nicht bekannt. Transkriptionsanalysen der Deletionsderivate von spr0683 und spr1851 dienten als Screening-Methode für einen möglichen durch das Fehlen der Gene beeinflussten Effekt auf transkriptioneller Ebene. Die veränderte Genexpression einer möglichen Resistenzdeterminante (ClpL) deutete zunächst auf einen möglichen Zusammenhang mit den Resistenzphänotypen der Deletions-derivate hin. Weiterführende Versuche widerlegten dies jedoch. Zukünftige Untersuchungen müssten noch offene Fragen hinsichtlich der potentiellen Funktion der beiden hypothetischen Proteine klären.
On Gyroscopic Stabilization
(2012)
This thesis deals with systems of the form
\(
M\ddot x+D\dot x+Kx=0\;, \; x \in \mathbb R^n\;,
\)
with a positive definite mass matrix \(M\), a symmetric damping matrix \(D\) and a positive definite stiffness
matrix \(K\).
If the equilibrium in the system is unstable, a small disturbance is enough to set the system in motion again. The motion of the system sustains itself, an effect which is called self-excitation or self-induced vibration. The reason behind this effect is the presence of negative damping, which results for example from dry friction.
Negative damping implies that the damping matrix \(D\) is indefinite or negative definite. Throughout our work, we assume \(D\) to be indefinite, and that the system possesses both stable and unstable modes and thus is unstable.
It is now the idea of gyroscopic stabilization to mix the modes of a system with indefinite damping such
that the system is stabilized without introducing further
dissipation. This is done by adding gyroscopic forces \(G\dot x\) with a suitable
skew-symmetric matrix \(G\) to the left-hand side. We call \(G=-G^T\in\mathbb R^{n\times n}\) a gyroscopic stabilizer for
the unstable system, if
\(
M\ddot x+(D+ G)\dot x+Kx=0
\)
is asymptotically stable. We show the existence of \(G\) in space dimensions three and four.
SecB is a homotetrameric cytosolic chaperone that forms part of the protein translocation machinery in E. coli. Due to SecB, nascent polypeptides are maintained in an unfolded translocation-competent state devoid of tertiary structure and thus are guided to the translocon. In vitro SecB rapidly binds to a variety of ligands in a non-native state. We have previously investigated the bound state conformation of the model substrate bovine pancreatic trypsin inhibitor (BPTI) as well as the conformation of SecB itself by using proximity relationships based on site-directed spin labeling and pyrene fluorescence methods. It was shown that SecB undergoes a conformational change during the process of substrate binding. Here, we generated SecB mutants containing but a single cysteine per subunit or an exposed highly reactive new cysteine after removal of the nearby intrinsic cysteines. Quantitative spin labeling was achieved with the methanethiosulfonate spin label (MTS) at positions C97 or E90C, respectively. Highfield (W-band) electron paramagnetic resonance (EPR) measurements revealed that with BPTI present the spin labels are exposed to a more polar/hydrophilic environment. Nanoscale distance measurements with double electron-electron resonance (DEER) were in excellent agreement with distances obtained by molecular modeling. Binding of BPTI also led to a slight change in distances between labels at C97 but not at E90C. While the shorter distance in the tetramer increased, the larger diagonal distance decreased. These findings can be explained by a widening of the tetrameric structure upon substrate binding much like the opening of two pairs of scissors.
Die vorliegende Arbeit beschreibt die Trennung von kurzkettigen Alkan/Alken-Gemischen an nanostrukturierten porösen Adsorbentien. Zu diesem Zweck wurden unterschiedliche metallorganische Koordinationspolymere und Zeolithe synthetisiert und charakterisiert. Zur Untersuchung des Adsorptionsverhaltens dieser Adsorbentien wurden Adsorptionsisothermen von C2-, C3- und C4-Kohlenwasserstoffen bei verschiedenen Temperaturen gemessen. Die Messung der Adsorption der reinen Kohlenwasserstoffe ergab, dass die adsorbierte Stoffmenge mit der spezifischen Oberfläche des Adsorbens korreliert, sowie von der kritischen Temperatur des Adsorptivs abhängt und in der Reihenfolge C2 < C3 < C4 zunimmt. Eine Ausnahme hiervon bilden flexible metallorganische Koordinationspolymere, welche Atmungs- bzw. Porenöffnungseffekte zeigen. Die Isothermen dieser Materialien weisen Sprünge auf, wobei diese jedoch abhängig vom Druck, vom Adsorptiv und von der Temperatur sind. Die Trennung von Alkan/Alken-Gemischen an den hergestellten Adsorbentien wurde in einem kontinuierlich durchströmten Festbettadsorber untersucht. Es zeigten sich unterschiedliche Trennfaktoren in Abhängigkeit von der Porenöffnung und der Gerüststruktur der Adsorbentien. Die Untersuchung der Desorption der Kohlenwasserstoffe von Cu\(_3\)(btc)\(_2\) ergab, dass der Desorptionsprozess bei Raumtemperatur nur sehr langsam verläuft. Es zeigte sich, dass die zur Desorption erforderliche Temperatur nimmt steigender Kohlenstoffzahl des Kohlenwasserstoffs zunimmt.
In this thesis we outline the Kerner's 3-phase traffic flow theory, which states that the flow of vehicular traffic occur in three phases i.e. free flow, synchronized flow and wide moving jam phases.
A macroscopic 3-phase traffic model of the Aw-Rascle type is derived from the microscopic Speed Adaptation 3-phase traffic model
developed by Kerner and Klenov [J. Phys. A: Math. Gen., 39(2006), pp. 1775-1809 ].
We derive the same macroscopic model from the kinetic traffic flow model of Klar and Wegener [SIAM J. Appl. Math., 60(2000), pp. 1749-1766 ] as well as that of Illner, Klar and Materne [Comm. Math. Sci., 1(2003), pp. 1-12 ].
In the above stated derivations, the 3-phase traffic theory is constituted in the macroscopic model through a relaxation term.
This serves as an incentive to modify the relaxation term of the `switching curve' model of Greenberg,
Klar and Rascle [SIAM J. Appl. Math.,63(2003), pp.818-833 ] to obtain another macroscopic 3-phase traffic model, which is still of the Aw-Rascle type.
By specifying the relaxation term differently we obtain three kinds of models, namely the macroscopic Speed Adaptation,
the Switching Curve and the modified Switching Curve models.
To demonstrate the capability of the derived macroscopic traffic models to reproduce the features of 3-phase traffic theory, we simulate a
multi-lane road that has a bottleneck. We consider a stationary and a moving bottleneck.
The results of the simulations for the three models are compared.
This thesis generalizes the Cohen-Lenstra heuristic for the class groups of real quadratic
number fields to higher class groups. A "good part" of the second class group is defined.
In general this is a non abelian proper factor group of the second class group. Properties
of those groups are described, a probability distribution on the set of those groups is in-
troduced and proposed as generalization of the Cohen-Lenstra heuristic for real quadratic
number fields. The calculation of number field tables which contain information about
higher class groups is explained and the tables are compared to the heuristic. The agree-
ment is close. A program which can create an internet database for number field tables is
presented.
Protonentransferkoordinaten sind von entscheidender Bedeutung in der Photochemie, wobei eine Interpretation über IR-Spektroskopie in Kombination mit theoretischen Analysen erfolgt.
Die starke Anharmonizität von Protonentransferkoordinaten macht eine Beschreibung von z.B. OH-Streckschwingungen in der harmonischen Näherung oft selbst unter Zuhilfenahme von Skalierungsfaktoren unmöglich. Im Rahmen dieser Dissertation wurde die zweidimensionale Potenzialhyperfläche von 2,5-Dihydroxybenzoesäure entlang der Protonentransferkoordinate im S1 \((^1\pi\pi^*)\)-Zustand mit der CASPT2-Methode berechnet und die zweidimensional gekoppelte Schwingungsschrödingergleichung gelöst. Hierbei konnte gezeigt werden, dass DHB im S1-Zustand keinen Protonentransfer, sondern eine Wasserstoffdislokation aufweist, d.h. die Hyperfläche über nur ein Minimum verfügt. Auch der Effekt der Kopplung in Form einer deutlichen Rotverschiebung der Frequenzen konnte gezeigt werden. Für 3-Hydroxyflavon wurden die Potenzialhyperflächen der Protonentransferkoordinaten in einer, zwei und drei Dimensionen für den elektronischen Grundzustand (S0) mit DFT und den S1 \((^1\pi\pi^*)\)-Zustand mit TDDFT bestimmt. Die zugehörigen gekoppelten Schwingungsschrödingergleichungen wurden in einer Basis von Hermite-Funktionen mit dem Ritzschen Variationsverfahren gelöst. Hierbei konnte in allen drei Modellen (ein-, zwei- und dreidimensional) gezeigt werden, dass es sich bei den im OH-Streckschwingungsbereich (2750-3800 cm\(^{-1}\)) gemessenen Frequenzen um Obertöne handelt. Die Protonentransferpfade konnten ebenfalls eindeutig bestimmt werden.
Die Bildung anionischer Kobaltkomplexe mit alkoholischen Liganden wird durch Wasserstoffbrücken gesteuert. Durch DFT-Rechnungen konnten den im AK Gerhards gemessenen IR-Spektren Strukturen zugeordnet werden. Durch die starke Abhängigkeit der Strukturen der Kobaltcluster von ihrer Spinmultiplizität gelang auch eine Zuordnung der Strukturen zu Multiplizitäten. Somit konnte theoretisch gezeigt werden, dass es durch IR-Spektroskopie möglich ist, Spins von Übergangsmetallkomplexen zu bestimmen. Darüber hinaus wurde der Einfluss der Entropie auf die Stabilitäten der möglichen Konformere der Kobaltkomplexe in Abhängigkeit der Temperatur untersucht werden. Hierbei konnte gezeigt werden, dass mit zunehmender Temperatur eine einzelne Anlagerung der Liganden an den Metallkern bevorzugt wird.
The increasing complexity of modern SoC designs makes tasks of SoC formal verification
a lot more complex and challenging. This motivates the research community to develop
more robust approaches that enable efficient formal verification for such designs.
It is a common scenario to apply a correctness by integration strategy while a SoC
design is being verified. This strategy assumes formal verification to be implemented in
two major steps. First of all, each module of a SoC is considered and verified separately
from the other blocks of the system. At the second step – when the functional correctness
is successfully proved for every individual module – the communicational behavior has
to be verified between all the modules of the SoC. In industrial applications, SAT/SMT-based interval property checking(IPC) has become widely adopted for SoC verification. Using IPC approaches, a verification engineer is able to afford solving a wide range of important verification problems and proving functional correctness of diverse complex components in a modern SoC design. However, there exist critical parts of a design where formal methods often lack their robustness. State-of-the-art property checkers fail in proving correctness for a data path of an industrial central processing unit (CPU). In particular, arithmetic circuits of a realistic size (32 bits or 64 bits) – especially implementing multiplication algorithms – are well-known examples when SAT/SMT-based
formal verification may reach its capacity very fast. In cases like this, formal verification
is replaced with simulation-based approaches in practice. Simulation is a good methodology that may assure a high rate of discovered bugs hidden in a SoC design. However, in contrast to formal methods, a simulation-based technique cannot guarantee the absence of errors in a design. Thus, simulation may still miss some so-called corner-case bugs in the design. This may potentially lead to additional and very expensive costs in terms of time, effort, and investments spent for redesigns, refabrications, and reshipments of new chips.
The work of this thesis concentrates on studying and developing robust algorithms
for solving hard arithmetic decision problems. Such decision problems often originate from a task of RTL property checking for data-path designs. Proving properties of those
designs can efficiently be performed by solving SMT decision problems formulated with
the quantifier-free logic over fixed-sized bit vectors (QF-BV).
This thesis, firstly, proposes an effective algebraic approach based on a Gröbner basis theory that allows to efficiently decide arithmetic problems. Secondly, for the case of custom-designed components, this thesis describes a sophisticated modeling technique which is required to restore all the necessary arithmetic description from these components. Further, this thesis, also, explains how methods from computer algebra and the modeling techniques can be integrated into a common SMT solver. Finally, a new QF-BV SMT solver is introduced.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
Im Bereich der Automobilelektronik ist eine Zunahme an Fahrerassistenzsystemen zu bemerken, die den Fahrer neben einer warnenden Funktion durch autonomes aktives Eingreifen in seiner Fahraufgabe unterstützen. Dadurch entsteht eine hohe Anforderung an die funktionale Sicherheit dieser Systeme, um ein einwandfreies Verhalten in allen Fahrsituationen zu garantieren und sicherheitskritische Situationen zu vermeiden oder zu entschärfen. Die funktionale Sicherheit derartiger Fahrerassistenzsysteme muss u. a. durch adäquate Testmethoden und einen effizienten Umgang damit innerhalb der etablierten industriellen Entwicklungsprozesse erhöht und sichergestellt werden.
Diese Arbeit bietet einen Überblick über existierende wissenschaftliche wie industrielle Ansätze zum Testen von Automobilelektronik sowie über aktive Fahrerassistenzsysteme. Der Schwerpunkt wird dabei auf diejenigen Systeme gelegt, die Informationen über ihre Umgebung aus Kamerasensoren gewinnen. Aus der Herausforderung, die funktionale Absicherung derart sicherheitskritischer Systeme zu gewährleisten, werden spezifische Anforderungen abgeleitet. Aus dem „Delta“ zwischen Anforderungen und Stand der Technik ergibt sich ein Handlungsbedarf, um neue Methoden und für deren Anwendung nötige Vorgehensweisen und Werkzeuge zu erforschen bzw. bestehende zu erweitern.
Die Methode des „Visual Loop Tests“ wird dafür vorgestellt. Sie kann durch die Anwendung sog. Grafik-Engines als neuer Bestandteil der Test-Technologien zur Absicherung eingesetzt werden. Dabei werden fotorealistische Grafiken zur Stimulation der Assistenzsysteme erzeugt. Die für die effiziente Anwendung dieser Technologien benötigten neuen Vorgehensweisen zur Beschreibung und Erzeugung von Testfällen in einem visuell repräsentierbaren Format werden erarbeitet.
Dadurch können moderne Assistenzfunktionen gleichzeitig effizienter, zuverlässiger, sicherer und kostengünstiger entwickelt werden und die Sicherheit auf den Straßen wird erhöht. Die erste empirische Bewertung im Rahmen der prototypischen Umsetzung bestärkt diese Einschätzung.
In urban planning, both measuring and communicating sustainability are among the most recent concerns. Therefore, the primary emphasis of this thesis concerns establishing metrics and visualization techniques in order to deal with indicators of sustainability.
First, this thesis provides a novel approach for measuring and monitoring two indicators of sustainability - urban sprawl and carbon footprints – at the urban neighborhood scale. By designating different sectors of relevant carbon emissions as well as different household categories, this thesis provides detailed information about carbon emissions in order to estimate impacts of daily consumption decisions and travel behavior by household type. Regarding urban sprawl, a novel gridcell-based indicator model is established, based on different dimensions of urban sprawl.
Second, this thesis presents a three-step-based visualization method, addressing predefined requirements for geovisualizations and visualizing those indicator results, introduced above. This surface-visualization combines advantages from both common GIS representation and three-dimensional representation techniques within the field of urban planning, and is assisted by a web-based graphical user interface which allows for accessing the results by the public.
In addition, by focusing on local neighborhoods, this thesis provides an alternative approach in measuring and visualizing both indicators by utilizing a Neighborhood Relation Diagram (NRD), based on weighted Voronoi diagrams. Thus, the user is able to a) utilize original census data, b) compare direct impacts of indicator results on the neighboring cells, and c) compare both indicators of sustainability visually.
Gegenstand der vorliegenden Dissertation war die Erarbeitung eines besseren Verständnisses für ein grundlegendes Konzept der molekularen Erkennung - den Intra-Rezeptor-Wechselwirkungen. In zwei Projekten sollte dies mit Hilfe von Modellsystemen verwirklicht werden.
Im ersten Projekt wurden verschiedene Bis(kronenether)-Derivate synthetisiert, um den Einfluss der Intra-Rezeptor-Wechselwirkungen systematisch untersuchen zu können. Die Synthese lieferte die Derivate als Gemisch von Diastereomeren, wobei für ein Derivat mit Camphanoylsubstituenten die Trennung der Diastereomere nach chromatographischer Trennung erfolgreich realisiert werden konnte. Die lösungsmittelabhängige Charakterisierung der Kaliumkomplexierung der Bis(kronenether)-Derivate in Methanol/Wasser-Gemischen erfolgte mittels isothermer Titrationskalorimetrie (ITC). Es zeigten sich unterschiedliche Einflüsse in den Enthalpie- und Entropiebeiträgen der einzelnen Derivate, welche sich allerdings aufgrund von Enthalpie-Entropie-Kompensation nicht in unterschiedlichen Werten für ∆G äußern. Darauf aufbauend wurde ein weiteres Modellsystem konzipiert, welches einen Azakronenether als Grundkörper aufweist. Die Ausgangsverbindung hierfür wurde synthetisiert und eine Kristallstruktur des Natriumiodid-Komplexes ergab wichtige strukturelle Hinweise für die Durchführbarkeit weiterer Arbeiten.
Im zweiten Projekt sollte untersucht werden, ob die Eigenschaften eines bekannten cyclischen Hexapeptids, bei Bindung von Anionen Intra-Rezeptor-Wechselwirkungen auszunutzen, auf ein strukturell ähnliches System übertragen werden können. Ein cyclisches Pseudohexapeptid sowie das kleinere cyclische Pseudotetrapeptid, in welchen 1,5-disubstituierte 1,2,3-Triazole die cis-Amide an den Prolinuntereinheiten der entsprechenden cyclischen Peptide imitieren, wurden synthetisiert. Die hohe konformationelle Übereinstimmung der cyclischen Pseudopeptide zu den cyclischen Peptiden konnte über Kristallstrukturanalyse und 1H-NMR spektroskopische Untersuchungen nachgewiesen werden.
Die Bindungseigenschaften des cyclischen Pseudohexapeptids gegenüber Anionen wurden mit Hilfe der NMR-Spektroskopie und der Isothermen Titrationskalorimetrie (ITC) untersucht. Das cyclische Pseudohexapeptid bindet anorganische Anionen mit außergewöhnlich hohen Bindungskonstanten in kompetitiven Wasser/Methanol Lösungsmittelgemischen unter Ausnutzung von Intra-Rezeptor-Wechselwirkungen. Des Weiteren konnte gezeigt werden, dass die intrinsische Anionenaffinität von diesem Derivat größer ist als bei dem cyclischen Hexapeptid.
This research work focuses on the generation of a high resolution digital surface model featuring complex urban surface characteristics in order to enrich the database for runoff simulations of urban drainage systems. The discussion of global climate change and its possible consequences have taken centre stage over the last decade. Global climate change has triggered more erratic weather patterns by causing severe and unpredictable rainfall events in many parts of the world. The incidence of more frequent rainfall has led to the problem of increased flooding in urban areas. The increased property values of urban structures and threats to people's personal safety have hastened the demand for a detailed urban drainage simulation model for accurate flood prediction. Although the use of 2D hydraulic modelling approach in rural floodplains is in practice for quite a long time, the use of the same approach in urban floodplains is still in its infancy. The reason is mainly due to the lack of a high resolution topographic model describing urban surface characteristics properly.
High resolution surface data describing hydrologic and hydraulic properties of complex urban areas are the prerequisite to more accurately describing and simulating the flood water movement and thereby taking adequate measures against urban flooding. Airborne LiDAR (Light detection and ranging) is an efficient way of generating a high resolution Digital Surface Model (DSM) of any study area. The processing of high-density and large volume of unstructured LiDAR data is a difficult and time-consuming task towards generating fine resolution spatial databases when considering only human intervention. The application of robust algorithms in terms of processing this massive volume of data can significantly reduce the data processing time and thereby increase the degree of automation as well as accuracy.
This research work presents a number of techniques pertaining to processing, filtering and classification of LiDAR point data in order to achieve higher degree of automation and accuracy towards generating a high resolution urban surface model. This research work also describes the use of ancillary datasets such as aerial images and topographic maps in combination with LiDAR data for feature detection and surface characterization. The integration of various data sources facilitates detailed modelling of street networks and accurate detection of various urban surface types (e.g. grasslands, bare soil and impervious surfaces).
While the accurate characterization of various surface types contributes to the better modelling of rainfall runoff processes, the application of LiDAR-derived fine resolution DSM serves as input to 2D hydraulic models and capable of simulating surface flooding scenarios in cases the sewer systems are surcharged.
Thus, this research work develops high resolution spatial databases aiming at improving the accuracy of hydrologic and hydraulic databases of urban drainage systems. Later, these databases are given as input to a standard flood simulation software in order to: 1) test the suitability of the databases for running the simulation; 2) assess the performance of the hydraulic capacity of urban drainage systems and 3) predict and visualize the surface flooding scenarios in order to take necessary flood protection measures.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss- Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert, sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln. Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen. Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen Wissensstand abbildet und der Ingenieurpraxis gerecht wird. Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007) sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien. Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich. Laborversuche sollten jedoch gesondert bewertet werden. Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet, wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen. Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen, dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen Kriterien unterschiedliche Dimensionierungen ableiten lassen.
Sekretionssysteme ermöglichen Bakterien nicht nur die Kommunikation mit ihrer Umwelt, sie spielen auch eine große Rolle in der Virulenz. Mit Virulenz werden auch Typ VII-Sekretionssysteme in Verbindung gebracht, die ausschließlich in Gram-positiven Bakterien vorkommen. Substrate dieser Systeme sind u.a. kleine Proteine mit einem zentralen WXG-Motiv, die sogenannten WXG-100 Proteine, die im gleichen Locus kodiert werden. Das ESX-1 System, das u.a. in M. tuberculosis und S. aureus vorkommt, ist ein bisher vor allem in diesen Organismen untersuchtes Typ VII-Sekretionssystem.
Im Gegensatz zu seinem pathogenen Verwandten S. pneumoniae besitzt S. oralis Uo5 Gene, die für ein ESX-1 Sekretionssystem kodieren. Bislang wurde ein solches System in Strepto-kokken nicht untersucht und es war unklar, ob dieses exprimiert wird und welche Funktion es in diesen Bakterien erfüllt.
Im Fokus dieser Arbeit stand nun die Charakterisierung des ESX-1 Sekretionssystems von S. oralis Uo5 und dessen Verbreitung in anderen Streptokokken. Dabei belegten Transkrip-tionsstudien, dass ein interner Terminator zwischen dem ersten und zweiten Gen (esxA und esaA) die Transkription negativ beeinflusst. Trotz der niedrigen Transkriptmenge der downstream des Terminators gelegenen Gene konnte die Funktionalität des Systems durch den Nachweis der beiden WXG-100 Proteine EsxA und EsxB im Cytoplasma und im Kultur-medium bestätigt werden. Der Nachweis der WXG-100 Proteine erfolgte mit Antiseren, die im Rahmen dieser Arbeit gegen die rekombinant hergestellten und aus E. coli isolierten WXG-100 Proteine generiert worden waren. Durch eine Deletion des Gens, das in anderen Organismen für eine FtsK/SpoIIIE-ATPase kodiert, wurde gezeigt, dass auch dieses Protein in S. oralis Uo5 für die Sekretion der WXG-100 Proteine essentiell ist.
Die Daten von CD-spektroskopischen Analysen lassen vermuten, dass EsxA und EsxB, wie in anderen Organismen bereits gezeigt, als lineare Proteine vorliegen, die hauptsächlich aus α-Helices bestehen. Diese Daten zeigen auch, dass EsxA im Gegensatz zu EsxB eine höhere Stabilität besitzt. Durch die Kombination von Gelfiltration und Crosslinking-Experimenten mittels Glutaraldehyd konnte die Bildung von EsxA-Homodimeren bestätigt werden.
Mit Hilfe von Antikörpern konnte EsxA in einer Reihe von S. oralis Stämmen nachgewiesen werden; die Verbreitung des ESX-1 Systems konnte durch PCR-Analysen bestätigt werden. Eine vergleichende Analyse bekannter Genomdaten in silico bestätigt, dass dieses Cluster in verschiedenen Streptokokken-Spezies vorkommt. Eine phylogenetische Analyse der Gene esxA und essC im Vergleich mit dem in allen Bakterien konservierten Gen gyrA verdeutlicht, dass das ESX-1 System als Teil des akzessorischen Genoms angesehen werden kann, das sich über horizontalen Gentransfer verbreiten kann.
In dieser Arbeit wird somit zum ersten Mal ein Typ VII-Sekretionssystem in Streptokokken untersucht. Die Charakterisierung auf molekularer Ebene legt einen Grundstein für die Erforschung der Rolle des ESX-1 Systems in vivo.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag
zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken
reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der
hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss-
Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert,
sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse
in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand
der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln.
Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen.
Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine
detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches
für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand
wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen
verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen
Wissensstand abbildet und der Ingenieurpraxis gerecht wird.
Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am
RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007)
sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen
in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage
durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft
der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung
dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung
aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien.
Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen
vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich.
Laborversuche sollten jedoch gesondert bewertet werden.
Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes
und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe
Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen
belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des
Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet,
wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe
der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen
herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie
vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen.
Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf
die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen
wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen
Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen,
dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten
Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung
von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit
einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die
Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie
zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen
Kriterien unterschiedliche Dimensionierungen ableiten lassen.
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
Die Kopplung der Schalen mehrschichtiger Stahlbetonwandtafeln mit innenliegender
Wärmedämmung kann mit stabförmigen Verbindungsmitteln aus
glasfaserverstärktem Kunststoff (GFK) erfolgen. Diese Verankerungen weisen
gegenüber Edelstahlverankerungen Vorteile hinsichtlich der Dauerhaftigkeit und des
thermischen Verhaltens auf. Infolge der begrenzten Verformbarkeit der
Verbindungsmittel und zur Sicherstellung der Verankerung der Verbindungsmittel in
den Schalen sind für die Wandelemente neben den Nachweisen zur Tragfähigkeit
auch Nachweise im Grenzzustand der Gebrauchstauglichkeit zu führen.
Gegenstand der vorliegenden Arbeit ist die wirklichkeitsnahe Ermittlung der
Schnittgrößen in der Vorsatzschale und die Berechnung der Relativverschiebung
zwischen den Schalen als Grundlage der Nachweiseführung. Insbesondere bei
hohen, schlanken Wandelementen ist das Verbundtragverhalten unter Einbeziehung
der innenliegenden Wärmedämmschicht dieser Bauteile zu berücksichtigen.
In einem ersten Bearbeitungsschritt erfolgt ein umfangreiches Versuchsprogramm
zur Analyse des Last-Verformungsverhaltens der Verbundfuge unter
Scherbeanspruchung. Darauf basierend wird ein mechanisches Modell entwickelt,
das eine allgemeingültige Berechnung der Verbundfugensteifigkeit als Grundlage der
weiteren Untersuchungen ermöglicht.
Aufbauend auf diesen Erkenntnissen werden in einem zweiten Bearbeitungsschritt
Lösungen dargelegt, welche die Berechnung der Funktionsverläufe der Schnitt- und
Verformungsgrößen aus der Verbundtragwirkung ermöglichen. Grundlage ist das
gekoppelte Differentialgleichungssystem der Sandwichtheorie. Für relevante Lastfälle
und Lagerungsbedingungen werden geschlossene, analytische Gleichungen zur
Berechnung der Extremalwerte erarbeitet. Das Berechnungsmodell wird im Rahmen
einer Versuchsreihe an mehrschichtigen Stahlbetonplattenstreifen mit den
Versuchsergebnissen verifiziert. Zur Abgrenzung von Fällen, bei denen auf eine
aufwändige Berücksichtigung der Verbundtragwirkung verzichtet werden kann,
werden Parameterstudien durchgeführt und praxisrelevante Fälle ausgewertet.
Abschließend werden grafische Berechnungshilfsmittel zur Ermittlung der maximalen
Zustandsgrößen infolge der Verbundtragwirkung angegeben.
Im dritten Teil der Arbeit wird der spezielle Fall des Einflusses einer
Ortbetonverfüllung auf das Schnittkraft- und Verformungsverhalten mehrschichtiger
Stahlbetonwandelemente betrachtet. Im Ergebnis der Untersuchungen wird
festgestellt, dass der Betonierdruck eine dauerhafte, nicht zu vernachlässigende
Vorspannung der Verbindungsmittel zur Folge hat. Für die Bemessung der
Verbindungsmittel unter Zugbeanspruchung wird empfohlen, 40% des rechnerischen
Frischbetondrucks als Zugbeanspruchung auf die Verbindungsmittel anzusetzen.
Weiterführende Untersuchungen zum Einfluss der Fugenvorspannung auf die
Schnitt- und Verformungsgrößen infolge Verbundwirkung ergeben, dass diese nicht
signifikant ist.
Numerical Algorithms in Algebraic Geometry with Implementation in Computer Algebra System SINGULAR
(2011)
Polynomial systems arise in many applications: robotics, kinematics, chemical kinetics,
computer vision, truss design, geometric modeling, and many others. Many polynomial
systems have solutions sets, called algebraic varieties, having several irreducible
components. A fundamental problem of the numerical algebraic geometry is to decompose
such an algebraic variety into its irreducible components. The witness point sets are
the natural numerical data structure to encode irreducible algebraic varieties.
Sommese, Verschelde and Wampler represented the irreducible algebraic decomposition of
an affine algebraic variety \(X\) as a union of finite disjoint sets \(\cup_{i=0}^{d}W_i=\cup_{i=0}^{d}\left(\cup_{j=1}^{d_i}W_{ij}\right)\) called numerical irreducible decomposition. The \(W_i\) correspond to the pure i-dimensional components, and the \(W_{ij}\) represent the i-dimensional irreducible components. The numerical irreducible decomposition is implemented in BERTINI.
We modify this concept using partially Gröbner bases, triangular sets, local dimension, and
the so-called zero sum relation. We present in the second chapter the corresponding
algorithms and their implementations in SINGULAR. We give some examples and timings,
which show that the modified algorithms are more efficient if the number of variables is not
too large. For a large number of variables BERTINI is more efficient.
Leykin presented an algorithm to compute the embedded components of an algebraic variety
based on the concept of the deflation of an algebraic variety.
Depending on the modified algorithm mentioned above, we will present in the third chapter an
algorithm and its implementation in SINGULAR to compute the embedded components.
The irreducible decomposition of algebraic varieties allows us to formulate in the fourth
chapter some numerical algebraic algorithms.
In the last chapter we present two SINGULAR libraries. The first library is used to compute
the numerical irreducible decomposition and the embedded components of an algebraic variety.
The second library contains the procedures of the algorithms in the last Chapter to test
inclusion, equality of two algebraic varieties, to compute the degree of a pure i-dimensional
component, and the local dimension.
Ziel der vorliegenden Arbeit war es, Systeme mit Edukten und Produkten von
Veresterungsreaktionen in ionischen Flüssigkeiten (IF)zu untersuchen. Es wurden die
Reaktionen von Ethanol, 1-Propanol und 1-Butanol mit Essigsäure zu den entsprechenden
Estern: Ethylacetat, Propylacetat und Butylacetat betrachtet. Die drei sauren ionischen
Flüssigkeiten,1-Methylimidazoliumhydrogensulfat [HMIM][HSO4], 1-Ethyl-3-methylimidazoliumhydrogensulfat
[EMIM][HSO4] und 1-Butyl-3-methylimidazoliumhydrogensulfat
[BMIM][HSO4], dienten hier als Katalysator und Extraktionsmittel zur
Aufarbeitung des Reaktionsgemisches. Ziel war es auch, durch Extraktion mit diesen
ionischen Flüssigkeiten Reaktionsprodukt(e) aus dem Reaktionsgemisch zu entfernen und
ähnlich wie bei der Reaktivdestillation das Reaktionsgleichgewicht zu stören.
Daten über das flüssig-flüssig Phasengleichgewicht wurden gesammelt. Die Experimente
umfassten einerseits ternäre nichtreaktive Systeme bestehend aus Alkohol + Ester + IF und
Essigsäure + Ester + IF, andererseits wurden reaktive Fünfkomponentensysteme, die alle
Komponenten, beteiligt an der Reaktion, plus IF enthalten, bestimmt. Um die experimentellen
Daten auf ähnliche, nicht untersuchte, Systeme übertragen zu können wurde systematisch der
Einfluss mehrerer Parameter auf das Phasengleichgewicht untersucht, wie z.B. die Länge der
Alkylkette am Kation oder am Alkohol und die Temperatur. Aus den Messungen wurde klar,
dass mit steigender Alkylkette am Kation die Mischungslücken kleiner werden und
gleichzeitig die Löslichkeit der Edukte in der ionischen Phase verbessert wird. Eine längere
Alkylkette des Alkohols (und des entsprechenden Esters) bewirkt größere Zweiphasengebiete
und verbessert die Löslichkeit der Edukte in der organischen Phase. Da generell eine gewisse
Abhängigkeit zwischen Phasengleichgewicht und erreichten Reaktionsumsatz beobachtet
wurde, lassen sich die erzielbaren Ergebnisse bei bekanntem Phasengleichgewicht abschätzen.
Der Einfluss der Temperatur auf das flüssig-flüssig Gleichgewicht wurde nur für die ternären
Systeme untersucht.
Kinetische Versuche mit IF als Katalysator ergaben relativ enttäuschende Ergebnisse. Die
Hydrogensulfate erwiesen sich als schwache Katalysatoren für diese Reaktionen. In einem
großtechnischen Prozess werden deshalb zusätzliche Katalysatoren, wie Schwefelsäure o.ä.,
notwendig sein.
Aus den experimentellen Phasengleichgewichtsdaten und den Kinetikmessungen wurden
UNIQUAC- bzw. Kinetikansatz-Parameter durch Anpassung gewonnen. Um die reaktiven
Systeme zu simulieren, wurde ein mathematisches Modell, das Phasengleichgewicht und
Reaktionsgleichgewicht in einer Gegenstromextraktionskaskade berücksichtigt, in Matlab
implementiert.
Mehrere vielversprechende Anwendungen der untersuchten ionischen Flüssigkeiten wurden
simuliert und diskutiert. Während alle untersuchten Hydrogensulfate in der Lage sind, Wasser
aus dem Ester/Reaktionsgemisch zu extrahieren, kann man nur [EMIM][HSO4] und
[BMIM][HSO4] zur Entfernung von (kürzerkettigen) Alkoholen und Säuren verwenden. Es
wurden Reaktivextraktionsverfahren für die Herstellung von Ethylacetat konzipiert, die die
Eigenschaften der jeweiligen IF ausnutzen, um im Wesentlichen Wasser aus dem
Reaktionsgleichgewicht zu entfernen und z.B. reinere Produktströme oder höhere
Reaktionsumsätze zu erreichen. Beste Aussichten auf Erfolg von allen drei Salzen hat dabei
die IF [EMIM][HSO4], da im hier vorgeschlagenen Verfahren die wenigsten zusätzlichen
destillativen Trennschritte zu erwarten sind. Die Simulationen ergeben signifikante
Einsparung an Energiekosten gegenüber Reaktivdestillationsverfahren, da hier Energie
hauptsächlich nur zum Verdampfen von Wasser notwendig ist.
Die vorliegende Dissertation beschäftigt sich mit der strukturellen Untersuchung von photochemisch reaktiven Molekülen. Hierzu wurden verschiedene kombinierte IR/UV-Techniken in Molekularstrahlexperimenten verwendet.
Es wurde 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, 3-Hydroxychromon und als metallorganische Verbindung Bis(benzol)chrom im elektronisch angeregten Zustand untersucht. Mit 7-Hydroxy-4-methylcoumarin stand auch ein mikrosolvatisiertes, photochemisch aktives System im elektronischen Grundzustand im Fokus.
Im Rahmen dieser Arbeit wurde eine neue spektroskopische Methode entwickelt, welche die isomerenselektive Messung des IR-Spektrums im elektronisch angeregten Zustand ermöglicht. Diese Quadrupelresonanztechnik wird angewendet, sollte es durch isoenergetische Anregungsenergien zum Verlust der Isomerenselektivität der R2PI-Methode kommen.
Durch Anwendung einer IR/IR-Lochbrennmethode für den elektronischen Grundzustand sowie der neuen Quadrupelresonanztechnik für den elektronisch angeregten Zustand an 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, konnte erstmals der experimentelle Beweis erbracht werden, dass es im Molekularstrahlexperiment zur Anregung und Ionisation der beiden stabilsten Isomere kommt. Desweiteren wurden für die untersuchten elektronischen Zustände sowohl die IR-Banden zugeordnet als auch eine eindeutige strukturelle Zuordnung der Isomere getroffen.
Die Studien zu 3-Hydroxychromon belegen im Vergleich mit (TD-)DFT-Rechnungen, dass es nach elektronischer Anregung zu einer Protonentransferreaktion kommt. Es konnten direkte strukturelle Informationen des Monomers sowie der protonentransferierten Struktur gewonnen werden.
Mit den spektroskopischen Untersuchungen an Bis(benzol)chrom wurde gezeigt, dass sich die massen- und isomerenselektiven Methoden auch auf die Substanzklasse der metallorganischen Verbindungen anwenden lassen. Es gelang erstmals, direkte strukturelle Informationen von Organometallverbindungen im elektronischen Grundzustand als auch nach photochemischer Anregung mittels kombinierter IR/UV-Techniken zu gewinnen. Somit ist eine strukturelle Untersuchung von katalytisch aktiven Organometallverbindungen im elektronischen Grundzustand, wie auch nach photochemischer Anregung, möglich.
Ein weiterer Schwerpunkt dieser Arbeit bildet die Untersuchung von Mikrosolvatationseffekten. Hierzu wurden Wassercluster von 7-Hydroxy-4-methylcoumarin mit vier bis sechs schrittweise angelagerten Solvatmolekülen im elektronischen Grundzustand analysiert. Mithilfe von DFT-basierten Rechnungen wurden für jede Clustergröße verschiedene Bindungsmotive diskutiert und eine mögliche strukturelle Zuordnung getroffen.
Today, polygonal models occur everywhere in graphical applications, since they are easy
to render and to compute and a very huge set of tools are existing for generation and
manipulation of polygonal data. But modern scanning devices that allow a high quality
and large scale acquisition of complex real world models often deliver a large set of
points as resulting data structure of the scanned surface. A direct triangulation of those
point clouds does not always result in good models. They often contain problems like
holes, self-intersections and non manifold structures. Also one often looses important
surface structures like sharp corners and edges during a usual surface reconstruction.
So it is suitable to stay a little longer in the point based world to analyze the point cloud
data with respect to such features and apply a surface reconstruction method afterwards
that is known to construct continuous and smooth surfaces and extend it to reconstruct
sharp features.
Die Entwicklung ländlicher strukturschwacher Regionen wird von unterschiedlichen Rahmenbedingungen und Herausforderungen beeinflusst. Eine der zentralen Herausforderungen bildet hierbei die Europäische Integration. Obwohl die Kompetenz für Raumordnung nach wie vor in erster Linie bei der nationalen Ebene liegt, entfaltet die EU über ihre Strukturpolitik, ihre raumwirksamen Fachpolitiken und die ihr zugewiesenen Kompetenzen in anderen Bereichen eine zunehmende Bedeutung für die Entwicklung ländlicher strukturschwacher Regionen.
Anhand der im Rahmen dieser Dissertation durchgeführten Analysen wird dabei deutlich, dass die EU-Strukturpolitik die Regionalentwicklung, insbesondere im Bereich des Tourismus, auf vielfältige Weise sowohl direkt als auch indirekt beeinflusst. Dies vor allem in finanzieller Hinsicht durch die Finanzierung nahezu aller touristischen Projekte in der Region Westpfalz, sowie in konzeptioneller Hinsicht durch die Systematik der Programmplanung und des damit verbundenen Mehrwertes. Dabei werden die regionalen Akteure bei der Aufstellung von Entwicklungsstrategien (bspw. im Rahmen des LEADER-Ansatzes) zu einer intensiven Auseinandersetzung mit den spezifischen Stärken, Schwächen, Entwicklungsperspektiven und Entwicklungshemmnissen der Region geführt. Daher kann die EU-Strukturpolitik letztlich als wichtigste Finanzierungsquelle bei der Realisierung touristischer Projekte angesehen werden, zudem als wesentlicher Impulsgeber für deren Entwicklung und Gestaltung. Durch das Wissen um die Förderfähigkeit touristischer Projekte innerhalb der EU-Strukturpolitik wird schließlich die Motivation der regionalen Akteure gesteigert. Aufgrund dieser Erkenntnisse kann der Einfluss der EU-Strukturpolitik auf die Entwicklung des Tourismus als bedeutend und hoch bewertet werden.
Neben der Erfassung des Einflusses sollen darüber hinaus innerhalb dieser Dissertation Problemfelder und künftige Herausforderungen bei der Umsetzung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen aufgezeigt werden. Dabei wird die Finanzschwäche der öffentlichen Haushalte, die gerade in strukturschwachen Regionen besonders ausgeprägt ist, und die damit verbundenen Probleme bei der Sicherstellung des nationalen Finanzierungsanteils als zentrales Umsetzungsproblem sichtbar. Ebenso stellen in diesem Zusammenhang der gesteigerte Wettbewerb um die zur Verfügung stehenden Strukturmittel, das zunehmende Spannungsverhältnis zwischen Ausgleichs- und Wachstumsziel, teilweise zu enge inhaltlich-konzeptionelle Vorgaben seitens der EU-Kommission, sowie der hohe verwaltungstechnische Aufwand weitere Problemfelder bei der Umsetzung der EU-Strukturpolitik dar.
Aufbauend auf diesen Erkenntnissen werden abschließend am Beispiel des Untersuchungsraumes konzeptionelle Ansätze zur Weiterentwicklung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen formuliert. Dabei werden einige zentrale Prioritäten sichtbar, deren Umsetzung zur Steigerung der Effizienz von strukturpolitischen Maßnahmen beitragen kann. In diesem Zusammenhang ist insbesondere eine konsequente Regionalisierung innerhalb der EU-Strukturpolitik anzustreben, so dass letztlich die Region als Träger der EU-Strukturpolitik anzusehen ist. Weiterhin ist an dieser Stelle eine klare Aufgaben- und Kompetenzverteilung zwischen den verschiedenen Handlungs- und Gestaltungsebenen notwendig, dies vor allem in Hinblick auf die zentrale Zielsetzung der europäischen Strukturpolitik, des Abbaus von Disparitäten innerhalb der EU. Schließlich ist eine Reform der Fördermittelvergabe unabdingbar, damit künftig sowohl wachstumsstarke, als auch strukturschwache und sog. "Übergangsregionen" durch die EU-Strukturpolitik gleichermaßen berücksichtigt werden können, und somit ein Beitrag zum politischen, sozialen und wirtschaftlichen Zusammenhalt in Europa geleistet werden kann.
Demographischer Wandel und Daseinsvorsorge - Auswirkungen kommunaler Angebote auf die Wohnortwahl
(2011)
Mit dem demographischen Wandel ist innerhalb der nächsten Jahrzehnte ein zunehmender Rückgang der Bevölkerungszahl bei gleichzeitigem Ansteigen des Durchschnittsalters der Gesamtbevölkerung verbunden. Insbesondere der Rückgang der Bevölkerungszahl wird sich v.a. aufgrund von Migrationsbewegungen regional mit unterschiedlicher Geschwindigkeit und Intensität vollziehen. Bei einer sich wandelnden Bevölkerungsstruktur und einem ansteigenden Durchschnittsalter verändern sich auch die Anforderungen an die infrastrukturelle Ausstattung. Dies liegt auf der Hand: So benötigt eine alternde Bevölkerung mehr seniorengerechte Einrichtungen, dafür aber weniger Kindergärten und Schulen. Gleichzeitig bedeutet der Rückgang der Bevölkerungszahl eine niedrigere Auslastung und damit eine geringere Tragfähigkeit jeglicher Infrastrukturen. Kostensteigerungen sind zur Aufrechterhaltung der Funktionsfähigkeit damit nahezu unumgänglich. Es wird infolgedessen zukünftig verstärkt zu einem Wettbewerb der Kommunen um Einwohner (= Infrastrukturnutzer) kommen. Dabei dürften Familien mit Kindern eine besondere Schlüsselposition einnehmen. Häufig wird – insbesondere aus kommunalpolitischer Sicht – befürchtet, dass gerade diese Bevölkerungsgruppen nicht mehr zuziehen und sogar fortziehen würden, sobald Kindergärten und Schulen aufgrund sinkender Auslastungszahlen geschlossen werden müssen.
Vor diesem Hintergrund klärt die vorliegende Arbeit die Frage, ob örtlich betrachtet ein Zusammenhang zwischen der Breite und Qualität der vorgehaltenen Leistungen öffentlicher Daseinsvorsorge einerseits und der Migrationsbilanz andererseits besteht. In der Arbeit wird darüber hinaus analysiert, inwiefern sich Zuziehende bereits zum Zeitpunkt des Zuzugs mit der heutigen Infrastrukturausstattung ihres Wohnorts auseinandersetzen und ob die Zukunftsfähigkeit der gegenwärtig vorhandenen Daseinsvorsorgeangebote bei der Wohnortwahl vor dem Hintergrund der demographischen Situation eine zentrale Rolle bei dieser Entscheidung spielt.
Als Untersuchungsraum wurde die Region Westmittelfranken in Bayern gewählt. Einerseits wird für Westmittelfranken in den Bevölkerungsprognosen eine quantitativ rückläufige Entwicklung prognostiziert (Geburtendefizit wird durch Zuwanderung nicht ausgeglichen) und andererseits kann hier aufgrund der bayernweit niedrigsten Bevölkerungsdichte die öffentliche Hand bei der Bereitstellung von zentral vorgehaltener Punktinfrastruktur aus Erreichbarkeitserwägungen heraus weit weniger flexibel auf Verschiebungen in der Altersstruktur reagieren als sie dazu in einem Ballungsraum in der Lage wäre. Mittels der Auswertung einer empirischen Befragung Zugezogener ist eine Aussage darüber möglich, inwiefern Aspekte der demographischen Struktur und Entwicklung in der Zuzugsgemeinde, der Ausstattung mit Einrichtungen der Daseinsvorsorge sowie deren Zukunftsfähigkeit eine Basis für die individuelle Entscheidung zum Zuzug boten und inwiefern bei potenziellen Schließungen von Infrastruktureinrichtungen tatsächlich der befürchtete »Exodus« in Form von Fortzügen droht.
Abschließend sind die gewonnenen Erkenntnisse zur Formulierung von Handlungsempfehlungen für die Raumordnung, Regional- und Kommunalentwicklung auf Landes-, Regions- und kommunaler Ebene herangezogen.
TRP-Proteine sind integrale Membranproteine, die Untereinheiten von Kationenkanälen bilden, die z.B. an der Schmerz und Temperaturwahrnehmung, der Absorption von Mg2+ und Ca2+ im Darm und in der Niere oder für die Freisetzung von Entzündungsmediatoren in Immunzellen verantwortlich sind.
Das in der vorliegenden Arbeit untersuchte TRPV6-Protein stellt einen hochselektiven Ca2+¬-Kanal dar, der für den tranzellulären Ca2+-Transport in Endothelzellen des Dünndarms und der Plazenta verantwortlich ist und für den bisher noch kein hochaffiner Agonist bekannt ist. Das niedrig exprimierte, integrale Membranprotein konnte ich erstmal im Rahmen meiner Diplomarbeit aus humaner Plazenta zusammen mit Annexin A2 und Cyclophilin B (CyPB) anreichern. Diese putative Interaktion zwischen dem Ionenkanal und CyPB wird im Rahmen meiner Doktorarbeit mit Coimmunpräzipitation, Saccharosedichtegradientenzentrifugation, Peptidblotanalyse und GST-Pulldown-Analysen untersucht. Hierbei kann die TRPV6-CyPB-Interaktion in Immunpräzipitationen mit unabhängigen Antikörpern bestätigt werden. Die Ergebnisse der Dichtegradientenzentrifugation belegen die Existenz von TRPV6-Multimeren bzw. von TRPV6 enthaltenden Multiproteinkomplexen. Unter diesen Bedingungen ist allerdings keine CyPB-Assoziation mit dem TRPV6-Protein festzustellen. Das Einengen der Bindestelle von CyPB im TRPV6-Protein mittels Peptidblot- und GST-Pulldown-Analyse führt zur der potentiellen Bindungsstelle mit der minimalen Aminosäuresequenz Y66EDCKV71.
Meine Ergebnisse waren Ausgangspunkt für die funktionelle Charakterisierung der TRPV6-CyPB-Interaktion in Xenopus laevis Oozyten, die zeigt, dass CyPB den Ionenkanal aktiviert. Die Bindung zwischen beiden Proteinen ist offenbar wenig affin und scheint nur unter den gegebenen Solubilisierungsbedingungen nachweisbar.
Zur Erhaltung möglicher kalziumabhängiger Proteinbindungen wird die zuvor benutzte mehrstufige TRPV6-Affinitätschromatographie, bestehend aus einer CaM- und einer TRPV6-Antikörpersäule, durch eine einstufige Affinitätsreinigung ersetzt. Zur Solubilisierung und Isolierung des TRPV6-enthaltenden Proteinkomplexes eignen sich hierbei insbesondere die nichtionischen Detergenzien Dodecyl-β-D-maltosid (DDM) und Digitonin.
Zur Auftrennung und Untersuchung der isolierten TRPV6-Proteinkomplexe kann weiterhin eine zweidimensionale Blue Native-Gelelektrophorese (BN-PAGE) etabliert und die daraus isolierten Proteine massenspektrometrisch analysiert werden. Für die Auftrennung der TRPV6-Proteinkomplexe in der BN-PAGE eigenen sich ebenfalls am besten die nichtionischen Detergenzien DDM und Digitonin. Das TRPV6-Protein wird nach der nativen BN-PAGE als Bestandteil eines oder mehrerer Proteinkomplexe mit einem Molekulargewicht von 440 - 670 kDa detektiert.
Abschließend wird die Übertragbarkeit der für TRPV6 etablierten Vorgehensweise zur Isolierung von Membranproteinkomplexen auf andere TRP-Kanalproteine in verschiedenen Geweben gezeigt. So kann TRPV6 aus Mausplazenta und das TRPC6-Membranprotein aus murinen Mastzellen und Mauslungengewebe mittels Coimmunpräzipitation und Affinitätschromatographie isoliert und spezifisch detektiert werden.
Die Entwicklung eines neuartigen Therapiekonzeptes erfordert umfangreiche Prüfungen insbesondere für die Sicherheit der Anwendung am Menschen. Die Verwendung des apathogenen, onkoselektiven, replikationskompetenten Parvovirus H-1 (H-1PV) zur onkolytischen Virotherapie bei bösartigen Hirntumoren (Glioblastome) ist eine vielversprechende Alternative (oder Ergänzung) zu den bisherigen Therapien, wie Operation, Chemotherapie und Bestrahlung. In unserer Arbeitsgruppe konnte gezeigt werden, dass H-1PV in der Lage ist, nach einmaliger intratumoraler oder mehrfacher intravenöser Applikation im Rattengliom-Modell eine vollständige Regression des Tumors ohne pathologische Nebenwirkungen herbeizuführen. In Vorbereitung einer klinischen Studie Phase I/IIa mit H-1PV wurden in dieser Arbeit wichtige Aspekte dieser neuartigen Virotherapie untersucht:
1. Ausscheidung und Übertragung von H-1PV in vivo in der Ratte
Es konnte gezeigt werden, dass infektiöse Viren in Urin und Speichel unabhängig von der Applikationsart und der Anwesenheit eines Tumors ausgeschieden werden, was bedeutet, dass eine Übertragung von H-1PV durch Tröpfcheninfektion stattfinden könnte. In klinischen Studien muss daher geprüft werden, ob das Virus auch vom Menschen ebenso im Urin und Speichel ausgeschieden wird.
2. Intranasale Applikation von H-1PV zur Behandlung von Glioblastomen in der Ratte
Es konnte gezeigt werden, dass H-1PV auch nach intranasaler Applikation den Tumor erreicht, dort virale Proteine gebildet werden und in infizierten tumortragenden Tieren die Überlebenszeit signifikant verlängert werden konnte im Vergleich mit den nicht-infizierten Kontrolltieren. Diese Applikationsart wäre eine einfach durchzuführende Art der Anwendung, da sie keinen chirurgischen Eingriff am Gehirn erfordert.
3. Replikation von H-1PV in vivo im Rattenmodell
Durch die Fähigkeit von H-1PV in Tumorzellen repliziert zu werden, können nach einer einzigen Virusapplikation einer geringen Dosis initial nicht infizierte Zellen der Tumormasse infiziert und lysiert werden. In vivo im Rattengliom-Modell konnte gezeigt werden, dass H-1PV zunächst im ganzen Organismus verteilt wird, nach kurzer Zeit aber im Tumorgewebe angereichert und die Viruskonzentration dort länger aufrecht erhalten bleibt als bei Tieren ohne Tumor. Die Expression des viralen, zytotoxischen Proteins NS-1 war bei allen Applikationsarten auf das Tumorgebiet beschränkt. Die Daten sprechen für eine zumindest begrenzte Vermehrung von H-1PV im Tumorgewebe.
4. Adaptierung von H-1PV an humane Glioblastomzellen
H-1PV gehört zu der Gruppe der Nager-Parvoviren und wird daher in Rattentumorzellen effizienter vermehrt als in humanen Glioblastomzellen. In dieser Arbeit wurden durch Passagieren an eine humane Glioblastomzelllinie adaptierte virale Einzelklone von H-1PV in verschiedenen humanen Glioblastomzellen charakterisiert. Alle Klone konnten sich stärker in diesen vermehren und diese effizienter lysieren. In vivo führte einer der Klone zu einem signifikant langsameren Tumorwachstum und verlängerter Überlebenszeit der Tiere im Vergleich zum Wildtyp. Bei der Analyse der genetischen Mutationen der Klone konnten verschiedene Alterationen detektiert werden, wobei sich die Mutationsgeschwindigkeit von H-1PV als eher gering erwies, was für eine sichere Anwendung von H-1PV beim Menschen ein Vorteil ist. Es konnte weiterhin gezeigt werden, dass die Onkoselektivität von H-1PV durch die Adaptierung nicht verloren ging, was bedeutet, dass auch die adaptierten viralen Klone weiterhin apathogen für nicht transformierte Zellen sind.
Die Ergebnisse dieser Arbeit leisten einen Beitrag zur Erprobung von H-1PV im Hinblick auf die klinische Anwendung im Menschen. H-1PV erwies sich als einfach zu applizierendes, in vivo replikationskompetentes, sicheres und anpassungsfähiges Virus für die onkolytische Virotherapie von Gliomen beim Menschen. Dass H-1PV seine Onkoselektivität durch Adaptation an humane Gliomzellen nicht einbüßte, eröffnet die Möglichkeit das Virus an weitere Krebsentitäten anzupassen und auch dort zur onkolytischen Therapie einzusetzen.