Refine
Year of publication
- 2011 (110) (remove)
Document Type
- Doctoral Thesis (62)
- Report (18)
- Preprint (10)
- Periodical Part (9)
- Working Paper (4)
- Book (3)
- Master's Thesis (2)
- Bachelor Thesis (1)
- Habilitation (1)
Keywords
- Visualisierung (4)
- Simulation (3)
- autoregressive process (3)
- neural network (3)
- nonparametric regression (3)
- Außenpolitik (2)
- CSO (2)
- Implementation (2)
- Katalyse (2)
- Metropolregion (2)
Faculty / Organisational entity
- Fachbereich Mathematik (30)
- Fachbereich Chemie (15)
- Fachbereich ARUBI (12)
- Fraunhofer (ITWM) (11)
- Fachbereich Maschinenbau und Verfahrenstechnik (9)
- Fachbereich Sozialwissenschaften (8)
- Fachbereich Biologie (7)
- Fachbereich Informatik (5)
- Fachbereich Raum- und Umweltplanung (4)
- Fachbereich Elektrotechnik und Informationstechnik (2)
Oxa1 ist ein integrales Protein der mitochondrialen Innenmembran und eine zentrale Komponente der Proteininsertionsmaschinerie in Mitochondrien. Oxa1 ist an der Insertion zweier unterschiedlicher Klassen von Proteinen in die Innenmembran beteiligt: Durch eine C-terminale,
matrixständige Domäne interagiert Oxa1 mit mitochondrialen Ribosomen und vermittelt so die ko-translationale Membraninsertion mitochondrial kodierter Proteine. Darüber hinaus wurde auch
eine Beteiligung von Oxa1 an der Insertion einiger kernkodierter Proteine beschrieben. Bei allen
bisher identifizierten kernkodierten Substraten von Oxa1 handelt es sich um sogenannte konservativ sortierte Proteine, die nach ihrer Synthese im Zytosol zunächst klassisch über die Translokasen der mitochondrialen Außen- und Innenmembran in die mitochondriale Matrix importiert werden.
In einem Oxa1-vermittelten Schritt werden sie schließlich von der Matrix aus in die Innenmembran inseriert. Vergleiche mit dem bakteriellen Oxa1-Homolog YidC lassen weiterhin vermuten, dass Oxa1 auch an der Faltung von Membranproteinen beteiligt sein könnte, bisher ist eine solche Oxa1-Funktion jedoch nur in Einzelfällen beschrieben worden.
Der genaue molekulare Mechanismus der Proteininsertion durch Oxa1 sowie eine eventuelle Be-
teiligung von Oxa1 an der Insertion anderer mitochondrialer Innenmembranproteine ist bisher unklar. Es war daher uberraschend festzustellen, dass die Level des ADP/ATP-Carriers in Abwesenheit von Oxa1 stark reduziert waren. Der Import und die Membraninsertion mitochondrialer
Carrier wurden in den vergangenen Jahren im Detail beschrieben, bisherige Studien deuteten jedoch nie auf eine Beteiligung von Oxa1 bei der Carrier-Biogenese hin. Carrier-Proteine werden,
im Gegensatz zu konservativ sortierten Proteinen, aus dem Intermembranraum in die Innenmembran inseriert. Im Rahmen dieser Arbeit konnte durch Importversuche gezeigt werden, dass Oxa1
eine wichtige, wenn auch nicht essentielle Funktion bei der Biogenese verschiedener Vertreter der
mitochondrialen Carrier-Familie einnimmt. Die erhaltenen Daten deuten darauf hin, dass Oxa1
nicht an der Membraninsertion der Carrier-Proteine per se beteiligt ist, sondern ahnlich einem
Chaperon die TIM22-abh¨ ngig inserierten Carrier stabilisiert und ihre Faltung oder Assemblierung in der Membran begünstigt. Diese Arbeit zeigt somit, dass Oxa1 nicht nur an der Membraninsertion verschiedener mitochondrial und kernkodierter Proteine beteiligt ist, sondern eine weitere
wichtige Funktion als Chaperon einnimmt. Bedeutend ist hierbei vor allem, dass diese Rolle bei
der Stabilisierung und Faltung mitochondrialer Innenmembranproteine sich nicht auf klassische
Oxa1-Substrate beschränkt, die von Seiten der Matrix in die Membran inseriert werden, sondern entscheidend die Biogenese von Proteinen beeinflusst, deren eigentliche Membraninsertion Oxa1-
unabhängig verläuft.
Die Bedeutung von Oxa1 bei der Insertion mitochondrial kodierter Proteine ist gut dokumentiert,
genaue mechanistische Details des Prozesses der Membraninsertion durch Oxa1 fehlen jedoch
bisher. Um den molekularen Mechanismus der Oxa1-vermittelten Proteininsertion besser zu verstehen, wurde die native Aufreinigung von rekombinant exprimiertem S. cerevisiae Oxa1 etabliert
und gezeigt, dass dieses einen dimeren oder höher oligomeren Komplex ausbildet. Oxa1 wurde weiterhin erfolgreich in Proteoliposomen rekonstituiert und stimuliert in vitro die Insertion des
mitochodrial kodierten Proteins Atp8. In dieser Arbeit wurden vorläufige Daten über die Oxa1-vermittelte Proteininsertion gesammelt. Das hier etablierte Rekonstitutionssystem wird eine wichtige Basis für zukünftige Arbeiten bilden, die zum Verständnis der molekularen Mechanismen der
Oxa1-abhängigen Proteininsertion beitragen werden.
Bedeuten die nach den Midterm Elections 2010 stark veränderten Mehr-heitsverhältnisse in der Legislative der Vereinigten Staaten von Amerika das Ende der ambitionierten präsidentiellen Agenda, die Präsident Obama mit dem Anspruch des Change angestrebt hatte? Die vorliegende Studie untersucht diese Frage bezogen auf außen- und sicherheitspolitische Herausforderungen unter besonderer Berücksichtigung der institutionellen Bedingungen amerikanischer Außenpolitik.
Die Auswirkungen von Unified bzw. Divided Government müssen mit Blick auf die Außenpolitik der USA differenziert betrachtet werden: Auch nach den Midterm Elections 2010 verbleiben in der Außen- und Sicherheitspolitik weiterhin Gestaltungsspielräume für den Präsidenten, so dass die Frage nach einem Ende des Wandels mit „nein“ beantwortet werden muss. Tatsächlich ist dieses „nein“ allerdings in mehrfacher Hinsicht zu qualifizieren. Zum ersten in Bezug auf die bisher erfolgten Maßnahmen und des damit schon erreichten Wandels, zum zweiten angesichts der beiden Indikatoren Politikfeldspezifität und institutionell erforderliche Supermehrheiten auf den jeweiligen Themenfeldern amerikanischer Außenpolitik, und zum dritten bezüglich der Kooperationschancen mit den oppositionellen Republikanern, gemessen am Indikator der vorhandenen Polarisierung zwischen den Parteien im Kongress.
Zwei Jahre nach Obamas Amtsantritt ist es dem Präsidenten gelungen insbesondere im Bereich der Abrüstungspolitik einen Wandel einzuleiten. Andere Ziele der Agenda Obamas sind dagegen noch nicht umgesetzt. In der internationalen Klimapolitik, der Afghanistan-Politik und in der Frage der Schließung des Gefangenenlagers auf Guantánamo besteht auch in den folgenden zwei Jahren wenig Aussicht auf Wandel. Andererseits verbleiben dem Präsidenten als Chef der Exekutive auch im Schatten von Divided Government weiterhin außenpolitische Handlungsspielräume – trotz der parteipolitischen Polarisierung im Kongress und einer nach den Zwischenwahlen deutlich erstarkten Republikanischen Opposition.
Die Theorie des Demokratischen Friedens hat sich bisher wenig mit der Unterschiedlichkeit und noch weniger mit den Gründen der Varianz demokratischer Außenpolitik beschäftigt. Um eine Verallgemeinerung der Variable „Demokratie“ innerhalb der Theorie zu vermeiden, ist eine genauere Analyse der Bedingungen, unter denen die volksherrschaftliche Staatsform zu Kriegen neigt, notwendig. Die vorliegende Studie unternimmt den Versuch, in einem theoriegeleiteten und systematischen Vergleich deutscher und amerikanischer Außenpolitik am Beispiel des Irakkriegs 2003 die Ursachen der Varianz im Außenverhalten von Demokratien aufzuzeigen. Der Vergleich richtet dabei das Augenmerk auf die jeweiligen Unterschiede in Bezug auf innergesellschaftliche Normen, Präferenzen und Institutionen. Tatsächlich lässt sich am Beispiel des Irakkriegs 2003 zeigen, dass innergesellschaftliche Unterschiede auf diesen Ebenen zwischen Deutschland und den USA außenpolitisches Verhalten erklären: Multilateralismus und Skepsis gegenüber mili-tärischer Außenpolitik sind in Deutschland gesellschaftlich geteilte Normen, die restringierend auf politische Akteure wirken. Dagegen erleichtert die in den USA normativ angelegte Universalisierung eigener Werte, gepaart mit der Überzeugung weltpolitischer Verantwortung, die Überwindung öffentlichen Widerstands gegen kostenintensive Kriege. Beide Öffentlichkeiten reagieren empfindlich auf Kosten und Verluste, die durch Kriege entstehen. Insgesamt lässt sich jedoch feststellen, dass die Wähler in den USA eher bereit sind eine militärische Außenpolitik zu dulden. Die Präferenz des Demos für den Irakkrieg resultierte dabei auch aus einer Bedrohungslage, die von der Exekutiven nach dem 11. September 2001 stark überzeichnet wurde. Dass sich die Präferenzen für (USA) und gegen (Deutschland) den Irakkrieg über die institutionell angelegte Repräsentationsmechanismen durchsetzen konnten, kann als Bestätigung der liberalen Perspektive über die innergesellschaftliche Determinierung von Außenpolitik gelten. Problematisch war indes im Falle der USA, dass der Kongress seine verfassungsmäßige Rolle als Kontrollinstanz gegenüber einem populären Präsidenten nicht wahrgenommen hat, was die Entscheidung der Exekutive für den Irakkrieg erleichterte
In der Spektroskopie hat die Temperatur einen großen Einfluss auf das resultierende Spektrum und somit auf die Schlussfolgerung, die aus dem Spektrum erfolgt. Für Experimente mit Molekülen in einem Lösungsmittel ist eine Temperaturkontrolle kein Problem mehr. In der Gasphase finden spektroskopische Experimente jedoch häufig mit kühlenden Edelgasmatrizen statt, um ein Molekül zu kühlen, oder die zu untersuchenden Moleküle werden auf einem gekühlten Substrat deponiert, was nicht gerade einem Gasphasenexperiment entspricht. Ebenfalls zur Temperaturkontrolle verwendet wird die Stoßgaskühlung, bei der Moleküle durch Stöße mit Edelgasen gekühlt werden. Das verwendete Stoßgas thermalisiert jedoch durch Stöße mit der Vakuumkammer und wärmt sich dadurch auf.
Der Bau einer Cryo-Apparatur zur Kühlung von kommerziell gekauften FT-ICR Zellen auf weniger als 20 K für Experimente in der Gasphase, um auf Edelgasmatrizen oder Substrate verzichten zu können und eine kalte Umgebung für ein Stoßgas zu haben, ist Kernpunkt dieser Dissertation. Entgegen der in anderen Arbeitskreisen vorhandenen, mit verflüssigten Gasen betriebenen Cryo-FT-ICR Zellen sollte diese Zellkühlung in einem weiten Temperaturbereich kontrollierbar sein und über einen langen Zeitraum eine minimale Temperaturschwankung um eine eingestellte Temperatur liefern.
Gestestet wurde die neue Cryo-FT-ICR Zelle in Kaiserslautern mit Reaktionskinetiken von Nbn+ Metallclustern mit H2. Diese Kinetiken dienten dazu, das Verhalten der neuen Cryo-FT-ICR Zelle unter realen Bedingungen zu testen. Die vorgestellten Messungen zeigen eine Zunahme der relativen Geschwindigkeitskonstanten zu kalten Temperaturen hin. Dabei ist auch ein von der Clustergröße abhängiges Verhalten erkennbar.
Eine weitere Installation der Cryo-Apparatur fand am GAMBIT (General Abstraction of Magnetic Moments at BESSY by Ion Trapping) Experiment beim Berliner Elektronen-speicherring BESSY II statt. Mit den nun möglichen XMCD (X-Ray Magnetic Circular Dichroism) Experimenten in der Gasphase wurden erste Messungen von Co11+ und Co17+ Metallclustern durchgeführt. Die aus diesen ersten Messungen erhaltenen magnetischen Gesamtmomente stimmen gut mit in anderen Arbeitsgruppen gefundenen Gesamtmomenten aus Stern-Gerlach Experimenten überein. Die zu den Gesamtmomenten zugehörigen magnetischen Spin- und Bahnmomente untersuchten Metallcluster, die erstmals für freie Cluster in der Gasphase ermittelt werden konnten, werden vorgestellt.
Aufgrund der heutigen Schnelllebigkeit unserer Gesellschaft, entwickeln sich die Medien auf rasante Art und Weise. Der enorme technische Fortschritt hat dazu geführt, dass sich insbesondere die jüngeren Generationen intensiv mit neuen Medien auseinandersetzen. Für Jugendliche ist heutzutage der Umgang mit modernen Medien mehr als nur eine Selbstverständlichkeit geworden. Doch wie gehen Schüler mit dem immensen Medienangebot um und welche Gefahren, aber auch Chancen, birgt der Medienkonsum? Im Rahmen dieser Bachelorarbeit wird deshalb explizit der Fragestellung nachgegangen, welche Auswirkungen von Medien auf die Schulleistungen ausgehen.
Mrázek et al. [14] proposed a unified approach to curve estimation which combines
localization and regularization. In this thesis we will use their approach to study
some asymptotic properties of local smoothers with regularization. In Particular, we
shall discuss the regularized local least squares (RLLS) estimate with correlated errors
(more precisely with stationary time series errors), and then based on this approach
we will discuss the case when the kernel function is dirac function and compare our
smoother with the spline smoother. Finally, we will do some simulation study.
The shortest path problem in which the \((s,t)\)-paths \(P\) of a given digraph \(G =(V,E)\) are compared with respect to the sum of their edge costs is one of the best known problems in combinatorial optimization. The paper is concerned with a number of variations of this problem having different objective functions like bottleneck, balanced, minimum deviation, algebraic sum, \(k\)-sum and \(k\)-max objectives, \((k_1, k_2)-max, (k_1, k_2)\)-balanced and several types of trimmed-mean objectives. We give a survey on existing algorithms and propose a general model for those problems not yet treated in literature. The latter is based on the solution of resource constrained shortest path problems with equality constraints which can be solved in pseudo-polynomial time if the given graph is acyclic and the number of resources is fixed. In our setting, however, these problems can be solved in strongly polynomial time. Combining this with known results on \(k\)-sum and \(k\)-max optimization for general combinatorial problems, we obtain strongly polynomial algorithms for a variety of path problems on acyclic and general digraphs.
Furocumarine (FC) sind sekundäre Pflanzenmetaboliten, die u.a. von Früchten und Gemüsen wie Grapefruit oder Sellerie als Phytoalexine gebildet werden. So liegt die geschätzte durchschnittliche menschliche Exposition über die Nahrung bei einer Gesamt-FC-Menge von 0,56 mg/Tag in Deutschland, bei Akutexpositionen können 100-fach höhere Werte erreicht werden. Ihre Grundstruktur besteht aus einem Cumarinmolekül mit linear oder angular ankondensiertem Furanring, zudem können sie unterschiedlich substituiert sein: über 90 verschiedene natürlich vorkommende Derivate bekannt, die sich in der Ausprägung ihrer Eigenschaften stark unterscheiden. In Kombination mit UVA-Strahlung wirken FCs wie das Cumarin Limettin phototoxisch, photomutagen und photoclastogen.
Da in Pflanzen FCs hauptsächlich in Mischungen verschiedener Derivate vorkommen, wurde im Rahmen dieser Arbeit in vitro an V79-Zellen ein einfaches Instrument zur Bewertung natürlich vorkommender FC-Gemische entwickelt, welches die relative phototoxische, -mutagene und -clastogene Potenz verschiedener FCs berücksichtigt. Hierzu wurden versch. Assays speziell für photochemische Anwendungen etabliert und optimiert:
Die phototoxischen Effekte wurden über den Resazurin-Reduktionstest charakterisiert und quantifiziert, die Quantifizierung des photomutagenen Potentials erfolgte mit Hilfe des HPRT-Assays, die des photoclastogenen über den Mikrokerntest. Am Beispiel von 5-Methoxypsoralen (5-MOP) konnte eine Abhängigkeit des EC50-Wertes der Zellvitalität 72 h nach der Bestrahlung, der Erhöhung der Mutationsfrequenz (MF) und der Erhöhung der Zahl mikrokerntragender Zellen (MNZ) sowohl von der 5-MOP-Konzentration als auch von der applizierten UVA-Dosis gezeigt werden; im HPRT-Assay und Mikrokerntest waren strikt lineare Zusammenhänge zu beobachten. Adverse Effekte unter Lichtausschluss konnten nicht festgestellt werden. Zum Vergleich der Potenz verschiedener FC-Derivate wurde eine Standard-UVA-Dosis von 125 mJ/cm² festgelegt. 5-MOP war in allen Testsystemen am reaktivsten, weshalb allen anderen FCs Phototoxizitäts, -mutagenitäts bzw. -clastogenitäts-Äquivalenzfaktoren (PTEF, PMEF, PTCF) relativ zu 5-MOP zugeordnet wurden über den Vergleich der EC50-Werte und der Steigungen der Linearregressionen der Auftragung der MF bzw. der MNZ gegen die FC-Konzentration; 5-MOP wurde der Faktor 1 zugewiesen. Generell waren angulare FCs im Vergleich zu ihren linearen Strukturisomeren deutlich weniger photoreaktiv, an Pos. 8 substituierte lineare FCs waren unreaktiver als an Pos. 5 substituierte, die Einführung einer Hydroxygruppe oder Zweitsubstitution mit einer Methoxygruppe führte zum Reaktivitätsverlust.
Das Verhalten von Furocumarinen in Mischungen wurde isobolographisch am Beispiel von 5-MOP und 8-MOP untersucht. Komplexere Mischungen mit bis zu 9 verschiedenen FC-Derivaten wurden bezüglich ihres Interaktions-Index’ CI auf Abweichungen von 1 untersucht und die Dosis-Wirkungsbeziehungen der theoretischen 5-MOP-Dosisäquivalente mit 5-MOP verglichen. So konnte auf Vorliegen von Dosis-Additivität geschlossen werden.
Als Ursache für die beobachteten Reaktivitätsunterschiede konnten mangelnde Absorption, geringere Interkalationsfähigkeit oder generell Wechselwirkungen mit der DNA über den Vergleich der Absorptionsspektren, hypochromen und bathochromen Effekten in Gegenwart von Kalbsthymus-DNA oder die Ethidiumbromid- und Hoechst33258-Verdrängungsassays ausgeschlossen werden. Weiterhin konnten zwei Systeme zur Bestimmung der zellfrei photochemisch gebildeten Singulett-Sauerstoff und Superoxidradikalanionen etabliert werden. Hier wurden Psoralen für die O2•--Bildung und Riboflavin für die 1O2-Bildung als Positivkontrolle benutzt, wobei angulare FCs und Limettin generell stärker zur ROS-Produktion fähig waren.
Das in dieser Arbeit etablierte Äquivalenzfaktoren-Modell stellt ein gutes Instrument zur Bewertung komplexer natürlich vorkommender FC-Gemische und Abschätzung der in vivo-Phototoxizität über die direkt in der Haut bzw. im Blutplasma gefundene FC-Konzentration dar. Zur direkten Bewertung der oral oder dermal aufgenommen Menge müssen allerdings weitere Faktoren wie Absorption, Metabolismus, zeitabhängige Verteilung und Exkretion, Hauttyp, Reparatur oder generell komplexere Reaktionen des Gewebes in vivo wie Entzündung oder Krebs berücksichtigt werden.
This thesis is devoted to constructive module theory of polynomial
graded commutative algebras over a field.
It treats the theory of Groebner bases (GB), standard bases (SB) and syzygies as well as algorithms
and their implementations.
Graded commutative algebras naturally unify exterior and commutative polynomial algebras.
They are graded non-commutative, associative unital algebras over fields and may contain zero-divisors.
In this thesis
we try to make the most use out of _a priori_ knowledge about
their characteristic (super-commutative) structure
in developing direct symbolic methods, algorithms and implementations,
which are intrinsic to graded commutative algebras and practically efficient.
For our symbolic treatment we represent them as polynomial algebras
and redefine the product rule in order to allow super-commutative structures
and, in particular, to allow zero-divisors.
Using this representation we give a nice characterization
of a GB and an algorithm for its computation.
We can also tackle central localizations of graded commutative algebras by allowing commutative variables to be _local_,
generalizing Mora algorithm (in a similar fashion as G.M.Greuel and G.Pfister by allowing local or mixed monomial orderings)
and working with SBs.
In this general setting we prove a generalized Buchberger's criterion,
which shows that syzygies of leading terms play the utmost important role
in SB and syzygy module computations.
Furthermore, we develop a variation of the La Scala-Stillman free resolution algorithm,
which we can formulate particularly close to our implementation.
On the implementation side
we have further developed the Singular non-commutative subsystem Plural
in order to allow polynomial arithmetic
and more involved non-commutative basic Computer Algebra computations (e.g. S-polynomial, GB)
to be easily implementable for specific algebras.
At the moment graded commutative algebra-related algorithms
are implemented in this framework.
Benchmarks show that our new algorithms and implementation are practically efficient.
The developed framework has a lot of applications in various
branches of mathematics and theoretical physics.
They include computation of sheaf cohomology, coordinate-free verification of affine geometry
theorems and computation of cohomology rings of p-groups, which are partially described in this thesis.
For many years real-time task models have focused the timing constraints on execution windows defined by earliest start times and deadlines for feasibility.
However, the utility of some application may vary among scenarios which yield correct behavior, and maximizing this utility improves the resource utilization.
For example, target sensitive applications have a target point where execution results in maximized utility, and an execution window for feasibility.
Execution around this point and within the execution window is allowed, albeit at lower utility.
The intensity of the utility decay accounts for the importance of the application.
Examples of such applications include multimedia and control; multimedia application are very popular nowadays and control applications are present in every automated system.
In this thesis, we present a novel real-time task model which provides for easy abstractions to express the timing constraints of target sensitive RT applications: the gravitational task model.
This model uses a simple gravity pendulum (or bob pendulum) system as a visualization model for trade-offs among target sensitive RT applications.
We consider jobs as objects in a pendulum system, and the target points as the central point.
Then, the equilibrium state of the physical problem is equivalent to the best compromise among jobs with conflicting targets.
Analogies with well-known systems are helpful to fill in the gap between application requirements and theoretical abstractions used in task models.
For instance, the so-called nature algorithms use key elements of physical processes to form the basis of an optimization algorithm.
Examples include the knapsack problem, traveling salesman problem, ant colony optimization, and simulated annealing.
We also present a few scheduling algorithms designed for the gravitational task model which fulfill the requirements for on-line adaptivity.
The scheduling of target sensitive RT applications must account for timing constraints, and the trade-off among tasks with conflicting targets.
Our proposed scheduling algorithms use the equilibrium state concept to order the execution sequence of jobs, and compute the deviation of jobs from their target points for increased system utility.
The execution sequence of jobs in the schedule has a significant impact on the equilibrium of jobs, and dominates the complexity of the problem --- the optimum solution is NP-hard.
We show the efficacy of our approach through simulations results and 3 target sensitive RT applications enhanced with the gravitational task model.
This thesis treats the extension of the classical computational homogenization scheme towards the multi-scale computation of material quantities like the Eshelby stresses and material forces. To this end, microscopic body forces are considered in the scale-transition, which may emerge due to inhomogeneities in the material. Regarding the determination of material quantities based on the underlying microscopic structure different approaches are compared by means of their virtual work consistency. In analogy to the homogenization of spatial quantities, this consistency is discussed within Hill-Mandel type conditions.
Insbesondere bei der industriellen Nutzung tiefer geothermischer Systeme gibt es Risiken, die im Hinblick auf eine zukunftsträchtige Rolle der Ressource "Geothermie" innerhalb der Energiebranche eingeschätzt und minimiert werden müssen. Zur Förderung und Unterstützung dieses Prozesses kann die Mathematik einen entscheidenden Beitrag leisten. Um dies voranzutreiben haben wir zur Charakterisierung tiefer geothermischer Systeme ein Säulenmodell entwickelt, das die Bereiche Exploration, Bau und Produktion näher beleuchtet. Im Speziellen beinhalten die Säulen: Seismische Erkundung, Gravimetrie/Geomagnetik, Transportprozesse, Spannungsfeld.
This report gives an insight into basics of stress field simulations for geothermal reservoirs.
The quasistatic equations of poroelasticity are deduced from constitutive equations, balance
of mass and balance of momentum. Existence and uniqueness of a weak solution is shown.
In order of to find an approximate solution numerically, usage of the so–called method of
fundamental solutions is a promising way. The idea of this method as well as a sketch of
how convergence may be proven are given.
The interest of the exploration of new hydrocarbon fields as well as deep geothermal reservoirs is permanently growing. The analysis of seismic data specific for such exploration projects is very complex and requires the deep knowledge in geology, geophysics, petrology, etc from interpreters, as well as the ability of advanced tools that are able to recover some particular properties. There again the existing wavelet techniques have a huge success in signal processing, data compression, noise reduction, etc. They enable to break complicate functions into many simple pieces at different scales and positions that makes detection and interpretation of local events significantly easier.
In this thesis mathematical methods and tools are presented which are applicable to the seismic data postprocessing in regions with non-smooth boundaries. We provide wavelet techniques that relate to the solutions of the Helmholtz equation. As application we are interested in seismic data analysis. A similar idea to construct wavelet functions from the limit and jump relations of the layer potentials was first suggested by Freeden and his Geomathematics Group.
The particular difficulty in such approaches is the formulation of limit and
jump relations for surfaces used in seismic data processing, i.e., non-smooth
surfaces in various topologies (for example, uniform and
quadratic). The essential idea is to replace the concept of parallel surfaces known for a smooth regular surface by certain appropriate substitutes for non-smooth surfaces.
By using the jump and limit relations formulated for regular surfaces, Helmholtz wavelets can be introduced that recursively approximate functions on surfaces with edges and corners. The exceptional point is that the construction of wavelets allows the efficient implementation in form of
a tree algorithm for the fast numerical computation of functions on the boundary.
In order to demonstrate the
applicability of the Helmholtz FWT, we study a seismic image obtained by the reverse time migration which is based on a finite-difference implementation. In fact, regarding the requirements of such migration algorithms in filtering and denoising the wavelet decomposition is successfully applied to this image for the attenuation of low-frequency
artifacts and noise. Essential feature is the space localization property of
Helmholtz wavelets which numerically enables to discuss the velocity field in
pointwise dependence. Moreover, the multiscale analysis leads us to reveal additional geological information from optical features.
In der vorliegenden Arbeit wurden neue katalytische Methoden zur regioselektiven Knüpfung von C-C-Bindungen vorgestellt. Die Methoden sind breit anwendbar, besitzen eine gute Verträglichkeit mit funktionellen Gruppen und erlauben präparativ arbeitenden Chemikern einen einfachen Zugang zu wertvollen Verbindungen, die zuvor nur durch Verwendung luft- und feuchtigkeitsempfindlicher, oder teurer Reagenzien in abfallintensiven Prozessen zugänglich waren.
Im ersten Teil der Arbeit wurden Arylchloride als elektrophile Kupplungspartner für Decarboxylierende Biarylsynthese erschlossen. Das synthetische Potential der Reaktion wurde an den Wirkstoffen Telmisartan und Xenalipin demonstriert. Im zweiten Teil der Arbeit wurden neue Reagenzien und Reaktionen entwickelt, mit denen Trifluormethylgruppen selektiv in organische Moleküle eingeführt werden. Die neuen Reagenzien zeichnen sich durch ihre gute Verfügbarkeit, ihre hohe Stabilität gegenüber Luft und Feuchtigkeit, sowie durch ihre einfache Handhabung aus, und sie besitzen eine hohe Kompatibilität mit funktionellen Gruppen. Die Entwicklung einer decarboxylierenden palladiumkatalysierten Trifluormethylierungsreaktion von Arylchloriden mit gut verfügbaren und preiswerten Trifluoracetaten wurde als Fernziel zukünftiger Arbeiten vorgestellt.
Ionische Flüssigkeiten werden als alternative zu klassischen Lösungsmitteln für chemische Umsetzungen diskutiert u. a. auch für Reaktionen an denen gelöste Gase beteiligt sind. Deshalb ist die Kenntnis der Gaslöslichkeit sowie der eventuell auftretenden Hochdruck-Mehrphasen-Gleichgewicht in Systemen mit ionischen Flüssigkeiten sowohl von wissenschaftlichem als auch von technischem Interesse.
Das Aufpressen von Kohlendioxid bei einer Temperatur nahe dessen kritischer Temperatur auf eine homogene, einphasige, binäre flüssige Mischung aus einem organischen Lösungsmittel und einer hydrophoben ionischen Flüssigkeit bzw. aus Wasser und einer hydrophilen ionischen Flüssigkeit, kann zur Entmischung der zuvor homogenen Flüssigkeit in zwei koexistierende Flüssigphasen L1 und L2 (die mit einer Dampfphase V im Gleichgewicht stehen) führen.
Das zweiphasige flüssige System kann z. B. bei chemischen Umsetzungen, aber auch bei der Aufarbeitung von Reaktionslösungen von Vorteil sein, wenn z. B. die Extraktion eines Produkts in die zweite flüssige Phase zu einer Erhöhung des Umsatzes einer chemischen Reaktion führt.
In der vorliegenden Arbeit wurde das Hochdruck-Mehrphasen-Gleichgewicht ternärer Systeme bestehend aus (Kohlendioxid + Alkohol/Wasser + ionische Flüssigkeit bzw. Ethylencarbonat) experimentell untersucht.
Zunächst wurden die Hochdruck-Mehrphasen-Gleichgewichte von zwei organischen ternären Systemen (Kohlendioxid + Methanol + [bmim][PF6]) und (Kohlendioxid + 1-Butanol + [hmim][Tf2N]) bei Temperaturen zwischen 293 und 333 K und Drücken bis zu 12 MPa experimentell bestimmt. Die Untersuchungen bestanden aus dem Vermessen der Druck-Temperatur-Koordinaten der kritischen Endpunktlinien, sowie der Zusammensetzungen der im Dreiphasengleichgewicht koexistierenden flüssigen Phasen L1 und L2.
Danach wurden an vier Systemen aus (Kohlendioxid + Wasser + ionische Flüssigkeit) ähnliche experimentelle Untersuchungen durchgeführt. Diese beschränkten sich jedoch im wesentlichen auf die Bestimmung des Druckbereiches in dem solche Mehrphasen-Gleichgewichte auftreten.
Bei dem wässrigen System (Kohlendioxid + Wasser + Ethylencarbonat), das untersucht wurde, wurde ein deutlich komplizierteres Phasenverhalten beobachtet, in dem auch ein Vierphasengleichgewicht L1L2L3V sowie zwei Typen von Dreiphasengleichgewichten auftreten. Für dieses System wurden sowohl die Druck-Temperatur-Koordinaten des unteren kritischen Endpunkts des Dreiphasen-Gleichgewichts als auch die des Vierphasengleichgewichts bestimmt. Außerdem wurde die Zusammensetzung der im Gleichgewicht koexistierenden flüssigen Phasen L1 und L2 bei 313 und 333 K im Druckbereich von 6,05 bis 20,3 MPa bestimmt.
Darüber hinaus wurde die Löslichkeit von Kohlendioxid in drei homogenen, einphasigen Lösungsmittelgemischen aus (Methanol + [bmim][PF6]) mit unterschiedlicher Zusammensetzung experimentell bestimmt. Diese Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsapparatur.
Abschließend wurde die Löslichkeit von Kohlendioxid in den untersuchten binären Lösungsmittelgemischen (Methanol + [bmim][PF6]) mit Hilfe von Modellen der molekularen Thermodynamik abgeschätzt.
In diesem Beitrag werden die Änderungen der Präambel und des Abschnitts 4.1.1 über die Leitung des Unternehmens des DCGK im Jahr 2009, die auch nach der weiteren Überarbeitung des Kodex von Mai 2010 Bestand haben, aufgegriffen, die in Anbetracht ihrer potentiellen Tragweite bisher erstaunlich wenig Aufmerksamkeit und kritische Würdigung erfahren haben. Es erfolgt eine Auseinandersetzung mit der grundsätzlichen betriebswirtschaftlichen Bedeutung der Änderungen sowie ein Überblick über die Rezeption der Änderungen in der Literatur und eine Untersuchung der Resonanz auf die ausgewählten Änderungen bei den Unternehmen anhand der Ergebnisse einer qualitativen Analyse der Geschäfts- und Nachhaltigkeitsberichte 2009 der DAX-30-Unternehmen. Daraus wird ein klarer Widerspruch zwischen der konzeptionellen Bedeutung der Änderungen einerseits und den Reaktionen auf diese Änderungen andererseits erkennbar, dessen mögliche Gründe abschließend erörtert werden.
This work presents the dynamic capillary pressure model (Hassanizadeh, Gray, 1990, 1993a) adapted for the needs of paper manufacturing process simulations. The dynamic capillary pressure-saturation relation is included in a one-dimensional simulation model for the pressing section of a paper machine. The one-dimensional model is derived from a two-dimensional model by averaging with respect to the vertical direction. Then, the model is discretized by the finite volume method and solved by Newton’s method. The numerical experiments are carried out for parameters typical for the paper layer. The dynamic capillary pressure-saturation relation shows significant influence on the distribution of water pressure. The behaviour of the solution agrees with laboratory experiments (Beck, 1983).
Intersection Theory on Tropical Toric Varieties and Compactifications of Tropical Parameter Spaces
(2011)
We study toric varieties over the tropical semifield. We define tropical cycles inside these toric varieties and extend the stable intersection of tropical cycles in R^n to these toric varieties. In particular, we show that every tropical cycle can be degenerated into a sum of torus-invariant cycles. This allows us to tropicalize algebraic cycles of toric varieties over an algebraically closed field with non-Archimedean valuation. We see that the tropicalization map is a homomorphism on cycles and an isomorphism on cycle classes. Furthermore, we can use projective toric varieties to compactify known tropical varieties and study their combinatorics. We do this for the tropical Grassmannian in the Plücker embedding and compactify the tropical parameter space of rational degree d curves in tropical projective space using Chow quotients of the tropical Grassmannian.
Gegenstand der vorliegenden Arbeit war die Entwicklung neuartiger molekularer Kapseln auf Basis von verbrückten Bis(cyclopeptiden) und die Untersuchung ihrer Anionenaffinität in wässrigen Lösungsmittelgemischen. Als Reaktionen zur Verbrückung der Cyclopeptidringe wurden die Olefinmetathese und die 1,3-dipolare Cycloaddition von Alkinen und Aziden (Click-Reaktion) verwendet, die unter thermodynamischer bzw. kinetischer Kontrolle verlaufen. Neben den dreifach verbrückten Kapseln wurden ebenso die analogen Bis(cyclopeptide) mit nur einem Linker synthetisiert und untersucht. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener anorganischer Anionen erfolgte mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie. Alle untersuchten Verbindungen bilden 1:1 Komplexe mit den Anionen, indem sie diese in ihrem Hohlraum über Wasserstoffbrücken binden. Allerdings hat die Anzahl der Linker einen bedeutenden Einfluss auf das Bindungsverhalten der Bis(cyclopeptide). Im Gegensatz zu den neuen, sowie bereits bekannten, einfach verbrückten Bis(cyclopeptiden), verläuft die Komplexierung von Sulfat durch die molekulare Kapsel mit drei Triazollinkern endotherm. Der ungünstige enthalpische Beitrag zur Bindung wird von einem sehr günstigen entropischen Beitrag überkompensiert, was zu einer im Vergleich höheren Sulfataffinität führt. Die Ursache dieses unerwarteten Bindungsverhaltens liegt vor allem an einer schlechten Vororganisation der Kapsel. Ein weiterer großer Unterschied zwischen den einfach und dreifach verbrückten Bis(cyclopeptiden) liegt in der unterschiedlichen Kinetik bei der Sulfatkomplexierung. Durch die Erhöhung der Anzahl der Linker reduziert sich die Geschwindigkeit von Komplexierung und Dekomplexierung deutlich. Diese Untersuchungen lieferten neue Erkenntnisse, wie sich strukturelle Veränderungen auf das Rezeptorverhalten derartiger Systeme auswirken.
The recognition of patterns and structures has gained importance for dealing with the growing amount of data being generated by sensors and simulations. Most existing methods for pattern recognition are tailored for scalar data and non-correlated data of higher dimensions. The recognition of general patterns in flow structures is possible, but not yet practically usable, due to the high computation effort. The main goal of this work is to present methods for comparative visualization of flow data, amongst others, based on a new method for efficient pattern recognition on flow data. This work is structured in three parts: At first, a known feature-based approach for pattern recognition on flow data, the Clifford convolution, has been applied to color edge detection, and been extended to non-uniform grids. However, this method is still computationally expensive for a general pattern recognition, since the recognition algorithm has to be applied for numerous different scales and orientations of the query pattern. A more efficient and accurate method for pattern recognition on flow data is presented in the second part. It is based upon a novel mathematical formulation of moment invariants for flow data. The common moment invariants for pattern recognition are not applicable on flow data, since they are only invariant on non-correlated data. Because of the spatial correlation of flow data, the moment invariants had to be redefined with different basis functions to satisfy the demands for an invariant mapping of flow data. The computation of the moment invariants is done by a multi-scale convolution of the complete flow field with the basis functions. This pre-processing computation time almost equals the time for the pattern recognition of one single general pattern with the former algorithms. However, after having computed the moments once, they can be indexed and used as a look-up-table to recognize any desired pattern quickly and interactively. This results in a flexible and easy-to-use tool for the analysis of patterns in 2d flow data. For an improved rendering of the recognized features, an importance driven streamline algorithm has been developed. The density of the streamlines can be adjusted by using importance maps. The result of a pattern recognition can be used as such a map, for example. Finally, new comparative flow visualization approaches utilizing the streamline approach, the flow pattern matching, and the moment invariants are presented.
In this paper we continue the investigation of the asymptotic behavior of the parallel volume in Minkowski spaces as the distance tends to infinity that was started in [13]. We will show that the difference of the parallel volume of the convex hull of a body and the parallel volume of the body itself can at most have order \(r^{d-2}\) in dimension \(d\). Then we will show that in the Euclidean case this difference can at most have order \(r^{d-3}\). We will also examine the asymptotic behavior of the derivative of this difference as the distance tends to infinity. After this we will compute the derivative of \(f_\mu (rK)\) in \(r\), where \(f_\mu\) is the Wills functional or a similar functional, \(K\) is a fixed body and \(rK\) is the Minkowski-product of \(r\) and \(K\). Finally we will use these results to examine Brownian paths and Boolean models and derive new proofs for formulae for intrinsic volumes.
We discuss some first steps towards experimental design for neural network regression which, at present, is too complex to treat fully in general. We encounter two difficulties: the nonlinearity of the models together with the high parameter dimension on one hand, and the common misspecification of the models on the other hand.
Regarding the first problem, we restrict our consideration to neural networks with only one and two neurons in the hidden layer and a univariate input variable. We prove some results regarding locally D-optimal designs, and present a numerical study using the concept of maximin optimal designs.
In respect of the second problem, we have a look at the effects of misspecification on optimal experimental designs.
Das Zweikomponentensystem CiaRH, bestehend aus der membranständigen Histidinkinase CiaH und dem cytoplasmatischen Responseregulator CiaR, wurde als erste nicht-PBP-Resistenzdeterminante in Streptococcus pneumoniae entdeckt. Es beeinflusst neben der β-Laktamresistenz noch weitere Phänotypen, darunter die genetische Kompetenz, die Autolyse und die Virulenz, was seine Bedeutung für die Physiologie der Zelle unterstreicht.
Im Zuge dieser Arbeit wurden sieben verschiedene ciaH-Allele aus spontanen β laktamresistenten Labormutanten charakterisiert. Die Allele, deren eine bis zwei Punktmutationen sich über den gesamten Genbereich erstrecken, wurden mit Hilfe der Janus Kassette in den Wildtyp-Stamm R6 eingebracht und untersucht. Es konnte durch β Galaktosidaseassays von Promotor-lacZ-Fusionen gezeigt werden, dass alle ciaH-Allele eine Aktivierung des CiaRH-Systems vermitteln. Diese bewegt sich, bezogen auf den CiaR-regulierten Promotor PhtrA, je nach Allel zwischen dem 4- und dem 26-fachen im Vergleich zum Wildtyp. Phänotypische Studien konnten zeigen, dass die Aktivierung des CiaRH-Systems in allen Fällen zu einer Erhöhung der β-Laktamresistenz, sowie einer verzögerten Autolyse führt. Durch den neu hergestellten alternativen Rifampin-Resistenzmarker RKL222 konnte zudem der Kompetenzphänotyp der Stämme mit verändertem ciaH untersucht und ein Verlust der Kompetenz nachgewiesen werden. Die Ausprägung der Phänotypen korreliert dabei weitestgehend mit der Stärke der CiaRH-Aktivierung. Die abgestufte Aktivierungsstärke der unterschiedlichen ciaH-Allele könnte in Zukunft bei der Untersuchung verschiedener regulatorischer Aspekte von CiaRH von Nutzen sein.
Ein weiterer Teil dieser Arbeit beschäftigte sich mit der Frage, welches oder welche der 30 Gene des CiaR-Regulons die CiaRH-Abhängigkeit des Resistenz-, Kompetenz- und Autolysephänotyps von S. pneumoniae vermitteln. Dazu wurde die Bedeutung der stark regulierten Gene ccnA E und htrA phänotypisch näher untersucht. Es konnte gezeigt werden, dass die durch ccnA-E kodierten csRNAs die Haupteffektoren der genannten Phänotypen sind. Ihr Fehlen hebt den Kompetenzblock, die verzögerte Lyse und größtenteils auch die β Laktamresistenz eines aktivierten CiaRH-Systems auf. Die Serinprotease HtrA dagegen hat keinen deutlichen Effekt auf Resistenz und Autolyse, trägt aber zum Kompetenzblock, der bei aktiviertem CiaRH-System auftritt, bei. In dem kompetenzinhibierenden Medium BHI führt nur die gemeinsame Deletion von ccnA-E und htrA zur Wiederherstellung der Kompetenz, wie beim ciaR-Deletionsstamm, während in dem ebenfalls kompetenzinhibierenden Medium THB die Deletion von htrA dafür ausreicht. Die Identifizierung der csRNAs und HtrA als Effektoren der CiaRH-abhängigen Phänotypen stellt die Basis für weiterführende Analysen über die regulatorischen Zusammenhänge zwischen CiaRH und den Phänotypen dar.
In dieser Arbeit konnte zudem erstmals gezeigt werden, dass unter den Genprodukten des CiaR-Regulons die Serinprotease HtrA, die csRNAs und das Mannose-Phosphotransferasesystem ManLMN einen regulatorischen Einfluss auf die Aktivität des CiaRH-Systems ausüben. Die Deletion ihrer Gene führte zu einer unterschiedlich starken Aktivierung der CiaR-abhängigen Genregulation. Da der stärkste aktivierende Effekt durch das Fehlen von HtrA vermittelt wurde, wurde die Art dieser Regulation im Rahmen der vorliegenden Arbeit näher untersucht. Es konnte gezeigt werden, dass im Falle einer htrA-Deletion die Aktivierung von CiaR ohne Beteiligung der Histidinkinase CiaH geschieht. Zudem ist der regulatorische Effekt offenbar unabhängig vom Medium und wird nicht über Veränderungen der genetischen Kompetenz vermittelt. Im Zuge dieser Untersuchungen wurde zusätzlich festgestellt, dass die Deletion der Gene comAB und comDE, die für die Kompetenzinduktion essentiell sind, einen inhibitorischen Effekt auf die CiaRH-Aktivität hat. Damit konnten in dieser Arbeit zwei bislang unbekannte Regulationswege identifiziert werden, die die Aktivität des CiaRH-Systems beeinflussen.
Im Gegensatz zur Mehrzahl der Zweikomponentensysteme ist CiaRH offensichtlich nicht darauf ausgelegt, starke Änderungen der Genexpression zu vermitteln. Die CiaRH-Aktivität befindet sich vielmehr unter den verschiedensten physiologischen Bedingungen auf einem recht konstanten mittleren Aktivierungsniveau. Stärkere Abweichungen von diesem Niveau führen zur deutlichen Beeinträchtigung der Zellfitness. Die Homöostase der CiaRH-Aktivität ist folglich für S. pneumoniae von großer Bedeutung und muss durch Regulationsmechanismen sichergestellt werden. Regelkreise, wie die in dieser Arbeit identifizierten Regulationswege, stellen dabei eine Möglichkeit dar. Insbesondere die gegenseitige Beeinflussung von CiaRH und den Komponenten des eigenen Regulons kann zur Aufrechterhaltung eines gleichbleibenden Aktivitätsniveaus von CiaRH beitragen. Es zeigt sich mehr und mehr, dass es sich bei CiaRH um ein für die Zellphysiologie bedeutendes System handelt, dessen Aktivität durch ein regulatorisches Zusammenspiel von äußeren und inneren Faktoren gesteuert wird.
This paper presents a new similarity measure and nonlocal filters for images corrupted by multiplicative noise. The considered filters are generalizations of the nonlocal means filter of Buades et al., which is known to be well suited for removing additive Gaussian noise. To adapt to different noise models, the patch comparison involved in this filter has first of all to be performed by a suitable noise dependent similarity measure. To this purpose, we start by studying a probabilistic measure recently proposed for general noise models by Deledalle et al. We analyze this measure in the context of conditional density functions and examine its properties for images corrupted by additive and multiplicative noise. Since it turns out to have unfavorable properties for multiplicative noise we deduce a new similarity measure consisting of a probability density function specially chosen for this type of noise. The properties of our new measure are studied theoretically as well as by numerical experiments. To obtain the final nonlocal filters we apply a weighted maximum likelihood estimation framework, which also incorporates the noise statistics. Moreover, we define the weights occurring in these filters using our new similarity measure and propose different adaptations to further improve the results. Finally, restoration results for images corrupted by multiplicative Gamma and Rayleigh noise are presented to demonstrate the very good performance of our nonlocal filters.
Die vorliegende Arbeit befasst sich mit dem penicillin-bindenden Protein 2a (PBP2a) von Streptococcus pneumoniae und dessen Rolle bei der ß-Lactam-Resistenz. Hierbei sind grundsätzlich zwei verschiedene Typen von mutiertem PBP2a zu unterscheiden. In Cefotaxim-resistenten Labormutanten kommt es in höheren Selektionsstufen zum Verlust von PBP2a durch das Auftreten von vorzeitigen Translations-Stops. Eine solche Mutation wird bei Mutante C403 durch die Wiederholung eines Genabschnitts von 8bp Länge verursacht. Es konnte gezeigt werden, dass diese Art der Mutation einen geringen Einfluss auf die Resistenz hat. Jedoch ist der Verlust des PBP nicht alleine für die Erhöhung des Resistenzniveaus in C403 verantwortlich. Auch in einem Stamm mit einem Mosaik-PBP2x klinischen Ursprungs führt die Transformation mit dem pbp2a von C403 zu einer leichten Erhöhung der Resistenz. Die Mutation des pbp2a von C403 hat auch Auswirkungen auf das Wachstums- und Lyseverhalten von Streptococcus pneumoniae. Eine Mutante des Wildtyps R6 mit dem pbp2a von C403 zeigt ein langsameres Wachstum und eine früher einsetzende Lyse. In ß-Lactam-resistenten klinischen Isolaten von Streptococcus pneumoniae und Streptococcus mitis treten niederaffine PBP2a-Varianten auf, welche auch unter Cefotaxim-Selektion transformiert werden können. Im Rahmen dieser Arbeit konnte erstmals gezeigt werden, dass die isolierte Übertragung eines für ein niederaffines PBP2a codierenden Gens zur deutlichen Erhöhung der Cefotaxim-Resistenz eines Stamms mit Mosaik-PBP2x führt. Im Gegensatz zum pbp2a von C403 verursacht das pbp2a von Streptococcus mitis B6 im Wildtyp eine später einsetzende Lyse. Das Wachstum ist jedoch ebenso verlangsamt wie nach dem Verlust von PBP2a. Bei der Analyse niederaffiner PBP2a-Varianten aus klinischen Isolaten traten zwei Mutationen häufig auf, die immer gemeinsam anzutreffen sind: Die Mutation T411>A, welche direkt stromabwärts des aktiven Serins der Penicillin-bindenden Domäne lokalisiert ist, und die Mutation Q431>L. Es konnte demonstriert werden, dass die erste Mutation einen starken Abfall der Affinität gegen Bocillin FL verursacht und die zweite Mutation einen Einfluss auf des Laufverhalten des Proteins in der SDS-PAGE hat. Die Inaktivierung des signal-tranduzierenden Zwei-Komponenten-Systems CiaRH führt in Mutanten mit inaktiviertem PBP2a zu einer Rückkehr der Wachstumsrate auf Wildtyp-Niveau. Stämme mit niederaffinem PBP2a zeigen nach Inaktivierung von CiaRH eine Verkürzung der stationären Phase, ähnlich wie dies bereits für PBP2x beschrieben wurde. Durch die Experimente im Rahmen dieser Arbeit konnte somit gezeigt werden, dass Mutationen in PBP2a einen Einfluß auf die Cefotaxim-Resistenz, das Wachstum und die Lyse von Streptococcus pneumoniae haben können. Auftreten und Ausmaß dieser Effekte sind abhängig von der Art der Mutation und dem genetischen Hintergrund in den diese transformiert wird.
In this paper we deal with dierent statistical modeling of real world accident data in order to quantify the eectiveness of a safety function or a safety conguration (meaning a specic combination of safety functions) in vehicles. It is shown that the eectiveness can be estimated along the so-called relative risk, even if the eectiveness does depend on a confounding variable which may be categorical or continuous. For doing so a concrete statistical modeling is not necessary, that is the resulting estimate is of nonparametric nature. In a second step the quite usual and from a statistical point of view classical logistic regression modeling is investigated. Main emphasis has been laid on the understanding of the model and the interpretation of the occurring parameters. It is shown that the eectiveness of the safety function also can be detected via such a logistic approach and that relevant confounding variables can and should be taken into account. The interpretation of the parameters related to the confounder and the quantication of the in uence of the confounder is shown to be rather problematic. All the theoretical results are illuminated by numerical data examples.
We introduce a refined tree method to compute option prices using the stochastic volatility model of Heston. In a first step, we model the stock and variance process as two separate trees and with transition probabilities obtained by matching tree moments up to order two against the Heston model ones. The correlation between the driving Brownian motions in the Heston model is then incorporated by the node-wise adjustment of the probabilities. This adjustment, leaving the marginals fixed, optimizes the match between tree and model correlation. In some nodes, we are even able to further match moments of higher order. Numerically this gives convergence orders faster than 1/N, where N is the number of dis- cretization steps. Accuracy of our method is checked for European option prices against a semi closed-form, and our prices for both European and American options are compared to alternative approaches.
In this work two main approaches for the evaluation of credit derivatives are analyzed: the copula based approach and the Markov Chain based approach. This work gives the opportunity to use the advantages and avoid disadvantages of both approaches. For example, modeling of contagion effects, i.e. modeling dependencies between counterparty defaults, is complicated under the copula approach. One remedy is to use Markov Chain, where it can be done directly. The work consists of five chapters. The first chapter of this work extends the model for the pricing of CDS contracts presented in the paper by Kraft and Steffensen (2007). In the widely used models for CDS pricing it is assumed that only borrower can default. In our model we assume that each of the counterparties involved in the contract may default. Calculated contract prices are compared with those calculated under usual assumptions. All results are summarized in the form of numerical examples and plots. In the second chapter the copula and its main properties are described. The methods of constructing copulas as well as most common copulas families and its properties are introduced. In the third chapter the method of constructing a copula for the existing Markov Chain is introduced. The cases with two and three counterparties are considered. Necessary relations between the transition intensities are derived to directly find some copula functions. The formulae for default dependencies like Spearman's rho and Kendall's tau for defined copulas are derived. Several numerical examples are presented in which the copulas are built for given Markov Chains. The fourth chapter deals with the approximation of copulas if for a given Markov Chain a copula cannot be provided explicitly. The fifth chapter concludes this thesis.
Beim funktionsorientierten Testen von Steuergeräten im automobilen Bereich ist das Expertenwissen aufgrund der hohen Komplexität der Testfälle unersetzlich. Bei Basistesttechniken wie der Grenzwertanalyse ist die Absicht eines Testfalls implizit durch die Technik gegeben. Beim Expertenwissen wird jedoch zur Zeit zu jedem erstellten Testfall zusätzlich ein Prosatext verfasst um die Testabsicht anzugeben. Diese Prosabeschreibung ist anfällig für Mehrdeutigkeiten, fällt bei jedem Testentwickler unterschiedlich aus und der inhaltliche Bezug zum Testfall ist lose. Ziel der Arbeit ist eine Spezifikationssprache für die Testfallbeschreibung zu entwerfen um die Nachteile der natürlichen Sprache zu minimieren und testablaufspezifische Sprachelemente zu definieren, so dass sie als ein Grundgerüst für einen Testfall verwendet werden kann. Dazu wird aus der Einsatzumgebung (Systemspezifikation, Testimplementierung und Testprozessthemen) Sprachelemente für die Beschreibung abgeleitet und Ansätze für die Überführung der Beschreibung in die Testimplementierung betrachtet. Das Ergebnis ist eine Testfall-Spezifikationssprache, die auf formaler Grundlage basiert und u.a. in eine graphische Sicht überführt werden kann. Ähnlich der UML wird der Mehrwert erst durch eine werkzeugunterstützte Eingabe deutlich: So sind die Testentwickler in der Lage, einheitliche, formale, wieder verwendbare, verständliche Testfälle zu definieren.
In this paper we study the possibilities of sharing profit in combinatorial procurement auctions and exchanges. Bundles of heterogeneous items are offered by the sellers, and the buyers can then place bundle bids on sets of these items. That way, both sellers and buyers can express synergies between items and avoid the well-known risk of exposure (see, e.g., [3]). The reassignment of items to participants is known as the Winner Determination Problem (WDP). We propose solving the WDP by using a Set Covering formulation, because profits are potentially higher than with the usual Set Partitioning formulation, and subsidies are unnecessary. The achieved benefit is then to be distributed amongst the participants of the auction, a process which is known as profit sharing. The literature on profit sharing provides various desirable criteria. We focus on three main properties we would like to guarantee: Budget balance, meaning that no more money is distributed than profit was generated, individual rationality, which guarantees to each player that participation does not lead to a loss, and the core property, which provides every subcoalition with enough money to keep them from separating. We characterize all profit sharing schemes that satisfy these three conditions by a monetary flow network and state necessary conditions on the solution of the WDP for the existence of such a profit sharing. Finally, we establish a connection to the famous VCG payment scheme [2, 8, 19], and the Shapley Value [17].
Der Katabolismus von Pyrimidin-Nukleobasen erfolgt in Arabidopsis thaliana über einen dreistufigen Stoffwechselweg. In diesem wird Uracil zu beta-Alanin, Kohlenstoffdioxid und Stickstoff in Form von Ammonium abgebaut. Die erste Reaktion, die Reduktion von Uracil zu Dihydrouracil wird von dem plastidären Enzym Dihydrouracil-Dehydrogenase (Pyd1) katalysiert. „Knockout“-Mutanten zeigten verglichen mit Wildtyp-Pflanzen bis zu 50-fach erhöhte Uracilgehalte in allen untersuchten Geweben. Diese Mutanten waren nicht in der Lage, die radioaktiv markierten Pyrimidine Uridin und Uracil zu degradieren und deshalb hochsensitiv gegenüber den toxischen Derivaten 5-Fluorouridin und 5-Fluorouracil. Im Gegensatz dazu wiesen Mutanten, die Pyd1 überexprimieren eine erhöhte Resistenz gegenüber diesen toxischen Derivaten auf. Expressionsanalysen deckten auf, dass Pyd1 hauptsächlich im trockenen Samen exprimiert wird. Die transgenen Pyd1-Pflanzen wiesen einen drastischen Keimungsphänotyp auf. Während „knockout“-Mutanten 2 Tage später als Arabidopsis thaliana-Wildtyp-Pflanzen keimten, waren die Pyd1-Überexpressions-pflanzen in der Lage etwas früher zu keimen. Dies indiziert, dass die Aktivität der Pyd1 in der frühen pflanzlichen Entwicklung von entscheidender Bedeutung ist. Auch der Abscisinsäure-Stoffwechsel scheint in diesen Keimungsphänotyp involviert zu sein. Weiterhin entwickelten die Pyd1-Überexpressionspflanzen mehr Schoten und Samen als Wildtyp-Pflanzen, die „knockout“-Pflanzen weniger. War während der pflanzlichen Entwicklung Stickstoff limitierend, erhöhten sich Pyd1-Expression und Pyd1-Aktivität. Pyd1 scheint ein Schlüsselregulator des Pyrimidin-Katabolismus zu sein, der zwischen den Bedürfnissen an Stickstoff von Nukleotiden und anderen Metaboliten wie beispielsweise Aminosäuren vermittelt. Weiterhin erwies sich Pyd1 als wichtige Komponente in der Remobilisierung des Stickstoffs aus seneszenten Geweben. Es wurde untersucht, ob eventuell ein weiteres Enzym mit Dihydrouracil-Dehydrogenase-Aktivität existiert. Das Arabidopsis thaliana-Protein mit der höchsten Homologie zur Aminosäuresequenz von Pyd1 ist das Enzym Dihydroorotat-Dehydrogenase (DHODH), welches den vierten Schritt der Pyrimidin-de novo-Synthese katalysiert, die Oxidation von Dihydroorotat zu Orotat. Der Pyrimidinkatabolismus stellt die Umkehrung der Pyrimidin-de novo-Synthese dar und die von Pyd1 und DHODH katalysierten Reaktionen sind chemisch ähnlich. Transgene Pflanzen mit einer gesteigerten DHODH-Expression waren zu einer erhöhten Dihydroorotat-Oxidation in der Lage, zeigten aber keinerlei Pyd1-Aktivität. Während eine geringfügige Reduktion in der DHODH-Expression keinen Einfluss auf die pflanzliche Entwicklung hatte, wiesen Dosismutanten mit einer starken Reduktion des DHODH-Transkriptgehaltes einen drastischen Phänotyp auf. Die entsprechenden Pflanzen waren zwergwüchsig, bildeten rötlich-braune Keimblätter aus und ihr Wurzelwachstum war im Vergleich zu Arabidopsis thaliana-Wildtyp-Pflanzen stark vermindert. Zudem hatten diese Pflanzen weniger RNA, was auf eine geringere Pyrimidinverfügbarkeit hindeutet. Gewebespezifische Expressionsanalysen unterstrichen die Bedeutung der DHODH und damit der Pyrimidin-de novo-Synthese in wachsenden Geweben, in denen die Bereitstellung neuer Pyrimidin-Grundgerüste von essentieller Bedeutung ist. Weiterhin konnten erste Hinweise darauf erbracht werden, dass die pflanzliche DHODH, so wie auch das Homolog in Tieren an der äußeren Oberfläche der inneren Mitochondrienmemban verankert und dort als Flavoprotein an die Atmungskette gekoppelt ist.
Ausgehend von einem donorfreien und einem DME-haltigen Eisenhalbsandwich-bromid des sperrigen Pentaisopropylcyclopentadienids, erhält man durch Substitution des Bromids gegen den 2,6-Diisopropylphenylrest einen sigma-Aryl-Eisencyclopentadienid-Komplex, der eine erstaunliche Stabilität aufweist. Dieser ist der erste vollständig charakterisierte Vertreter seiner Art und besitzt bei tiefer Temperatur die Eigenschaften eines molekularen Magneten. Durch Reaktion mit koordinativ ungesättigten Metallzentren lassen sich eine Vielzahl von Additions- und Substitutionsreaktionen beobachten. Eine Substitution des Bromids in den Eisenhalbsandwich-bromiden gegen ein Phenolat, bzw. Thiophenolat ist ebenfalls möglich. Die Resultate dieser Umsetzungen zeigen interessante strukturelle Ergebnisse bezüglich der Bindungsmöglichkeiten zwischen Eisen und Phenolaten sowie Thiophenolaten. Der Phenolatkomplex zeigt eine erstaunliche Stabilität und zersetzt sich auch in verdünnten Säuren und Basen nicht. Es ist erstmalig gelungen, das Pentaisopropylcyclopentadienid an ein Nickelzentrum zu koordinieren. Der resultierende Halbsandwichkomplex mit zwei verbrückenden Bromiden kann wie beim Eisen als Ausgangsverbindung zur Darstellung einer Vielzahl von neuen Komplexen dienen. Durch Addition von 1-Naphthyllithium an das 1,2,3,4-Tetraisopropyl-6-(dimethylamino)pentafulven gelingt die Synthese eines neuen sperrigen chiralen Cyclopentadienids. Dieses lässt sich an ein Nickelbromid-Fragment koordinieren und bildet den ersten im festen Zustand monomeren Vertreter eines Cyclopentadienyl-Nickelbromids. Durch Reduktion der beiden Halbsandwich-Bromide des Eisens und des Nickels in Gegenwart von Stickstoff erhält man Nitrido-Komplexe, die noch nicht eindeutig charakterisiert sind. Die Reaktivität dieser Verbindungen ist jedoch eindeutig. Sie sind in der Lage, mit elementarem Wasserstoff hochreaktive Amide zu bilden und ein Alkyl-H-Atom gegen eine Aminogruppe auszutauschen. Diese metallvermittelte Bildung von Alkylaminen aus Alkan, Stickstoff und Wasserstoff ist bislang nicht bekannt.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss- Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert, sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln. Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen. Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen Wissensstand abbildet und der Ingenieurpraxis gerecht wird. Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007) sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien. Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich. Laborversuche sollten jedoch gesondert bewertet werden. Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet, wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen. Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen, dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen Kriterien unterschiedliche Dimensionierungen ableiten lassen.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
This research work focuses on the generation of a high resolution digital surface model featuring complex urban surface characteristics in order to enrich the database for runoff simulations of urban drainage systems. The discussion of global climate change and its possible consequences have taken centre stage over the last decade. Global climate change has triggered more erratic weather patterns by causing severe and unpredictable rainfall events in many parts of the world. The incidence of more frequent rainfall has led to the problem of increased flooding in urban areas. The increased property values of urban structures and threats to people's personal safety have hastened the demand for a detailed urban drainage simulation model for accurate flood prediction. Although the use of 2D hydraulic modelling approach in rural floodplains is in practice for quite a long time, the use of the same approach in urban floodplains is still in its infancy. The reason is mainly due to the lack of a high resolution topographic model describing urban surface characteristics properly.
High resolution surface data describing hydrologic and hydraulic properties of complex urban areas are the prerequisite to more accurately describing and simulating the flood water movement and thereby taking adequate measures against urban flooding. Airborne LiDAR (Light detection and ranging) is an efficient way of generating a high resolution Digital Surface Model (DSM) of any study area. The processing of high-density and large volume of unstructured LiDAR data is a difficult and time-consuming task towards generating fine resolution spatial databases when considering only human intervention. The application of robust algorithms in terms of processing this massive volume of data can significantly reduce the data processing time and thereby increase the degree of automation as well as accuracy.
This research work presents a number of techniques pertaining to processing, filtering and classification of LiDAR point data in order to achieve higher degree of automation and accuracy towards generating a high resolution urban surface model. This research work also describes the use of ancillary datasets such as aerial images and topographic maps in combination with LiDAR data for feature detection and surface characterization. The integration of various data sources facilitates detailed modelling of street networks and accurate detection of various urban surface types (e.g. grasslands, bare soil and impervious surfaces).
While the accurate characterization of various surface types contributes to the better modelling of rainfall runoff processes, the application of LiDAR-derived fine resolution DSM serves as input to 2D hydraulic models and capable of simulating surface flooding scenarios in cases the sewer systems are surcharged.
Thus, this research work develops high resolution spatial databases aiming at improving the accuracy of hydrologic and hydraulic databases of urban drainage systems. Later, these databases are given as input to a standard flood simulation software in order to: 1) test the suitability of the databases for running the simulation; 2) assess the performance of the hydraulic capacity of urban drainage systems and 3) predict and visualize the surface flooding scenarios in order to take necessary flood protection measures.
Gegenstand der vorliegenden Dissertation war die Erarbeitung eines besseren Verständnisses für ein grundlegendes Konzept der molekularen Erkennung - den Intra-Rezeptor-Wechselwirkungen. In zwei Projekten sollte dies mit Hilfe von Modellsystemen verwirklicht werden.
Im ersten Projekt wurden verschiedene Bis(kronenether)-Derivate synthetisiert, um den Einfluss der Intra-Rezeptor-Wechselwirkungen systematisch untersuchen zu können. Die Synthese lieferte die Derivate als Gemisch von Diastereomeren, wobei für ein Derivat mit Camphanoylsubstituenten die Trennung der Diastereomere nach chromatographischer Trennung erfolgreich realisiert werden konnte. Die lösungsmittelabhängige Charakterisierung der Kaliumkomplexierung der Bis(kronenether)-Derivate in Methanol/Wasser-Gemischen erfolgte mittels isothermer Titrationskalorimetrie (ITC). Es zeigten sich unterschiedliche Einflüsse in den Enthalpie- und Entropiebeiträgen der einzelnen Derivate, welche sich allerdings aufgrund von Enthalpie-Entropie-Kompensation nicht in unterschiedlichen Werten für ∆G äußern. Darauf aufbauend wurde ein weiteres Modellsystem konzipiert, welches einen Azakronenether als Grundkörper aufweist. Die Ausgangsverbindung hierfür wurde synthetisiert und eine Kristallstruktur des Natriumiodid-Komplexes ergab wichtige strukturelle Hinweise für die Durchführbarkeit weiterer Arbeiten.
Im zweiten Projekt sollte untersucht werden, ob die Eigenschaften eines bekannten cyclischen Hexapeptids, bei Bindung von Anionen Intra-Rezeptor-Wechselwirkungen auszunutzen, auf ein strukturell ähnliches System übertragen werden können. Ein cyclisches Pseudohexapeptid sowie das kleinere cyclische Pseudotetrapeptid, in welchen 1,5-disubstituierte 1,2,3-Triazole die cis-Amide an den Prolinuntereinheiten der entsprechenden cyclischen Peptide imitieren, wurden synthetisiert. Die hohe konformationelle Übereinstimmung der cyclischen Pseudopeptide zu den cyclischen Peptiden konnte über Kristallstrukturanalyse und 1H-NMR spektroskopische Untersuchungen nachgewiesen werden.
Die Bindungseigenschaften des cyclischen Pseudohexapeptids gegenüber Anionen wurden mit Hilfe der NMR-Spektroskopie und der Isothermen Titrationskalorimetrie (ITC) untersucht. Das cyclische Pseudohexapeptid bindet anorganische Anionen mit außergewöhnlich hohen Bindungskonstanten in kompetitiven Wasser/Methanol Lösungsmittelgemischen unter Ausnutzung von Intra-Rezeptor-Wechselwirkungen. Des Weiteren konnte gezeigt werden, dass die intrinsische Anionenaffinität von diesem Derivat größer ist als bei dem cyclischen Hexapeptid.
Bei einem Stent handelt es sich um ein medizinisches Implantat, das zur Behandlung von Gefäßverengungen (Stenosen) eingesetzt wird. Ein implantierter Stent verbleibt in der Regel lebenslang im Gefäß und muss alle auftretenden Belastungen dauerhaft ertragen ohne zu brechen. Für die Auslegung eines Stents und zur Beurteilung des Ermüdungsverhaltens können durch die Finite Element Methode (FEM) schon im Vorfeld die auftretenden Spannungen und Dehnungen berechnet werden. Im Rahmen dieser Arbeit wird ein (Referenz-) Stent anhand unterschiedlicher Simulationen und Experimente analysiert und untersucht. Dabei wird sowohl der Herstellungsprozess des Stents betrachtet, als auch dessen Verhalten in unterschiedlich komplexen Gefäßen. In experimentellen Untersuchungen wird die Radialkraft bestimmt und das Ermüdungsverhalten des Stents bei einer simulierten Kniebeuge von 90° ermittelt. Mit der gewonnenen Erfahrung wird eine Vergleichsrechnung zweier neuer Stent-Designs durchgeführt. Auf Basis der Simulationen wird ein Prototyp hergestellt. Mit Hilfe der Computational Fluid Dynamics (CFD) Simulation wird der Einfluss des Referenz-Stents auf die Blutströmung durch die Berechnung der Strömungsverhältnisse in unterschiedlich komplexen Gefäßen näher betrachtet. Die Interaktion zwischen Stent, dem umgebenden Gefäß und der Blutströmung wird durch die gekoppelte FEM-CFD-Simulation untersucht.
In this paper, we discuss the problem of testing for a changepoint in the structure
of an integer-valued time series. In particular, we consider a test statistic
of cumulative sum (CUSUM) type for general Poisson autoregressions of order
1. We investigate the asymptotic behaviour of conditional least-squares estimates
of the parameters in the presence of a changepoint. Then, we derive the
asymptotic distribution of the test statistic under the hypothesis of no change,
allowing for the calculation of critical values. We prove consistency of the test,
i.e. asymptotic power 1, and consistency of the corresponding changepoint estimate.
As an application, we have a look at changepoint detection in daily
epileptic seizure counts from a clinical study.
Die Kommunale Planungspraxis durchlebt derzeit eine Phase, die von sich verändernden Rahmenbedingungen geprägt ist. Es zeigen sich erste Auswirkungen des demographischen Wandels wie wachsende Leerstände, zugleich ist jedoch nach wie vor eine ungebremste Flächenneuinanspruchnahme zu verzeichnen, die von dem „30 Hektar Ziel“ der nationalen Nachhaltigkeitsstrategie weit entfernt liegt. Begleitet wird diese Entwicklung von einer sich immer mehr verschärfenden Finanzknappheit der Kommunen, die auch zu einer vermehrten Abgabe von Planungsaufgaben, dem Kerngebiet kommunaler Selbstverwaltung, an externe Planungsträger führt. Um bei diesen Prozessen die notwendige Transparenz zu generieren und damit die Akzeptanz der Planung sicherzustellen ist es wichtig, die Bürger frühzeitig zu informieren und zu beteiligen. Hier eröffnet die Visualisierung von Planungen mittels des Computers die Chance, als virtuelle Repräsentation realer Städte oder Planungen, heterogene, raumbezogene Informationen einer breiten Bevölkerungsschicht interaktiv zugänglich zu machen; sie eröffnet somit eine neue Perspektive auf Lebensumwelten, und hilft, diese besser zu verstehen.
This thesis is concerned with the modeling of the domain structure evolution in ferroelectric materials. Both a sharp interface model, in which the driving force on a domain wall is used to postulate an evolution law, and a continuum phase field model are treated in a thermodynamically consistent framework. Within the phase field model, a Ginzburg-Landau type evolution law for the spontaneous polarization is derived. Numerical simulations (FEM) show the influence of various kinds of defects on the domain wall mobility in comparison with experimental findings. A macroscopic material law derived from the phase field model is used to calculate polarization yield surfaces for multiaxial loading conditions.
In recent years, convex optimization methods were successfully applied for various image processing tasks and a large number of first-order methods were designed to minimize the corresponding functionals. Interestingly, it was shown recently by Grewenig et al. that the simple idea of so-called “superstep cycles” leads to very efficient schemes for time-dependent (parabolic) image enhancement problems as well as for steady state (elliptic) image compression tasks. The ”superstep cycles” approach is similar to the nonstationary (cyclic)
Richardson method which has been around for over sixty years.
In this paper, we investigate the incorporation of superstep cycles into the gradient descent reprojection method. We show for two problems in compressive sensing and image processing, namely the LASSO approach and the Rudin-Osher-Fatemi model that the resulting simple cyclic gradient descent reprojection algorithm can numerically compare with various state-of-the-art first-order algorithms. However, due to the nonlinear
projection within the algorithm convergence proofs even under restrictive assumptions on the linear operators appear to be hard. We demonstrate the difficulties by studying the
simplest case of a two-cycle algorithm in R^2 with projections onto the Euclidian ball.
Als Biosphärenstadt besitzt St. Ingbert große Zukunftschancen. In der Stadt St. Ingbert gibt es auf den verschiedenen Ebenen der städtebaulichen Planung bereits einige Ansätze, die als Grundlage für die Verwirkung der Stadtentwicklung und Freiraumplanung herangezogen werden können. Beispielsweise werden im Rahmen des städtebaulichen Entwicklungskonzepts der Mittelstadt St. Ingbert städtebauliche Forderungen berücksichtigt. Aber gleichzeitig stellen die ungewöhnlich hohe Bevölkerungsdichte und die Alterung der Bevölkerung eine Herausforderung für eine nachhaltige Entwicklung in der Zukunft dar. In der vorliegenden Arbeit wurde anhand der Ist-Situation der Stadt St. Ingbert ein Masterplan für die Grün- und Freiräume erstellt. Durch eine Analyse und Bewertung der Ist-Situation wurden die Probleme und Defizite im Plangebiet aufgezeigt. Dadurch lassen sich Handlungserfordernisse und Entwicklungsmaßnahmen ableiten, um die vielfältigen Bedürfnisse der Bevölkerung bezüglich der Grün- und Freiräume zu befriedigen, wie z.B. Vernetzung der Grün- und Freiräume durch Einrichtung eines Wanderwegesystems, Aufwertung der Freiflächen mittels Umgestaltungs- und Sanierungsmaßnahmen für die planbezogenen öffentlichen Grünflächen usw. In der Vertiefungsphase sollten die Handlungsempfehlungen für ausgesuchte Elemente des geplanten Freiraumsystems als Leitprojekte erarbeitet werden, beispielsweise Umgestaltung der Verkehrsknotenpunkte am Wasserpark, Vergrößerung der Wasserflächen im Stadtpark, Gestaltung des kleinen Parks am Freibad sowie Aufbau von Holzstegen im Landschaftspark. Solche Leitprojekte haben auch weiterhin eine wesentliche Bedeutung für die gezielte Durchführung von Einzelmaßnahmen im öffentlichen, halböffentlichen und privaten Bereich. Durch eine verstärkte Grün- und Freiraumplanung lässt sich die Wohn- und Lebensqualität der Stadt zu verbessern und es kann ein Beitrag zur künftigen Gesamtentwicklung der Stadt geleistet werden. Durch Umsetzung von Leitprojekten sinkt das Risiko, dass durch kurzfristige Entscheidungen die Freiraumsituation der Stadt verschlechtert wird; gleichzeitig bietet sich die Chance, die Freiraumsituation zu verbessern. Die Ausarbeitung des „Masterplans: Grün und Gesundheit für die Biosphärenstadt St. Ingbert“ bietet die Chance, dass für St. Ingbert in Zukunft eine nachhaltige Entwicklung gewährleistet ist.
In the first part of the thesis we develop the theory of standard bases in free modules over (localized) polynomial rings. Given that linear equations are solvable in the coefficients of the polynomials, we introduce an algorithm to compute standard bases with respect to arbitrary (module) monomial orderings. Moreover, we take special care to principal ideal rings, allowing zero divisors. For these rings we design modified algorithms which are new and much faster than the general ones. These algorithms were motivated by current limitations in formal verification of microelectronic System-on-Chip designs. We show that our novel approach using computational algebra is able to overcome these limitations in important classes of applications coming from industrial challenges.
The second part is based on research in collaboration with Jason Morton, Bernd Sturmfels and Anne Shiu. We devise a general method to describe and compute a certain class of rank tests motivated by statistics. The class of rank tests may loosely be described as being based on computing the number of linear extensions to given partial orders. In order to apply these tests to actual data we developed two algorithms and used our implementations to apply the methodology to gene expression data created at the Stowers Institute for Medical Research. The dataset is concerned with the development of the vertebra. Our rankings proved valuable to the biologists.
Gegenstand der vorliegenden Arbeit ist es, ein elasto-plastisches Stoffmodell für teilgesättigte
bindige Böden zu entwickeln. Abweichend von den aus der Literatur bekannten Stoffmodellen
für teilgesättigte Böden werden Änderungen von Zustandgrößen unmittelbar erfassbar sein. Der
Einfluss der Zustandsgrößen Anfangsporenzahl, -sättigungsgrad, Temperatur,
Konsolidierverhältnis sowie des Spannungsniveaus auf das mechanische Verhalten eines
gängigen, ausgeprägt plastischen Tons wird untersucht.
Zur Ermittlung der relevanten Stoffparameter wird eine Reihe aufwändiger Versuche in einem
neu entwickelten Triaxialgerät durchgeführt. Dieses Triaxialgerät ist in der Lage, die für
teilgesättigte Böden charakteristische Saugspannung während des Versuchs sowohl zu messen
als auch zu regeln. Die in diesem Triaxialgerät durchgeführten Versuche dienen zur Ermittlung
des deviatorischen Versagenszustandes des Bodens.
Der Einfluss sämtlicher Zustandgrößen auf die Grenzfläche des Stoffmodells wird für den
vorliegenden Kaolinit mittels eines Separationsansatzes in einem einzigen Parameter
berücksichtigt. Die weiteren Parameter des Modells bleiben für alle Zustände konstant. Das
Verhalten im elastischen Bereich ist durch Funktionen für Kompressions- und Schubmodul
gesteuert, die von den Zustandsgrößen abhängen. Das volumetrische Verhalten erfasst eine
Kappenfunktion, die an die deviatorische Grenzfläche anschließt.
Das entwickelte Stoffmodell wird mittels der Schnittstelle UMAT in das FE-Programmsystem
ABAQUS implementiert. Die Validierung des Modells erfolgt anhand der Simulation
verschiedener Laborversuche. Abschließend wird eine geotechnische Problemstellung in Form
einer Flachgründung untersucht und die maximal aufnehmbare Spannung bei Aufsättigung durch
Beregnung des Bodens aufgezeigt.
In den letzten Jahren stieg aufgrund eines zunehmenden Ernährungsbewusstseins die Nachfrage nach Lebensmitteln mit gesundheitsfördernden Inhaltsstoffen an. Dabei wird vor allem einer Ernährung reich an Obst und Gemüse protektive Eigenschaften zugesprochen. Besonders für sekundäre Pflanzenstoffe wie die Gruppe der Anthocyane werden positive gesundheitliche Eigenschaften, wie antiinflammatorische-, antioxidative- und chemo-präventive Wirkungen postuliert. Für die beschriebenen biologischen Wirkmechanismen ist jedoch die Verfügbarkeit der Anthocyane am Ort der Resorption von entscheidender Bedeutung. Im pharmazeutischen Bereich werden Verkapselungstechniken angewandt, um das Erreichen des Wirkstoffs am potentiellen Wirkort zu gewährleisten. Vorrausetzung ist jedoch, dass die Bioaktivität des Wirkstoffs dabei nicht herabgesetzt wird.
Im Rahmen der vorliegenden Arbeit wurde die Modulation der Stabilität und der Freisetzung der Anthocyane anhand von unterschiedlichen Wildheidelbeerextrakt (Vaccinium myrtillus L., HBE)-beladenen Verkapselungssystemen im Vergleich zu nicht verkapseltem HBE unter Bedingungen des Gastrointestinaltrakts untersucht. Die HBE-beladenen Kapselsysteme (Pektinamidhohl-, Molkenprotein-, multidisperse Hüll- und Apfelpektin¬kapseln) wurden von verschiedenen Projektpartnern des Clusterprojekts „Bioaktive Inhaltsstoffe aus mikrostrukturierten Multikapselsystemen: Untersuchungen zum Einfluss der Mikrostruktur und der molekularen Zusammensetzung auf die Stabilisierung und kontrollierte Freisetzung von sekundären Pflanzenstoffen und deren Auswirkung auf biologische Signalparameter“ zur Verfügung gestellt. Ein weiterer Schwerpunkt dieser Arbeit bildeten Untersuchungen, ob Kapselsysteme einen Einfluss auf die biologische Aktivität von Inhaltsstoffen des HBE ausüben.
In Kooperation mit dem Arbeitskreis von Prof. Mäder (Uni Halle) wurden in vitro Systeme zur Simulation der Magen- und Dünndarmpassage eingesetzt, um die Freisetzung der Anthocyane aus HBE-beladenen Kapselpräparaten vergleichend zum HBE zu untersuchen. Anschließend erfolgte am Beispiel der Anthocyane die Erfassung der Anthocyangehalte mittels HPLC-UV/VIS. Die Anthocyanfreisetzung fand unabhängig vom Kapseltyp während der Magensaftsimulation innerhalb von 10 min statt. Die freigesetzten Anthocyane erwiesen sich als stabil über den restlichen Inkubationszeitraum von 2 h. Anthocyane liegen beim pH-Wert des Magens (pH 1.5) als stabilisierte Flavyliumkationen vor, wodurch ihr Abbau verhindert wird. Im Gegensatz dazu wurde während der Dünndarmsimulation (pH 6.8) eine Abnahme der Anthocyankonzentration des HBE festgestellt. Durch den Einsatz von Verkapselungstechniken konnten unabhängig vom Kapseltyp die Freisetzung und Stabilität der Anthocyane signifikant erhöht werden. Zusätzlich wurde gezeigt, dass Proteine (Molkenproteine), die vom Arbeitskreis Prof. Kulozik (TU München) zur Verfügung gestellt wurden, die Anthocyane während der Dünndarmsimulation stabilisierten.
Des Weiteren wurde ein ex vivo Modell mit humanem Dünndarminhalt von Patienten mit künstlichem Darmausgang (Ileostoma) zur weiterführenden Untersuchung der Stabilität und Freisetzung von Anthocyanen des HBE etabliert. Mit steigender HBE Konzentration wurde ein verzögerter Abbau der Anthocyane beobachtet. Zusätzlich zu den Inkubationen in humanem Dünndarminhalt (pH 6.3) wurde HBE in einem Reduktionspuffer (pH 6.3) vergleichend inkubiert. Dabei ergaben sich Hinweise, dass ein Abbau der Anthocyane durch intestinale Enzyme oder mikrobielle Enzymaktivitäten erfolgte. In Inkubationen der unterschiedlichen HBE-beladenen Kapselsysteme mit humanem Dünndarminhalt wurde eine Freisetzung der Anthocyane im Zeitraum bis zu 8 h gemessen. Dabei ergab sich eine Kompensation des Anthocyanabbaus durch kontinuierliche Freisetzung.
Mittels der durchgeführten Freisetzungs- und Stabilitätsuntersuchungen konnte gezeigt werden, dass die vorliegenden Verkapselungstechniken zu einer unerwünschten Freisetzung der Anthocyane während der Magenpassage führten. Im Dünndarmmilieu trugen diese Kapselsysteme zu einer kontinuierlichen Freisetzung, einer damit einhergehenden Kompensation des Anthocyanabbaus und somit höheren Wirkstoffkonzentrationen am potentiellen Wirkort bei. Folglich ist es in Zukunft notwendig, die Kapselsysteme so zu optimieren, dass eine Anthocyanfreisetzung im Magen verhindert wird und somit die intakten Kapseln den Dünndarm erreichen.
Ein weiterer Schwerpunkt der vorliegenden Arbeit war mittels in vitro Experimenten an den humanen Darmkrebszelllinien Caco-2 und HT-29 zu prüfen, ob die verwendeten Verkapselungssysteme einen Einfluss auf die biologische Wirksamkeit der Anthocyane ausüben. Zusätzlich sollte untersucht werden, welche Subfraktionen des HBE (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion), die vom Arbeitskreis Prof. Winterhalter (TU Braunschweig) zur Verfügung gestellt wurden, zu dessen biologischen Wirksamkeit beitragen.
Um eine Aussage über potentielle zytotoxische Effekte des HBE, der HBE-Subfraktionen und der HBE-beladenen Kapselsysteme auf humane Darmkrebszellen treffen zu können, wurde der Farbreaktionstest „Alamar blue Assay“, in dem die mitochondriale Aktivität als Maß für die Vitalität der Zelle bestimmt wird, durchgeführt. Die antioxidative Wirksamkeit wurde als Modulation unterschiedlicher Biomarker, wie oxidative DNA-Schäden, der Gehalt an Glutathion und die Reduktion intrazellulärer reaktiver Sauerstoffspezies (ROS), in Kurz- und Langzeitinkubationen untersucht.
Es zeigte sich, dass weder der HBE noch die eingesetzten HBE-Subfraktionen (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion) zytotoxische Wirkungen an der Zelllinie Caco-2 aufwiesen. Eine antioxidative Wirksamkeit wurde in der Erhöhung des Glutathiongehalts durch Zellinkubation mit HBE und Phenolcarbonsäurefraktion im Konzentrationsbereich von 100 - 500 µg/ml nachgewiesen. Des Weiteren wurde eine Abnahme des Gehalts an induzierten intrazellulären ROS (50 - 500 µg/ml HBE), sowie eine Erniedrigung Menadion-induzierter oxidativer DNA-Schäden (5 - 50 µg/ml HBE) beobachtet. Inkubationen mit Anthocyan- und Polymerfraktion zeigten keine antioxidativen Effekte in den verwendeten Zellsystemen. Diese Ergebnisse verdeutlichen, dass nur die Phenolcarbonsäurefraktion zur antioxidativen Kapazität des HBE beiträgt.
In Inkubationen mit multidispersen Hüllkapseln stellte sich heraus, dass diese aufgrund ihrer äußeren Ölphase in dieser Formulierung nicht für die in vitro Experimente geeignet waren, da die Ölphase ein Aufschwimmen im Zellkulturmedium bewirkte. Von den eingesetzten Kapselsystemen wurde lediglich bei Inkubationen mit Molkenprotein- und Apfelpektinkapseln im Konzentrationsbereich von 50 - 500 µg/ml eine signifikante Reduktion der Zellvitalität beobachtet. Eine tendenzielle Erhöhung des Glutathiongehalts der Zelle (100 - 500 µg/ml), eine Erniedrigung der induzierten ROS (100 - 500 µg/ml) und eine Reduktion Menadion-induzierter oxidativer DNA-Schäden (5 - 10 µg/ml) wurde nach Inkubation mit den Kapselsystemen (Pektinamidhohl-, Molkenprotein- und Apfelpektinkapseln) nachgewiesen. Das antioxidative Potential des HBE wurde durch die Verkapselungstechniken nicht reduziert.
Die Ergebnisse dieser Arbeit zeigen, dass sowohl der HBE, die Phenolcarbonsäurefraktion als auch die HBE-beladenen Kapselsysteme antioxidativ wirksam (Erhöhung des GSH-Gehalts, Erniedrigung der intrazellulären ROS und Schutz vor oxidativen DNA-Schäden) sind. Welche weiteren Inhaltstoffe zur Wirksamkeit des HBE beitragen muss in weiterführenden in vitro Studien charakterisiert werden. Insgesamt führte der Einsatz von Verkapselungstechniken zu keiner Reduzierung der biologischen Wirksamkeit bei gleichzeitiger Stabilisierung der Anthocyane des HBE. Damit stellen Kapselsysteme eine gute Möglichkeit dar, die Freisetzung bioaktiver Stoffe im Körper zu steigern, ohne deren Effektivität zu beeinflussen. Die in dieser Arbeit beobachteten in vitro Effekte auf ausgewählte Biomarker des oxidativen Stresses, müssten in weiterführenden in vivo Studien verifiziert werden.
The primary objective of this work is the development of robust, accurate and efficient simulation methods for the optimal control of mechanical systems, in particular of constrained mechanical systems as they appear in the context of multibody dynamics. The focus is on the development of new numerical methods that meet the demand of structure preservation, i.e. the approximate numerical solution inherits certain characteristic properties from the real dynamical process.
This task includes three main challenges. First of all, a kinematic description of multibody systems is required that treats rigid bodies and spatially discretised elastic structures in a uniform way and takes their interconnection by joints into account. This kinematic description must not be subject to singularities when the system performs large nonlinear dynamics. Here, a holonomically constrained formulation that completely circumvents the use of rotational parameters has proved to perform very well. The arising constrained equations of motion are suitable for an easy temporal discretisation in a structure preserving way. In the temporal discrete setting, the equations can be reduced to minimal dimension by elimination of the constraint forces. Structure preserving integration is the second important ingredient. Computational methods that are designed to inherit system specific characteristics – like consistency in energy, momentum maps or symplecticity – often show superior numerical performance regarding stability and accuracy compared to standard methods. In addition to that, they provide a more meaningful picture of the behaviour of the systems they approximate. The third step is to take the previ- ously addressed points into the context of optimal control, where differential equation and inequality constrained optimisation problems with boundary values arise. To obtain meaningful results from optimal control simulations, wherein energy expenditure or the control effort of a motion are often part of the optimisation goal, it is crucial to approxi- mate the underlying dynamics in a structure preserving way, i.e. in a way that does not numerically, thus artificially, dissipate energy and in which momentum maps change only and exactly according to the applied loads.
The excellent numerical performance of the newly developed simulation method for optimal control problems is demonstrated by various examples dealing with robotic systems and a biomotion problem. Furthermore, the method is extended to uncertain systems where the goal is to minimise a probability of failure upper bound and to problems with contacts arising for example in bipedal walking.
In this paper we develop testing procedures for the detection of structural changes in nonlinear autoregressive processes. For the detection procedure we model the regression function by a single layer feedforward neural network. We show that CUSUM-type tests based on cumulative sums of estimated residuals, that have been intensively studied for linear regression, can be extended to this case. The limit distribution under the null hypothesis is obtained, which is needed to construct asymptotic tests. For a large class of alternatives it is shown that the tests have asymptotic power one. In this case, we obtain a consistent change-point estimator which is related to the test statistics. Power and size are further investigated in a small simulation study with a particular emphasis on situations where the model is misspecified, i.e. the data is not generated by a neural network but some other regression function. As illustration, an application on the Nile data set as well as S&P log-returns is given.
We consider an autoregressive process with a nonlinear regression function that is modeled by a feedforward neural network. We derive a uniform central limit theorem which is useful in the context of change-point analysis. We propose a test for a change in the autoregression function which - by the uniform central limit theorem - has asymptotic power one for a large class of alternatives including local alternatives.