Refine
Year of publication
- 2011 (111) (remove)
Document Type
- Doctoral Thesis (62)
- Report (18)
- Preprint (10)
- Periodical Part (9)
- Book (4)
- Working Paper (4)
- Master's Thesis (2)
- Bachelor Thesis (1)
- Habilitation (1)
Keywords
- Visualisierung (4)
- Simulation (3)
- autoregressive process (3)
- neural network (3)
- nonparametric regression (3)
- Außenpolitik (2)
- CSO (2)
- Implementation (2)
- Katalyse (2)
- Metropolregion (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich ARUBI (12)
- Fraunhofer (ITWM) (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (9)
- Kaiserslautern - Fachbereich Sozialwissenschaften (8)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Informatik (5)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
In this paper we develop testing procedures for the detection of structural changes in nonlinear autoregressive processes. For the detection procedure we model the regression function by a single layer feedforward neural network. We show that CUSUM-type tests based on cumulative sums of estimated residuals, that have been intensively studied for linear regression, can be extended to this case. The limit distribution under the null hypothesis is obtained, which is needed to construct asymptotic tests. For a large class of alternatives it is shown that the tests have asymptotic power one. In this case, we obtain a consistent change-point estimator which is related to the test statistics. Power and size are further investigated in a small simulation study with a particular emphasis on situations where the model is misspecified, i.e. the data is not generated by a neural network but some other regression function. As illustration, an application on the Nile data set as well as S&P log-returns is given.
We consider an autoregressive process with a nonlinear regression function that is modeled by a feedforward neural network. We derive a uniform central limit theorem which is useful in the context of change-point analysis. We propose a test for a change in the autoregression function which - by the uniform central limit theorem - has asymptotic power one for a large class of alternatives including local alternatives.
Decarboxylierende Kreuzkupplungen sind eine neue Synthesestrategie zur Darstellung von unsymmetrischen Biarylen oder Ketonen aus Kaliumcarboxylatsalzen und Arylhalogeniden. Im Vergleich zu traditionellen Kreuzkupplungsreaktionen (z.B. Suzuki-Miyaura-Reaktion) kann mit dieser Methode auf den Einsatz von stöchiometrischen Metallverbindungen verzichtet werden, was zu einer nachhaltigeren Synthese führt. In der vorliegenden Arbeit sind neue bimetallische Katalysatorgenerationen entwickelt worden, die die decarboxylierende Kreuzkupplung mit Arylsulfonaten (Aryltriflate u. -tosylate) ermöglicht. Durch die Kombination von Sulfonatkupplungspartnern und Mikrowellenstrahlung konnte die Anwendungsbreite der Reaktion erheblich vergrößert werden und die Reaktionszeit von Stunden auf wenige Minuten reduziert werden. Die Entwicklung eines neuen silberbasierten Katalysators erlaubt die Absenkung der Reaktionstemperatur auf 130 °C und eröffnet durch seine Reaktivität die Umsetzung neuer Benzoesäuren in der Kupplung. Ein neues vollständig lösliches Katalysatorsystem wurde entwickelt mit dem ein Durchflussverfahren für decarboxylierende Kreuzkupplungen gelungen ist.
Städte und Regionen stehen vor den Herausforderungen einer wachsenden internationalen Standortkonkurrenz, die zu einem steigenden Wettbewerb führt. In diesem Wettbewerb haben Großstädte und Großstadtregionen eine ökonomische Schlüsselstellung inne. Vor dem Hintergrund hat die Bundesraumordnung angestrebt, mit Hilfe eines strategischen Leitbildes – dem Konzept der Europäischen Metropolregionen – die bestehenden Agglomerationen in ihrer internationalen Ausstrahlung zu stärken. Das Konzept wurde in Deutschland im Raumordnungspolitischen Handlungsrahmen im Jahr 1995 erstmals dargestellt sowie in den im Jahr 2006 verabschiedeten Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland gefestigt. Metropolregionen werden als „Motoren der gesellschaftlichen, wirtschaftlichen, sozialen und kulturellen Entwicklung [gesehen, deren] herausragende Funktionen im internationalen Maßstab über die nationalen Grenzen hinweg ausstrahlen.“ Für die nachfolgenden Planungsinstanzen ergibt sich aus diesen Leitbildern keine verbindliche Fortführungspflicht sowie für die Akteure vor Ort keine Umsetzungspflicht. Dessen ungeachtet haben sich die Metropolregionen mit verschiedenen Organisationsformen und Aufgabenstellungen unter Verwendung dieses Labels gebildet, wobei sich die Implementation des Konzepts der Metropolregionen in den elf deutschen Metropolregionen unterschiedlich darstellt. In den sich teilweise neu konstituierenden, teilweise auf der Basis bestehender regionaler Kooperationen weiterentwickelnden Metropolregionen bilden und stärken sich in unterschiedlicher Form regionale Netzwerke zwischen politischen, wirtschaftlichen und weiteren gesellschaftlichen Akteuren mit dem Ziel die Region weiterzuentwickeln. Vor diesem Hintergrund analysiert die Arbeit die Implementation des Konzepts der Metropolregionen in Deutschland und nimmt eine Bewertung der Bedeutung dieses Konzeptes für die regionale und kommunale Entwicklung der Regionen vor. Die Analyse erfolgt anhand der Metropolregionen Hamburg und Nürnberg. Der Fokus liegt auf der Analyse der entstandenen regionalen Netzwerk- und Kooperationsstrukturen. Aus den Ergebnissen werden Handlungsansätze für die weitere Arbeit der Metropolregionen erarbeitet und zur Diskussion gestellt, die geeignet erscheinen die regionale Entwicklung der Metropolregionen sowie deren internationale Ausstrahlung zu befördern. In der Metropolregion Hamburg hat sich eine bestehende Verwaltungskooperation der drei Bundesländer Hamburg, Niedersachsen und Schleswig-Holstein schrittweise zu einer strategischen Zusammenarbeit weiterentwickelt, die eine Internationalisierungsstrategie für die gesamte Metropolregion verfolgt. In der monozentrischen Metropolregion ist die Stadt Hamburg das dominierende Zentrum. Aufgrund der Entwicklung der Zusammenarbeit aus der Verwaltungskooperation der drei Bundesländer heraus, sind die Gremien und offiziellen Strukturen von administrativen und politischen Vertretern geprägt, wohingegen Akteure aus der Wirtschaft kaum eingebunden sind. Regionale Netzwerke, die unterschiedliche Akteursgruppen einbeziehen, existieren überwiegend außerhalb der eigentlichen Strukturen der Metropolregion Hamburg und haben einen anderen räumlichen Zuschnitt als diese. In Nürnberg hat sich im Anschluss an die Bewerbung um die Anerkennung als Metropolregion im Jahr 2005 eine eigene und neue Struktur der regionalen Zusammenarbeit mit dem zentralen Ziel der Steigerung der internationalen Sichtbarkeit der gesamten Region entwickelt. Die Metropolregion Nürnberg ist in schlanken Netzwerkstrukturen organisiert, die Akteure aus Politik, Verwaltung, Wirtschaft und Gesellschaft einbeziehen, wobei die Entscheidungen von einem Rat der Metropolregion beschlossen werden, der sich aus gewählten politischen Vertretern aus den Gemeinden, Landkreisen und kreisfreien Städten zusammensetzt. Aufbauend auf der Analyse der Ausgangssituation beider Metropolregionen, ihrer Strukturen der regionalen Zusammenarbeit, ihren Zielsetzungen, der Projektarbeit sowie der Arbeit der regionalen Netzwerke werden Handlungsempfehlungen für vier Bereiche erarbeitet: die Auseinandersetzung mit der Frage der räumlichen „Grenzziehung“ bzw. der variablen Geometrie und die sich daraus ergebenden Herausforderungen für die Projektarbeit, die Weiterentwicklung der bestehenden Netzwerke bzw. der Möglichkeiten die Strukturen für die regionale und kommunale Entwicklung stärker in Wert zu setzen, die Formulierung strategischer Anforderungen an die Projektarbeit und die Diskussion möglicher Projekte sowie die Darstellung von Anforderungen für die langfristige Implementation des Konzepts. Darüber hinaus werden Erfolgsfaktoren und Hemmnisse der beiden Regionen abgeleitet, die für die Entwicklung anderer deutscher Metropolregionen als Orientierung dienen können. Dazu gehören sowohl fachlich-inhaltliche Aspekte als auch organisatorische und auf die Strukturen der Zusammenarbeit bezogene Faktoren.
Die vorliegende Arbeit beschreibt die Synthese enantiomerenreiner N,N-heterozyklischer Liganden, die Analoga zu den bekannten chiralen Bisphosphanen BINAP, DIOP und PHANEPHOS darstellen. Die Synthese des enantiomerenreinen (R,S)-Dimethyl[1,1'-binaphthyl]-2,2'-dicarboxylat, welches für die Darstellung von (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl benötigt wird, gelang über zwei literaturbekannte Syntheserouten. Durch anschließende Umsetzung mit NaH und DMSO in THF konnte das entsprechende Ketosulfoxid erhalten werden, welches mittels Zink in einem Ethanol/Essigsäure-Gemisch zur Acetylverbindung reduziert wurde. Durch die Kondensation der Acetylvorstufe mit N,N-Dimethylformamiddimethylacetal sowie der anschließenden Zyklisierung mit Hydrazin-Monohydrat gelang es, das gewünschte Bispyrazolylbinaphthyl zu erhalten. 1H-NMR Untersuchungen weisen auf die Ausbildung einer supramolekularen Struktur hin. Der eindeutige Nachweis gelang jedoch durch die Analyse von Einkristallen mittels Röntgendiffraktometrie. Die Festkörperstruktur zeigt, dass sich durch Wasserstoffbrücken zu den Stickstoffatomen benachbarter Moleküle eine Trimerstruktur ausbildet. Durch den anschließenden Austausch der NH-Protonen gegen die linearkoordinierenden Gruppe 11 Metalle (Cu(I), Ag(I) und Au(I)) konnten stark fluoreszierende sechskernige Komplexe erhalten werden. Des Weitern wurde (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl mit verschiedenen Rutheniumvorstufen umgesetzt, deren Aktivität anschließend in der asymmetrischen Transferhydrierung von Acetophenon untersucht wurden. Die Löslichkeit des Liganden konnte durch Substitution der Protonen in Position 1 bzw. 5 der Pyrazolringe durch Alkylgruppen erhöht werden. Durch die Reaktion des Aminopropenon mit Guanidincarbonat wurde (R)-2,2'-Bis-4-[pyrimidin-2-amin]-1,1'-binaphthyl erhalten, welches einen weiteren interessanten N,N-Donorliganden darstellt. Die Synthese des 3,3'-((4S,5S)-2,2'-Alkyl-1,3-dioxolan-4,5-diyl)bis(1H-pyrazol) erfolgt ausgehend von der kostengünstigen enantiomerenreinen Weinsäure. Über die Stufe des Weinrebamid konnte schließlich die Acetylverbindung generiert werden. Die darauf folgende Kondensation mit DMF-DMA und anschließendem Ringschluss mit Hydrazinhydrat führte zu dem gewünschten Bispyrazol. Die Umsetzung des Dioxolanliganden mit Allylpaladium(II)chlorid-Dimer führte zu einem einkernigen Komplex. Nach Deprotonierung des Liganden und anschließender Umsetzung mit [RhCODCl]2 konnte dagegen ein vierkerniger Rhodiumkomplex beobachtet werden. Neben den Bispyrazolen, die eine Chiralitätsebene sowie ein Chiralitätszentrum aufweisen, gelang es über die Vorstufe der racemischen [2,2‘]-Paracyclophan-3,11-dicarbonsäure ein Bispyrazol zu synthetisieren, das eine planare Chiralität aufweist.
Im Rahmen dieser Arbeit konnten mit 2‘-Hydroxyphenylpyrazolderivaten erfolgreich zwei enantiomerenreine P,N-Liganden mit Binaphtholrückgrat synthetisiert werden. Dabei wurde das Pyrazolstickstoffatom mit einem Methyl- bzw. Benzylrest substituiert. Beide Liganden konnten in guten Ausbeuten und Reinheit erhalten werden. Mit beiden Liganden konnten erfolgreich Übergangsmetallkomplexe dargestellt werden. Im Falle des Methylderivates konnten drei dieser Komplexe auch strukturell charakterisiert werden. Dabei wurde Diastereomerenbildung aufgrund des siebengliedrigen Metallacyclus beobachtet. Im Falle des Dichloropalladiumkomplexes wurden zwei Isomere beobachtet. Beim Rutheniumcymol-Komlex bei welchem der Ligand einzähnig koordiniert, wurde erwartungsgemäß nur ein Isomer beobachtet. Bei zweizähniger Koordinationsweise bildeten sich hingegen vier Diastereomere, da aufgrund der Koordinationsumgebung das Metallzentrum nun ein Stereozentrum darstellt. Eines der Diastereomere konnte isoliert werden, da in diesem Fall die Isomerisierung nur langsam erfolgt. Im Falle des Palladiumkomplexes war dies nicht möglich. Die hydroxymethylsubstituierten Liganden konnten in guten Ausbeuten mit verschiedenen Substituenten in Position 1 und 5 erhalten werden. In Position 5 konnten Methyl-, n-Butyl-, tert-Butyl- und Phenyl- eingeführt werden. Bei Verwendung anderer Methylketone sind hier auch weitere Derivate denkbar. Der Pyrazolstickstoff konnte mit Methyl-, Benzyl-, tert-Butyl- und Phenylgruppen substituiert werden. Durch Verwendung anderer Alkylhalogenide sollte auch nahezu jeder andere Substituent zu verwirklichen sein. Im Falle des tert-Butyl- und Phenylrestes musste vom entsprechend substituierten Hydrazinderivat ausgegangen werden. Sofern die entsprechenden Hydrazine zugänglich sind sollte ebenfalls eine breite Variation der Reste möglich sein. Von vielen dieser Derivate wurden die entsprechenden Palladium(II)-Allyl-Komplexe dargestellt und NMR-spektroskopisch charakterisiert. Hierbei lag das Interesse vor allem auf der scheinbaren Rotation der Allylgruppe. Die beobachteten Spektren sind konsistent mit dem in der Literatur beschriebenen Umlagerungsmechanismus. Zwei dieser Komplexe konnten auch kristallographisch charakterisiert werden. Mit dem dimethylsubstituierten Pyrazolliganden wurden weitere Übergangsmetallkomplexe mit Eisen, Rhodium und vor allem Ruthenium dargestellt. Der Eisen-Halbsandwichkomplex konnte NMR-spektroskopisch untersucht werden. Die Rhodiumverbindungen wurden ebenfalls mit NMR-spektroskopisch und massenspektrometrisch untersucht. Die Ruthenium-verbindungen wurden auch mit NMR-Spektroskopie und Massenspektrometrie untersucht. Zwei Komplexe konnten zusätzlich kristallographisch charakterisiert werden. Ein Phosphonitliganden konnte trotz intensiver Bemühungen nicht in ausreichender Reinheit dargestellt werden, da bei der Synthese zahlreiche Probleme auftraten. Mit dem erhaltenen Liganden konnten dennoch zwei Palladiumkomplexe in moderater bis guter Reinheit isoliert und spektroskopisch charakterisiert werden. Die erhaltenen Komplexe wurden im Hinblick auf ihre katalytische Aktivität bei verschiedenen Reaktionen hin untersucht. Hierbei lag der Schwerpunkt auf der Trost-Tsuji-Reaktion, aber auch Suzuki-Kupplungen und Hydrierungen von Ketonen und Alkenen wurden durchgeführt. Die Palladium-Allyl-Komplexe zeigten alle sehr gute Aktivitäten bei der Umsetzung von Diphenylpropenylacetat mit Dimethylmalonat. Mit Ausnahme der hydroxyphenylsubstituierten Liganden konnte jedoch keine Enantioselektivität beobachtet werden. Die ee-Werte waren bei diesen beiden Verbindungen mit 35 und 22 % jedoch ebenfalls nur moderat. Mit anderen Nucleophilen konnte kein Umsatz beobachtet werden. Bei den Hydrierungsreaktionen konnten moderate bis gute Reaktivitäten beobachtet werden, allerdings konnte hier keine Enantioselektivität erzielt werden. Mit dem Pyrazolylalkohol 2-(1,5-Dimethylpyrazol-3-yl)propan-2-ol konnte zwar kein P,N-Ligand dargestellt werden, aber es konnte eine Reihe von Übergangsmetallkomplexen synthetisiert werden. Dabei zeigte sich, dass diese Verbindung einen interessanten Liganden darstellt, welcher verschiedene Koordinationsmodi ermöglicht. Durch das acide Proton des Alkohols sind zusätzlich intra- und intermolekulare Wasserstoffbrückenbindungen möglich. So konnten monomere, dimere und polymere Metallkomplexe beobachtet werden. Die Verbindungen wurden im Hinblick auf ihre strukturellen, spektroskopischen und magnetischen Eigenschaften untersucht.
We consider a variant of a knapsack problem with a fixed cardinality constraint. There are three objective functions to be optimized: one real-valued and two integer-valued objectives. We show that this problem can be solved efficiently by a local search. The algorithm utilizes connectedness of a subset of feasible solutions and has optimal run-time.
Polychlorierte Biphenyle (PCBs) gehören zu den persistenten organischen Kontaminanten (eng. Persistent Organic Pollutants, POPs). Aufgrund ihrer chemischen Eigenschaften wurden die PCBs vielseitig in der Industrie eingesetzt. Jedoch reicherten sich die persistenten Stoffe in der Umwelt an und gelangten so in die Nahrungskette. Daher ist die Hauptexpositionsquelle für den Menschen die Nahrung, insbesondere fetthaltige Nahrung wie Fisch- und Fleischprodukte. Die 209 PCB-Kongenere können in zwei Gruppen unterteilt werden. Die dioxin-artigen PCBs (DL-PCBs) bilden eine kleine Gruppe von 12 PCBs, die strukturelle und toxikologische Gemeinsamkeiten mit Dioxinen, wie z.B. dem 2,3,7,8-Tetrachlorodibenzo-p-dioxin haben. Die nicht dioxin-artigen PCBs (NDL-PCBs) stellen den Rest der 209 Kongenere dar. Sie sind toxikologisch noch wenig charakterisiert, obwohl sie 90% der PCBs repräsentieren, die als Kontaminanten in Lebensmitteln vorkommen. Das Ziel der Arbeit war es die Effekte von ausgewählte NDL-PCBs auf fremdstoffmetabolisierender Leberenzyme, wie die Cytochrome P450 Monooxygenasen (CYP) und die UDP-Glucuronocyltransferasen (UGT), zu untersuchen. Im Rahmen dieser Arbeit wurde hochreine NDL-PCBs verwendet, die geringe dioxin-artige Verunreinigungen aufwiesen. In einer subakuten Studie wurden adulte Sprague-Dawley Ratten mit in Maiskeimöl gelöstem NDL-PCB 52 oder NDL-PCB 180 wiederholt per Schlundsonde behandelt. Die Gesamtdosen betrugen 0 bis 3000 mg/kg KG bei NDL-PCB 52 und 0 bis 1700 mg/kg KG bei NDL-PCB 180. Die Behandlungsdauer betrug 28 Tage. Auf Gen- und Proteinebene wurde keine Induktion von CYP1A1, CYP1A2 und CYP1B1 in der Leber festgestellt. Die CYP2B1-Expression hingegen wurde von beiden PCBs auf Gen- und Proteinebene induziert, wobei NDL-PCB 180 potenter schien. CYP3A1, UGT1A1 und UGT 1A6 wurde nur durch NDL-PCB 180 auf Gen- und Proteinebene induziert. Außerdem induzierten beide Kongenere die katalytische CYP2B1-Aktivität (PROD-Aktivität), wobei wiederum NDL-PCB 180 eine höhere Induktion verursachte. Es konnte auch nur für dieses PCB ein EC50-Wert der PROD-Aktivität von 34,5 ± 4,2 mg/kg KG für männliche und 120 ± 46,7 mg/kg KG für weibliche Tiere ermittelt werden. Die katalytische CYP1-Aktivität (EROD-Aktivität) wurde auch durch beide PCBs induziert, wobei bei NDL-PCB 52 nur bei den Männchen die Aktivität anstieg. In einer perinatal Studie wurden trächtige Spraque-Dawley Ratten mit NDL-PCBs 52 und 180 behandelt. Die Gesamtdosen betrugen 0 bis 3000 mg/kg KG bei NDL-PCB 52 bei NDL-PCB 180 0 bis 1000 mg/kg KG. Die Jungtiere wurden jeweils 7, 35 und 84 Tage nach der Geburt (PND) getötet. NDL-PCB 52 induzierte in keiner Gruppe die EROD-Aktivität. Die PROD-Aktivität wurde nur in der PND7-Gruppe in beiden Geschlechtern induziert. NDL-PCB 180 induzierte die EROD-Aktivität bei der PND7-Gruppe nur in der höchsten Gesamtdosis. Die PROD-Aktivität wurde jedoch konzentrations- und zeitabhängig induziert. In einer Maus-Studie wurden sechs NDL-PCBs (28, 52, 101, 138, 153, 180) und das DL-PCB 126 gestestet. Mit niedrigen Dosen (20 mg/kg KG bei NDL-PCBs, 200 µg/kg KG bei DL-PCB) sollten kurzfristige (1 Tag), mittelfristige (5 Tage) und subakute (28 Tage) Effekte auf Leberenzyme bestimmt werden. Das relative Lebergewicht wurde durch die Behandlung mit NDL-PCB 28 und DL-PCB 126 nach 5 und 28 Tagen erhöht und durch NDL-PCB 153 nach 28 Tagen. Die CYP1A1-Genexpression wurde nur durch DL-PCB 126 induziert. Die CYP2B10-Genexpression wurde in jeder Behandlungsgruppe durch die NDL-PCBs erhöht, mit der Ausnahme von NDL-PCB 28 und DL-PCB 126. Die PROD-Aktivität wurde nach 28 Tagen durch alle PCBs erhöht, nach 5 Tagen verursachte nur NDL-PCB 28 keine Induktion. Bei der 1 Tag-Studie wurde die Aktivität nur durch hochchlorierte PCBs 126, 153 und 180 induziert. Die EROD-Aktivität wurde durch DL-PCB 126 sehr hoch induziert. Erst nach 28 Tagen verursachten die andere PCBs ein Erhöhung der Aktivität. Bei in vitro-Versuchen mit transfizierten humanen Hepatomzellen (HepG2) wurden 20 PCBs getestet. Nach einer 48 stündigen Inkubationszeit vermochte nur DL-PCB 126 das transient transfizierte XRE (Xenobiotic Responsive Element) zu induizieren. Außerdem wurden auch die humanen PBREM/CAR (Phenobarbital Responsive Enhancer Module/Constitutive Androstane Receptor) und XREM (Xenobiotic Responsive Enhancer Module) transient resp. stabil transfiziert. Es zeigte sich, dass die Induktion vom Chlorierungsgrad abhing. Die fünf- und siebenfach chlorierten PCBs induzierten beide, wogegen vier und sechsfach chlorierte eher PBREM/CAR induzierten. Es konnte gezeigt werden, dass die große Gruppe der NDL-PCBs bezüglich ihrer Wirkung keine homogene Gruppe bilden. Bei den Tierversuchen scheinen die hochchlorierten PCBs Mixtyp-Induktoren zu sein, wogegen die niedrigchlorierten eher CYP2B induzierten oder kein Effekt bewirkten. In vitro bestätigte sich, dass der Chlorierungsgrad bei der Induktion der Gene eine wichtige Rolle spielt.
We study the efficient computation of Nash and strong equilibria in weighted bottleneck games. In such a game different players interact on a set of resources in the way that every player chooses a subset of the resources as her strategy. The cost of a single resource depends on the total weight of players choosing it and the personal cost every player tries to minimize is the cost of the most expensive resource in her strategy, the bottleneck value. To derive efficient algorithms for finding Nash equilibria in these games, we generalize a tranformation of a bottleneck game into a special congestion game introduced by Caragiannis et al. [1]. While investigating the transformation we introduce so-called lexicographic games, in which the aim of a player is not only to minimize her bottleneck value but to lexicographically minimize the ordered vector of costs of all resources in her strategy. For the special case of network bottleneck games, i.e., the set of resources are the edges of a graph and the strategies are paths, we analyse different Greedy type methods and their limitations for extension-parallel and series-parallel graphs.
We provide a space domain oriented separation of magnetic fields into parts generated by sources in the exterior and sources in the interior of a given sphere. The separation itself is well-known in geomagnetic modeling, usually in terms of a spherical harmonic analysis or a wavelet analysis that is spherical harmonic based. However, it can also be regarded as a modification of the Helmholtz decomposition for which we derive integral representations with explicitly known convolution kernels. Regularizing these singular kernels allows a multiscale representation of the magnetic field with locally supported wavelets. This representation is applied to a set of CHAMP data for crustal field modeling.
Zahlreiche neue und andauernde Herausforderungen sowie verschiedenste Rahmenbedingungen beeinflussen die Raumentwicklungspolitik: Globalisierung und Standortwettbewerb der Regionen,Veränderung des Staatsverständnisses und Europäisierung, Regionalisierung der Aktionsräume, demographischer Wandel und die Haushaltsnot öffentlicher Kassen. Ein instrumenteller Ansatz der Raumentwicklungspolitik zur Lösung der Probleme ist dabei die Kooperation zwischen Gebietskörperschaften,die in vielerlei Hinsicht positive Skaleneffekte hervorruft. Hierbei wird die kleinräumige interkommunale Kooperation schon seit etlichen Jahrzehnten angewandt. Aufgrund der zunehmenden Regionalisierung der Aktionsräume aller gesellschaftlichen Akteure stellt sich allerdings vermehrt die Frage, inwiefern interkommunale Kooperationen auch auf großräumigere Zusammenhänge ausgedehnt werden können. Im Sinne der Policy-Forschung wird in der vorliegenden Arbeit die Politikidee, mit großräumigen regionalen Kooperationen zu einer besseren und effizienteren Raum- und Wirtschaftsentwicklung zu kommen, auf ihre Rahmenbedingungen und ihre Praxistauglichkeit untersucht. Die Policy-Analyse mit ihren Untersuchungsmethoden bietet im Hinblick auf Akteure, Politikentstehung, Steuerungsmechanismen und Konfliktlösung dazu die entsprechenden Instrumente. Sowohl kleinräumige als auch großräumige Kooperationen zwischen Gebietskörperschaften und weiteren Akteuren bewegen sich aus raumentwicklungspolitischer Sicht immer im Spannungsfeld zwischen ausgleichs- und wachstumsorientierter Raumentwicklung. Während der Ansatz der „großräumigen Verantwortungsgemeinschaften“, der als „Überregionale Partnerschaften“ Inhalt eines Modellvorhabens der Raumordnung ist, eher in Richtung Ausgleich tendiert, sind großräumige regionale Kooperationen im Sinne der vorliegenden Arbeit per se nicht einem Pol zuzuordnen. So sind wachstumsorientierte Kooperationen ebenso denkbar wie ausgleichsorientierte, wobei letztere aufgrund des regelmäßig größeren räumlichen Umgriffs eher zu erwarten sind. Für großräumige regionale Kooperationen stellen sich ähnliche Anforderungen an ihre Organisation wie an klassische interkommunale Kooperationen. Dabei zeigt sich, dass sich die großräumige regionale Kooperation von den anderen Kooperationen in erster Linie dadurch unterscheidet, dass sie eine größere räumliche Entfernung zwischen den Kooperationspartnern aufweist als die meisten anderen „gängigen“ Kooperationen, sich die Raumstruktur der Kooperanden in der Regel deutlich unterscheidet und demnach mehr unterschiedliche als gemeinsame bzw. gleiche Herausforderungen bestehen. Es zeigt sich, dass großräumige regionale Kooperationen in erster Linie punktuell, d. h. in einzelnen Policy-Feldern, möglich sind. Durch die Bearbeitung nur eines Policy-Feldes ist es umso schwieriger, den Nutzen der Kooperation gerecht zu verteilen. Der Aufbau einer gemeinsamen Kooperations- und Planungskultur ist zwischen unterschiedlichen Räumen in großräumigen regionalen Kooperationen ebenfalls schwieriger zu bewerkstelligen als in räumlich relativ eng gefassten interkommunalen und regionalen Kooperationen. Durch die größere Entfernung kann es zum Teil bereits zu Mentalitätsunterschieden zwischen den handelnden Akteuren kommen. Im empirisch untersuchten Beispiel konzentrieren sich die Kooperationen zwischen dem Rhein-Hunsrück-Raum und dem Rhein-Main-Gebiet auf die jeweiligen räumlichen Randbereiche. Direkte Kooperationen zwischen den Ausgangs- und Entwicklungsschwerpunkten der beiden Regionen – d. h. Kooperationen großräumigerer Art – finden sich erst in Ansätzen. Dies vermag nicht zu verwundern, da beide Regionen erst in geringem Maße (Region Rhein-Hunsrück) bzw. nicht unumstritten (Ballungsraum Frankfurt/Rhein-Main) institutionalisiert sind und somit keine Institution für Großteile der Region ihre Stimme erheben kann. Hierzu müssen im Sinne einer Regional Governance noch entsprechende Strukturen geschaffen bzw. weiterentwickelt werden. Die größte Herausforderung großräumiger regionaler Kooperationen ist die Integration kleinerer Maßnahmen, lokaler und regionaler Entwicklungskonzepte sowie Leuchtturmprojekte in ein strategisches Gesamtkonzept. Dies stellt aber ein aufwändiges und schwieriges Unterfangen dar und widerspricht damit der Forderung nach schnellen Erfolgen und konkreten, überschaubaren Projekten, welche eine Kooperation für ihren Erfolg benötigt. Insofern steht der Etablierung großräumiger regionaler Kooperationen noch ein langer Weg bevor, dessen Beschreitung allerdings angesichts der vielfältigen Herausforderungen an Kommunal-, Regional- und Raumentwicklung nur schwerlich umgangen werden kann.
In a dynamic network, the quickest path problem asks for a path minimizing the time needed to send a given amount of flow from source to sink along this path. In practical settings, for example in evacuation or transportation planning, the reliability of network arcs depends on the specific scenario of interest. In this circumstance, the question of finding a quickest path among all those having at least a desired path reliability arises. In this article, this reliable quickest path problem is solved by transforming it to the restricted quickest path problem. In the latter, each arc is associated a nonnegative cost value and the goal is to find a quickest path among those not exceeding a predefined budget with respect to the overall (additive) cost value. For both, the restricted and reliable quickest path problem, pseudopolynomial exact algorithms and fully polynomial-time approximation schemes are proposed.
Due to remarkable technological advances in the last three decades the capacity of computer systems has improved tremendously. Considering Moore's law, the number of transistors on integrated circuits has doubled approximately every two years and the trend is continuing. Likewise, developments in storage density, network bandwidth, and compute capacity show similar patterns. As a consequence, the amount of data that can be processed by today's systems has increased by orders of magnitude. At the same time, however, the resolution of screens has hardly increased by a factor of ten. Thus, there is a gap between the amount of data that can be processed and the amount of data that can be visualized. Large high-resolution displays offer a way to deal with this gap and provide a significantly increased screen area by combining the images of multiple smaller display devices. The main objective of this dissertation is the development of new visualization and interaction techniques for large high-resolution displays.
In this paper the multi terminal q-FlowLoc problem (q-MT-FlowLoc) is introduced. FlowLoc problems combine two well-known modeling tools: (dynamic) network flows and locational analysis. Since the q-MT-FlowLoc problem is NP-hard we give a mixed integer programming formulation and propose a heuristic which obtains a feasible solution by calculating a maximum flow in a special graph H. If this flow is also a minimum cost flow, various versions of the heuristic can be obtained by the use of different cost functions. The quality of this solutions is compared.
Continuously improving imaging technologies allow to capture the complex spatial
geometry of particles. Consequently, methods to characterize their three
dimensional shapes must become more sophisticated, too. Our contribution to
the geometric analysis of particles based on 3d image data is to unambiguously
generalize size and shape descriptors used in 2d particle analysis to the spatial
setting.
While being defined and meaningful for arbitrary particles, the characteristics
were actually selected motivated by the application to technical cleanliness. Residual
dirt particles can seriously harm mechanical components in vehicles, machines,
or medical instruments. 3d geometric characterization based on micro-computed
tomography allows to detect dangerous particles reliably and with
high throughput. It thus enables intervention within the production line. Analogously
to the commonly agreed standards for the two dimensional case, we
show how to classify 3d particles as granules, chips and fibers on the basis of
the chosen characteristics. The application to 3d image data of dirt particles is
demonstrated.
Input loads are essential for the numerical simulation of vehicle multibody system
(MBS)- models. Such load data is called invariant, if it is independent of the specific system under consideration. A digital road profile, e.g., can be used to excite MBS models of different
vehicle variants. However, quantities efficiently obtained by measurement such as wheel forces
are typically not invariant in this sense. This leads to the general task to derive invariant loads
on the basis of measurable, but system-dependent quantities. We present an approach to derive
input data for full-vehicle simulation that can be used to simulate different variants of a vehicle
MBS model. An important ingredient of this input data is a virtual road profile computed by optimal control methods.
In this paper, we present a viscoelastic rod model that is suitable for fast and accurate dynamic simulations. It is based on Cosserat’s geometrically exact theory of rods and is able to represent extension, shearing (‘stiff’ dof), bending and torsion (‘soft’ dof). For inner dissipation, a consistent damping potential proposed by Antman is chosen. We parametrise the rotational dof by unit quaternions and directly use the quaternionic evolution differential equation for the discretisation of the Cosserat rod curvature. The discrete version of our rod model is obtained via a finite difference discretisation on a staggered grid. After an index reduction from three to zero, the right-hand side function f and the Jacobian \(\partial f/\partial(q, v, t)\) of the dynamical system \(\dot{q} = v, \dot{v} = f(q, v, t)\) is free of higher algebraic (e. g. root) or transcendental (e. g. trigonometric or exponential) functions and therefore cheap to evaluate. A comparison with Abaqus finite element results demonstrates the correct mechanical behavior of our discrete rod model. For the time integration of the system, we use well established stiff solvers like RADAU5 or DASPK. As our model yields computational times within milliseconds, it is suitable for interactive applications in ‘virtual reality’ as well as for multibody dynamics simulation.
This work presents a proof of convergence of a discrete solution to a continuous one. At first, the continuous problem is stated as a system
of equations which describe filtration process in the pressing section of a
paper machine. Two flow regimes appear in the modeling of this problem.
The model for the saturated flow is presented by the Darcy’s law and the mass conservation. The second regime is described by the Richards approach together with a dynamic capillary pressure model. The finite
volume method is used to approximate the system of PDEs. Then the existence of a discrete solution to proposed finite difference scheme is proven.
Compactness of the set of all discrete solutions for different mesh sizes is
proven. The main Theorem shows that the discrete solution converges
to the solution of continuous problem. At the end we present numerical
studies for the rate of convergence.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss- Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert, sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln. Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen. Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen Wissensstand abbildet und der Ingenieurpraxis gerecht wird. Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007) sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien. Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich. Laborversuche sollten jedoch gesondert bewertet werden. Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet, wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen. Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen, dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen Kriterien unterschiedliche Dimensionierungen ableiten lassen.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
This research work focuses on the generation of a high resolution digital surface model featuring complex urban surface characteristics in order to enrich the database for runoff simulations of urban drainage systems. The discussion of global climate change and its possible consequences have taken centre stage over the last decade. Global climate change has triggered more erratic weather patterns by causing severe and unpredictable rainfall events in many parts of the world. The incidence of more frequent rainfall has led to the problem of increased flooding in urban areas. The increased property values of urban structures and threats to people's personal safety have hastened the demand for a detailed urban drainage simulation model for accurate flood prediction. Although the use of 2D hydraulic modelling approach in rural floodplains is in practice for quite a long time, the use of the same approach in urban floodplains is still in its infancy. The reason is mainly due to the lack of a high resolution topographic model describing urban surface characteristics properly.
High resolution surface data describing hydrologic and hydraulic properties of complex urban areas are the prerequisite to more accurately describing and simulating the flood water movement and thereby taking adequate measures against urban flooding. Airborne LiDAR (Light detection and ranging) is an efficient way of generating a high resolution Digital Surface Model (DSM) of any study area. The processing of high-density and large volume of unstructured LiDAR data is a difficult and time-consuming task towards generating fine resolution spatial databases when considering only human intervention. The application of robust algorithms in terms of processing this massive volume of data can significantly reduce the data processing time and thereby increase the degree of automation as well as accuracy.
This research work presents a number of techniques pertaining to processing, filtering and classification of LiDAR point data in order to achieve higher degree of automation and accuracy towards generating a high resolution urban surface model. This research work also describes the use of ancillary datasets such as aerial images and topographic maps in combination with LiDAR data for feature detection and surface characterization. The integration of various data sources facilitates detailed modelling of street networks and accurate detection of various urban surface types (e.g. grasslands, bare soil and impervious surfaces).
While the accurate characterization of various surface types contributes to the better modelling of rainfall runoff processes, the application of LiDAR-derived fine resolution DSM serves as input to 2D hydraulic models and capable of simulating surface flooding scenarios in cases the sewer systems are surcharged.
Thus, this research work develops high resolution spatial databases aiming at improving the accuracy of hydrologic and hydraulic databases of urban drainage systems. Later, these databases are given as input to a standard flood simulation software in order to: 1) test the suitability of the databases for running the simulation; 2) assess the performance of the hydraulic capacity of urban drainage systems and 3) predict and visualize the surface flooding scenarios in order to take necessary flood protection measures.
Gegenstand der vorliegenden Dissertation war die Erarbeitung eines besseren Verständnisses für ein grundlegendes Konzept der molekularen Erkennung - den Intra-Rezeptor-Wechselwirkungen. In zwei Projekten sollte dies mit Hilfe von Modellsystemen verwirklicht werden.
Im ersten Projekt wurden verschiedene Bis(kronenether)-Derivate synthetisiert, um den Einfluss der Intra-Rezeptor-Wechselwirkungen systematisch untersuchen zu können. Die Synthese lieferte die Derivate als Gemisch von Diastereomeren, wobei für ein Derivat mit Camphanoylsubstituenten die Trennung der Diastereomere nach chromatographischer Trennung erfolgreich realisiert werden konnte. Die lösungsmittelabhängige Charakterisierung der Kaliumkomplexierung der Bis(kronenether)-Derivate in Methanol/Wasser-Gemischen erfolgte mittels isothermer Titrationskalorimetrie (ITC). Es zeigten sich unterschiedliche Einflüsse in den Enthalpie- und Entropiebeiträgen der einzelnen Derivate, welche sich allerdings aufgrund von Enthalpie-Entropie-Kompensation nicht in unterschiedlichen Werten für ∆G äußern. Darauf aufbauend wurde ein weiteres Modellsystem konzipiert, welches einen Azakronenether als Grundkörper aufweist. Die Ausgangsverbindung hierfür wurde synthetisiert und eine Kristallstruktur des Natriumiodid-Komplexes ergab wichtige strukturelle Hinweise für die Durchführbarkeit weiterer Arbeiten.
Im zweiten Projekt sollte untersucht werden, ob die Eigenschaften eines bekannten cyclischen Hexapeptids, bei Bindung von Anionen Intra-Rezeptor-Wechselwirkungen auszunutzen, auf ein strukturell ähnliches System übertragen werden können. Ein cyclisches Pseudohexapeptid sowie das kleinere cyclische Pseudotetrapeptid, in welchen 1,5-disubstituierte 1,2,3-Triazole die cis-Amide an den Prolinuntereinheiten der entsprechenden cyclischen Peptide imitieren, wurden synthetisiert. Die hohe konformationelle Übereinstimmung der cyclischen Pseudopeptide zu den cyclischen Peptiden konnte über Kristallstrukturanalyse und 1H-NMR spektroskopische Untersuchungen nachgewiesen werden.
Die Bindungseigenschaften des cyclischen Pseudohexapeptids gegenüber Anionen wurden mit Hilfe der NMR-Spektroskopie und der Isothermen Titrationskalorimetrie (ITC) untersucht. Das cyclische Pseudohexapeptid bindet anorganische Anionen mit außergewöhnlich hohen Bindungskonstanten in kompetitiven Wasser/Methanol Lösungsmittelgemischen unter Ausnutzung von Intra-Rezeptor-Wechselwirkungen. Des Weiteren konnte gezeigt werden, dass die intrinsische Anionenaffinität von diesem Derivat größer ist als bei dem cyclischen Hexapeptid.
The present dissertation contains the theoretical studies performed on the topic of a high energy deposition in matter. The work focuses on electronic excitation and relaxation processes on ultrafast timescales. Energy deposition by means of intense ultrashort (femtosecond) laser pulses or by means of swift heavy ions irradiation have a certain similarities: the final observable material modifications result from a number of processes on different timescales. First, the electronic excitation by photoabsorption or by ion impact takes place on subfemtosecond timescales. Then these excited electrons propagate and redistribute their energy interacting among themselves and exciting secondary generations of electrons. This typically takes place on femtosecond timescales. On the order of tens to hundreds femtoseconds the excited electrons are usually thermalized. The energy exchange with the lattice atoms lasts up to tens of picoseconds. The lattice temperature can reach melting point; then the material cools down and recrystalizes, forming the final modified nanostructures, which are observed experimentally. The processes on each previous step form the initial conditions for the following step. Thus, to describe the final phase transition and formation of nanostructures, one has to start from the very beginning and follow through all the steps.
The present work focuses on the early stages of the energy dissipation after its deposition, taking place in the electronic subsystems of excited materials. Different models applicable for different excitation mechanisms will be presented: in the thesis I will start from the description of high energy excitation (electron energies of \(\sim\) keV), then I shall focus on excitations to intermediate energies of electrons (\(\sim\) 100 eV), and finally coming down to a few eV electron excitations (visible light). The results will be compared with experimental observations.
For the high energy material excitation assumed to be caused by irradiation with swift heavy ions, the classical Asymptotical Trajectory Monte-Carlo (ATMC) is applied to describe the excitation of electrons by the impact of the projectile, the initial kinetics of electrons, secondary electron creation and Auger-redistribution of holes. I first simulate the early stage (first tens of fs) of kinetics of the electronic subsystem (in silica target, SiO\(_2\)) in tracks of ions decelerated in the electronic stopping regime. It will be shown that the well pronounced front of excitation in the electronic and ionic subsystems is formed due to the propagation of electrons, which cannot be described by models based on diffusion mechanisms (e.g. parabolic equations of heat diffusion). On later timescales, the thermalization time of electrons can be estimated as a time when the particle- and the energy propagation turns from the ballistic to the diffusive one. As soon as the electrons are thermalized, one can apply the Two Temperature Model. It will be demonstrated how to combine the MC output with the two temperature model. The results of this combination demonstrate that secondary ionizations play a very important role for the track formation process, leading to energy stored in the hole subsystem. This energy storage causes a significant delay of heating and prolongs the timescales of lattice modifications up to tens of picoseconds.
For intermediate energies of excitation (XUV-VUV laser pulse excitation of materials) I applied the Monte-Carlo simulation, modified where necessary and extended in order to take into account the electronic band structure and Pauli's principle for electrons within the conduction band. I apply the new method for semiconductors and for metals on examples of solid silicon and aluminum, respectively.
It will be demonstrated that for the case of semiconductors the final kinetic energy of free electrons is much less than the total energy provided by the laser pulse, due to the energy spent to overcome ionization potentials. It was found that the final total number of electrons excited by a single photon is significantly less than \(\hbar \omega / E_{gap}\). The concept of an 'effective energy gap' is introduced for collective electronic excitation, which can be applied to estimate the free electron density after high-intensity VUV laser pulse irradiation.
For metals, experimentally observed spectra of emitted photons from irradiated aluminum can be explained well with our results. At the characteristic time of a photon emission due to radiative decay of \(L-\)shell hole (\(t < 60\) fs), the distribution function of the electrons is not yet fully thermalized. This distribution consists of two main branches: low energy distribution as a distorted Fermi-distribution, and a long high energy tail. Therefore, the experimentally observed spectra demonstrate two different branches of results: the one observed with \(L-\)shell radiation emission reflects the low energy distribution, the Bremsstrahlung spectra reflects high energy (nonthermalized) tail. The comparison with experiments demonstrated a good agreement of the calculated spectra with the experimentally observed ones.
For the irradiation of semiconductor with low energy photons (visible light), a statistical model named the "extended multiple rate equation" is proposed. Based on the earlier developed multiple rate equation, the model additionally includes the interaction of electrons with the phononic subsystem of the lattice and allows for the direct determination of the conditions for crystal damage. Our model effectively describes the dynamics of the electronic subsystem, dynamical changes in the optical properties, and lattice heating, and the results are in very good agreement with experimental measurements on the transient reflectivity and the fluence damage threshold of silicon irradiated with a femtosecond laser pulse.
A standard approach for deducing a variational denoising method is the maximum a posteriori strategy. Here, the denoising result is chosen in such a way that it maximizes the conditional density function of the reconstruction given its observed noisy version. Unfortunately, this approach does not imply that the empirical distribution of the reconstructed noise components follows the statistics of the assumed noise model. In this paper, we propose to overcome this drawback by applying an additional transformation to the random vector modeling the noise. This transformation is then incorporated into the standard denoising approach and leads to a more sophisticated data fidelity term, which forces the removed noise components to have the desired statistical properties. The good properties of our new approach are demonstrated for additive Gaussian noise by numerical examples. Our method shows to be especially well suited for data containing high frequency structures, where other denoising methods which assume a certain smoothness of the signal cannot restore the small structures.
In this paper we develop monitoring schemes for detecting structural changes
in nonlinear autoregressive models. We approximate the regression function by a
single layer feedforward neural network. We show that CUSUM-type tests based
on cumulative sums of estimated residuals, that have been intensively studied
for linear regression in both an offline as well as online setting, can be extended
to this model. The proposed monitoring schemes reject (asymptotically) the null
hypothesis only with a given probability but will detect a large class of alternatives
with probability one. In order to construct these sequential size tests the limit
distribution under the null hypothesis is obtained.
For computational reasons, the spline interpolation of the Earth's gravitational potential is usually done in a spherical framework. In this work, however, we investigate a spline method with respect to the real Earth. We are concerned with developing the real Earth oriented strategies and methods for the Earth's gravitational potential determination. For this purpose we introduce the reproducing kernel Hilbert space of Newton potentials on and outside given regular surface with reproducing kernel defined as a Newton integral over it's interior. We first give an overview of thus far achieved results considering approximations on regular surfaces using surface potentials (Chapter 3). The main results are contained in the fourth chapter where we give a closer look to the Earth's gravitational potential, the Newton potentials and their characterization in the interior and the exterior space of the Earth. We also present the L2-decomposition for regions in R3 in terms of distributions, as a main strategy to impose the Hilbert space structure on the space of potentials on and outside a given regular surface. The properties of the Newton potential operator are investigated in relation to the closed subspace of harmonic density functions. After these preparations, in the fifth chapter we are able to construct the reproducing kernel Hilbert space of Newton potentials on and outside a regular surface. The spline formulation for the solution to interpolation problems, corresponding to a set of bounded linear functionals is given, and corresponding convergence theorems are proven. The spline formulation reflects the specifics of the Earth's surface, due to the representation of the reproducing kernel (of the solution space) as a Newton integral over the inner space of the Earth. Moreover, the approximating potential functions have the same domain of harmonicity as the actual Earth's gravitational potential, i.e., they are harmonic outside and continuous on the Earth's surface. This is a step forward in comparison to the spherical harmonic spline formulation involving functions harmonic down to the Runge sphere. The sixth chapter deals with the representation of the used kernel in the spherical case. It turns out that in the case of the spherical Earth, this kernel can be considered a kind of generalization to spherically oriented kernels, such as Abel-Poisson or the singularity kernel. We also investigate the existence of the closed expression of the kernel. However, at this point it remains to be unknown to us. So, in Chapter 7, we are led to consider certain discretization methods for integrals over regions in R3, in connection to theory of the multidimensional Euler summation formula for the Laplace operator. We discretize the Newton integral over the real Earth (representing the spline function) and give a priori estimates for approximate integration when using this discretization method. The last chapter summarizes our results and gives some directions for the future research.
Angesichts des anhaltenden demografischen, ökonomischen und gesellschaftlichen Wandels steht die Stadtplanung großen Herausforderungen gegenüber. Insbesondere die Reaktivierung und Revitalisierung der innerstädtischen Bereiche als den räumlichen, funk-tionalen und emotionalen Zentren der Städte bilden hierbei ein wesentliches Handlungsfeld. Neben den Auswirkungen auf den gesamten Planungsprozess beeinflussen die daraus resultierenden Handlungserfordernisse insbesondere den stadtplanerischen Entwurf im Sinne der Organisation räumlicher Strukturen und ihrer Wechselwirkungen. Aufgrund der hohen Komplexität der zu bewältigenden Aufgaben beim Entwerfen im innerstädtischen Kontext kommt hierbei den informationstechnischen Möglichkeiten der I&K-Technologien in Form von Visualisierungen und Simulationen große Bedeutung zu.
Vor dem Hintergrund der Herausforderungen des Entwerfens im innerstädtischen Kontext liegt das Ziel der Arbeit in der Erarbeitung von Ansätzen zur Qualifizierung des stadtpla-nerischen Entwurfsprozesses durch computerbasierte Visualisierungen und Simulationen. Hierbei gilt es zunächst, die gegebenen Rahmenbedingungen und Entwicklungstendenzen in den Innenstädten hinsichtlich der daraus resultierenden Handlungserfordernisse für das stadtplanerische Handeln zu untersuchen. Besagte Erfordernisse umfassen beispielsweise die Stärkung der Innenstädte als Wohnstandort, als Zentren des Handels, der Dienstleistung und der Kultur sowie als Bereiche hoher Dichte und Nutzungsmischung. Gleichzeitig gilt es, den Forderungen der integrierten Innenstadtentwicklung gerecht zu werden, in deren Rahmen ein tragfähiger stadtplanerischer Entwurf, unter Berücksichti-gung ganzheitlicher Strategien, zum raumverträglichen und zukunftsfähigen Ausgleich der unterschiedlichen Ansprüche und Interessen beitragen muss.
Bezogen auf die Möglichkeiten zur Unterstützung und Qualifizierung des Entwurfsprozes-ses durch Visualisierung raumbezogener Informationen und möglicher Entwicklungszu-stände steht neben der Analyse bestehender Techniken und Anwendungen die Ausei-nandersetzung mit einer Vielzahl technischer Neuerungen im Fokus. Diese technischen Neuerungen zeigen sich insbesondere in den Bereichen der GI-Systeme, der 3D-Stadtmodelle, der sog. ‚Neogeografie’ sowie der ‚Augmented Reality’ und ‚Virtual Reality’. Im Rahmen der Notwendigkeit zur Simulation dynamischer urbaner Prozesse bildet die Suche nach flexiblen, modular erweiterbaren Simulationsarchitekturen sowie die Möglich-keiten zur Simulation räumlicher und gesellschaftlicher Prozesse mittels automatenbasier-ter Modelle den Schwerpunkt.
Zusammenfassend erfordert der effektive und ökonomische Einsatz von Anwendungen der Visualisierung und Simulation die enge Verknüpfung und Abstimmung der gegebenen Einsatzmöglichkeiten mit den inhaltlichen und methodischen Anforderungen des stadtpla-nerischen Entwurfs.
Im Ergebnis werden zwei Ebenen zur Qualifizierung des innerstädtischen Entwurfspro-zesses durch Techniken und Anwendungen der Visualisierung und Simulation identifiziert und daraus Ansätze für neue Entwurfstools abgeleitet. Die erste Ebene beinhaltet die me-thodisch-inhaltliche Auseinandersetzung mit den Möglichkeiten zur Verknüpfung von Vi-sualisierungen und Simulationen mit den jeweiligen Stufen des stadtplanerischen Ent-wurfsprozesses sowie den dort zu leistenden Aufgaben. Die zweite Ebene bildet schließlich die Auseinandersetzung mit den Möglichkeiten zur zielgerichteten Weiterentwicklung und/ oder Synthese bestehender Techniken und Anwendungen.
Die Entwicklung eines neuartigen Therapiekonzeptes erfordert umfangreiche Prüfungen insbesondere für die Sicherheit der Anwendung am Menschen. Die Verwendung des apathogenen, onkoselektiven, replikationskompetenten Parvovirus H-1 (H-1PV) zur onkolytischen Virotherapie bei bösartigen Hirntumoren (Glioblastome) ist eine vielversprechende Alternative (oder Ergänzung) zu den bisherigen Therapien, wie Operation, Chemotherapie und Bestrahlung. In unserer Arbeitsgruppe konnte gezeigt werden, dass H-1PV in der Lage ist, nach einmaliger intratumoraler oder mehrfacher intravenöser Applikation im Rattengliom-Modell eine vollständige Regression des Tumors ohne pathologische Nebenwirkungen herbeizuführen. In Vorbereitung einer klinischen Studie Phase I/IIa mit H-1PV wurden in dieser Arbeit wichtige Aspekte dieser neuartigen Virotherapie untersucht:
1. Ausscheidung und Übertragung von H-1PV in vivo in der Ratte
Es konnte gezeigt werden, dass infektiöse Viren in Urin und Speichel unabhängig von der Applikationsart und der Anwesenheit eines Tumors ausgeschieden werden, was bedeutet, dass eine Übertragung von H-1PV durch Tröpfcheninfektion stattfinden könnte. In klinischen Studien muss daher geprüft werden, ob das Virus auch vom Menschen ebenso im Urin und Speichel ausgeschieden wird.
2. Intranasale Applikation von H-1PV zur Behandlung von Glioblastomen in der Ratte
Es konnte gezeigt werden, dass H-1PV auch nach intranasaler Applikation den Tumor erreicht, dort virale Proteine gebildet werden und in infizierten tumortragenden Tieren die Überlebenszeit signifikant verlängert werden konnte im Vergleich mit den nicht-infizierten Kontrolltieren. Diese Applikationsart wäre eine einfach durchzuführende Art der Anwendung, da sie keinen chirurgischen Eingriff am Gehirn erfordert.
3. Replikation von H-1PV in vivo im Rattenmodell
Durch die Fähigkeit von H-1PV in Tumorzellen repliziert zu werden, können nach einer einzigen Virusapplikation einer geringen Dosis initial nicht infizierte Zellen der Tumormasse infiziert und lysiert werden. In vivo im Rattengliom-Modell konnte gezeigt werden, dass H-1PV zunächst im ganzen Organismus verteilt wird, nach kurzer Zeit aber im Tumorgewebe angereichert und die Viruskonzentration dort länger aufrecht erhalten bleibt als bei Tieren ohne Tumor. Die Expression des viralen, zytotoxischen Proteins NS-1 war bei allen Applikationsarten auf das Tumorgebiet beschränkt. Die Daten sprechen für eine zumindest begrenzte Vermehrung von H-1PV im Tumorgewebe.
4. Adaptierung von H-1PV an humane Glioblastomzellen
H-1PV gehört zu der Gruppe der Nager-Parvoviren und wird daher in Rattentumorzellen effizienter vermehrt als in humanen Glioblastomzellen. In dieser Arbeit wurden durch Passagieren an eine humane Glioblastomzelllinie adaptierte virale Einzelklone von H-1PV in verschiedenen humanen Glioblastomzellen charakterisiert. Alle Klone konnten sich stärker in diesen vermehren und diese effizienter lysieren. In vivo führte einer der Klone zu einem signifikant langsameren Tumorwachstum und verlängerter Überlebenszeit der Tiere im Vergleich zum Wildtyp. Bei der Analyse der genetischen Mutationen der Klone konnten verschiedene Alterationen detektiert werden, wobei sich die Mutationsgeschwindigkeit von H-1PV als eher gering erwies, was für eine sichere Anwendung von H-1PV beim Menschen ein Vorteil ist. Es konnte weiterhin gezeigt werden, dass die Onkoselektivität von H-1PV durch die Adaptierung nicht verloren ging, was bedeutet, dass auch die adaptierten viralen Klone weiterhin apathogen für nicht transformierte Zellen sind.
Die Ergebnisse dieser Arbeit leisten einen Beitrag zur Erprobung von H-1PV im Hinblick auf die klinische Anwendung im Menschen. H-1PV erwies sich als einfach zu applizierendes, in vivo replikationskompetentes, sicheres und anpassungsfähiges Virus für die onkolytische Virotherapie von Gliomen beim Menschen. Dass H-1PV seine Onkoselektivität durch Adaptation an humane Gliomzellen nicht einbüßte, eröffnet die Möglichkeit das Virus an weitere Krebsentitäten anzupassen und auch dort zur onkolytischen Therapie einzusetzen.
TRP-Proteine sind integrale Membranproteine, die Untereinheiten von Kationenkanälen bilden, die z.B. an der Schmerz und Temperaturwahrnehmung, der Absorption von Mg2+ und Ca2+ im Darm und in der Niere oder für die Freisetzung von Entzündungsmediatoren in Immunzellen verantwortlich sind.
Das in der vorliegenden Arbeit untersuchte TRPV6-Protein stellt einen hochselektiven Ca2+¬-Kanal dar, der für den tranzellulären Ca2+-Transport in Endothelzellen des Dünndarms und der Plazenta verantwortlich ist und für den bisher noch kein hochaffiner Agonist bekannt ist. Das niedrig exprimierte, integrale Membranprotein konnte ich erstmal im Rahmen meiner Diplomarbeit aus humaner Plazenta zusammen mit Annexin A2 und Cyclophilin B (CyPB) anreichern. Diese putative Interaktion zwischen dem Ionenkanal und CyPB wird im Rahmen meiner Doktorarbeit mit Coimmunpräzipitation, Saccharosedichtegradientenzentrifugation, Peptidblotanalyse und GST-Pulldown-Analysen untersucht. Hierbei kann die TRPV6-CyPB-Interaktion in Immunpräzipitationen mit unabhängigen Antikörpern bestätigt werden. Die Ergebnisse der Dichtegradientenzentrifugation belegen die Existenz von TRPV6-Multimeren bzw. von TRPV6 enthaltenden Multiproteinkomplexen. Unter diesen Bedingungen ist allerdings keine CyPB-Assoziation mit dem TRPV6-Protein festzustellen. Das Einengen der Bindestelle von CyPB im TRPV6-Protein mittels Peptidblot- und GST-Pulldown-Analyse führt zur der potentiellen Bindungsstelle mit der minimalen Aminosäuresequenz Y66EDCKV71.
Meine Ergebnisse waren Ausgangspunkt für die funktionelle Charakterisierung der TRPV6-CyPB-Interaktion in Xenopus laevis Oozyten, die zeigt, dass CyPB den Ionenkanal aktiviert. Die Bindung zwischen beiden Proteinen ist offenbar wenig affin und scheint nur unter den gegebenen Solubilisierungsbedingungen nachweisbar.
Zur Erhaltung möglicher kalziumabhängiger Proteinbindungen wird die zuvor benutzte mehrstufige TRPV6-Affinitätschromatographie, bestehend aus einer CaM- und einer TRPV6-Antikörpersäule, durch eine einstufige Affinitätsreinigung ersetzt. Zur Solubilisierung und Isolierung des TRPV6-enthaltenden Proteinkomplexes eignen sich hierbei insbesondere die nichtionischen Detergenzien Dodecyl-β-D-maltosid (DDM) und Digitonin.
Zur Auftrennung und Untersuchung der isolierten TRPV6-Proteinkomplexe kann weiterhin eine zweidimensionale Blue Native-Gelelektrophorese (BN-PAGE) etabliert und die daraus isolierten Proteine massenspektrometrisch analysiert werden. Für die Auftrennung der TRPV6-Proteinkomplexe in der BN-PAGE eigenen sich ebenfalls am besten die nichtionischen Detergenzien DDM und Digitonin. Das TRPV6-Protein wird nach der nativen BN-PAGE als Bestandteil eines oder mehrerer Proteinkomplexe mit einem Molekulargewicht von 440 - 670 kDa detektiert.
Abschließend wird die Übertragbarkeit der für TRPV6 etablierten Vorgehensweise zur Isolierung von Membranproteinkomplexen auf andere TRP-Kanalproteine in verschiedenen Geweben gezeigt. So kann TRPV6 aus Mausplazenta und das TRPC6-Membranprotein aus murinen Mastzellen und Mauslungengewebe mittels Coimmunpräzipitation und Affinitätschromatographie isoliert und spezifisch detektiert werden.
Demographischer Wandel und Daseinsvorsorge - Auswirkungen kommunaler Angebote auf die Wohnortwahl
(2011)
Mit dem demographischen Wandel ist innerhalb der nächsten Jahrzehnte ein zunehmender Rückgang der Bevölkerungszahl bei gleichzeitigem Ansteigen des Durchschnittsalters der Gesamtbevölkerung verbunden. Insbesondere der Rückgang der Bevölkerungszahl wird sich v.a. aufgrund von Migrationsbewegungen regional mit unterschiedlicher Geschwindigkeit und Intensität vollziehen. Bei einer sich wandelnden Bevölkerungsstruktur und einem ansteigenden Durchschnittsalter verändern sich auch die Anforderungen an die infrastrukturelle Ausstattung. Dies liegt auf der Hand: So benötigt eine alternde Bevölkerung mehr seniorengerechte Einrichtungen, dafür aber weniger Kindergärten und Schulen. Gleichzeitig bedeutet der Rückgang der Bevölkerungszahl eine niedrigere Auslastung und damit eine geringere Tragfähigkeit jeglicher Infrastrukturen. Kostensteigerungen sind zur Aufrechterhaltung der Funktionsfähigkeit damit nahezu unumgänglich. Es wird infolgedessen zukünftig verstärkt zu einem Wettbewerb der Kommunen um Einwohner (= Infrastrukturnutzer) kommen. Dabei dürften Familien mit Kindern eine besondere Schlüsselposition einnehmen. Häufig wird – insbesondere aus kommunalpolitischer Sicht – befürchtet, dass gerade diese Bevölkerungsgruppen nicht mehr zuziehen und sogar fortziehen würden, sobald Kindergärten und Schulen aufgrund sinkender Auslastungszahlen geschlossen werden müssen.
Vor diesem Hintergrund klärt die vorliegende Arbeit die Frage, ob örtlich betrachtet ein Zusammenhang zwischen der Breite und Qualität der vorgehaltenen Leistungen öffentlicher Daseinsvorsorge einerseits und der Migrationsbilanz andererseits besteht. In der Arbeit wird darüber hinaus analysiert, inwiefern sich Zuziehende bereits zum Zeitpunkt des Zuzugs mit der heutigen Infrastrukturausstattung ihres Wohnorts auseinandersetzen und ob die Zukunftsfähigkeit der gegenwärtig vorhandenen Daseinsvorsorgeangebote bei der Wohnortwahl vor dem Hintergrund der demographischen Situation eine zentrale Rolle bei dieser Entscheidung spielt.
Als Untersuchungsraum wurde die Region Westmittelfranken in Bayern gewählt. Einerseits wird für Westmittelfranken in den Bevölkerungsprognosen eine quantitativ rückläufige Entwicklung prognostiziert (Geburtendefizit wird durch Zuwanderung nicht ausgeglichen) und andererseits kann hier aufgrund der bayernweit niedrigsten Bevölkerungsdichte die öffentliche Hand bei der Bereitstellung von zentral vorgehaltener Punktinfrastruktur aus Erreichbarkeitserwägungen heraus weit weniger flexibel auf Verschiebungen in der Altersstruktur reagieren als sie dazu in einem Ballungsraum in der Lage wäre. Mittels der Auswertung einer empirischen Befragung Zugezogener ist eine Aussage darüber möglich, inwiefern Aspekte der demographischen Struktur und Entwicklung in der Zuzugsgemeinde, der Ausstattung mit Einrichtungen der Daseinsvorsorge sowie deren Zukunftsfähigkeit eine Basis für die individuelle Entscheidung zum Zuzug boten und inwiefern bei potenziellen Schließungen von Infrastruktureinrichtungen tatsächlich der befürchtete »Exodus« in Form von Fortzügen droht.
Abschließend sind die gewonnenen Erkenntnisse zur Formulierung von Handlungsempfehlungen für die Raumordnung, Regional- und Kommunalentwicklung auf Landes-, Regions- und kommunaler Ebene herangezogen.
Die Entwicklung ländlicher strukturschwacher Regionen wird von unterschiedlichen Rahmenbedingungen und Herausforderungen beeinflusst. Eine der zentralen Herausforderungen bildet hierbei die Europäische Integration. Obwohl die Kompetenz für Raumordnung nach wie vor in erster Linie bei der nationalen Ebene liegt, entfaltet die EU über ihre Strukturpolitik, ihre raumwirksamen Fachpolitiken und die ihr zugewiesenen Kompetenzen in anderen Bereichen eine zunehmende Bedeutung für die Entwicklung ländlicher strukturschwacher Regionen.
Anhand der im Rahmen dieser Dissertation durchgeführten Analysen wird dabei deutlich, dass die EU-Strukturpolitik die Regionalentwicklung, insbesondere im Bereich des Tourismus, auf vielfältige Weise sowohl direkt als auch indirekt beeinflusst. Dies vor allem in finanzieller Hinsicht durch die Finanzierung nahezu aller touristischen Projekte in der Region Westpfalz, sowie in konzeptioneller Hinsicht durch die Systematik der Programmplanung und des damit verbundenen Mehrwertes. Dabei werden die regionalen Akteure bei der Aufstellung von Entwicklungsstrategien (bspw. im Rahmen des LEADER-Ansatzes) zu einer intensiven Auseinandersetzung mit den spezifischen Stärken, Schwächen, Entwicklungsperspektiven und Entwicklungshemmnissen der Region geführt. Daher kann die EU-Strukturpolitik letztlich als wichtigste Finanzierungsquelle bei der Realisierung touristischer Projekte angesehen werden, zudem als wesentlicher Impulsgeber für deren Entwicklung und Gestaltung. Durch das Wissen um die Förderfähigkeit touristischer Projekte innerhalb der EU-Strukturpolitik wird schließlich die Motivation der regionalen Akteure gesteigert. Aufgrund dieser Erkenntnisse kann der Einfluss der EU-Strukturpolitik auf die Entwicklung des Tourismus als bedeutend und hoch bewertet werden.
Neben der Erfassung des Einflusses sollen darüber hinaus innerhalb dieser Dissertation Problemfelder und künftige Herausforderungen bei der Umsetzung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen aufgezeigt werden. Dabei wird die Finanzschwäche der öffentlichen Haushalte, die gerade in strukturschwachen Regionen besonders ausgeprägt ist, und die damit verbundenen Probleme bei der Sicherstellung des nationalen Finanzierungsanteils als zentrales Umsetzungsproblem sichtbar. Ebenso stellen in diesem Zusammenhang der gesteigerte Wettbewerb um die zur Verfügung stehenden Strukturmittel, das zunehmende Spannungsverhältnis zwischen Ausgleichs- und Wachstumsziel, teilweise zu enge inhaltlich-konzeptionelle Vorgaben seitens der EU-Kommission, sowie der hohe verwaltungstechnische Aufwand weitere Problemfelder bei der Umsetzung der EU-Strukturpolitik dar.
Aufbauend auf diesen Erkenntnissen werden abschließend am Beispiel des Untersuchungsraumes konzeptionelle Ansätze zur Weiterentwicklung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen formuliert. Dabei werden einige zentrale Prioritäten sichtbar, deren Umsetzung zur Steigerung der Effizienz von strukturpolitischen Maßnahmen beitragen kann. In diesem Zusammenhang ist insbesondere eine konsequente Regionalisierung innerhalb der EU-Strukturpolitik anzustreben, so dass letztlich die Region als Träger der EU-Strukturpolitik anzusehen ist. Weiterhin ist an dieser Stelle eine klare Aufgaben- und Kompetenzverteilung zwischen den verschiedenen Handlungs- und Gestaltungsebenen notwendig, dies vor allem in Hinblick auf die zentrale Zielsetzung der europäischen Strukturpolitik, des Abbaus von Disparitäten innerhalb der EU. Schließlich ist eine Reform der Fördermittelvergabe unabdingbar, damit künftig sowohl wachstumsstarke, als auch strukturschwache und sog. "Übergangsregionen" durch die EU-Strukturpolitik gleichermaßen berücksichtigt werden können, und somit ein Beitrag zum politischen, sozialen und wirtschaftlichen Zusammenhalt in Europa geleistet werden kann.
Die vorliegende Dissertation beschäftigt sich mit der strukturellen Untersuchung von photochemisch reaktiven Molekülen. Hierzu wurden verschiedene kombinierte IR/UV-Techniken in Molekularstrahlexperimenten verwendet.
Es wurde 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, 3-Hydroxychromon und als metallorganische Verbindung Bis(benzol)chrom im elektronisch angeregten Zustand untersucht. Mit 7-Hydroxy-4-methylcoumarin stand auch ein mikrosolvatisiertes, photochemisch aktives System im elektronischen Grundzustand im Fokus.
Im Rahmen dieser Arbeit wurde eine neue spektroskopische Methode entwickelt, welche die isomerenselektive Messung des IR-Spektrums im elektronisch angeregten Zustand ermöglicht. Diese Quadrupelresonanztechnik wird angewendet, sollte es durch isoenergetische Anregungsenergien zum Verlust der Isomerenselektivität der R2PI-Methode kommen.
Durch Anwendung einer IR/IR-Lochbrennmethode für den elektronischen Grundzustand sowie der neuen Quadrupelresonanztechnik für den elektronisch angeregten Zustand an 3-Hydroxyflavon mit zwei angelagerten Wassermolekülen, konnte erstmals der experimentelle Beweis erbracht werden, dass es im Molekularstrahlexperiment zur Anregung und Ionisation der beiden stabilsten Isomere kommt. Desweiteren wurden für die untersuchten elektronischen Zustände sowohl die IR-Banden zugeordnet als auch eine eindeutige strukturelle Zuordnung der Isomere getroffen.
Die Studien zu 3-Hydroxychromon belegen im Vergleich mit (TD-)DFT-Rechnungen, dass es nach elektronischer Anregung zu einer Protonentransferreaktion kommt. Es konnten direkte strukturelle Informationen des Monomers sowie der protonentransferierten Struktur gewonnen werden.
Mit den spektroskopischen Untersuchungen an Bis(benzol)chrom wurde gezeigt, dass sich die massen- und isomerenselektiven Methoden auch auf die Substanzklasse der metallorganischen Verbindungen anwenden lassen. Es gelang erstmals, direkte strukturelle Informationen von Organometallverbindungen im elektronischen Grundzustand als auch nach photochemischer Anregung mittels kombinierter IR/UV-Techniken zu gewinnen. Somit ist eine strukturelle Untersuchung von katalytisch aktiven Organometallverbindungen im elektronischen Grundzustand, wie auch nach photochemischer Anregung, möglich.
Ein weiterer Schwerpunkt dieser Arbeit bildet die Untersuchung von Mikrosolvatationseffekten. Hierzu wurden Wassercluster von 7-Hydroxy-4-methylcoumarin mit vier bis sechs schrittweise angelagerten Solvatmolekülen im elektronischen Grundzustand analysiert. Mithilfe von DFT-basierten Rechnungen wurden für jede Clustergröße verschiedene Bindungsmotive diskutiert und eine mögliche strukturelle Zuordnung getroffen.
Numerical Algorithms in Algebraic Geometry with Implementation in Computer Algebra System SINGULAR
(2011)
Polynomial systems arise in many applications: robotics, kinematics, chemical kinetics,
computer vision, truss design, geometric modeling, and many others. Many polynomial
systems have solutions sets, called algebraic varieties, having several irreducible
components. A fundamental problem of the numerical algebraic geometry is to decompose
such an algebraic variety into its irreducible components. The witness point sets are
the natural numerical data structure to encode irreducible algebraic varieties.
Sommese, Verschelde and Wampler represented the irreducible algebraic decomposition of
an affine algebraic variety \(X\) as a union of finite disjoint sets \(\cup_{i=0}^{d}W_i=\cup_{i=0}^{d}\left(\cup_{j=1}^{d_i}W_{ij}\right)\) called numerical irreducible decomposition. The \(W_i\) correspond to the pure i-dimensional components, and the \(W_{ij}\) represent the i-dimensional irreducible components. The numerical irreducible decomposition is implemented in BERTINI.
We modify this concept using partially Gröbner bases, triangular sets, local dimension, and
the so-called zero sum relation. We present in the second chapter the corresponding
algorithms and their implementations in SINGULAR. We give some examples and timings,
which show that the modified algorithms are more efficient if the number of variables is not
too large. For a large number of variables BERTINI is more efficient.
Leykin presented an algorithm to compute the embedded components of an algebraic variety
based on the concept of the deflation of an algebraic variety.
Depending on the modified algorithm mentioned above, we will present in the third chapter an
algorithm and its implementation in SINGULAR to compute the embedded components.
The irreducible decomposition of algebraic varieties allows us to formulate in the fourth
chapter some numerical algebraic algorithms.
In the last chapter we present two SINGULAR libraries. The first library is used to compute
the numerical irreducible decomposition and the embedded components of an algebraic variety.
The second library contains the procedures of the algorithms in the last Chapter to test
inclusion, equality of two algebraic varieties, to compute the degree of a pure i-dimensional
component, and the local dimension.
Ziel der vorliegenden Arbeit war es, Systeme mit Edukten und Produkten von
Veresterungsreaktionen in ionischen Flüssigkeiten (IF)zu untersuchen. Es wurden die
Reaktionen von Ethanol, 1-Propanol und 1-Butanol mit Essigsäure zu den entsprechenden
Estern: Ethylacetat, Propylacetat und Butylacetat betrachtet. Die drei sauren ionischen
Flüssigkeiten,1-Methylimidazoliumhydrogensulfat [HMIM][HSO4], 1-Ethyl-3-methylimidazoliumhydrogensulfat
[EMIM][HSO4] und 1-Butyl-3-methylimidazoliumhydrogensulfat
[BMIM][HSO4], dienten hier als Katalysator und Extraktionsmittel zur
Aufarbeitung des Reaktionsgemisches. Ziel war es auch, durch Extraktion mit diesen
ionischen Flüssigkeiten Reaktionsprodukt(e) aus dem Reaktionsgemisch zu entfernen und
ähnlich wie bei der Reaktivdestillation das Reaktionsgleichgewicht zu stören.
Daten über das flüssig-flüssig Phasengleichgewicht wurden gesammelt. Die Experimente
umfassten einerseits ternäre nichtreaktive Systeme bestehend aus Alkohol + Ester + IF und
Essigsäure + Ester + IF, andererseits wurden reaktive Fünfkomponentensysteme, die alle
Komponenten, beteiligt an der Reaktion, plus IF enthalten, bestimmt. Um die experimentellen
Daten auf ähnliche, nicht untersuchte, Systeme übertragen zu können wurde systematisch der
Einfluss mehrerer Parameter auf das Phasengleichgewicht untersucht, wie z.B. die Länge der
Alkylkette am Kation oder am Alkohol und die Temperatur. Aus den Messungen wurde klar,
dass mit steigender Alkylkette am Kation die Mischungslücken kleiner werden und
gleichzeitig die Löslichkeit der Edukte in der ionischen Phase verbessert wird. Eine längere
Alkylkette des Alkohols (und des entsprechenden Esters) bewirkt größere Zweiphasengebiete
und verbessert die Löslichkeit der Edukte in der organischen Phase. Da generell eine gewisse
Abhängigkeit zwischen Phasengleichgewicht und erreichten Reaktionsumsatz beobachtet
wurde, lassen sich die erzielbaren Ergebnisse bei bekanntem Phasengleichgewicht abschätzen.
Der Einfluss der Temperatur auf das flüssig-flüssig Gleichgewicht wurde nur für die ternären
Systeme untersucht.
Kinetische Versuche mit IF als Katalysator ergaben relativ enttäuschende Ergebnisse. Die
Hydrogensulfate erwiesen sich als schwache Katalysatoren für diese Reaktionen. In einem
großtechnischen Prozess werden deshalb zusätzliche Katalysatoren, wie Schwefelsäure o.ä.,
notwendig sein.
Aus den experimentellen Phasengleichgewichtsdaten und den Kinetikmessungen wurden
UNIQUAC- bzw. Kinetikansatz-Parameter durch Anpassung gewonnen. Um die reaktiven
Systeme zu simulieren, wurde ein mathematisches Modell, das Phasengleichgewicht und
Reaktionsgleichgewicht in einer Gegenstromextraktionskaskade berücksichtigt, in Matlab
implementiert.
Mehrere vielversprechende Anwendungen der untersuchten ionischen Flüssigkeiten wurden
simuliert und diskutiert. Während alle untersuchten Hydrogensulfate in der Lage sind, Wasser
aus dem Ester/Reaktionsgemisch zu extrahieren, kann man nur [EMIM][HSO4] und
[BMIM][HSO4] zur Entfernung von (kürzerkettigen) Alkoholen und Säuren verwenden. Es
wurden Reaktivextraktionsverfahren für die Herstellung von Ethylacetat konzipiert, die die
Eigenschaften der jeweiligen IF ausnutzen, um im Wesentlichen Wasser aus dem
Reaktionsgleichgewicht zu entfernen und z.B. reinere Produktströme oder höhere
Reaktionsumsätze zu erreichen. Beste Aussichten auf Erfolg von allen drei Salzen hat dabei
die IF [EMIM][HSO4], da im hier vorgeschlagenen Verfahren die wenigsten zusätzlichen
destillativen Trennschritte zu erwarten sind. Die Simulationen ergeben signifikante
Einsparung an Energiekosten gegenüber Reaktivdestillationsverfahren, da hier Energie
hauptsächlich nur zum Verdampfen von Wasser notwendig ist.
Die Kopplung der Schalen mehrschichtiger Stahlbetonwandtafeln mit innenliegender
Wärmedämmung kann mit stabförmigen Verbindungsmitteln aus
glasfaserverstärktem Kunststoff (GFK) erfolgen. Diese Verankerungen weisen
gegenüber Edelstahlverankerungen Vorteile hinsichtlich der Dauerhaftigkeit und des
thermischen Verhaltens auf. Infolge der begrenzten Verformbarkeit der
Verbindungsmittel und zur Sicherstellung der Verankerung der Verbindungsmittel in
den Schalen sind für die Wandelemente neben den Nachweisen zur Tragfähigkeit
auch Nachweise im Grenzzustand der Gebrauchstauglichkeit zu führen.
Gegenstand der vorliegenden Arbeit ist die wirklichkeitsnahe Ermittlung der
Schnittgrößen in der Vorsatzschale und die Berechnung der Relativverschiebung
zwischen den Schalen als Grundlage der Nachweiseführung. Insbesondere bei
hohen, schlanken Wandelementen ist das Verbundtragverhalten unter Einbeziehung
der innenliegenden Wärmedämmschicht dieser Bauteile zu berücksichtigen.
In einem ersten Bearbeitungsschritt erfolgt ein umfangreiches Versuchsprogramm
zur Analyse des Last-Verformungsverhaltens der Verbundfuge unter
Scherbeanspruchung. Darauf basierend wird ein mechanisches Modell entwickelt,
das eine allgemeingültige Berechnung der Verbundfugensteifigkeit als Grundlage der
weiteren Untersuchungen ermöglicht.
Aufbauend auf diesen Erkenntnissen werden in einem zweiten Bearbeitungsschritt
Lösungen dargelegt, welche die Berechnung der Funktionsverläufe der Schnitt- und
Verformungsgrößen aus der Verbundtragwirkung ermöglichen. Grundlage ist das
gekoppelte Differentialgleichungssystem der Sandwichtheorie. Für relevante Lastfälle
und Lagerungsbedingungen werden geschlossene, analytische Gleichungen zur
Berechnung der Extremalwerte erarbeitet. Das Berechnungsmodell wird im Rahmen
einer Versuchsreihe an mehrschichtigen Stahlbetonplattenstreifen mit den
Versuchsergebnissen verifiziert. Zur Abgrenzung von Fällen, bei denen auf eine
aufwändige Berücksichtigung der Verbundtragwirkung verzichtet werden kann,
werden Parameterstudien durchgeführt und praxisrelevante Fälle ausgewertet.
Abschließend werden grafische Berechnungshilfsmittel zur Ermittlung der maximalen
Zustandsgrößen infolge der Verbundtragwirkung angegeben.
Im dritten Teil der Arbeit wird der spezielle Fall des Einflusses einer
Ortbetonverfüllung auf das Schnittkraft- und Verformungsverhalten mehrschichtiger
Stahlbetonwandelemente betrachtet. Im Ergebnis der Untersuchungen wird
festgestellt, dass der Betonierdruck eine dauerhafte, nicht zu vernachlässigende
Vorspannung der Verbindungsmittel zur Folge hat. Für die Bemessung der
Verbindungsmittel unter Zugbeanspruchung wird empfohlen, 40% des rechnerischen
Frischbetondrucks als Zugbeanspruchung auf die Verbindungsmittel anzusetzen.
Weiterführende Untersuchungen zum Einfluss der Fugenvorspannung auf die
Schnitt- und Verformungsgrößen infolge Verbundwirkung ergeben, dass diese nicht
signifikant ist.
Modellierung und Simulation von Retentionsbodenfiltern zur weitergehenden Mischwasserbehandlung
(2011)
Retentionsbodenfilter zur weitergehenden Mischwasserbehandlung (RBF) können einen wichtigen Beitrag
zum Gewässerschutz leisten, indem sie Entlastungsabflüsse aus konventionellen Regenüberlaufbecken
reinigen. Die Filterdimensionierung erfolgt nach Stand der Technik vorwiegend durch die Beurteilung der
hydraulischen Flächenbelastung. Um die dazu notwendigen Daten zu erhalten, sind Niederschlag-Abfluss-
Berechnungen des Kanalnetzes erforderlich. Wird in Ergänzung die Einhaltung stofflicher Zielgrößen gefordert,
sind Schmutzfrachtberechnungen anzuwenden. Vor dem Hintergrund biochemischer, naturnaher Prozesse
in RBF erscheint es sinnvoller, die geeigneten Abmessungen des Filterbeckens vorwiegend anhand
der stofflichen Belastung und der entsprechenden Reinigungsleistung zu ermitteln.
Die vorliegende Arbeit soll einerseits einer Erweiterung des Kenntnisstandes über die Prozesse in RBF dienen.
Andererseits sollen vorhandene Prozessvorstellungen in Modellrechnungen überprüft werden. Eine
detaillierte Nachbildung von Laborversuchen erfolgt mittels eines biokinetischen Reaktionsmodells, welches
für Pflanzenkläranlagen entwickelt wurde. Der durch die Simulationsauswertung erweiterte Kenntnisstand
wird zur Weiterentwicklung eines vereinfachten Retentionsbodenfilter-Moduls für Schmutzfrachtsimulationen
verwendet. Am Ende soll ein Planungs- und Optimierungswerkzeug gewonnen werden, welches den derzeitigen
Wissensstand abbildet und der Ingenieurpraxis gerecht wird.
Die verwendete, ausgewertete Datengrundlage umfasste zunächst zwei mehrmonatige Messphasen am
RBF Saarbrücken-Ensheim (Dittmer, 2006), zugehörige Säulenversuche im Labormaßstab (Woźniak, 2007)
sowie die Ergebnisse eigener Versuche aus vorhergehenden Simulationsstudien. Während die eigenen Laboruntersuchungen
in der vorliegenden Arbeit ergänzt wurden, erfolgte die wesentliche Erweiterung der Datengrundlage
durch Vorlage von Messdaten aus einer zweijährigen Kampagne des Fachgebietes Siedlungswasserwirtschaft
der Universität Kassel (Prof. Dr.-Ing. F.-B. Frechen) am RBF Oberelsungen. Die Auswertung
dieser Rohdaten, der vergleichende Einschätzungen der beiden Filteranlagen und die geordnete Zusammenstellung
aller weiteren Untersuchungen bilden die wesentlichen Vorarbeiten der Simulationsstudien.
Als Ergebnis wird festgestellt, dass die beiden RBF sowohl untereinander als auch mit anderen Anlagen
vergleichbar sind. Dadurch ist eine Zusammenführung von Aspekten verschiedenen Ursprungs möglich.
Laborversuche sollten jedoch gesondert bewertet werden.
Vor Anwendung des biokinetischen Reaktionsmodells CW2D werden die Modellteile der Hydraulik, des Stofftransportes
und des Stoffrückhaltes getrennt betrachtet. In allen genannten Teilprozessen kann eine hohe
Annäherung an Messwerte erzielt werden - ein Exkurs zu stark abweichenden Filtersubstraten für Pflanzenkläranlagen
belegt die große Bandbreite des möglichen Modelleinsatzes. Die weitergehenden Prozesse des
Stoffumsatzes wurden zur Nachbildung einzelner Hochlastereignisse in Laborversuchen mit Säulen verwendet,
wobei ebenfalls eine Deckung mit der Datengrundlage erreicht werden kann. Eine langfristige Wiedergabe
der Filterleistung gelingt bisher jedoch nicht. Als Ursache wird vor allem die Beschreibung der Trockenphasen
herausgestellt. Mögliche Modellerweiterungen um Filtrationsprozesse organischer Partikel sowie
vorgeschlagene Änderungen des biokinetischen Reaktionsmodells könnten hierzu Abhilfe schaffen.
Die Weiterentwicklung eines RBF-Modells als Bestandteil der Schmutzfrachtmodellierung bezieht sich auf
die Kernparameter CSB und NH4-N und in Ergänzung auf NO3-N. Zur Vorbereitung stofflicher Prozessbeschreibungen
wird das hydraulische Modell optimiert. Bezüglich CSB erfordert die Wiedergabe der tatsächlichen
Reinigungsleistung eine Unterteilung in gelöste und partikuläre Bestandteile. Es wird nachgewiesen,
dass mittels konstanter, partikulärer Ablaufkonzentrationen sowie konstanter Wirkungsgrade für die gelösten
Anteile die Filterleistung abgebildet werden kann. Eine Verbesserung der Ergebnisse wird durch die Beachtung
von Trockenphaseneinflüssen erreicht. Bezüglich NH4-N wird der wesentliche Entwicklungsschritt mit
einer zweistufig linearen Sorptionsisotherme eingeführt. Das neue Stickstoffmodell wird – ergänzt um die
Berücksichtigung von Regenerationszeiten - in seiner Eignung belegt. In einer abschließenden Simulationsstudie
zur Optimierung des RBFs Oberelsungen wird aufgezeigt, dass sich aus hydraulischen und stofflichen
Kriterien unterschiedliche Dimensionierungen ableiten lassen.
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
Sekretionssysteme ermöglichen Bakterien nicht nur die Kommunikation mit ihrer Umwelt, sie spielen auch eine große Rolle in der Virulenz. Mit Virulenz werden auch Typ VII-Sekretionssysteme in Verbindung gebracht, die ausschließlich in Gram-positiven Bakterien vorkommen. Substrate dieser Systeme sind u.a. kleine Proteine mit einem zentralen WXG-Motiv, die sogenannten WXG-100 Proteine, die im gleichen Locus kodiert werden. Das ESX-1 System, das u.a. in M. tuberculosis und S. aureus vorkommt, ist ein bisher vor allem in diesen Organismen untersuchtes Typ VII-Sekretionssystem.
Im Gegensatz zu seinem pathogenen Verwandten S. pneumoniae besitzt S. oralis Uo5 Gene, die für ein ESX-1 Sekretionssystem kodieren. Bislang wurde ein solches System in Strepto-kokken nicht untersucht und es war unklar, ob dieses exprimiert wird und welche Funktion es in diesen Bakterien erfüllt.
Im Fokus dieser Arbeit stand nun die Charakterisierung des ESX-1 Sekretionssystems von S. oralis Uo5 und dessen Verbreitung in anderen Streptokokken. Dabei belegten Transkrip-tionsstudien, dass ein interner Terminator zwischen dem ersten und zweiten Gen (esxA und esaA) die Transkription negativ beeinflusst. Trotz der niedrigen Transkriptmenge der downstream des Terminators gelegenen Gene konnte die Funktionalität des Systems durch den Nachweis der beiden WXG-100 Proteine EsxA und EsxB im Cytoplasma und im Kultur-medium bestätigt werden. Der Nachweis der WXG-100 Proteine erfolgte mit Antiseren, die im Rahmen dieser Arbeit gegen die rekombinant hergestellten und aus E. coli isolierten WXG-100 Proteine generiert worden waren. Durch eine Deletion des Gens, das in anderen Organismen für eine FtsK/SpoIIIE-ATPase kodiert, wurde gezeigt, dass auch dieses Protein in S. oralis Uo5 für die Sekretion der WXG-100 Proteine essentiell ist.
Die Daten von CD-spektroskopischen Analysen lassen vermuten, dass EsxA und EsxB, wie in anderen Organismen bereits gezeigt, als lineare Proteine vorliegen, die hauptsächlich aus α-Helices bestehen. Diese Daten zeigen auch, dass EsxA im Gegensatz zu EsxB eine höhere Stabilität besitzt. Durch die Kombination von Gelfiltration und Crosslinking-Experimenten mittels Glutaraldehyd konnte die Bildung von EsxA-Homodimeren bestätigt werden.
Mit Hilfe von Antikörpern konnte EsxA in einer Reihe von S. oralis Stämmen nachgewiesen werden; die Verbreitung des ESX-1 Systems konnte durch PCR-Analysen bestätigt werden. Eine vergleichende Analyse bekannter Genomdaten in silico bestätigt, dass dieses Cluster in verschiedenen Streptokokken-Spezies vorkommt. Eine phylogenetische Analyse der Gene esxA und essC im Vergleich mit dem in allen Bakterien konservierten Gen gyrA verdeutlicht, dass das ESX-1 System als Teil des akzessorischen Genoms angesehen werden kann, das sich über horizontalen Gentransfer verbreiten kann.
In dieser Arbeit wird somit zum ersten Mal ein Typ VII-Sekretionssystem in Streptokokken untersucht. Die Charakterisierung auf molekularer Ebene legt einen Grundstein für die Erforschung der Rolle des ESX-1 Systems in vivo.
Furocumarine (FC) sind sekundäre Pflanzenmetaboliten, die u.a. von Früchten und Gemüsen wie Grapefruit oder Sellerie als Phytoalexine gebildet werden. So liegt die geschätzte durchschnittliche menschliche Exposition über die Nahrung bei einer Gesamt-FC-Menge von 0,56 mg/Tag in Deutschland, bei Akutexpositionen können 100-fach höhere Werte erreicht werden. Ihre Grundstruktur besteht aus einem Cumarinmolekül mit linear oder angular ankondensiertem Furanring, zudem können sie unterschiedlich substituiert sein: über 90 verschiedene natürlich vorkommende Derivate bekannt, die sich in der Ausprägung ihrer Eigenschaften stark unterscheiden. In Kombination mit UVA-Strahlung wirken FCs wie das Cumarin Limettin phototoxisch, photomutagen und photoclastogen.
Da in Pflanzen FCs hauptsächlich in Mischungen verschiedener Derivate vorkommen, wurde im Rahmen dieser Arbeit in vitro an V79-Zellen ein einfaches Instrument zur Bewertung natürlich vorkommender FC-Gemische entwickelt, welches die relative phototoxische, -mutagene und -clastogene Potenz verschiedener FCs berücksichtigt. Hierzu wurden versch. Assays speziell für photochemische Anwendungen etabliert und optimiert:
Die phototoxischen Effekte wurden über den Resazurin-Reduktionstest charakterisiert und quantifiziert, die Quantifizierung des photomutagenen Potentials erfolgte mit Hilfe des HPRT-Assays, die des photoclastogenen über den Mikrokerntest. Am Beispiel von 5-Methoxypsoralen (5-MOP) konnte eine Abhängigkeit des EC50-Wertes der Zellvitalität 72 h nach der Bestrahlung, der Erhöhung der Mutationsfrequenz (MF) und der Erhöhung der Zahl mikrokerntragender Zellen (MNZ) sowohl von der 5-MOP-Konzentration als auch von der applizierten UVA-Dosis gezeigt werden; im HPRT-Assay und Mikrokerntest waren strikt lineare Zusammenhänge zu beobachten. Adverse Effekte unter Lichtausschluss konnten nicht festgestellt werden. Zum Vergleich der Potenz verschiedener FC-Derivate wurde eine Standard-UVA-Dosis von 125 mJ/cm² festgelegt. 5-MOP war in allen Testsystemen am reaktivsten, weshalb allen anderen FCs Phototoxizitäts, -mutagenitäts bzw. -clastogenitäts-Äquivalenzfaktoren (PTEF, PMEF, PTCF) relativ zu 5-MOP zugeordnet wurden über den Vergleich der EC50-Werte und der Steigungen der Linearregressionen der Auftragung der MF bzw. der MNZ gegen die FC-Konzentration; 5-MOP wurde der Faktor 1 zugewiesen. Generell waren angulare FCs im Vergleich zu ihren linearen Strukturisomeren deutlich weniger photoreaktiv, an Pos. 8 substituierte lineare FCs waren unreaktiver als an Pos. 5 substituierte, die Einführung einer Hydroxygruppe oder Zweitsubstitution mit einer Methoxygruppe führte zum Reaktivitätsverlust.
Das Verhalten von Furocumarinen in Mischungen wurde isobolographisch am Beispiel von 5-MOP und 8-MOP untersucht. Komplexere Mischungen mit bis zu 9 verschiedenen FC-Derivaten wurden bezüglich ihres Interaktions-Index’ CI auf Abweichungen von 1 untersucht und die Dosis-Wirkungsbeziehungen der theoretischen 5-MOP-Dosisäquivalente mit 5-MOP verglichen. So konnte auf Vorliegen von Dosis-Additivität geschlossen werden.
Als Ursache für die beobachteten Reaktivitätsunterschiede konnten mangelnde Absorption, geringere Interkalationsfähigkeit oder generell Wechselwirkungen mit der DNA über den Vergleich der Absorptionsspektren, hypochromen und bathochromen Effekten in Gegenwart von Kalbsthymus-DNA oder die Ethidiumbromid- und Hoechst33258-Verdrängungsassays ausgeschlossen werden. Weiterhin konnten zwei Systeme zur Bestimmung der zellfrei photochemisch gebildeten Singulett-Sauerstoff und Superoxidradikalanionen etabliert werden. Hier wurden Psoralen für die O2•--Bildung und Riboflavin für die 1O2-Bildung als Positivkontrolle benutzt, wobei angulare FCs und Limettin generell stärker zur ROS-Produktion fähig waren.
Das in dieser Arbeit etablierte Äquivalenzfaktoren-Modell stellt ein gutes Instrument zur Bewertung komplexer natürlich vorkommender FC-Gemische und Abschätzung der in vivo-Phototoxizität über die direkt in der Haut bzw. im Blutplasma gefundene FC-Konzentration dar. Zur direkten Bewertung der oral oder dermal aufgenommen Menge müssen allerdings weitere Faktoren wie Absorption, Metabolismus, zeitabhängige Verteilung und Exkretion, Hauttyp, Reparatur oder generell komplexere Reaktionen des Gewebes in vivo wie Entzündung oder Krebs berücksichtigt werden.
This thesis is devoted to constructive module theory of polynomial
graded commutative algebras over a field.
It treats the theory of Groebner bases (GB), standard bases (SB) and syzygies as well as algorithms
and their implementations.
Graded commutative algebras naturally unify exterior and commutative polynomial algebras.
They are graded non-commutative, associative unital algebras over fields and may contain zero-divisors.
In this thesis
we try to make the most use out of _a priori_ knowledge about
their characteristic (super-commutative) structure
in developing direct symbolic methods, algorithms and implementations,
which are intrinsic to graded commutative algebras and practically efficient.
For our symbolic treatment we represent them as polynomial algebras
and redefine the product rule in order to allow super-commutative structures
and, in particular, to allow zero-divisors.
Using this representation we give a nice characterization
of a GB and an algorithm for its computation.
We can also tackle central localizations of graded commutative algebras by allowing commutative variables to be _local_,
generalizing Mora algorithm (in a similar fashion as G.M.Greuel and G.Pfister by allowing local or mixed monomial orderings)
and working with SBs.
In this general setting we prove a generalized Buchberger's criterion,
which shows that syzygies of leading terms play the utmost important role
in SB and syzygy module computations.
Furthermore, we develop a variation of the La Scala-Stillman free resolution algorithm,
which we can formulate particularly close to our implementation.
On the implementation side
we have further developed the Singular non-commutative subsystem Plural
in order to allow polynomial arithmetic
and more involved non-commutative basic Computer Algebra computations (e.g. S-polynomial, GB)
to be easily implementable for specific algebras.
At the moment graded commutative algebra-related algorithms
are implemented in this framework.
Benchmarks show that our new algorithms and implementation are practically efficient.
The developed framework has a lot of applications in various
branches of mathematics and theoretical physics.
They include computation of sheaf cohomology, coordinate-free verification of affine geometry
theorems and computation of cohomology rings of p-groups, which are partially described in this thesis.
For many years real-time task models have focused the timing constraints on execution windows defined by earliest start times and deadlines for feasibility.
However, the utility of some application may vary among scenarios which yield correct behavior, and maximizing this utility improves the resource utilization.
For example, target sensitive applications have a target point where execution results in maximized utility, and an execution window for feasibility.
Execution around this point and within the execution window is allowed, albeit at lower utility.
The intensity of the utility decay accounts for the importance of the application.
Examples of such applications include multimedia and control; multimedia application are very popular nowadays and control applications are present in every automated system.
In this thesis, we present a novel real-time task model which provides for easy abstractions to express the timing constraints of target sensitive RT applications: the gravitational task model.
This model uses a simple gravity pendulum (or bob pendulum) system as a visualization model for trade-offs among target sensitive RT applications.
We consider jobs as objects in a pendulum system, and the target points as the central point.
Then, the equilibrium state of the physical problem is equivalent to the best compromise among jobs with conflicting targets.
Analogies with well-known systems are helpful to fill in the gap between application requirements and theoretical abstractions used in task models.
For instance, the so-called nature algorithms use key elements of physical processes to form the basis of an optimization algorithm.
Examples include the knapsack problem, traveling salesman problem, ant colony optimization, and simulated annealing.
We also present a few scheduling algorithms designed for the gravitational task model which fulfill the requirements for on-line adaptivity.
The scheduling of target sensitive RT applications must account for timing constraints, and the trade-off among tasks with conflicting targets.
Our proposed scheduling algorithms use the equilibrium state concept to order the execution sequence of jobs, and compute the deviation of jobs from their target points for increased system utility.
The execution sequence of jobs in the schedule has a significant impact on the equilibrium of jobs, and dominates the complexity of the problem --- the optimum solution is NP-hard.
We show the efficacy of our approach through simulations results and 3 target sensitive RT applications enhanced with the gravitational task model.
This thesis treats the extension of the classical computational homogenization scheme towards the multi-scale computation of material quantities like the Eshelby stresses and material forces. To this end, microscopic body forces are considered in the scale-transition, which may emerge due to inhomogeneities in the material. Regarding the determination of material quantities based on the underlying microscopic structure different approaches are compared by means of their virtual work consistency. In analogy to the homogenization of spatial quantities, this consistency is discussed within Hill-Mandel type conditions.
Insbesondere bei der industriellen Nutzung tiefer geothermischer Systeme gibt es Risiken, die im Hinblick auf eine zukunftsträchtige Rolle der Ressource "Geothermie" innerhalb der Energiebranche eingeschätzt und minimiert werden müssen. Zur Förderung und Unterstützung dieses Prozesses kann die Mathematik einen entscheidenden Beitrag leisten. Um dies voranzutreiben haben wir zur Charakterisierung tiefer geothermischer Systeme ein Säulenmodell entwickelt, das die Bereiche Exploration, Bau und Produktion näher beleuchtet. Im Speziellen beinhalten die Säulen: Seismische Erkundung, Gravimetrie/Geomagnetik, Transportprozesse, Spannungsfeld.
This report gives an insight into basics of stress field simulations for geothermal reservoirs.
The quasistatic equations of poroelasticity are deduced from constitutive equations, balance
of mass and balance of momentum. Existence and uniqueness of a weak solution is shown.
In order of to find an approximate solution numerically, usage of the so–called method of
fundamental solutions is a promising way. The idea of this method as well as a sketch of
how convergence may be proven are given.
The interest of the exploration of new hydrocarbon fields as well as deep geothermal reservoirs is permanently growing. The analysis of seismic data specific for such exploration projects is very complex and requires the deep knowledge in geology, geophysics, petrology, etc from interpreters, as well as the ability of advanced tools that are able to recover some particular properties. There again the existing wavelet techniques have a huge success in signal processing, data compression, noise reduction, etc. They enable to break complicate functions into many simple pieces at different scales and positions that makes detection and interpretation of local events significantly easier.
In this thesis mathematical methods and tools are presented which are applicable to the seismic data postprocessing in regions with non-smooth boundaries. We provide wavelet techniques that relate to the solutions of the Helmholtz equation. As application we are interested in seismic data analysis. A similar idea to construct wavelet functions from the limit and jump relations of the layer potentials was first suggested by Freeden and his Geomathematics Group.
The particular difficulty in such approaches is the formulation of limit and
jump relations for surfaces used in seismic data processing, i.e., non-smooth
surfaces in various topologies (for example, uniform and
quadratic). The essential idea is to replace the concept of parallel surfaces known for a smooth regular surface by certain appropriate substitutes for non-smooth surfaces.
By using the jump and limit relations formulated for regular surfaces, Helmholtz wavelets can be introduced that recursively approximate functions on surfaces with edges and corners. The exceptional point is that the construction of wavelets allows the efficient implementation in form of
a tree algorithm for the fast numerical computation of functions on the boundary.
In order to demonstrate the
applicability of the Helmholtz FWT, we study a seismic image obtained by the reverse time migration which is based on a finite-difference implementation. In fact, regarding the requirements of such migration algorithms in filtering and denoising the wavelet decomposition is successfully applied to this image for the attenuation of low-frequency
artifacts and noise. Essential feature is the space localization property of
Helmholtz wavelets which numerically enables to discuss the velocity field in
pointwise dependence. Moreover, the multiscale analysis leads us to reveal additional geological information from optical features.
In der vorliegenden Arbeit wurden neue katalytische Methoden zur regioselektiven Knüpfung von C-C-Bindungen vorgestellt. Die Methoden sind breit anwendbar, besitzen eine gute Verträglichkeit mit funktionellen Gruppen und erlauben präparativ arbeitenden Chemikern einen einfachen Zugang zu wertvollen Verbindungen, die zuvor nur durch Verwendung luft- und feuchtigkeitsempfindlicher, oder teurer Reagenzien in abfallintensiven Prozessen zugänglich waren.
Im ersten Teil der Arbeit wurden Arylchloride als elektrophile Kupplungspartner für Decarboxylierende Biarylsynthese erschlossen. Das synthetische Potential der Reaktion wurde an den Wirkstoffen Telmisartan und Xenalipin demonstriert. Im zweiten Teil der Arbeit wurden neue Reagenzien und Reaktionen entwickelt, mit denen Trifluormethylgruppen selektiv in organische Moleküle eingeführt werden. Die neuen Reagenzien zeichnen sich durch ihre gute Verfügbarkeit, ihre hohe Stabilität gegenüber Luft und Feuchtigkeit, sowie durch ihre einfache Handhabung aus, und sie besitzen eine hohe Kompatibilität mit funktionellen Gruppen. Die Entwicklung einer decarboxylierenden palladiumkatalysierten Trifluormethylierungsreaktion von Arylchloriden mit gut verfügbaren und preiswerten Trifluoracetaten wurde als Fernziel zukünftiger Arbeiten vorgestellt.
Ionische Flüssigkeiten werden als alternative zu klassischen Lösungsmitteln für chemische Umsetzungen diskutiert u. a. auch für Reaktionen an denen gelöste Gase beteiligt sind. Deshalb ist die Kenntnis der Gaslöslichkeit sowie der eventuell auftretenden Hochdruck-Mehrphasen-Gleichgewicht in Systemen mit ionischen Flüssigkeiten sowohl von wissenschaftlichem als auch von technischem Interesse.
Das Aufpressen von Kohlendioxid bei einer Temperatur nahe dessen kritischer Temperatur auf eine homogene, einphasige, binäre flüssige Mischung aus einem organischen Lösungsmittel und einer hydrophoben ionischen Flüssigkeit bzw. aus Wasser und einer hydrophilen ionischen Flüssigkeit, kann zur Entmischung der zuvor homogenen Flüssigkeit in zwei koexistierende Flüssigphasen L1 und L2 (die mit einer Dampfphase V im Gleichgewicht stehen) führen.
Das zweiphasige flüssige System kann z. B. bei chemischen Umsetzungen, aber auch bei der Aufarbeitung von Reaktionslösungen von Vorteil sein, wenn z. B. die Extraktion eines Produkts in die zweite flüssige Phase zu einer Erhöhung des Umsatzes einer chemischen Reaktion führt.
In der vorliegenden Arbeit wurde das Hochdruck-Mehrphasen-Gleichgewicht ternärer Systeme bestehend aus (Kohlendioxid + Alkohol/Wasser + ionische Flüssigkeit bzw. Ethylencarbonat) experimentell untersucht.
Zunächst wurden die Hochdruck-Mehrphasen-Gleichgewichte von zwei organischen ternären Systemen (Kohlendioxid + Methanol + [bmim][PF6]) und (Kohlendioxid + 1-Butanol + [hmim][Tf2N]) bei Temperaturen zwischen 293 und 333 K und Drücken bis zu 12 MPa experimentell bestimmt. Die Untersuchungen bestanden aus dem Vermessen der Druck-Temperatur-Koordinaten der kritischen Endpunktlinien, sowie der Zusammensetzungen der im Dreiphasengleichgewicht koexistierenden flüssigen Phasen L1 und L2.
Danach wurden an vier Systemen aus (Kohlendioxid + Wasser + ionische Flüssigkeit) ähnliche experimentelle Untersuchungen durchgeführt. Diese beschränkten sich jedoch im wesentlichen auf die Bestimmung des Druckbereiches in dem solche Mehrphasen-Gleichgewichte auftreten.
Bei dem wässrigen System (Kohlendioxid + Wasser + Ethylencarbonat), das untersucht wurde, wurde ein deutlich komplizierteres Phasenverhalten beobachtet, in dem auch ein Vierphasengleichgewicht L1L2L3V sowie zwei Typen von Dreiphasengleichgewichten auftreten. Für dieses System wurden sowohl die Druck-Temperatur-Koordinaten des unteren kritischen Endpunkts des Dreiphasen-Gleichgewichts als auch die des Vierphasengleichgewichts bestimmt. Außerdem wurde die Zusammensetzung der im Gleichgewicht koexistierenden flüssigen Phasen L1 und L2 bei 313 und 333 K im Druckbereich von 6,05 bis 20,3 MPa bestimmt.
Darüber hinaus wurde die Löslichkeit von Kohlendioxid in drei homogenen, einphasigen Lösungsmittelgemischen aus (Methanol + [bmim][PF6]) mit unterschiedlicher Zusammensetzung experimentell bestimmt. Diese Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsapparatur.
Abschließend wurde die Löslichkeit von Kohlendioxid in den untersuchten binären Lösungsmittelgemischen (Methanol + [bmim][PF6]) mit Hilfe von Modellen der molekularen Thermodynamik abgeschätzt.
Bei einem Stent handelt es sich um ein medizinisches Implantat, das zur Behandlung von Gefäßverengungen (Stenosen) eingesetzt wird. Ein implantierter Stent verbleibt in der Regel lebenslang im Gefäß und muss alle auftretenden Belastungen dauerhaft ertragen ohne zu brechen. Für die Auslegung eines Stents und zur Beurteilung des Ermüdungsverhaltens können durch die Finite Element Methode (FEM) schon im Vorfeld die auftretenden Spannungen und Dehnungen berechnet werden. Im Rahmen dieser Arbeit wird ein (Referenz-) Stent anhand unterschiedlicher Simulationen und Experimente analysiert und untersucht. Dabei wird sowohl der Herstellungsprozess des Stents betrachtet, als auch dessen Verhalten in unterschiedlich komplexen Gefäßen. In experimentellen Untersuchungen wird die Radialkraft bestimmt und das Ermüdungsverhalten des Stents bei einer simulierten Kniebeuge von 90° ermittelt. Mit der gewonnenen Erfahrung wird eine Vergleichsrechnung zweier neuer Stent-Designs durchgeführt. Auf Basis der Simulationen wird ein Prototyp hergestellt. Mit Hilfe der Computational Fluid Dynamics (CFD) Simulation wird der Einfluss des Referenz-Stents auf die Blutströmung durch die Berechnung der Strömungsverhältnisse in unterschiedlich komplexen Gefäßen näher betrachtet. Die Interaktion zwischen Stent, dem umgebenden Gefäß und der Blutströmung wird durch die gekoppelte FEM-CFD-Simulation untersucht.
In this paper, we discuss the problem of testing for a changepoint in the structure
of an integer-valued time series. In particular, we consider a test statistic
of cumulative sum (CUSUM) type for general Poisson autoregressions of order
1. We investigate the asymptotic behaviour of conditional least-squares estimates
of the parameters in the presence of a changepoint. Then, we derive the
asymptotic distribution of the test statistic under the hypothesis of no change,
allowing for the calculation of critical values. We prove consistency of the test,
i.e. asymptotic power 1, and consistency of the corresponding changepoint estimate.
As an application, we have a look at changepoint detection in daily
epileptic seizure counts from a clinical study.
Die Kommunale Planungspraxis durchlebt derzeit eine Phase, die von sich verändernden Rahmenbedingungen geprägt ist. Es zeigen sich erste Auswirkungen des demographischen Wandels wie wachsende Leerstände, zugleich ist jedoch nach wie vor eine ungebremste Flächenneuinanspruchnahme zu verzeichnen, die von dem „30 Hektar Ziel“ der nationalen Nachhaltigkeitsstrategie weit entfernt liegt. Begleitet wird diese Entwicklung von einer sich immer mehr verschärfenden Finanzknappheit der Kommunen, die auch zu einer vermehrten Abgabe von Planungsaufgaben, dem Kerngebiet kommunaler Selbstverwaltung, an externe Planungsträger führt. Um bei diesen Prozessen die notwendige Transparenz zu generieren und damit die Akzeptanz der Planung sicherzustellen ist es wichtig, die Bürger frühzeitig zu informieren und zu beteiligen. Hier eröffnet die Visualisierung von Planungen mittels des Computers die Chance, als virtuelle Repräsentation realer Städte oder Planungen, heterogene, raumbezogene Informationen einer breiten Bevölkerungsschicht interaktiv zugänglich zu machen; sie eröffnet somit eine neue Perspektive auf Lebensumwelten, und hilft, diese besser zu verstehen.