Refine
Year of publication
- 2011 (62) (remove)
Document Type
- Doctoral Thesis (62) (remove)
Has Fulltext
- yes (62)
Keywords
- Visualisierung (4)
- Simulation (3)
- CSO (2)
- Implementation (2)
- Katalyse (2)
- Metropolregion (2)
- Mischwasserbehandlung (2)
- Modellierung (2)
- N-Liganden (2)
- Raumordnung (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Mathematik (14)
- Kaiserslautern - Fachbereich ARUBI (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Informatik (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Physik (1)
This research work focuses on the generation of a high resolution digital surface model featuring complex urban surface characteristics in order to enrich the database for runoff simulations of urban drainage systems. The discussion of global climate change and its possible consequences have taken centre stage over the last decade. Global climate change has triggered more erratic weather patterns by causing severe and unpredictable rainfall events in many parts of the world. The incidence of more frequent rainfall has led to the problem of increased flooding in urban areas. The increased property values of urban structures and threats to people's personal safety have hastened the demand for a detailed urban drainage simulation model for accurate flood prediction. Although the use of 2D hydraulic modelling approach in rural floodplains is in practice for quite a long time, the use of the same approach in urban floodplains is still in its infancy. The reason is mainly due to the lack of a high resolution topographic model describing urban surface characteristics properly.
High resolution surface data describing hydrologic and hydraulic properties of complex urban areas are the prerequisite to more accurately describing and simulating the flood water movement and thereby taking adequate measures against urban flooding. Airborne LiDAR (Light detection and ranging) is an efficient way of generating a high resolution Digital Surface Model (DSM) of any study area. The processing of high-density and large volume of unstructured LiDAR data is a difficult and time-consuming task towards generating fine resolution spatial databases when considering only human intervention. The application of robust algorithms in terms of processing this massive volume of data can significantly reduce the data processing time and thereby increase the degree of automation as well as accuracy.
This research work presents a number of techniques pertaining to processing, filtering and classification of LiDAR point data in order to achieve higher degree of automation and accuracy towards generating a high resolution urban surface model. This research work also describes the use of ancillary datasets such as aerial images and topographic maps in combination with LiDAR data for feature detection and surface characterization. The integration of various data sources facilitates detailed modelling of street networks and accurate detection of various urban surface types (e.g. grasslands, bare soil and impervious surfaces).
While the accurate characterization of various surface types contributes to the better modelling of rainfall runoff processes, the application of LiDAR-derived fine resolution DSM serves as input to 2D hydraulic models and capable of simulating surface flooding scenarios in cases the sewer systems are surcharged.
Thus, this research work develops high resolution spatial databases aiming at improving the accuracy of hydrologic and hydraulic databases of urban drainage systems. Later, these databases are given as input to a standard flood simulation software in order to: 1) test the suitability of the databases for running the simulation; 2) assess the performance of the hydraulic capacity of urban drainage systems and 3) predict and visualize the surface flooding scenarios in order to take necessary flood protection measures.
Numerical Algorithms in Algebraic Geometry with Implementation in Computer Algebra System SINGULAR
(2011)
Polynomial systems arise in many applications: robotics, kinematics, chemical kinetics,
computer vision, truss design, geometric modeling, and many others. Many polynomial
systems have solutions sets, called algebraic varieties, having several irreducible
components. A fundamental problem of the numerical algebraic geometry is to decompose
such an algebraic variety into its irreducible components. The witness point sets are
the natural numerical data structure to encode irreducible algebraic varieties.
Sommese, Verschelde and Wampler represented the irreducible algebraic decomposition of
an affine algebraic variety \(X\) as a union of finite disjoint sets \(\cup_{i=0}^{d}W_i=\cup_{i=0}^{d}\left(\cup_{j=1}^{d_i}W_{ij}\right)\) called numerical irreducible decomposition. The \(W_i\) correspond to the pure i-dimensional components, and the \(W_{ij}\) represent the i-dimensional irreducible components. The numerical irreducible decomposition is implemented in BERTINI.
We modify this concept using partially Gröbner bases, triangular sets, local dimension, and
the so-called zero sum relation. We present in the second chapter the corresponding
algorithms and their implementations in SINGULAR. We give some examples and timings,
which show that the modified algorithms are more efficient if the number of variables is not
too large. For a large number of variables BERTINI is more efficient.
Leykin presented an algorithm to compute the embedded components of an algebraic variety
based on the concept of the deflation of an algebraic variety.
Depending on the modified algorithm mentioned above, we will present in the third chapter an
algorithm and its implementation in SINGULAR to compute the embedded components.
The irreducible decomposition of algebraic varieties allows us to formulate in the fourth
chapter some numerical algebraic algorithms.
In the last chapter we present two SINGULAR libraries. The first library is used to compute
the numerical irreducible decomposition and the embedded components of an algebraic variety.
The second library contains the procedures of the algorithms in the last Chapter to test
inclusion, equality of two algebraic varieties, to compute the degree of a pure i-dimensional
component, and the local dimension.
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
We discuss some first steps towards experimental design for neural network regression which, at present, is too complex to treat fully in general. We encounter two difficulties: the nonlinearity of the models together with the high parameter dimension on one hand, and the common misspecification of the models on the other hand.
Regarding the first problem, we restrict our consideration to neural networks with only one and two neurons in the hidden layer and a univariate input variable. We prove some results regarding locally D-optimal designs, and present a numerical study using the concept of maximin optimal designs.
In respect of the second problem, we have a look at the effects of misspecification on optimal experimental designs.
Sekretionssysteme ermöglichen Bakterien nicht nur die Kommunikation mit ihrer Umwelt, sie spielen auch eine große Rolle in der Virulenz. Mit Virulenz werden auch Typ VII-Sekretionssysteme in Verbindung gebracht, die ausschließlich in Gram-positiven Bakterien vorkommen. Substrate dieser Systeme sind u.a. kleine Proteine mit einem zentralen WXG-Motiv, die sogenannten WXG-100 Proteine, die im gleichen Locus kodiert werden. Das ESX-1 System, das u.a. in M. tuberculosis und S. aureus vorkommt, ist ein bisher vor allem in diesen Organismen untersuchtes Typ VII-Sekretionssystem.
Im Gegensatz zu seinem pathogenen Verwandten S. pneumoniae besitzt S. oralis Uo5 Gene, die für ein ESX-1 Sekretionssystem kodieren. Bislang wurde ein solches System in Strepto-kokken nicht untersucht und es war unklar, ob dieses exprimiert wird und welche Funktion es in diesen Bakterien erfüllt.
Im Fokus dieser Arbeit stand nun die Charakterisierung des ESX-1 Sekretionssystems von S. oralis Uo5 und dessen Verbreitung in anderen Streptokokken. Dabei belegten Transkrip-tionsstudien, dass ein interner Terminator zwischen dem ersten und zweiten Gen (esxA und esaA) die Transkription negativ beeinflusst. Trotz der niedrigen Transkriptmenge der downstream des Terminators gelegenen Gene konnte die Funktionalität des Systems durch den Nachweis der beiden WXG-100 Proteine EsxA und EsxB im Cytoplasma und im Kultur-medium bestätigt werden. Der Nachweis der WXG-100 Proteine erfolgte mit Antiseren, die im Rahmen dieser Arbeit gegen die rekombinant hergestellten und aus E. coli isolierten WXG-100 Proteine generiert worden waren. Durch eine Deletion des Gens, das in anderen Organismen für eine FtsK/SpoIIIE-ATPase kodiert, wurde gezeigt, dass auch dieses Protein in S. oralis Uo5 für die Sekretion der WXG-100 Proteine essentiell ist.
Die Daten von CD-spektroskopischen Analysen lassen vermuten, dass EsxA und EsxB, wie in anderen Organismen bereits gezeigt, als lineare Proteine vorliegen, die hauptsächlich aus α-Helices bestehen. Diese Daten zeigen auch, dass EsxA im Gegensatz zu EsxB eine höhere Stabilität besitzt. Durch die Kombination von Gelfiltration und Crosslinking-Experimenten mittels Glutaraldehyd konnte die Bildung von EsxA-Homodimeren bestätigt werden.
Mit Hilfe von Antikörpern konnte EsxA in einer Reihe von S. oralis Stämmen nachgewiesen werden; die Verbreitung des ESX-1 Systems konnte durch PCR-Analysen bestätigt werden. Eine vergleichende Analyse bekannter Genomdaten in silico bestätigt, dass dieses Cluster in verschiedenen Streptokokken-Spezies vorkommt. Eine phylogenetische Analyse der Gene esxA und essC im Vergleich mit dem in allen Bakterien konservierten Gen gyrA verdeutlicht, dass das ESX-1 System als Teil des akzessorischen Genoms angesehen werden kann, das sich über horizontalen Gentransfer verbreiten kann.
In dieser Arbeit wird somit zum ersten Mal ein Typ VII-Sekretionssystem in Streptokokken untersucht. Die Charakterisierung auf molekularer Ebene legt einen Grundstein für die Erforschung der Rolle des ESX-1 Systems in vivo.
Innerhalb der eingereichten Arbeit wurden ionische Cluster mittels IR- und kombinierter IR+UV-Spektroskopie untersucht und durch Vergleich mit theoretischen Untersuchungen Strukturen zugeordnet. Die Arbeit behandelt zum einen anionische Cluster aus Kobalt und Liganden (Alkohole, Alkane, Alkene) und zum anderen kationische Cluster aus Aluminium und Aminosäuren bzw. Peptiden. Es wurde IR-Photodissoziationsspektroskopie an isolierten anionischen Clustern aus 1-4 Kobalt und 1-3 Alkohol Einheiten im Molekularstrahl angewendet und mit Hilfe von DFT- Rechnungen Strukturen und Spinzustände zugeordnet. In allen untersuchten Spezies wurden lediglich Wasserstoffbrücken der Form OH…Co beobachtet, aber keine Wasserstoffbrücken zwischen den Alkohol Molekülen. Es findet demnach eine sehr effiziente Anlagerung der Alkoholmoleküle an das Metall bzw. den Metallcluster statt. Weiterhin gibt es Hinweise darauf, dass Co3-Einheiten eine wichtige Rolle beim Aufbau von Kobalt/Alkohol-Clustern spielen. Um diesem Sachverhalt weiter nachzugehen, müssen die Untersuchungen auf größere Cluster ausgeweitet werden. Die große Rotverschiebung der OH-Streckschwingungsfrequenz vom reinen Alkohol zur gebundenen Spezies weist auf starke H-Brücken und eine starke Aktivierung der OH-Gruppe(n) durch den anionischen Metallcluster hin. Diese Spezies sind demnach gut geeignet, um OH-Gruppen für weitere Reaktionen zu aktivieren. Durch die deutlichen Einflüsse der Multiplizität der Cluster auf die Schwingungsfrequenzen können mit Hilfe der DFT-Rechnungen auch Aussagen über die Spinzustände getroffen werden. Die vorgestellten Untersuchungen zeigen somit, dass die Anwendung von IR-Spektroskopie neben der Strukturaufklärung auch Hinweise auf die Multiplizität geben kann. Ferner liefert die massen- und strukturselektive IR-Spektroskopie die Möglichkeit, die Aktivierung und Aggregation von Liganden an Metallcluster auf molekularer Ebene zu untersuchen. Weiterhin wurden IR-, UV- und eine neu entwickelte kombinierte IR+UV-Photodissoziationsspektroskopie zur Strukturanalyse von Clustern aus Aluminiumkationen und geschützten Aminosäuren sowie Dipeptidmodellen in der Gasphase durchgeführt. Durch den Vergleich mit theoretischen Analysen konnten Strukturen und Spinzustände für die [Al-AcPheOMe]+/3+-Spezies zugeordnet werden. Die Untersuchung des [Al-AcPheOMe]+ Clusters zeigte einige interessante Ergebnisse. Es konnten zwei verschiedene Konformere beobachtet werden, die sich nur bezüglich der Orientierung ihrer Seitenkette unterscheiden. Zudem konnte gezeigt werden, dass sich die Konformation des Rückgrats von AcPheOMe bei der Anlagerung von Al+ von einer b- Faltblatt-analogen Anordnung zu einer helicalen Form ändert, so dass sich Aluminium an beide CO-Gruppen anlagern kann. Im Falle des dreifach geladenen Clusters konnte erstmalig eine kombinierte IR+UV-Photodissoziationsspektroskopie auf Kationen angewendet werden. Hierbei handelt es sich um eine Weiterentwicklung der nonresonant ionization detected IR spectroscopy (NID-IR), die für neutrale Spezies entwickelt wurde. Diese Methode ermöglicht es, auch für stark gebundene Cluster, eine schwingungssensitive Dissoziation zu erhalten. Auf diese Art konnte ein Isomer beobachtet werden, das sich vom einfach geladenen Cluster ableiten lässt. Im Vergleich zum gestreckten AcPheOMe-Monomer beobachtet man insbesondere beim [Al-AcPheOMe]3+ eine stark globulare Form, die das Aluminium über die CO-Gruppen und den Phenylring einschließt und somit der Ladungsstabilisierung dient. Weiterhin wurden weitere geschützte Aminosäuren auf ihr Aggregationsverhalten mit Aluminiumkationen untersucht. [Al-AcTyr(Me)OMe]+ konnte nachgewiesen und spektroskopisch untersucht werden. Analog zu den Untersuchungen von [Al-AcPheOMe]+ wurden UV- und IR-Photodissoziationsspektren aufgenommen. Um jedoch den Einfluss der größeren Seitenkette des Tyrosins im Vergleich zu der des Phenylalanins zu ermitteln, sind noch detaillierte theoretische Strukturanalysen notwendig. IR-Photodissoziationsspektroskopie wurde auch bei kationischen Clustern aus Aluminium und der geschützten aliphatischen Aminosäure Valin durchgeführt. Hierbei konnte ebenfalls über die Anregung im NH-Streckschwingungsbereich eine Dissoziation des Clusters induziert werden. Da bisher nur wenige Rechnungen zu diesen beiden Systemen vorliegen, konnten noch keine eindeutigen Strukturzuweisungen erfolgen. Allerdings ist die Tendenz zu einer helicalen Konformation des Peptidrückgrats zu erkennen. Diese Arbeit beschreibt die erstmalige Anwendung von IR-Photodissoziationsspektroskopie an anionischen Kobalt/Ligand-Aggregaten sowie die Entwicklung einer neuen Technik, um hochgeladene ionische Cluster infrarotspektroskopisch untersuchen zu können. Mit Hilfe von DFT-Rechnungen können darüber hinaus Strukturen zugeordnet und Aussagen über Spinzustände getroffen werden.
Ionische Flüssigkeiten werden als alternative zu klassischen Lösungsmitteln für chemische Umsetzungen diskutiert u. a. auch für Reaktionen an denen gelöste Gase beteiligt sind. Deshalb ist die Kenntnis der Gaslöslichkeit sowie der eventuell auftretenden Hochdruck-Mehrphasen-Gleichgewicht in Systemen mit ionischen Flüssigkeiten sowohl von wissenschaftlichem als auch von technischem Interesse.
Das Aufpressen von Kohlendioxid bei einer Temperatur nahe dessen kritischer Temperatur auf eine homogene, einphasige, binäre flüssige Mischung aus einem organischen Lösungsmittel und einer hydrophoben ionischen Flüssigkeit bzw. aus Wasser und einer hydrophilen ionischen Flüssigkeit, kann zur Entmischung der zuvor homogenen Flüssigkeit in zwei koexistierende Flüssigphasen L1 und L2 (die mit einer Dampfphase V im Gleichgewicht stehen) führen.
Das zweiphasige flüssige System kann z. B. bei chemischen Umsetzungen, aber auch bei der Aufarbeitung von Reaktionslösungen von Vorteil sein, wenn z. B. die Extraktion eines Produkts in die zweite flüssige Phase zu einer Erhöhung des Umsatzes einer chemischen Reaktion führt.
In der vorliegenden Arbeit wurde das Hochdruck-Mehrphasen-Gleichgewicht ternärer Systeme bestehend aus (Kohlendioxid + Alkohol/Wasser + ionische Flüssigkeit bzw. Ethylencarbonat) experimentell untersucht.
Zunächst wurden die Hochdruck-Mehrphasen-Gleichgewichte von zwei organischen ternären Systemen (Kohlendioxid + Methanol + [bmim][PF6]) und (Kohlendioxid + 1-Butanol + [hmim][Tf2N]) bei Temperaturen zwischen 293 und 333 K und Drücken bis zu 12 MPa experimentell bestimmt. Die Untersuchungen bestanden aus dem Vermessen der Druck-Temperatur-Koordinaten der kritischen Endpunktlinien, sowie der Zusammensetzungen der im Dreiphasengleichgewicht koexistierenden flüssigen Phasen L1 und L2.
Danach wurden an vier Systemen aus (Kohlendioxid + Wasser + ionische Flüssigkeit) ähnliche experimentelle Untersuchungen durchgeführt. Diese beschränkten sich jedoch im wesentlichen auf die Bestimmung des Druckbereiches in dem solche Mehrphasen-Gleichgewichte auftreten.
Bei dem wässrigen System (Kohlendioxid + Wasser + Ethylencarbonat), das untersucht wurde, wurde ein deutlich komplizierteres Phasenverhalten beobachtet, in dem auch ein Vierphasengleichgewicht L1L2L3V sowie zwei Typen von Dreiphasengleichgewichten auftreten. Für dieses System wurden sowohl die Druck-Temperatur-Koordinaten des unteren kritischen Endpunkts des Dreiphasen-Gleichgewichts als auch die des Vierphasengleichgewichts bestimmt. Außerdem wurde die Zusammensetzung der im Gleichgewicht koexistierenden flüssigen Phasen L1 und L2 bei 313 und 333 K im Druckbereich von 6,05 bis 20,3 MPa bestimmt.
Darüber hinaus wurde die Löslichkeit von Kohlendioxid in drei homogenen, einphasigen Lösungsmittelgemischen aus (Methanol + [bmim][PF6]) mit unterschiedlicher Zusammensetzung experimentell bestimmt. Diese Untersuchungen erfolgten mit einer nach der synthetischen Methode arbeitenden Versuchsapparatur.
Abschließend wurde die Löslichkeit von Kohlendioxid in den untersuchten binären Lösungsmittelgemischen (Methanol + [bmim][PF6]) mit Hilfe von Modellen der molekularen Thermodynamik abgeschätzt.
Gegenstand der vorliegenden Arbeit war die Entwicklung neuartiger molekularer Kapseln auf Basis von verbrückten Bis(cyclopeptiden) und die Untersuchung ihrer Anionenaffinität in wässrigen Lösungsmittelgemischen. Als Reaktionen zur Verbrückung der Cyclopeptidringe wurden die Olefinmetathese und die 1,3-dipolare Cycloaddition von Alkinen und Aziden (Click-Reaktion) verwendet, die unter thermodynamischer bzw. kinetischer Kontrolle verlaufen. Neben den dreifach verbrückten Kapseln wurden ebenso die analogen Bis(cyclopeptide) mit nur einem Linker synthetisiert und untersucht. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener anorganischer Anionen erfolgte mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie. Alle untersuchten Verbindungen bilden 1:1 Komplexe mit den Anionen, indem sie diese in ihrem Hohlraum über Wasserstoffbrücken binden. Allerdings hat die Anzahl der Linker einen bedeutenden Einfluss auf das Bindungsverhalten der Bis(cyclopeptide). Im Gegensatz zu den neuen, sowie bereits bekannten, einfach verbrückten Bis(cyclopeptiden), verläuft die Komplexierung von Sulfat durch die molekulare Kapsel mit drei Triazollinkern endotherm. Der ungünstige enthalpische Beitrag zur Bindung wird von einem sehr günstigen entropischen Beitrag überkompensiert, was zu einer im Vergleich höheren Sulfataffinität führt. Die Ursache dieses unerwarteten Bindungsverhaltens liegt vor allem an einer schlechten Vororganisation der Kapsel. Ein weiterer großer Unterschied zwischen den einfach und dreifach verbrückten Bis(cyclopeptiden) liegt in der unterschiedlichen Kinetik bei der Sulfatkomplexierung. Durch die Erhöhung der Anzahl der Linker reduziert sich die Geschwindigkeit von Komplexierung und Dekomplexierung deutlich. Diese Untersuchungen lieferten neue Erkenntnisse, wie sich strukturelle Veränderungen auf das Rezeptorverhalten derartiger Systeme auswirken.
Städte und Regionen stehen vor den Herausforderungen einer wachsenden internationalen Standortkonkurrenz, die zu einem steigenden Wettbewerb führt. In diesem Wettbewerb haben Großstädte und Großstadtregionen eine ökonomische Schlüsselstellung inne. Vor dem Hintergrund hat die Bundesraumordnung angestrebt, mit Hilfe eines strategischen Leitbildes – dem Konzept der Europäischen Metropolregionen – die bestehenden Agglomerationen in ihrer internationalen Ausstrahlung zu stärken. Das Konzept wurde in Deutschland im Raumordnungspolitischen Handlungsrahmen im Jahr 1995 erstmals dargestellt sowie in den im Jahr 2006 verabschiedeten Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland gefestigt. Metropolregionen werden als „Motoren der gesellschaftlichen, wirtschaftlichen, sozialen und kulturellen Entwicklung [gesehen, deren] herausragende Funktionen im internationalen Maßstab über die nationalen Grenzen hinweg ausstrahlen.“ Für die nachfolgenden Planungsinstanzen ergibt sich aus diesen Leitbildern keine verbindliche Fortführungspflicht sowie für die Akteure vor Ort keine Umsetzungspflicht. Dessen ungeachtet haben sich die Metropolregionen mit verschiedenen Organisationsformen und Aufgabenstellungen unter Verwendung dieses Labels gebildet, wobei sich die Implementation des Konzepts der Metropolregionen in den elf deutschen Metropolregionen unterschiedlich darstellt. In den sich teilweise neu konstituierenden, teilweise auf der Basis bestehender regionaler Kooperationen weiterentwickelnden Metropolregionen bilden und stärken sich in unterschiedlicher Form regionale Netzwerke zwischen politischen, wirtschaftlichen und weiteren gesellschaftlichen Akteuren mit dem Ziel die Region weiterzuentwickeln. Vor diesem Hintergrund analysiert die Arbeit die Implementation des Konzepts der Metropolregionen in Deutschland und nimmt eine Bewertung der Bedeutung dieses Konzeptes für die regionale und kommunale Entwicklung der Regionen vor. Die Analyse erfolgt anhand der Metropolregionen Hamburg und Nürnberg. Der Fokus liegt auf der Analyse der entstandenen regionalen Netzwerk- und Kooperationsstrukturen. Aus den Ergebnissen werden Handlungsansätze für die weitere Arbeit der Metropolregionen erarbeitet und zur Diskussion gestellt, die geeignet erscheinen die regionale Entwicklung der Metropolregionen sowie deren internationale Ausstrahlung zu befördern. In der Metropolregion Hamburg hat sich eine bestehende Verwaltungskooperation der drei Bundesländer Hamburg, Niedersachsen und Schleswig-Holstein schrittweise zu einer strategischen Zusammenarbeit weiterentwickelt, die eine Internationalisierungsstrategie für die gesamte Metropolregion verfolgt. In der monozentrischen Metropolregion ist die Stadt Hamburg das dominierende Zentrum. Aufgrund der Entwicklung der Zusammenarbeit aus der Verwaltungskooperation der drei Bundesländer heraus, sind die Gremien und offiziellen Strukturen von administrativen und politischen Vertretern geprägt, wohingegen Akteure aus der Wirtschaft kaum eingebunden sind. Regionale Netzwerke, die unterschiedliche Akteursgruppen einbeziehen, existieren überwiegend außerhalb der eigentlichen Strukturen der Metropolregion Hamburg und haben einen anderen räumlichen Zuschnitt als diese. In Nürnberg hat sich im Anschluss an die Bewerbung um die Anerkennung als Metropolregion im Jahr 2005 eine eigene und neue Struktur der regionalen Zusammenarbeit mit dem zentralen Ziel der Steigerung der internationalen Sichtbarkeit der gesamten Region entwickelt. Die Metropolregion Nürnberg ist in schlanken Netzwerkstrukturen organisiert, die Akteure aus Politik, Verwaltung, Wirtschaft und Gesellschaft einbeziehen, wobei die Entscheidungen von einem Rat der Metropolregion beschlossen werden, der sich aus gewählten politischen Vertretern aus den Gemeinden, Landkreisen und kreisfreien Städten zusammensetzt. Aufbauend auf der Analyse der Ausgangssituation beider Metropolregionen, ihrer Strukturen der regionalen Zusammenarbeit, ihren Zielsetzungen, der Projektarbeit sowie der Arbeit der regionalen Netzwerke werden Handlungsempfehlungen für vier Bereiche erarbeitet: die Auseinandersetzung mit der Frage der räumlichen „Grenzziehung“ bzw. der variablen Geometrie und die sich daraus ergebenden Herausforderungen für die Projektarbeit, die Weiterentwicklung der bestehenden Netzwerke bzw. der Möglichkeiten die Strukturen für die regionale und kommunale Entwicklung stärker in Wert zu setzen, die Formulierung strategischer Anforderungen an die Projektarbeit und die Diskussion möglicher Projekte sowie die Darstellung von Anforderungen für die langfristige Implementation des Konzepts. Darüber hinaus werden Erfolgsfaktoren und Hemmnisse der beiden Regionen abgeleitet, die für die Entwicklung anderer deutscher Metropolregionen als Orientierung dienen können. Dazu gehören sowohl fachlich-inhaltliche Aspekte als auch organisatorische und auf die Strukturen der Zusammenarbeit bezogene Faktoren.
For many years real-time task models have focused the timing constraints on execution windows defined by earliest start times and deadlines for feasibility.
However, the utility of some application may vary among scenarios which yield correct behavior, and maximizing this utility improves the resource utilization.
For example, target sensitive applications have a target point where execution results in maximized utility, and an execution window for feasibility.
Execution around this point and within the execution window is allowed, albeit at lower utility.
The intensity of the utility decay accounts for the importance of the application.
Examples of such applications include multimedia and control; multimedia application are very popular nowadays and control applications are present in every automated system.
In this thesis, we present a novel real-time task model which provides for easy abstractions to express the timing constraints of target sensitive RT applications: the gravitational task model.
This model uses a simple gravity pendulum (or bob pendulum) system as a visualization model for trade-offs among target sensitive RT applications.
We consider jobs as objects in a pendulum system, and the target points as the central point.
Then, the equilibrium state of the physical problem is equivalent to the best compromise among jobs with conflicting targets.
Analogies with well-known systems are helpful to fill in the gap between application requirements and theoretical abstractions used in task models.
For instance, the so-called nature algorithms use key elements of physical processes to form the basis of an optimization algorithm.
Examples include the knapsack problem, traveling salesman problem, ant colony optimization, and simulated annealing.
We also present a few scheduling algorithms designed for the gravitational task model which fulfill the requirements for on-line adaptivity.
The scheduling of target sensitive RT applications must account for timing constraints, and the trade-off among tasks with conflicting targets.
Our proposed scheduling algorithms use the equilibrium state concept to order the execution sequence of jobs, and compute the deviation of jobs from their target points for increased system utility.
The execution sequence of jobs in the schedule has a significant impact on the equilibrium of jobs, and dominates the complexity of the problem --- the optimum solution is NP-hard.
We show the efficacy of our approach through simulations results and 3 target sensitive RT applications enhanced with the gravitational task model.
This thesis has the goal to propose measures which allow an increase of the power efficiency of OFDM transmission systems. As compared to OFDM transmission over AWGN channels, OFDM transmission over frequency selective radio channels requires a significantly larger transmit power in order to achieve a certain transmission quality. It is well known that this detrimental impact of frequency selectivity can be combated by frequency diversity. We revisit and further investigate an approach to frequency diversity based on the spreading of subsets of the data elements over corresponding subsets of the OFDM subcarriers and term this approach Partial Data Spreading (PDS). The size of said subsets, which we designate as spreading factor, is a design parameter of PDS, and by properly choosing , depending on the system designer's requirements, an adequate compromise between a good system performance and a low complexity can be found. We show how PDS can be combined with ML, MMSE and ZF data detection, and it is recognized that MMSE data detection offers a good compromise between performance and complexity. After having presented the utilization of PDS in OFDM transmission without FEC encoding, we also show that PDS readily lends itself for FEC encoded OFDM transmission. We display that in this case the system performance can be significantly enhanced by specific schemes of interleaving and utilization of reliabiliy information developed in the thesis. A severe problem of OFDM transmission is the large Peak-to-Average-Power Ratio (PAPR) of the OFDM symbols, which hampers the application of power efficient transmit amplifiers. Our investigations reveal that PDS inherently reduces the PAPR. Another approch to PAPR reduction is the well known scheme Selective Data Mapping (SDM). In the thesis it is shown that PDS can be beneficially combined with SDM to the scheme PDS-SDM with a view to jointly exploit the PAPR reduction potentials of both schemes. However, even when such a PAPR reduction is achieved, the amplitude maximum of the resulting OFDM symbols is not constant, but depends on the data content. This entails the disadvantage that the power amplifier cannot be designed, with a view to achieve a high power efficiency, for a fixed amplitude maximum, what would be desirable. In order to overcome this problem, we propose the scheme Optimum Clipping (OC), in which we obtain the desired fixed amplitude maximum by a specific combination of the measures clipping, filtering and rescaling. In OFDM transmission a certain number of OFDM subcarriers have to be sacrificed for pilot transmission in order to enable channel estimation in the receiver. For a given energy of the OFDM symbols, the question arises in which way this energy should be subdivided among the pilots and the data carrying OFDM subcarriers. If a large portion of the available transmit energy goes to the pilots, then the quality of channel estimation is good, however, the data detection performs poor. Data detection also performs poor if the energy provided for the pilots is too small, because then the channel estimate indispensable for data detection is not accurate enough. We present a scheme how to assign the energy to pilot and data OFDM subcarriers in an optimum way which minimizes the symbol error probability as the ultimate quality measure of the transmission. The major part of the thesis is dedicated to point-to-point OFDM transmission systems. Towards the end of the thesis we show that the PDS can be also applied to multipoint-to-point OFDM transmission systems encountered for instance in the uplinks of mobile radio systems.
Der Katabolismus von Pyrimidin-Nukleobasen erfolgt in Arabidopsis thaliana über einen dreistufigen Stoffwechselweg. In diesem wird Uracil zu beta-Alanin, Kohlenstoffdioxid und Stickstoff in Form von Ammonium abgebaut. Die erste Reaktion, die Reduktion von Uracil zu Dihydrouracil wird von dem plastidären Enzym Dihydrouracil-Dehydrogenase (Pyd1) katalysiert. „Knockout“-Mutanten zeigten verglichen mit Wildtyp-Pflanzen bis zu 50-fach erhöhte Uracilgehalte in allen untersuchten Geweben. Diese Mutanten waren nicht in der Lage, die radioaktiv markierten Pyrimidine Uridin und Uracil zu degradieren und deshalb hochsensitiv gegenüber den toxischen Derivaten 5-Fluorouridin und 5-Fluorouracil. Im Gegensatz dazu wiesen Mutanten, die Pyd1 überexprimieren eine erhöhte Resistenz gegenüber diesen toxischen Derivaten auf. Expressionsanalysen deckten auf, dass Pyd1 hauptsächlich im trockenen Samen exprimiert wird. Die transgenen Pyd1-Pflanzen wiesen einen drastischen Keimungsphänotyp auf. Während „knockout“-Mutanten 2 Tage später als Arabidopsis thaliana-Wildtyp-Pflanzen keimten, waren die Pyd1-Überexpressions-pflanzen in der Lage etwas früher zu keimen. Dies indiziert, dass die Aktivität der Pyd1 in der frühen pflanzlichen Entwicklung von entscheidender Bedeutung ist. Auch der Abscisinsäure-Stoffwechsel scheint in diesen Keimungsphänotyp involviert zu sein. Weiterhin entwickelten die Pyd1-Überexpressionspflanzen mehr Schoten und Samen als Wildtyp-Pflanzen, die „knockout“-Pflanzen weniger. War während der pflanzlichen Entwicklung Stickstoff limitierend, erhöhten sich Pyd1-Expression und Pyd1-Aktivität. Pyd1 scheint ein Schlüsselregulator des Pyrimidin-Katabolismus zu sein, der zwischen den Bedürfnissen an Stickstoff von Nukleotiden und anderen Metaboliten wie beispielsweise Aminosäuren vermittelt. Weiterhin erwies sich Pyd1 als wichtige Komponente in der Remobilisierung des Stickstoffs aus seneszenten Geweben. Es wurde untersucht, ob eventuell ein weiteres Enzym mit Dihydrouracil-Dehydrogenase-Aktivität existiert. Das Arabidopsis thaliana-Protein mit der höchsten Homologie zur Aminosäuresequenz von Pyd1 ist das Enzym Dihydroorotat-Dehydrogenase (DHODH), welches den vierten Schritt der Pyrimidin-de novo-Synthese katalysiert, die Oxidation von Dihydroorotat zu Orotat. Der Pyrimidinkatabolismus stellt die Umkehrung der Pyrimidin-de novo-Synthese dar und die von Pyd1 und DHODH katalysierten Reaktionen sind chemisch ähnlich. Transgene Pflanzen mit einer gesteigerten DHODH-Expression waren zu einer erhöhten Dihydroorotat-Oxidation in der Lage, zeigten aber keinerlei Pyd1-Aktivität. Während eine geringfügige Reduktion in der DHODH-Expression keinen Einfluss auf die pflanzliche Entwicklung hatte, wiesen Dosismutanten mit einer starken Reduktion des DHODH-Transkriptgehaltes einen drastischen Phänotyp auf. Die entsprechenden Pflanzen waren zwergwüchsig, bildeten rötlich-braune Keimblätter aus und ihr Wurzelwachstum war im Vergleich zu Arabidopsis thaliana-Wildtyp-Pflanzen stark vermindert. Zudem hatten diese Pflanzen weniger RNA, was auf eine geringere Pyrimidinverfügbarkeit hindeutet. Gewebespezifische Expressionsanalysen unterstrichen die Bedeutung der DHODH und damit der Pyrimidin-de novo-Synthese in wachsenden Geweben, in denen die Bereitstellung neuer Pyrimidin-Grundgerüste von essentieller Bedeutung ist. Weiterhin konnten erste Hinweise darauf erbracht werden, dass die pflanzliche DHODH, so wie auch das Homolog in Tieren an der äußeren Oberfläche der inneren Mitochondrienmemban verankert und dort als Flavoprotein an die Atmungskette gekoppelt ist.
A main result of this thesis is a conceptual proof of the fact that the weighted number of tropical curves of given degree and genus, which pass through the right number of general points in the plane (resp., which pass through general points in R^r and represent a given point in the moduli space of genus g curves) is independent of the choices of points. Another main result is a new correspondence theorem between plane tropical cycles and plane elliptic algebraic curves.
Oxa1 ist ein integrales Protein der mitochondrialen Innenmembran und eine zentrale Komponente der Proteininsertionsmaschinerie in Mitochondrien. Oxa1 ist an der Insertion zweier unterschiedlicher Klassen von Proteinen in die Innenmembran beteiligt: Durch eine C-terminale,
matrixständige Domäne interagiert Oxa1 mit mitochondrialen Ribosomen und vermittelt so die ko-translationale Membraninsertion mitochondrial kodierter Proteine. Darüber hinaus wurde auch
eine Beteiligung von Oxa1 an der Insertion einiger kernkodierter Proteine beschrieben. Bei allen
bisher identifizierten kernkodierten Substraten von Oxa1 handelt es sich um sogenannte konservativ sortierte Proteine, die nach ihrer Synthese im Zytosol zunächst klassisch über die Translokasen der mitochondrialen Außen- und Innenmembran in die mitochondriale Matrix importiert werden.
In einem Oxa1-vermittelten Schritt werden sie schließlich von der Matrix aus in die Innenmembran inseriert. Vergleiche mit dem bakteriellen Oxa1-Homolog YidC lassen weiterhin vermuten, dass Oxa1 auch an der Faltung von Membranproteinen beteiligt sein könnte, bisher ist eine solche Oxa1-Funktion jedoch nur in Einzelfällen beschrieben worden.
Der genaue molekulare Mechanismus der Proteininsertion durch Oxa1 sowie eine eventuelle Be-
teiligung von Oxa1 an der Insertion anderer mitochondrialer Innenmembranproteine ist bisher unklar. Es war daher uberraschend festzustellen, dass die Level des ADP/ATP-Carriers in Abwesenheit von Oxa1 stark reduziert waren. Der Import und die Membraninsertion mitochondrialer
Carrier wurden in den vergangenen Jahren im Detail beschrieben, bisherige Studien deuteten jedoch nie auf eine Beteiligung von Oxa1 bei der Carrier-Biogenese hin. Carrier-Proteine werden,
im Gegensatz zu konservativ sortierten Proteinen, aus dem Intermembranraum in die Innenmembran inseriert. Im Rahmen dieser Arbeit konnte durch Importversuche gezeigt werden, dass Oxa1
eine wichtige, wenn auch nicht essentielle Funktion bei der Biogenese verschiedener Vertreter der
mitochondrialen Carrier-Familie einnimmt. Die erhaltenen Daten deuten darauf hin, dass Oxa1
nicht an der Membraninsertion der Carrier-Proteine per se beteiligt ist, sondern ahnlich einem
Chaperon die TIM22-abh¨ ngig inserierten Carrier stabilisiert und ihre Faltung oder Assemblierung in der Membran begünstigt. Diese Arbeit zeigt somit, dass Oxa1 nicht nur an der Membraninsertion verschiedener mitochondrial und kernkodierter Proteine beteiligt ist, sondern eine weitere
wichtige Funktion als Chaperon einnimmt. Bedeutend ist hierbei vor allem, dass diese Rolle bei
der Stabilisierung und Faltung mitochondrialer Innenmembranproteine sich nicht auf klassische
Oxa1-Substrate beschränkt, die von Seiten der Matrix in die Membran inseriert werden, sondern entscheidend die Biogenese von Proteinen beeinflusst, deren eigentliche Membraninsertion Oxa1-
unabhängig verläuft.
Die Bedeutung von Oxa1 bei der Insertion mitochondrial kodierter Proteine ist gut dokumentiert,
genaue mechanistische Details des Prozesses der Membraninsertion durch Oxa1 fehlen jedoch
bisher. Um den molekularen Mechanismus der Oxa1-vermittelten Proteininsertion besser zu verstehen, wurde die native Aufreinigung von rekombinant exprimiertem S. cerevisiae Oxa1 etabliert
und gezeigt, dass dieses einen dimeren oder höher oligomeren Komplex ausbildet. Oxa1 wurde weiterhin erfolgreich in Proteoliposomen rekonstituiert und stimuliert in vitro die Insertion des
mitochodrial kodierten Proteins Atp8. In dieser Arbeit wurden vorläufige Daten über die Oxa1-vermittelte Proteininsertion gesammelt. Das hier etablierte Rekonstitutionssystem wird eine wichtige Basis für zukünftige Arbeiten bilden, die zum Verständnis der molekularen Mechanismen der
Oxa1-abhängigen Proteininsertion beitragen werden.
The interest of the exploration of new hydrocarbon fields as well as deep geothermal reservoirs is permanently growing. The analysis of seismic data specific for such exploration projects is very complex and requires the deep knowledge in geology, geophysics, petrology, etc from interpreters, as well as the ability of advanced tools that are able to recover some particular properties. There again the existing wavelet techniques have a huge success in signal processing, data compression, noise reduction, etc. They enable to break complicate functions into many simple pieces at different scales and positions that makes detection and interpretation of local events significantly easier.
In this thesis mathematical methods and tools are presented which are applicable to the seismic data postprocessing in regions with non-smooth boundaries. We provide wavelet techniques that relate to the solutions of the Helmholtz equation. As application we are interested in seismic data analysis. A similar idea to construct wavelet functions from the limit and jump relations of the layer potentials was first suggested by Freeden and his Geomathematics Group.
The particular difficulty in such approaches is the formulation of limit and
jump relations for surfaces used in seismic data processing, i.e., non-smooth
surfaces in various topologies (for example, uniform and
quadratic). The essential idea is to replace the concept of parallel surfaces known for a smooth regular surface by certain appropriate substitutes for non-smooth surfaces.
By using the jump and limit relations formulated for regular surfaces, Helmholtz wavelets can be introduced that recursively approximate functions on surfaces with edges and corners. The exceptional point is that the construction of wavelets allows the efficient implementation in form of
a tree algorithm for the fast numerical computation of functions on the boundary.
In order to demonstrate the
applicability of the Helmholtz FWT, we study a seismic image obtained by the reverse time migration which is based on a finite-difference implementation. In fact, regarding the requirements of such migration algorithms in filtering and denoising the wavelet decomposition is successfully applied to this image for the attenuation of low-frequency
artifacts and noise. Essential feature is the space localization property of
Helmholtz wavelets which numerically enables to discuss the velocity field in
pointwise dependence. Moreover, the multiscale analysis leads us to reveal additional geological information from optical features.
Beim funktionsorientierten Testen von Steuergeräten im automobilen Bereich ist das Expertenwissen aufgrund der hohen Komplexität der Testfälle unersetzlich. Bei Basistesttechniken wie der Grenzwertanalyse ist die Absicht eines Testfalls implizit durch die Technik gegeben. Beim Expertenwissen wird jedoch zur Zeit zu jedem erstellten Testfall zusätzlich ein Prosatext verfasst um die Testabsicht anzugeben. Diese Prosabeschreibung ist anfällig für Mehrdeutigkeiten, fällt bei jedem Testentwickler unterschiedlich aus und der inhaltliche Bezug zum Testfall ist lose. Ziel der Arbeit ist eine Spezifikationssprache für die Testfallbeschreibung zu entwerfen um die Nachteile der natürlichen Sprache zu minimieren und testablaufspezifische Sprachelemente zu definieren, so dass sie als ein Grundgerüst für einen Testfall verwendet werden kann. Dazu wird aus der Einsatzumgebung (Systemspezifikation, Testimplementierung und Testprozessthemen) Sprachelemente für die Beschreibung abgeleitet und Ansätze für die Überführung der Beschreibung in die Testimplementierung betrachtet. Das Ergebnis ist eine Testfall-Spezifikationssprache, die auf formaler Grundlage basiert und u.a. in eine graphische Sicht überführt werden kann. Ähnlich der UML wird der Mehrwert erst durch eine werkzeugunterstützte Eingabe deutlich: So sind die Testentwickler in der Lage, einheitliche, formale, wieder verwendbare, verständliche Testfälle zu definieren.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
Die vorliegende Arbeit beschreibt die Synthese enantiomerenreiner N,N-heterozyklischer Liganden, die Analoga zu den bekannten chiralen Bisphosphanen BINAP, DIOP und PHANEPHOS darstellen. Die Synthese des enantiomerenreinen (R,S)-Dimethyl[1,1'-binaphthyl]-2,2'-dicarboxylat, welches für die Darstellung von (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl benötigt wird, gelang über zwei literaturbekannte Syntheserouten. Durch anschließende Umsetzung mit NaH und DMSO in THF konnte das entsprechende Ketosulfoxid erhalten werden, welches mittels Zink in einem Ethanol/Essigsäure-Gemisch zur Acetylverbindung reduziert wurde. Durch die Kondensation der Acetylvorstufe mit N,N-Dimethylformamiddimethylacetal sowie der anschließenden Zyklisierung mit Hydrazin-Monohydrat gelang es, das gewünschte Bispyrazolylbinaphthyl zu erhalten. 1H-NMR Untersuchungen weisen auf die Ausbildung einer supramolekularen Struktur hin. Der eindeutige Nachweis gelang jedoch durch die Analyse von Einkristallen mittels Röntgendiffraktometrie. Die Festkörperstruktur zeigt, dass sich durch Wasserstoffbrücken zu den Stickstoffatomen benachbarter Moleküle eine Trimerstruktur ausbildet. Durch den anschließenden Austausch der NH-Protonen gegen die linearkoordinierenden Gruppe 11 Metalle (Cu(I), Ag(I) und Au(I)) konnten stark fluoreszierende sechskernige Komplexe erhalten werden. Des Weitern wurde (R,S)-2,2'-Bis[3,(5)-pyrazolyl]-1,1'-binaphthyl mit verschiedenen Rutheniumvorstufen umgesetzt, deren Aktivität anschließend in der asymmetrischen Transferhydrierung von Acetophenon untersucht wurden. Die Löslichkeit des Liganden konnte durch Substitution der Protonen in Position 1 bzw. 5 der Pyrazolringe durch Alkylgruppen erhöht werden. Durch die Reaktion des Aminopropenon mit Guanidincarbonat wurde (R)-2,2'-Bis-4-[pyrimidin-2-amin]-1,1'-binaphthyl erhalten, welches einen weiteren interessanten N,N-Donorliganden darstellt. Die Synthese des 3,3'-((4S,5S)-2,2'-Alkyl-1,3-dioxolan-4,5-diyl)bis(1H-pyrazol) erfolgt ausgehend von der kostengünstigen enantiomerenreinen Weinsäure. Über die Stufe des Weinrebamid konnte schließlich die Acetylverbindung generiert werden. Die darauf folgende Kondensation mit DMF-DMA und anschließendem Ringschluss mit Hydrazinhydrat führte zu dem gewünschten Bispyrazol. Die Umsetzung des Dioxolanliganden mit Allylpaladium(II)chlorid-Dimer führte zu einem einkernigen Komplex. Nach Deprotonierung des Liganden und anschließender Umsetzung mit [RhCODCl]2 konnte dagegen ein vierkerniger Rhodiumkomplex beobachtet werden. Neben den Bispyrazolen, die eine Chiralitätsebene sowie ein Chiralitätszentrum aufweisen, gelang es über die Vorstufe der racemischen [2,2‘]-Paracyclophan-3,11-dicarbonsäure ein Bispyrazol zu synthetisieren, das eine planare Chiralität aufweist.
In der Spektroskopie hat die Temperatur einen großen Einfluss auf das resultierende Spektrum und somit auf die Schlussfolgerung, die aus dem Spektrum erfolgt. Für Experimente mit Molekülen in einem Lösungsmittel ist eine Temperaturkontrolle kein Problem mehr. In der Gasphase finden spektroskopische Experimente jedoch häufig mit kühlenden Edelgasmatrizen statt, um ein Molekül zu kühlen, oder die zu untersuchenden Moleküle werden auf einem gekühlten Substrat deponiert, was nicht gerade einem Gasphasenexperiment entspricht. Ebenfalls zur Temperaturkontrolle verwendet wird die Stoßgaskühlung, bei der Moleküle durch Stöße mit Edelgasen gekühlt werden. Das verwendete Stoßgas thermalisiert jedoch durch Stöße mit der Vakuumkammer und wärmt sich dadurch auf.
Der Bau einer Cryo-Apparatur zur Kühlung von kommerziell gekauften FT-ICR Zellen auf weniger als 20 K für Experimente in der Gasphase, um auf Edelgasmatrizen oder Substrate verzichten zu können und eine kalte Umgebung für ein Stoßgas zu haben, ist Kernpunkt dieser Dissertation. Entgegen der in anderen Arbeitskreisen vorhandenen, mit verflüssigten Gasen betriebenen Cryo-FT-ICR Zellen sollte diese Zellkühlung in einem weiten Temperaturbereich kontrollierbar sein und über einen langen Zeitraum eine minimale Temperaturschwankung um eine eingestellte Temperatur liefern.
Gestestet wurde die neue Cryo-FT-ICR Zelle in Kaiserslautern mit Reaktionskinetiken von Nbn+ Metallclustern mit H2. Diese Kinetiken dienten dazu, das Verhalten der neuen Cryo-FT-ICR Zelle unter realen Bedingungen zu testen. Die vorgestellten Messungen zeigen eine Zunahme der relativen Geschwindigkeitskonstanten zu kalten Temperaturen hin. Dabei ist auch ein von der Clustergröße abhängiges Verhalten erkennbar.
Eine weitere Installation der Cryo-Apparatur fand am GAMBIT (General Abstraction of Magnetic Moments at BESSY by Ion Trapping) Experiment beim Berliner Elektronen-speicherring BESSY II statt. Mit den nun möglichen XMCD (X-Ray Magnetic Circular Dichroism) Experimenten in der Gasphase wurden erste Messungen von Co11+ und Co17+ Metallclustern durchgeführt. Die aus diesen ersten Messungen erhaltenen magnetischen Gesamtmomente stimmen gut mit in anderen Arbeitsgruppen gefundenen Gesamtmomenten aus Stern-Gerlach Experimenten überein. Die zu den Gesamtmomenten zugehörigen magnetischen Spin- und Bahnmomente untersuchten Metallcluster, die erstmals für freie Cluster in der Gasphase ermittelt werden konnten, werden vorgestellt.
Die Entwicklung ländlicher strukturschwacher Regionen wird von unterschiedlichen Rahmenbedingungen und Herausforderungen beeinflusst. Eine der zentralen Herausforderungen bildet hierbei die Europäische Integration. Obwohl die Kompetenz für Raumordnung nach wie vor in erster Linie bei der nationalen Ebene liegt, entfaltet die EU über ihre Strukturpolitik, ihre raumwirksamen Fachpolitiken und die ihr zugewiesenen Kompetenzen in anderen Bereichen eine zunehmende Bedeutung für die Entwicklung ländlicher strukturschwacher Regionen.
Anhand der im Rahmen dieser Dissertation durchgeführten Analysen wird dabei deutlich, dass die EU-Strukturpolitik die Regionalentwicklung, insbesondere im Bereich des Tourismus, auf vielfältige Weise sowohl direkt als auch indirekt beeinflusst. Dies vor allem in finanzieller Hinsicht durch die Finanzierung nahezu aller touristischen Projekte in der Region Westpfalz, sowie in konzeptioneller Hinsicht durch die Systematik der Programmplanung und des damit verbundenen Mehrwertes. Dabei werden die regionalen Akteure bei der Aufstellung von Entwicklungsstrategien (bspw. im Rahmen des LEADER-Ansatzes) zu einer intensiven Auseinandersetzung mit den spezifischen Stärken, Schwächen, Entwicklungsperspektiven und Entwicklungshemmnissen der Region geführt. Daher kann die EU-Strukturpolitik letztlich als wichtigste Finanzierungsquelle bei der Realisierung touristischer Projekte angesehen werden, zudem als wesentlicher Impulsgeber für deren Entwicklung und Gestaltung. Durch das Wissen um die Förderfähigkeit touristischer Projekte innerhalb der EU-Strukturpolitik wird schließlich die Motivation der regionalen Akteure gesteigert. Aufgrund dieser Erkenntnisse kann der Einfluss der EU-Strukturpolitik auf die Entwicklung des Tourismus als bedeutend und hoch bewertet werden.
Neben der Erfassung des Einflusses sollen darüber hinaus innerhalb dieser Dissertation Problemfelder und künftige Herausforderungen bei der Umsetzung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen aufgezeigt werden. Dabei wird die Finanzschwäche der öffentlichen Haushalte, die gerade in strukturschwachen Regionen besonders ausgeprägt ist, und die damit verbundenen Probleme bei der Sicherstellung des nationalen Finanzierungsanteils als zentrales Umsetzungsproblem sichtbar. Ebenso stellen in diesem Zusammenhang der gesteigerte Wettbewerb um die zur Verfügung stehenden Strukturmittel, das zunehmende Spannungsverhältnis zwischen Ausgleichs- und Wachstumsziel, teilweise zu enge inhaltlich-konzeptionelle Vorgaben seitens der EU-Kommission, sowie der hohe verwaltungstechnische Aufwand weitere Problemfelder bei der Umsetzung der EU-Strukturpolitik dar.
Aufbauend auf diesen Erkenntnissen werden abschließend am Beispiel des Untersuchungsraumes konzeptionelle Ansätze zur Weiterentwicklung der EU-Strukturpolitik in ländlichen strukturschwachen Regionen formuliert. Dabei werden einige zentrale Prioritäten sichtbar, deren Umsetzung zur Steigerung der Effizienz von strukturpolitischen Maßnahmen beitragen kann. In diesem Zusammenhang ist insbesondere eine konsequente Regionalisierung innerhalb der EU-Strukturpolitik anzustreben, so dass letztlich die Region als Träger der EU-Strukturpolitik anzusehen ist. Weiterhin ist an dieser Stelle eine klare Aufgaben- und Kompetenzverteilung zwischen den verschiedenen Handlungs- und Gestaltungsebenen notwendig, dies vor allem in Hinblick auf die zentrale Zielsetzung der europäischen Strukturpolitik, des Abbaus von Disparitäten innerhalb der EU. Schließlich ist eine Reform der Fördermittelvergabe unabdingbar, damit künftig sowohl wachstumsstarke, als auch strukturschwache und sog. "Übergangsregionen" durch die EU-Strukturpolitik gleichermaßen berücksichtigt werden können, und somit ein Beitrag zum politischen, sozialen und wirtschaftlichen Zusammenhalt in Europa geleistet werden kann.