Refine
Year of publication
Document Type
- Doctoral Thesis (1454) (remove)
Language
- German (775)
- English (676)
- Multiple languages (3)
Has Fulltext
- yes (1454) (remove)
Keywords
- Visualisierung (18)
- Simulation (17)
- Stadtplanung (13)
- Apoptosis (12)
- Katalyse (12)
- Phasengleichgewicht (12)
- Finite-Elemente-Methode (11)
- Mobilfunk (10)
- Modellierung (10)
- finite element method (10)
Faculty / Organisational entity
- Fachbereich Chemie (327)
- Fachbereich Maschinenbau und Verfahrenstechnik (286)
- Fachbereich Mathematik (245)
- Fachbereich Informatik (173)
- Fachbereich Biologie (107)
- Fachbereich Elektrotechnik und Informationstechnik (76)
- Fachbereich ARUBI (71)
- Fachbereich Bauingenieurwesen (55)
- Fachbereich Sozialwissenschaften (41)
- Fachbereich Raum- und Umweltplanung (29)
Multidisciplinary optimizations (MDOs) encompass optimization problems that combine different disciplines into a single optimization with the aim of converging towards a design that simultaneously fulfills multiple criteria. For example, considering both fluid and structural disciplines to obtain a shape that is not only aerodynamically efficient, but also respects structural constraints. Combined with CAD-based parametrizations, the optimization produces an improved, manufacturable shape. For turbomachinery applications, this method has been successfully applied using gradient-free optimization methods such as genetic algorithms, surrogate modeling, and others. While such algorithms can be easily applied without access to the source code, the number of iterations to converge is dependent on the number of design parameters. This results in high computational costs and limited design spaces. A competitive alternative is offered by gradient-based optimization algorithms combined with adjoint methods, where the computational complexity of the gradient calculation is no longer dependent on the number of design parameters, but rather on the number of outputs. Such methods have been extensively used in single-disciplinary aerodynamic optimizations using adjoint fluid solvers and CAD parametrizations. However, CAD-based MDOs leveraging adjoint methods are just beginning to emerge.
This thesis contributes to this field of research by setting up a CAD-based adjoint MDO framework for turbomachinery design using both fluid and structural disciplines. To achieve this, the von Kármán Institute’s existing CAD-based optimization framework cado is augmented by the development of a FEM-based structural solver which has been differentiated using the algorithmic differentiation tool CoDiPack of TU Kaiserslautern. While most of the code could be differentiated in a black-box fashion, special treatment is required for the iterative linear and eigenvalue solvers to ensure accuracy and reduce memory consumption. As a result, the solver has the capability of computing both stress and vibration gradients at a cost independent on the number of design parameters. For the presented application case of a radial turbine optimization, the full gradient calculation has a computational cost of approximately 3.14 times the cost of a primal run and the peak memory usage of approximately 2.76 times that of a primal run.
The FEM code leverages object-oriented design such that the same base structure can be reused for different purposes with minimal re-differentiation. This is demonstrated by considering a composite material test case where the gradients could be easily calculated with respect to an extended design space that includes material properties. Additionally, the structural solver is reused within a CAD-based mesh deformation, which propagates the structural FEM mesh gradients through to the CAD parameters. This closes the link between the CAD shape and FEM mesh. Finally, the MDO framework is applied by optimizing the aerodynamic efficiency of a radial turbine while respecting structural constraints.
„Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“, schrieb der österreichisch-englische Philosoph Ludwig Wittgenstein (1922). Das Beherrschen der Schriftsprache wurde in der neuhumanistischen Bildungstheorie nach Wilhelm von Humboldt (Humboldt & Menze, 1997) in den Mittelpunkt der Bildungsprozesse gestellt.
Bildung kann daher nur dann gelingen, wenn die Schriftsprache beherrscht wird. Dabei wird Bildung als eine Art lebenslanges Lernen verstanden, in dem es darum geht, die Funktionsweisen der Gesellschaft und der Welt in der wir leben, zu verstehen und dahingegen zu handeln (Otto, 2007). Mit dem erfolgreichen Schriftspracherwerb und dem sicheren Umgang mit der Schriftsprache ist eine Art Teilhabe am „kulturellen Gedächtnis“ so Assmann (2007) sowie an gegenwärtigen Prozessen. Nicht für alle Kinder verläuft der Erwerb der Schriftsprache ohne Schwierigkeiten. In der ersten PISA-Studie aus dem Jahr 2000 lag der Prozentsatz leseschwacher Kinder in Deutschland bei ca. 24 Prozent (OECD, 2001). Dieser verringerte sich zwar in der PISA-Studie im Jahr 2015 auf rund 16 Prozent (PISA 2015 Results (Volume V), 2017). Die Ergebnisse der aktuellen PISA-Studie sind jedoch ernüchternd. In Bezug auf die Lesekompetenz ist der Anteil der leseschwachen Kinder auf 21 Prozent gestiegen, an Gymnasien sogar auf 29 Prozent (OECD, 2019). Auch Fischbach und Kollegen (Fischbach et al., 2013) fanden bei ihrer Studie im deutschsprachigen Raum heraus, dass 18 Prozent aller Grundschüler1 erhebliche Schwierigkeiten im Lesen und Schreiben aufweisen. Stellen sich erste Schwierigkeiten beim Erlernen des Lesens und Schreibens ein, muss eine zeitige Förderung der betroffenen Kinder an erster Stelle stehen. An diesem Punkt setzt das computerbasierte Trainingsprogramm Lautarium (Klatte, Steinbrink,
Bergström, & Lachmann, 2017) an, indem es Lehrern, Eltern, Therapeuten und den betroffenen Kindern ein Werkzeug an die Hand gibt, welches sich bereits in mehreren Studien als wirksam erwiesen hat (einen Überblick bietet Klatte et al., 2017).
Entwickelt wurde dieses Programm im Zuge eines Drittmittelprojekts mit dem Schwerpunkt „Entwicklungsstörungen schulischer Fertigkeiten“ des Bundesministeriums für Bildung und Forschung. Die hier durchgeführte Studie befasst sich mit den Effekten des Trainings mit dem computerbasierten Förderprogramms Lautarium auf die phonologischen und schriftsprachlichen Leistungen von Zweitklässlern mit Lese-Rechtschreibschwierigkeiten. Lautarium basiert auf aktuellen Forschungserkenntnissen zur Bedeutung der phonologischen Verarbeitung für den Schriftspracherwerb und umfasst aufeinander aufbauende Übungen zur Phonemwahrnehmung, phonologischen Bewusstheit und Graphem-Phonem-Zuordnung, zum Lesen und Schreiben lautgetreuer Wörter und zur schnellen Worterkennung. Zwar hat sich das Trainingsprogramm bereits in mehreren Studien als wirksam erwiesen, in der jetzigen Studie wird die Wirksamkeit jedoch erstmals im Rahmen eines randomisierten kontrollierten Designs (randomized controlled trial, RCT, „Goldstandard“ der klinischen Forschung) geprüft (Borah, Moriarty, Crown, & Doshi, 2014; Kaptchuk, 2001). Es wurde zunächst ein klassisches Prätest-Posttest-Follow-up–Design realisiert, um kurz- und langfristige Effekte des Lautarium-Trainings zu erfassen (Studienteil 1: Vortest bis Nachtest 2). Eine Gruppe von Kindern (n= 24) bearbeitete das Lautarium-Training, die andere Gruppe (n= 31) ein computerbasiertes Denktraining (Lenhard, Lenhard & Klauer, 2011). Das Training erfolgte täglich etwa 20 Minuten über mehrere Wochen im Rahmen des differenzierenden Unterrichts. Im Anschluss an den Follow-upTest arbeiteten die Gruppen mit dem jeweils anderen Programm, danach folgte ein weiterer, abschließender Nachtest 3 (Studienteil 2: bis Nachtest 3, n= 44). Studienteil 1 bestätigte signifikante und teilweise anhaltende Effekte des LautariumTrainings auf Untertests zur phonologischen Bewusstheit, zum Lesen und zur Rechtschreibung. Die in früheren Studien gezeigten Effekte ließen sich somit auch im Rahmen eines RCT-Designs replizieren. In Studienteil 2 zeigten sich signifikante Effekte auf die phonologische Bewusstheit. Abschließend werden Potentiale und Grenzen des Einsatzes von Lautarium im differenzierenden Unterricht diskutiert.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Subject of this thesis is the investigation of photo-induced ultrafast elementary processes within the electronic excited-state manifold in mass-selected multinuclear coinage metal complexes (CMCs) in the gas phase. The chief objective is to ascertain how the intramolecular deactivation dynamics and gas phase reactivity are influenced by so-called metallophilic interactions between multiple d^10/d^8 metal centers, which in turn give rise to metal-delocalized electronic transitions. To this end, suitable molecular precursor ions were transferred into the gas phase by electrospray ionization (ESI) and subsequently isolated, activated, and finally analyzed in a Paul-type quadrupole ion trap (QIT) mass spectrometer. The QIT is modified to accept UV/Vis/NIR irradiation from a femtosecond laser setup. By combining several ion trap-based ion activation techniques and electronic photodissociation (PD) spectroscopy, the fragmentation pathways, as well as intrinsic optical properties (electronic PD spectra) of ionic CMCs are explored. In addition, the unconventional time-resolved transient photodissociation (t-PD) method, based on a femtosecond pump-probe excitation scheme, was employed for the first time on CMC ions in isolation, in order to elucidate their intrinsic photodynamics. This thesis mainly comprises five publications, covering the mass spectrometric and laser spectroscopic characterization of multinuclear Ag(I), Au(I), and Pt(II) based ionic complexes.
Mit dem Jahr 2020 wird der ursprüngliche zeitliche Horizont für das Nachhaltigkeitsziel der Bundesregierung zur Reduzierung der Flächenneuinanspruchnahme für Siedlungs- und Verkehrszwecke auf 30 Hektar am Tag erreicht. Angesichts der tatsächlichen Entwicklung des ‚Flächenverbrauchs‘ oberhalb dieses Zielwertes sowie dessen mannigfaltiger negativen ökologischen, sozialen und wirtschaftlichen Folgen kommt einer flächensparenden Siedlungsentwicklung nach wie vor höchste Priorität zu. Die Umwandlung von Freiraum in Siedlungs- und Verkehrsfläche erfolgt nicht nur in den städtisch geprägten Wachstumsregionen der Bundesrepublik. Auch in einigen ländlich-peripheren Bereichen zeigt sich trotz demografischer und teils struktureller Schrumpfung eine fortschreitende Flächenneuinanspruchnahme.
In den ‚Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland‘ hebt die Ministerkonferenz für Raumordnung die Pläne und Programme der Regionalplanung als geeignetes Instrumentarium zur Steuerung einer flächensparenden Siedlungsentwicklung hervor und betont das regionalplanerische Potenzial als Koordinator und Kommunikator bei kooperativen Prozessen. Gleichwohl konstatiert die Raumforschung der Regionalplanung diesbezüglich immer wieder ein Steuerungs- und Implementationsdefizit, welches insbesondere auf ein nicht Ausnutzen des zur Verfügung stehenden formellen Instrumentariums sowie institutionelle Hemmnisse zurückgeführt wird. Im Fokus entsprechender Analysen standen bisher eher Wachstumsregionen mit engen Stadt-Umland-Verflechtungen. Eine Betrachtung ob der konsequenten Anwendung des verfügbaren Instrumentariums durch die Regionalplanung liegt inzwischen einige Jahre zurück. Es besteht zudem eine Forschungslücke hinsichtlich einer integrierenden Betrachtung ergänzender informeller Handlungsansätze.
Vor diesem Hintergrund widmet sich die vorliegende Arbeit der ganzheitlichen Untersuchung regionalplanerischer Handlungsansätze zur Steuerung einer flächensparenden Siedlungsentwicklung in unterschiedlich raumstrukturell geprägten Regionen. Als Fallstudien dienen die Region Main-Rhön in Bayern, die Region Rostock in Mecklenburg-Vorpommern und die Region Stuttgart in Baden-Württemberg. Mithilfe einer Governance-Analyse werden neben der Ausgestaltung des klassischen formellen Instrumentariums der Regionalplanung informelle Formen der Handlungskoordination unter Berücksichtigung institutioneller wie raumstruktureller Rahmenbedingungen erfasst. Expertengespräche ergänzen die Methodik zur Identifizierung von Erfolgen und Defiziten der jeweiligen Governance-Formen sowie deren Einflussfaktoren.
Im Ergebnis erfolgt die Governance einer flächensparenden Siedlungsentwicklung durch die Regionalplanung in allen Fallstudienregionen in erster Linie hierarchisch durch den Regionalplan und formelle Verfahren. In unterschiedlicher Intensität kommen zudem die Governance-Formen der Verhandlung oder des Netzwerks zum Einsatz. Ein ausdifferenziertes Governance-Regime stellt einen der wesentlichen Erfolgsfaktoren bei der Umsetzung einer flächensparenden Siedlungsentwicklung dar. Defizite ergeben sich aus der fehlenden Akzeptanz seitens der Adressaten der regionalplanerischen Handlungsansätze, welche auch auf die raumstrukturelle Prägung der Regionen zurückzuführen ist.
Daraus abgeleitete Empfehlungen für die Weiterentwicklung regionalplanerischer Governance-Regime umfassen die Optimierung des hierarchischen Planungsinstrumentariums, den Einsatzes ergänzender Governance-Formen sowie die Anpassung institutioneller Rahmenbedingungen. Die raumstrukturellen Rahmenbedingungen sind stets als wesentliche Grundlage für die inhaltliche Ausrichtung eines ausdifferenzierten Governance-Regimes der Regionalplanung für eine flächensparende Siedlungsentwicklung zu berücksichtigen.
In recent years, business intelligence applications become more real-time and traditional data warehouse tables become fresher as they are continuously refreshed by streaming ETL jobs within seconds. Besides, a new type of federated system emerged that unifies domain-specific computation engines to address a wide range of complex analytical applications, which needs streaming ETL to migrate data across computation systems.
From daily-sales reports to up-to-the-second cross-/up-sell campaign activities, we observed various latency and freshness requirements set in these analytical applications. Hence, streaming ETL jobs with regular batches are not flexible enough to fit in such a mixed workload. Jobs with small batches can cause resource overprovision for queries with low freshness needs while jobs with large batches would starve queries with high freshness needs. Therefore, we argue that ETL jobs should be self-adaptive to varying SLA demands by setting appropriate batches as needed.
The major contributions are summarized as follows.
• We defined a consistency model for “On-Demand ETL” which addresses correct batches for queries to see consistent states. Furthermore, we proposed an “Incremental ETL Pipeline” which reduces the performance impact of on-demand ETL processing.
• A distributed, incremental ETL pipeline (called HBelt) was introduced in distributed warehouse systems. HBelt aims at providing consistent, distributed snapshot maintenance for concurrent table scans across different analytics jobs.
• We addressed the elasticity property for incremental ETL pipeline to guarantee that ETL jobs with batches of varying sizes can be finished within strict deadlines. Hence, we proposed Elastic Queue Middleware and HBaqueue which replace memory-based data exchange queues with a scalable distributed store - HBase.
• We also implemented lazy maintenance logic in the extraction and the loading phases to make these two phases workload-aware. Besides, we discuss how our “On-Demand ETL” thinking can be exploited in analytic flows running on heterogeneous execution engines.
Scaling up conventional processor architectures cannot translate the ever-increasing number of transistors into comparable application performance. Although the trend is to shift from single-core to multi-core architectures, utilizing these multiple cores is not a trivial task for many applications due to thread synchronization and weak memory consistency issues. This is especially true for applications in real-time embedded systems since timing analysis becomes more complicated due to contention on shared resources. One inherent reason for the limited use of instruction-level parallelism (ILP) by conventional processors is the use of registers. Therefore, some recent processors bypass register usage by directly communicating values from producer processing units to consumer processing units. In widely used superscalar processors, this direct instruction communication is organized by hardware at runtime, adversely affecting its scalability. The exposed datapath architectures provide a scalable alternative by allowing compilers to move values directly from output ports to the input ports of processing units. Though exposed datapath architectures have already been studied in great detail, they still use registers for executing programs, thus limiting the amount of ILP they can exploit. This limitation stems from a drawback in their execution paradigm, code generator, or both.
This thesis considers a novel exposed datapath architecture named Synchronous Control Asynchronous Dataflow (SCAD) that follows a hybrid control-flow dataflow execution paradigm. The SCAD architecture employs first-in-first-out (FIFO) buffers at the output and input ports of processing units. It is programmed by move instructions that transport values from the head of output buffers to the tail of input buffers. Thus, direct instruction communication is facilitated by the architecture. The processing unit triggers the execution of an operation when operand values are available at the heads of its input buffers. We propose a code generation technique for SCAD processors inspired by classical queue machines that completely eliminates the use of registers. On this basis, we first generate optimal code by using satisfiability (SAT) solvers after establishing that optimal code generation is hard. Heuristics based on a novel buffer interference analysis are then developed to compile larger programs. The experimental results demonstrate the efficacy of the execution paradigm of SCAD using our queue-oriented code generation technique.
Das Instandsetzungsprinzip W-Cl bzw. die Instandsetzungsverfahren 7.7 und 8.3 stellen im Vergleich zu konventionellen Instandsetzungsprinzipien technisch und wirtschaftlich interessante Verfahren zur Instandsetzung von chloridbelasteten Betonbauteilen dar. Die Verfahren beruhen auf der Absenkung des Wassergehaltes (W) im Bereich des chloridkontaminierten Betons (Cl), welche durch die Applikation einer Oberflächenschutzbeschichtung erreicht wird. Durch die Beschichtung soll ein intermittierendes Eindringen von Chloriden unterbunden und die Initiierung von Bewehrungskorrosion verhindert werden. Ungeklärte Fragen hinsichtlich der Wirksamkeit der Verfahren und daraus resultierende Anwendungsbeschränkungen in den maßgebenden Regelwerken haben eine praxisgerechte Anwendung der Verfahren bis dato kaum möglich gemacht.
Ziel dieser Arbeit war es im Rahmen von grundlegenden Untersuchungen die Mechanismen des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 besser zu verstehen, um damit einen Beitrag zur Schaffung der erforderlichen Grundlagen für eine breitere Anwendung der Verfahren in der Praxis zu leisten. Im Fokus stand dabei die Entwicklung eines Modells zur Beschreibung der Chloridumverteilung nach Applikation einer Oberflächenschutzbeschichtung.
Hierzu wurde zunächst ein mathematisches Modell mit einer in sich geschlossenen analytischen Lösung entwickelt, mit dessen Hilfe die Chloridumverteilung unter Annahme einer vollständigen Wassersättigung des Betons nach Applikation einer systemabdichtenden Oberflächenschutz-beschichtung berechnet werden kann.
Daran anknüpfend wurde der Einfluss der infolge der Anwendung des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 zu erwartenden Austrocknung des Betons auf die Chloridumverteilung im abgedichteten System untersucht. Auf Basis von eigenen Untersuchungen und darauf aufbauenden numerischen Berechnungen wurden materialspezifische Abminderungsfunktionen entwickelt, die die Abhängigkeit des Chloriddiffusionskoeffizienten von der Umgebungsfeuchte beschreiben.
Abschließend wurden auf Grundlage einer Parameterstudie allgemeingültige Grenzwerte für Randbedingungen hergeleitet, bis zu denen eine Instandsetzung nach dem Verfahren 7.7 angewendet werden kann, ohne dass im Zuge der Chloridumverteilung der kritische korrosionsauslösende Chloridgehalt auf Höhe der Bewehrung im geplanten Restnutzungszeitraum überschritten wird.
Ein Großteil der dieser Arbeit zu Grunde liegenden Untersuchungen erfolgte im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projektes „Anwendungsgrenzen des Instandsetzungsprinzip W-Cl“.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
This thesis is concerned with the modeling of the solid-solid phase transformation, such as the martensitic transformation. The allotropes austenite and martensite are important for industry applications. As a result of its ductility, austenite is desired in the bulk, as opposed to martensite, which desired in the near surface region. The phase field method is used to model the phase transformation by minimizing the free energy. It consists of a mechanical part, due to elastic strain and a chemical part, due to the martensitic transformation. The latter is temperature dependent. Therefore, a temperature dependent separation potential is presented here. To accommodate multiple orientation variants, a multivariant phase field model is employed. Using the Khachaturyan approach, the effective material parameters can be used to describe a constitutive model. This however, renders the nodal residual vector and elemental tangent matrix directly dependent on the phase, making a generalization complicated. An easier approach is the use of the Voigt/Taylor homogenization, in which the energy and their derivatives are interpolated creating an interface for material law of the individual phases.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
In this dissertation, I will present the studies conducted during my doctoral studies. In spite of a lot of research in the last decades, the complex cognitive processes underlying human memory are not fully unraveled. Furthermore, the development of neuroscientific methods like functional mag-netic resonance imaging (fMRI) and event-related potentials (ERPs) have further build a founda-tion for new insights. Naturally, the utilization of these techniques led to further adaptation of both these techniques and the paradigms in which they have been employed. This can be observed in the research literature on episodic memory retrieval. Familiarity and recollection, have been found to be the chief factors at play during memory retrieval. The two processes have been thoroughly characterized in several studies and reviews (e.g., Mecklinger, 2000; Rugg & Curran, 2007; Yonelinas, 2002; Zimmer & Ecker, 2010), yet there are still open questions that have to be ad-dressed by researchers in this field (c.f., Leynes, Bruett, Krizan, & Veloso, 2017; MacLeod & Donaldson, 2017).
In order to answer these questions, we conducted several studies during my doctoral studies. In Study 1, we developed a paradigm to investigated episodic memory using ERPs. In the study phase, pictorial stimuli were presented which at test were either perceptually identical, perceptually changed, or entirely new. Data collected from a sample of young adults revealed that the paradigm was suitable to elicit ERP correlates of both familiarity and recollection. As the newly developed paradigm yielded similar results as existing literature, we then applied this paradigm in two devel-opmental populations, second-graders and fifth-graders. According to the ERPs, the younger chil-dren seemed to rely on recollection alone, whereas ERPs of older children suggested the use of familiarity for perceptually identical items and only after intentional encoding. In a follow-up study two years later, we used the results from both studies to only slightly refine the paradigm, again administering it to young adults. In this study, Study 3, we found that ERP correlates were much smaller than in the earlier studies, hence we used a data-driven approach to detect time windows of interest. In spite of the large body of research on episodic memory, these studies serve to demon-strate that episodic memory is a complex interplay of several contributing cognitive processes which need to assessed carefully in order to unravel the key factors at play during familiarity and recollection.
In today’s computer networks we see an ongoing trend towards wireless communication technologies, such as Wireless LAN, Bluetooth, ZigBee and cellular networks. As the electromagnetic spectrum usable for wireless communication is finite and largely allocated for exclusive use by respective license holders, there are only few frequency bands left for general, i.e. unlicensed, use. Subsequently, it becomes apparent, that there will be an overload situation in the unlicensed bands, up to a point where no communication is possible anymore. On the other hand, it has been observed that licensed frequency bands often go unused, at least at some places or over time. Mitola combined both observations and found the term Cognitive Radio Networks [Mit00], denoting a solution for spectrum scarcity. In this concept, so called Secondary Users are allowed to also use licensed bands (attributed to a Primary User) as long as it is vacant.
In such networks, all obligations reside with Secondary Users, especially, they must avoid any interference with the Primary User. They must therefore reliably sense the presence of Primary Users and must decide which available spectrum to use. These two functionalities are called Spectrum Sensing and Spectrum Mobility and describe 2 out of 4 core functionalities of Cognitive Radio Networks and are considered in this thesis.
Regarding Spectrum Sensing, we present our own approach for energy detection in this thesis. Energy detection essentially works by comparing measured energy levels to a threshold. The inherent problem is on how to find such thresholds. Based on existing work we found in literature, we improve techniques and assert the effectiveness of our additions by conducting real world experiments.
Regarding Spectrum Mobility, we concentrate on the point, where the Primary User shows up. At this point, nodes must not use the current channel anymore, i.e. they also have no possibility to agree on another channel to switch to. We solve this problem by employing channel switching, i.e. we change channels proactively, following a schedule shared by all nodes of the network. The main contribution of this thesis is on how to synthesize those schedules to guarantee robust operation under changing conditions. For integration, we considered three dimensions of robustness (of time, of space and of channel) and, based on our algorithms and findings, defined a network protocol, which addresses perturbation within those dimensions. In an evaluation, we showed that the protocol is actually able to maintain robust operation, even if there are large drops in channel quality.
Das Ziel der vorliegenden Arbeit war es, eine lokale Version des Programmpakets Turbomole um eine Methode zu erweitern, die die Berechnung elektronischer Anregungsenergien und Übergangsmomente unter Berücksichtigung der Spin-Bahn-Wechselwirkung mit Hilfe quasirelativistischer zeitabhängiger Dichtefunktionaltheorie (TD-DFT) ermöglicht. Dazu wurde ein bereits existierender zweikomponentiger TD-DFT-Ansatz verwendet und so erweitert, dass auch offenschalige Systeme mit gradientenkorrigier ten Funktionalen berechnet werden können.
Die gewählte Implementierung ist unabhängig von der zweikomponentigen Methode, die Tatsache, dass die Molekülorbitale in einem quasirelativistischen Formalismus durch zweikomponentige, komplexe Spinoren dargestellt werden, erforderte jedoch die weitestgehende Verwendung komplexer Arithmetik.
Des Weiteren wurde das Verhalten des implementierten Austausch-Korrelations-Kernels (XC-Kernel), die Schlüsselgröße der TD-DFT, für kleine Spindichten untersucht. Dabei konnte gezeigt werden, dass die numerische Berechnung der Matrixelemente des XC-Kernels an Punkten des Integrationsgitters, für die die Spindichte gegen null geht, ihr Gradient hingegen nicht, durchaus problematisch ist und eine Regularisierung des XC-Kernels erfordert. Alternativen zur Regularisierung, wie beispielsweise die Verwendung eines Kernels ohne Gradiententerme oder Modifikationen am Funktional selbst, sind in der Literatur bekannt, im Rahmen dieser Arbeit konnte jedoch ein Ansatz entwickelt werden, der keine Veränderungen am Funktional erfordert und die Verwendung eines Kernels mit Gradientenkorrektur ermöglicht. Dazu wurde das Integrationsgitter in zwei Bereiche, abhängig von der Spindichte und ihrem Gradienten, eingeteilt. In den jeweiligen Bereichen wird nun zur Berechnung der Matrixelemente entweder der XC-Kernel für offen- oder geschlossenschalige Systeme verwendet. Für einen möglichst „glatten“ Übergang zwischen den beiden Bereichen wurde ein weiterer Bereich definiert, in dem ein mit einer Umschaltfunktion gewichteter Mittelwert beider Grenzfälle verwendet wird.
Mit dem im Rahmen dieser Arbeit entwickelten Programm ist es nun möglich, basierend auf einer zweikomponentigen Rechnung am offen- oder geschlossenschaligen Grundzustand, TD-DFT-Rechnungen mit gängigen Standarddichtefunktionalen durchzuführen. Da sowohl spinerhaltende als auch spin flip Anregungen berücksichtigt werden, erhält man mit einem Eindeterminantenansatz Informationen, die sonst nur mit Hilfe von deutlich aufwendigeren Mehrdeterminantenansätzen zugänglich sind.
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
Simplified ODE models describing blood flow rate are governed by the pressure gradient.
However, assuming the orientation of the blood flow in a human body correlates to a positive
direction, a negative pressure gradient forces the valve to shut, which stops the flow through
the valve, hence, the flow rate is zero, whereas the pressure rate is formulated by an ODE.
Presence of ODEs together with algebraic constraints and sudden changes of system characterizations
yield systems of switched differential-algebraic equations (swDAEs). Alternating
dynamics of the heart can be well modelled by means of swDAEs. Moreover, to study pulse
wave propagation in arteries and veins, PDE models have been developed. Connection between
the heart and vessels leads to coupling PDEs and swDAEs. This model motivates
to study PDEs coupled with swDAEs, for which the information exchange happens at PDE
boundaries, where swDAE provides boundary conditions to the PDE and PDE outputs serve
as inputs to swDAE. Such coupled systems occur, e.g. while modelling power grids using
telegrapher’s equations with switches, water flow networks with valves and district
heating networks with rapid consumption changes. Solutions of swDAEs might
include jumps, Dirac impulses and their derivatives of arbitrary high orders. As outputs of
swDAE read as boundary conditions of PDE, a rigorous solution framework for PDE must
be developed so that jumps, Dirac impulses and their derivatives are allowed at PDE boundaries
and in PDE solutions. This is a wider solution class than solutions of small bounded
variation (BV), for instance, used in where nonlinear hyperbolic PDEs are coupled with
ODEs. Similarly, in, the solutions to switched linear PDEs with source terms are
restricted to the class of BV. However, in the presence of Dirac impulses and their derivatives,
BV functions cannot handle the coupled systems including DAEs with index greater than one.
Therefore, hyperbolic PDEs coupled with swDAEs with index one will be studied in the BV
setting and with swDAEs whose index is greater than one will be investigated in the distributional
sense. To this end, the 1D space of piecewise-smooth distributions is extended to a 2D
piecewise-smooth distributional solution framework. 2D space of piecewise-smooth distributions
allows trace evaluations at boundaries of the PDE. Moreover, a relationship between
solutions to coupled system and switched delay DAEs is established. The coupling structure
in this thesis forms a rather general framework. In fact, any arbitrary network, where PDEs
are represented by edges and (switched) DAEs by nodes, is covered via this structure. Given
a network, by rescaling spatial domains which modifies the coefficient matrices by a constant,
each PDE can be defined on the same interval which leads to a formulation of a single
PDE whose unknown is made up of the unknowns of each PDE that are stacked over each
other with a block diagonal coefficient matrix. Likewise, every swDAE is reformulated such
that the unknowns are collected above each other and coefficient matrices compose a block
diagonal coefficient matrix so that each node in the network is expressed as a single swDAE.
The results are illustrated by numerical simulations of the power grid and simplified circulatory
system examples. Numerical results for the power grid display the evolution of jumps
and Dirac impulses caused by initial and boundary conditions as a result of instant switches.
On the other hand, the analysis and numerical results for the simplified circulatory system do
not entail a Dirac impulse, for otherwise such an entity would destroy the entire system. Yet
jumps in the flow rate in the numerical results can come about due to opening and closure of
valves, which suits clinical and physiological findings. Regarding physiological parameters,
numerical results obtained in this thesis for the simplified circulatory system agree well with
medical data and findings from literature when compared for the validation
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Das Zytosol ist der Hauptort der Proteinbiosynthese. Während viele Proteine im Zytosol
bleiben, muss ein Großteil zu unterschiedlichen Kompartimenten der Zelle transportiert
werden. Die korrekte Lokalisation der Polypeptide ist essentiell für die Homöostase der Zelle.
Werden Proteine fehlgeleitet oder gar nicht transportiert, können diese in der Zelle
aggregieren, was zu Stress bis hin zum Zelltod führen kann. Obwohl der Import
mitochondrialer Proteine über die verschiedenen Membranen der Mitochondrien sehr gut
erforscht ist, war lange unklar, wie diese Proteine zu ihrem Zielorganell transportiert werden.
In den letzten Jahren wurde diese Wissenslücke teilweise gefüllt, neue zytosolische Faktoren
wurden identifiziert und alternative Transportwege aufgedeckt.
Eine solche Entdeckung war der Transportweg namens ER-SURF. Hier werden
mitochondriale Proteine an die Membran des endoplasmatischen Retikulums transportiert, wo
sie vom Co-Chaperon Djp1 gebunden und zu den Mitochondrien gebracht werden. Im Zuge
der Studie zu ER-SURF wurde ein Protein identifiziert, das bisher noch uncharakterisiert war.
Dieses Protein nannten wir Ema19 („Efficient Mitochondria Targeting–Associated Protein
19”). Es ist ein Membranprotein des endoplasmatischen Retikulums, das vier
Transmembrandomänen besitzt.
Ziel dieses Projekts war es, die Funktion von Ema19 für die Zelle zu analysieren. Durch ein
Alignment konnte ich feststellen, dass das Protein bis in den Menschen hoch konserviert ist,
was auf eine wichtige Rolle für die Zelle schließen ließ. Da Ema19 im Zusammenhang mit
dem ER-SURF Transportweg identifiziert wurde, habe ich zunächst eine mögliche Rolle für
den Transport und Import mitochondrialer Proteine in unterschiedlichen Experimenten
getestet. Im Laufe der Arbeit wurde jedoch deutlich, dass Ema19 keine direkte Rolle beim
Import von mitochondrialen Proteinen spielt. Allerdings konnte ich durch mehrere
unabhängige Versuche einen Zusammenhang mit der Lokalisation und dem Abbau
mitochondrialer Proteine feststellen. Fehlt Ema19 in der Zelle, ist vor allem das
mitochondriale Protein Oxa1 mehr am endoplasmatischen Retikulum vorzufinden. Ebenso
konnte ich feststellen, dass Oxa1, sowie das Intermembranraumprotein Erv1, langsamer
abgebaut werden als in Wildtypzellen. Diese Experimente geben erste Hinweise auf eine
mögliche Rolle von Ema19 für den Abbau mitochondrialer Proteine an der ER-Membran.
Nichtsdestotrotz bleiben noch viele Fragen offen und weitere Versuche sind nötig, um diese
Hypothese weiter zu unterstützen.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Verkehrsflächenbürtige Feststoffe enthalten Schadstoffe wie Schwermetalle, die im Regenereignis abfließen und in Gewässern toxisch wirken können. Da ein großer Teil vieler Schwermetalle partikulär vorliegt, können diese durch eine Behandlung mittels Sedimentation zurückgehalten werden. Zur Optimierung des Feststoff- und damit Schadstoffrückhaltes ist eine Erweiterung des Kenntnisstandes zum Absetzverhalten schadstofftragender Feststoffe nötig. Es ist bekannt, dass das Schadstoffaufkommen standortspezifisch variiert. Bezüglich der für die Sedimentation absetzrelevanten Kenngrößen wie Partikelgröße und Dichte wurde der Einfluss standortspezifischer Randbedingungen auf die Zusammensetzung noch nicht umfassend untersucht. Weiter mangelt es an einer Methode zur Messung des Absetzverhaltens unter kontrollierten Bedingungen. Diese Arbeit liefert hierzu einen Beitrag.
Anhand einer Literaturstudie zu Feststoffdepositionen und -abflüssen von Verkehrsflächen wurde für die absetzrelevanten Kenngrößen Partikelgröße, -form, -dichte und organischer Anteil eine Metadatenauswertung hinsichtlich methoden- und standortspezifischen Randbedingungen durchgeführt. Für organische Anteile in Abflüssen konnte eine gesicherte Datengrundlage und Durchschnittswerte ermittelt werden. Die Datengrundlage für die weiteren Kenngrößen ist bislang gering. Der Mangel an Befunden zu absetzrelevanten Kenngrößen unterstreicht die Notwendigkeit vertiefter Untersuchungen zur Charakterisierung verkehrsflächenbürtiger Feststoffe.
In einem umfangreichen Messprogramm wurden an zehn Standorten in Frankfurt am Main von 2016 bis 2018 Feststoffe in der Trockenperiode auf der Verkehrsfläche gewonnen und hinsichtlich der genannten absetzrelevanten Kenngrößen untersucht. Standortspezifische Einflüsse wurden statistisch nachgewiesen. Feststoffaufkommen und deren Partikelgröße liegen unabhängig vom Standort nur mit geringer Variabilität vor. Es besteht ein positiver Zusammenhang zwischen der Verkehrsstärke und dem Feststoffaufkommen. Organische Anteile sind eine Funktion der vorherrschenden Vegetation am Standort. Sie variieren saisonal. Es konnte ein negativ linearer Zusammenhang zwischen der Dichte und den organischen Anteilen nachgewiesen werden. Diese Arbeit liefert damit eine neue Datengrundlage für die Modellierung von Transportprozessen von Feststoffen und ihren absetzrelevanten Kenngrößen von unterschiedlichen Verkehrsflächen.
Weiter wurde ein Laborverfahren zur Bestimmung des Absetzverhaltens verkehrsflächenbürtiger Feststoffe in konstanter Zusammensetzung (Partikelgrößenverteilung und Feststoffkonzentration) entwickelt und mit der geschaffenen Datengrundlage validiert. Es wurden erste Erkenntnisse zum Absetzverhalten von Feststoffen, organischen Anteilen und Schwermetallen gewonnen. Im untersuchten Szenario sedimentieren die Partikel diskret bedingt durch die Partikelgröße und organischen Anteile. Das Absetzverhalten der Schwermetalle korreliert mit den Feststoffen. Überproportional hohe Schwermetallkonzentrationen in feinen Partikelanteilen bedeuten jedoch eine verringerte Absetzbarkeit der jeweiligen Schwermetallanteile.
Für die Behandlung von Abflüssen aus Verkehrsflächen mit viel Vegetation am Standort legen diese Ergebnisse nahe, dass mit reduzierten Feststoffwirkungsgraden aufgrund verminderter Absetzbarkeit leichterer Bestandteile mit geringer Dichte zu rechnen ist. Mit den Laborergebnissen konnte ein starker positiver Zusammenhang zwischen dem Feststoff- und Schadstoffwirkungsgrad bestätigt werden. Die Verteilung der Schwermetalle in Partikelgrößenklassen einer Feststoffprobe ist neben den organischen Anteilen und der Dichte ein wichtiger Parameter zur Einschätzung der Absetzbarkeit bei diskretem Absetzverhalten.
The famous Mather-Yau theorem in singularity theory yields a bijection of isomorphy classes of germs of isolated hypersurface singularities and their respective Tjurina algebras.
This result has been generalized by T. Gaffney and H. Hauser to singularities of isolated singularity type. Due to the fact that both results do not have a constructive proof, it is the objective of this thesis to extract explicit information about hypersurface singularities from their Tjurina algebras.
First we generalize the result by Gaffney-Hauser to germs of hypersurface singularities, which are strongly Euler-homogeneous at the origin. Afterwards we investigate the Lie algebra structure of the module of logarithmic derivations of Tjurina algebra while considering the theory of graded analytic algebras by G. Scheja and H. Wiebe. We use the aforementioned theory to show that germs of hypersurface singularities with positively graded Tjurina algebras are strongly Euler-homogeneous at the origin. We deduce the classification of hypersurface singularities with Stanley-Reisner Tjurina ideals.
The notion of freeness and holonomicity play an important role in the investigation of properties of the aforementioned singularities. Both notions have been introduced by K. Saito in 1980. We show that hypersurface singularities with Stanley--Reisner Tjurina ideals are holonomic and have a free singular locus. Furthermore, we present a Las Vegas algorithm, which decides whether a given zero-dimensional \(\mathbb{C}\)-algebra is the Tjurina algebra of a quasi-homogeneous isolated hypersurface singularity. The algorithm is implemented in the computer algebra system OSCAR.
Der intrinsisch chirale Ligand CpCH besteht aus einem Cyclopentadienkern und zwei benzannelierten Cycloheptatrienringen, deren sterische Abstoßung die beiden „Flügel“ des Ligandenrückgrates zu einer helicalen Anordnung zwingen. Im Rahmen dieser Arbeit wurden Derivate von CpCH mit sauerstofffunktionalisierten Seitenketten ausgehend von der Deprotonierung des Liganden und anschließender Umsetzung mit Epoxiden erhalten. Durch die Reaktion von (CpC)- mit enantiomerenreinem (R)-Propylenoxid gelang die Überführung des Liganden in diastereomere Alkoholderivate mit einem Diastereomerenüberschuss von 10 %. Des Weiteren wurden einfach und zweifach phosphanfunktionalisierte Derivate von CpCH synthetisiert. Die Reaktion dieser Liganden mit unterschiedlichen Vorstufen der späten und damit elektronenreichen Übergangsmetalle führte zu einer Reihe an Rhodium(I)-, Palladium(II)-, Gold(I)- und Ruthenium(II)komplexen mit potentiellem Einsatz in der Katalyse. Die fortsetzenden Arbeiten der direkten Reaktion von CpCH mit den basischen Dimethylamidovorstufen der zweiten Übergangsmetallreihe erlaubte den Abschluss der Arbeiten zu den Titan(IV)-, Zirkonium(IV)- und Hafnium(IV)komplexen der Struktur [(η5-CpC)M(NMe2)3]. Mit Hilfe des Thallium(I)-salzes von CpCH gelang die Übertragung des Liganden auf die späten Übergangsmetalle Ruthenium und Iridium. Der lichtinitiierte Ligandenaustausch der auf diesem Weg erhaltenen kationischen Ruthenium(II)arenkomplexe in Acetonitril führte zum entsprechenden Acetonitril-substituierten Komplex [(η5-CpC)Ru(CH3CN)3]PF6, der im Anschluss erfolgreich auf seine Aktivität in der Redoxisomerisierung allylischer Alkohole und Ligandenaustauschreaktionen mit zweizähnigen Phosphan-liganden untersucht wurde. Ausgehend von [(η5-CpC)Ru(η6-C8H8O2)]PF6 gelang die Synthese eines diastereomeren Amidkomplexes [(η5-CpC)Ru{η6-C6H5-(C=O)-NH-C8H9}]PF6 durch die direkte Aminolyse des koordinierenden Carbonsäureesters mit (R)-Methylbenzylamin. Des Weiteren wurde im Rahmen dieser Arbeit die Übertragung des von J.-Y. Chung erstmals erhaltenen Keton CpCO auf Triruthenium(0)dodekacarbonyl durchgeführt. Ausgehend von der Reaktion des isolierten Ruthenium(0)tricarbonylkomplexes mit 2-Propanol gelang die Isolierung eines neuartigen bimetallischen Hydridkomplexes, der im Anschluss erfolgreich auf eine Aktivität in der Oppenauer-Oxidation von Cholesterol und in der Redoxisomerisierung allylischer Alkohole getestet wurde. Neben des Erhaltens eines durch Autoxidation entstandenen Diepoxidderivates von CpCH, ergab die direkte Reaktion des Liganden mit Luftsauerstoff und Bengalrosa das erste cyclische Endoperoxid. Die Reaktion dieser Verbindung mit Aluminium(III)chlorid führte zu einem Umlagerungsprodukt bei dem, neben der Einführung einer Ketogruppe am zentralen Fünfring, zusätzlich eine [1,2]-Alkylwanderung innerhalb einer der beiden Cycloheptatrienringe des Liganden stattgefunden hat.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
3D hand pose and shape estimation from a single depth image is a challenging computer vision and graphics problem with many applications such as
human computer interaction and animation of a personalized hand shape in
augmented reality (AR). This problem is challenging due to several factors
for instance high degrees of freedom, view-point variations and varying hand
shapes. Hybrid approaches based on deep learning followed by model fitting
preserve the structure of hand. However, a pre-calibrated hand model limits
the generalization of these approaches. To address this limitation, we proposed a novel hybrid algorithm for simultaneous estimation of 3D hand pose
and bone-lengths of a hand model which allows training on datasets that contain varying hand shapes. On the other hand, direct joint regression methods
achieve high accuracy but they do not incorporate the structure of hand in
the learning process. Therefore, we introduced a novel structure-aware algorithm which learns to estimate 3D hand pose jointly with new structural constraints. These constraints include fingers lengths, distances of joints along
the kinematic chain and fingers inter-distances. Learning these constraints
help to maintain a structural relation between the estimated joint keypoints.
Previous methods addressed the problem of 3D hand pose estimation. We
open a new research topic and proposed the first deep network which jointly
estimates 3D hand shape and pose from a single depth image. Manually annotating real data for shape is laborious and sub-optimal. Hence, we created a
million-scale synthetic dataset with accurate joint annotations and mesh files
of depth maps. However, the performance of this deep network is restricted by
limited representation capacity of the hand model. Therefore, we proposed a
novel regression-based approach in which the 3D dense hand mesh is recovered
from sparse 3D hand pose, and weak-supervision is provided by a depth image synthesizer. The above mentioned approaches regressed 3D hand meshes
from 2D depth images via 2D convolutional neural networks, which leads to
artefacts in the estimations due to perspective distortions in the images. To
overcome this limitation, we proposed a novel voxel-based deep network with
3D convolutions trained in a weakly-supervised manner. Finally, an interesting
application is presented which is in-air signature acquisition and verification
based on deep hand pose estimation. Experiments showed that depth itself is
an important feature, which is sufficient for verification.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Acrylamid ist eine Lebensmittelkontaminante, welche durch die sogenannte Maillard-Reaktion im Lebensmittel gebildet wird. Acrylamid entsteht insbesondere bei der Zubereitung kohlenhydratreicher hocherhitzer Lebensmittel, wie z.B. Pommes frites, Chips, Cerealien und ähnlichen Produkten. Die mittlere tägliche Exposition, durch den Verzehr von Lebensmittel liegt bei ca. 0,4–1,9 µg/kg Körpergewicht und Tag. Darüber hinaus entsteht Acrylamid in Folge von Pyrolyseprozessen, weshalb Tabakrauchen einen weiteren Expositionsweg darstellt. Die Menge des dabei entstehenden Acrylamids im Hauptstrom von Zigarettenrauch liegt bei 1,1–2,3 µg/Zigarette. In Studien erwies sich die Substanz als reproduktions- und gentoxisch, sowie kanzerogen beim Nager und zudem als neurotoxisch sowohl im Nager als auch beim Menschen. Bereits 1994 wurde Acrylamid von der International Agency for Research on Cancer (IARC) als wahrscheinlich krebserzeugend für den Menschen (Gruppe 2A) eingestuft. Im Zuge des Fremdstoffmetabolismus wird Acrylamid in der Leber zu Glycidamid umgesetzt. Katalysiert wird die Reaktion durch das Enzym CYP2E1 ist. Als reaktives Epoxid kann Glycidamid an die DNA binden, wodurch das in vorliegender Arbeit behandelte N7-(2-Carbamoyl-2-Hydroxyethyl)-guanin (N7-GA-Gua), gebildet wird. Dieses DNA-Addukt bildet das Hauptaddukt der Reaktion aus GA und DNA-Bausteinen.
Ziel der vorliegenden Arbeit war es, eine hochsensitive UHPLC-ESIpos-MS/MS-Methode zu entwickeln, um damit anschließend eine mögliche Hintergrundbelastung mit Acrylamid anhand des N7-GA-Gua-Addukts sowohl im Tier als auch im Menschen nachzuweisen und damit eine bessere Datenlage über die Substanz zu erhalten.
Zu Beginn dieser Arbeit wurden Synthesen der für die chromatographische Analytik benötigten Verbindungen durchgeführt. Hierbei konnten erstmals Glycidamid Kristalle erhalten und untersucht werden. In nachfolgenden in-vitro-Experimenten wurden die Zytotoxizität von Acrylamid und dessen Metaboliten mittels Resazurin-Reduktionstest, sowie die Bildung von N7-GA-Gua in primären Rattenhepatozyten (pRH) nach Inkubation mit Acrylamid, untersucht. Im Resazurin Test erwies sich Acrylamid in Konzentrationen bis zu 2500 µM als nicht zytotoxisch und konnte daher zur Inkubation der Zellen mit Konzentrationen bis zu 2000 µM Acrylamid eingesetzt werden. Im anschließend durchgeführten Inkubationsversuch, bei dem die Zellen mit 2–2000 µM Acrylamid über 1, 16 oder 24 h inkubiert wurden, konnten in allen Testkonzentrationen N7-GA-Gua-Addukte bestimmt werden. Dank der im Rahmen dieser Arbeit entwickelten sensitiven analytischen Methode, konnten N7-GA-Gua-Addukte auch in den Organen (Lunge, Niere und teilweise Leber) vom Nager (C57BL/6jRj- und BKS(D) Leprdb/JOrLR Maus und Wistar-Ratte) bestimmt werden. Geschlechts- oder organabhängige Effekte konnten nicht festgestellt werden. Einzig die Anzahl an N7-GA-Gua lag in den C57BL/6jRj-Mäusen signifikant über denen der Wistar-Ratten. In der durchgeführten Humanstudie konnten im Blut von 48 der 60 Probanden Addukte nachgewiesen werden. Signifikante Einflüsse der Lebensführung, des Alters und der Ernährung der Probanden auf den Hintergrund-Adduktgehalte wurden nicht festgestellt; es ergab sich lediglich eine schwache Korrelation zwischen der Anzahl an N7-GA-Gua und dem Gewicht bzw. dem BMI der Studienteilnehmer.
Insgesamt liefert die vorliegende Arbeit wichtige Erkenntnisse über die Gehalte an N7-GA-Gua in vitro in primären Rattenhepatozyten, als auch in vivo in Organen von Ratte und Maus, sowie im Blut des Menschen. Die Ergebnisse tragen zur Verbesserung der Datenlage über Acrylamid bei. Insbesondere die Ergebnisse der durchgeführten Humanstudie liefern Einblicke in die Hintergrundbelastung an N7 GA-Gua im Querschnitt der Bevölkerung und können daher auch für die Risikobetrachtung von Acrylamid sowie zur Ableitung weiterer Forschungsarbeiten und Studien von Interesse sein.
In today’s world, mobile communication has become one of the most widely used technologies corroborated by growing number of mobile subscriptions and extensive usage of mobile multimedia services. It is a key challenge for the network operators to accommodate such large number of users and high traffic volume. Further, several day-to-day scenarios such as public transportation, public events etc., are now characterized with high mobile data
usage. A large number of users avail cellular services in such situations posing
high load to the respective base stations. This results in increased number of dropped connections, blocking of new access attempts and blocking of handovers (HO). The users in such system will thus be subjected to poor
Quality of Experience (QoE). Beforehand knowledge of the changing data traffic dynamics associated with such practical situations will assist in designing
radio resource management schemes aiming to ease the forthcoming congestion situations. The key hypothesis of this thesis is that consideration and utilization of additional context information regarding user, network and his environment is valuable in designing such smart Radio Resource Management(RRM) schemes. Methods are developed to predict the user cell transitions, considering the fact that mobility of the users is not purely random but rather direction oriented. This is particularly used in case of traffic dense moving network or group of users moving jointly in the same vehicle (e.g., bus, train, etc.) to
predict the propagation of high load situation among cells well in advance.
This enables a proactive triggering of load balancing (LB) in cells anticipating
the arrival of high load situation and accommodating the incoming user group or moving network. The evaluated KPIs such as blocked access
attempts, dropped connections and blocked HO are reduced.
Further, everyday scenario of dynamic crowd formation is considered as another potential case of high load situation. In real world scenarios such as open air festivals, shopping malls, stadiums or public events, several mobile users gather to form a crowd. This poses high load situation to the respective serving base station at the site of crowd formation, thereby leading to congestion. As a consequence, mobile users are subjected to poor QoE due to high dropping and blocking rates. A framework to predict crowd formation in a cell is developed based on coalition of user cell transition prediction, cluster detection and trajectory prediction. This framework is suitably used to prompt context aware load balancing mechanism and activate a small cell at the probable site of crowd formation. Simulations show that proactive LB
reduces the dropping of users (23%), blocking of users (10%) and blocked
HO (15%). In addition, activation of a Small Cell (SC) at the site of frequent
crowd formation leads to further reductions in dropping of users (60%),
blocking of users (56%) and blocked HO (59%).
Similar to the framework for crowd formation prediction, a concept is developed for predicting vehicular traffic jams. Many vehicular users avail broadband cellular services on a daily basis while traveling. The density of such vehicular users change dynamically in a cell and at certain sites (e.g.
signal lights), traffic jams arise frequently leading to a high load situation at
respective serving base station. A traffic prediction algorithm is developed
from cellular network perspective as a coalition strategy consisting of schemes to predict user cell transition, vehicular cluster/moving network detection, user velocity monitoring etc. The traffic status indication provided by the algorithm is then used to trigger LB and activate/deactivate a small cell suitably. The evaluated KPIs such as blocked access attempts, dropped connections
and blocked HO are reduced by approximately 10%, 18% and 18%, respectively due to LB. In addition, switching ON of SC reduces blocked access attempts, dropped connections and blocked HO by circa 42%, 82% and 81%, respectively.
Amidst increasing number of connected devices and traffic volume, another key issue for today’s network is to provide uniform service quality
despite high mobility. Further, urban scenarios are often characterized by
coverage holes which hinder service continuity. A context aware resource allocation scheme is proposed which uses enhanced mobility prediction to facilitate service continuity. Mobility prediction takes into account additional information about the user’s origin and possible destination to predict next road segment. If a coverage hole is anticipated in upcoming road, then additional
resources are allocated to respective user and data is buffered suitably.
The buffered data is used when the user is in a coverage hole to improve service continuity. Simulation shows improvement in throughput (in coverage
hole) by circa 80% and service interruption is reduced by around 90%, for a
non-real-time streaming service. Additionally, investigation of context aware procedures is carried out with a focus on user mobility, to find commonalities among different procedures and a general framework is proposed to support mobility context awareness. The new information and interfaces which are required from various entities
(e.g., vehicular infrastructure) are discussed as well.
Device-to-Device (D2D) communications commonly refer to the technology
that enables direct communication between devices, hence relieving the
base station from traffic routing. Thus, D2D communication is a feasible
solution in crowded situations, where users in proximity requesting to communicate with one another could be granted D2D links for communication, thereby easing the traffic load to serving base station. D2D links can potentially
reuse the radio resources from cellular users (known as D2D underlay) leading to better spectral utilization. However, the mutual interference can hinder system performance. For instance, if D2D links are reusing cellular uplink resources then D2D transmissions cause interference to cellular uplink at base station. Whereas, cellular transmissions cause interference to
D2D receivers. To cope up with such issues, location aware resource allocation
schemes are proposed for D2D communication. The key aim of such RA scheme is to reuse resources with minimal interference. The RA scheme based on virtual sectoring of a cell leads to approximately 15% more established
links and 25% more capacity with respect to a random resource allocation. D2D transmissions cause significant interference to cellular links with
which they reuse physical resource blocks, thereby hindering cellular performance. Regulating D2D transmissions to mitigate the aforementioned problem would mean sub-optimal exploitation of D2D communications. As
a solution, post-resource allocation power control at cellular users is proposed.
Three schemes namely interference aware power control, blind power
control and threshold based power control are discussed. Simulation results
show reductions in dropping of cellular users due to interference from D2D
transmissions, improvement in throughput at base station (uplink) while not hindering the D2D performance.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
The number of sequenced genomes increases rapidly due to the development of faster, better and new technologies. Thus, there is a great interest in automation, and standardization of the subsequent processing and analysis stages of the generated enormous amount of data. In the current work, genomes of clones, strains and species of Streptococcus were compared, which were sequenced, annotated and analysed with several technologies and methods. For sequencing, the 454- and Illumina-technology were used. The assembly of the genomes mainly was performed by the gsAssembler (Newbler) of Roche, the annotation was performed by the annotation pipeline RAST, the transfer tool RATT or manually. Concerning analysis, sets of deduced proteins of several genomes were compared to each other and common components, the so-called core-genome, of the used genomes of one or closely related species determined. Detailed comparative analysis was performed for the genomes of isolates of two clones to gather single nucleotide variants (SNV) within genes.
This work focusses on the pathogenic organism Streptococcus pneumoniae. This species is a paradigm for transformability, virulence and pathogenicity as well as resistance mechanisms against antibiotics. Its close relatives S. mitis, S. pseudopneumoniae and S. oralis have no pathogenicity potential as high as S. pneumoniae available and are thus of high interest to understand the evolution of S. pneumoniae. Strains of two S. pneumoniae clones were chosen. One is the ST10523 clone, which is associated with patients with cystic fibrosis and is characterized by long-term persistence. This clone is lacking an active hyaluronidase, which is one of the main virulence factors. The lack of two phage clusters possibly contributed to the long persistence in the human host. The clone ST226 shows a high penicillin resistance but interestingly one strain is sensitive against penicillin. Here it could be seen that the penicillin resistance mainly arose from the presence of mosaic-PBPs, while special alleles of MurM and CiaH - both genes are associated with penicillin-resistance – were present in resistant and sensitive strains as well. Penicillin resistance of S. pneumoniae is the result of horizontal gene transfer, where DNA of closely related species, mainly S. mitis or S. oralis, served as donor. The transfer of DNA from the high-level penicillin-resistant strain S. oralis Uo5 to the sensitive strain S. pneumoniae R6 was intentioned to reveal the amount of transferred DNA and whether it is possible to reach the high resistance level of S. oralis Uo5. Altogether, about 19kb of S. oralis DNA were transferred after three successive transformation steps, about 10-fold less than during transfer from S. mitis, which is more closely related to S. pneumoniae, as donor. MurE was identified as new resistance determinant. Since the resistance level of the donor strain could not be reached, it is assumed, that further unknown factors are present which contribute to penicillin resistance. The comparison of S. pneumoniae and its close relatives was performed using deduced protein sequences. 1.041 homologous proteins are common to the four complete genomes of S. pneumoniae R6, S. pseudopneumoniae IS7493, S. mitis B6 and S. oralis Uo5. Most of the virulence and pathogenicity factors described for S. pneumoniae could also be found in commensal species. These observations were confirmed by further investigations by Kilian et al. (Kilian, et al., 2019). After adding 26 complete S. pneumoniae genomes to the analysis, only 104 gene products could be identified as specific for this species. Investigations of a larger number of related streptococci, which were isolated from human and several primates, confirmed the presence of most of the virulence factors of human pneumococci in S. oralis and S. mitis strains from primates. While NanBC is common among S. pneumoniae and is missing in all S. oralis, all S. oralis contain a ß-N-acetyl-hexosaminidase which vice versa is missing in S. pneumoniae. The occurrence of S. oralis also in free-living chimpanzees suggests the assumption, that this species is part of the commensal flora of these Old-World monkeys unlike S. pneumoniae which has evolved with its human host. Compared to S. pneumoniae, S. oralis shows an amazing variability in factors important for biosynthesis of peptidoglycan and teichoic acid (PBP, MurMN, lic-cluster). Some streptococci contain a second PGP3 homologue. Additional analyses with further isolates, especially of wild animals, are necessary to determine host-specific components.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
In recent years, thermoplastic composites (TPCs) have been increasingly used for
aerospace and automotive applications. But also other industrial sectors, such as the
medical technology, have discovered the benefits of this material class. Compared to
thermoset composites, TPCs can be recycled more easily, remelted, and welded. In
addition to that, TPC parts can be produced economically and efficiently. As an example,
short cycle times and high production rates of TPCs can be realised with the
injection moulding processing technology. Injection moulded parts have the advantage
that function integration is feasible with relatively little effort.
However, these parts are characterised by discontinuous fibre reinforcement. Fibres
are randomly distributed within the part and fibre orientation can show significant local
variations. Whereas the highest stiffness and strength values of the material are
achieved parallel to fibre orientation, the lowest values are present in transverse direction.
As a consequence, structural mechanical properties of injection moulded
discontinuous fibre reinforced parts are lower compared to their continuous fibre reinforced
counterparts. Continuous fibre reinforced components show excellent specific
mechanical properties. However, their freedom in geometrical product design is restricted.
The aim of this work is to extend the applicability of TPCs for structural mass products
due to the realisation of a high-strength interface between discontinuous and
continuous fibre reinforced material. A hybrid structure with unique properties is produced
by overmoulding a continuous unidirectional endless carbon fibre (CF) reinforced
polyether ether ketone (PEEK) insert with discontinuous short CF reinforced
PEEK. This approach enables the manufacturing of structural mass products in short
cycle times which require both superior structural mechanical properties and sufficient
freedom in product design. However, sufficient interface strength between the discontinuous
and continuous component is required.
This research is based on the application case of a pedicle screw system which is
a spinal implant used for spine stabilisation and fusion. Since the 1990s, CF-PEEK
has been successfully used for spinal cages, and recently also for pedicle screws and
pedicle screw systems. Compared to metallic implants, CF-PEEK implants show several
advantages, such as the reduction of stress shielding, the prevention of artefacts
in medical imaging technologies (X-ray, computer tomography scan, or magnetic resonance
imaging) or the avoidance of backscattering during radiotherapy. Pedicle screws,
which are used in the lumbar spine region, are subjected to high forces and moments.
Therefore, a hybrid composite pedicle screw was developed which is based on the
overmoulding process described before.
Different adherence tests were conducted to characterise the interface strength between
short and endless CF reinforced PEEK. However, no standardised test method
existed for interface strength characterisation of overmoulded structures. Sufficient interface
strength could only be achieved if a cohesive interface was formed. Cohesive
interface formation due to the melting of the surface of the endless CF reinforced PEEK
insert after contact with the molten mass required an insert pre-heating temperature of
at least 260 °C prior to overmoulding. Because no standardised test method existed
for interface strength characterisation of overmoulded structures, a novel test body was
developed. This cylinder pull-out specimen did not require any relevant rework steps
after manufacturing so that the interface strength could be directly tested after overmoulding.
Pre-heating of the endless CF reinforced PEEK inserts resulted in a 73%
increase in interface strength compared to non-pre-heated inserts.
In addition to that, a parametric finite element pedicle screw-bone model was developed.
By parametric optimisation, the optimal hybrid composite pedicle screw design
in terms of pull-out resistance was found. Within the underlying design space, the
difference in screw stability between the worst and the best screw design was approximately
12 %. The resulting design recommendations had to be opposed to the
manufacturing requirements to define the final screw design. The moulds of the injection
moulding machine were manufactured according to this design so that the hybrid
composite pedicle screw could be produced.
The findings of extensive material and interface characterisation were crucial for the
achievement of a cohesive interface between insert and overmould so that superior
structural mechanical properties of the hybrid composite pedicle screw could be
achieved. For example, the bending strength of hybrid composite screws was approximately
48% higher than the bending strength of discontinuous short CF reinforced
PEEK screws. Additionally, fatigue resistance was enhanced by the hybrid screw configuration
so that the risk of premature pedicle screw failure could be reduced. In the
breaking torque test, hybrid composite screws showed a reduction of 11% in their
breaking torque values compared to their discontinuous fibre reinforced counterparts.
However, not only in this test but also in the quasi-static and cyclic bending test, structural
integrity of the hybrid composite screws could be maintained which is important
for implant components.
Die automatisierte Faserablage bietet ein hohes Potenzial zur individuellen Herstellung
belastungsgerechter, kontinuierlich faserverstärkter Verbundwerkstoffe, wodurch
diese Fertigungstechnologie zur Herstellung thermoplastischer
Hochleistungsverbundbauteile immer mehr in den Fokus aktueller Entwicklungen
rückt. Hierbei beschränkt sich diese Technologie derzeit hauptsächlich auf die
Verarbeitung von vollimprägnierten und -konsolidierten Halbzeugen (Tapes). Im
Rahmen dieser Arbeit wurde eine neu konzeptionierte Prozesskette, basierend auf der
Kombination trockener Rovings (GF) und Polymerpulver (PC/PBT) zu
thermoplastischen Pulver-Towpregs, deren anschließender, automatisierter
Faserablage zu vorimprägnierten Preforms und der Direktimprägnierung im
variothermen Pressprozess, durchlaufen. Mit Hilfe der statistischen Versuchsplanung
wurden die Prozessschritte der Faserablage und des variothermen Pressprozesses
methodisch untersucht. Die daraus resultierenden Ergebnisse liefern ein
grundlegendes Prozessverständnis der einzelnen Prozessschritte hinsichtlich der
Imprägniermechanismen und -fortschritte. Es konnte gezeigt werden, dass im
Tapelegeprozess maßgeblich eine Makroimprägnierung der Faserstruktur erreicht
wird, welche auch den nachfolgenden Pressprozess signifikant beeinflusst. Die
Ergebnisse dieser Arbeit bilden somit die Grundlage zu Verständnis und Anwendung
der neuen Prozesskette, sowie der Einstellung und Bewertung der Prozessparameter
zur Herstellung kontinuierlich, lastgerecht faserverstärkter Thermoplaste mit
individuellen Matrix- und Faserwerkstoffen.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Diese Arbeit verbessert einige Prozessschritte zur Auslegung hochbeanspruchter Bauteile aus
endlosfaserverstärkten Faser-Thermoplast-Verbunden am Beispiel von CF-PA6 Mehrschichtverbunden.
Hierzu werden neue Verfahren zur Konditionierung hygroskopischer Werkstoffe und der
Bestimmung des relativen Faservolumenanteils entwickelt, wodurch der Aufwand zur Werkstoffcharakterisierung
signifikant reduziert werden kann.
Durch Versuche an CF-PA6 Schichten wird das mechanische Verhalten des Werkstoffs hinsichtlich
dem Spannungs-Verzerrungs- und Bruchverhalten analysiert. Dazu werden speziell die Unterschiede
zu Faser-Duroplast-Verbunden durch Berechnungen auf mikromechanischer Ebene herausgearbeitet.
Zusätzlich wird der Einfluss des verwendeten Verarbeitungsverfahrens (Tapelegen) auf
die mechanischen Werkstoffkennwerte charakterisiert.
Auf Basis der gewonnenen Erkenntnisse wird eine neue Werkstoffroutine entwickelt und in ein Berechnungsprogramm
zur Analyse mechanischer Strukturen mit Hilfe der Finiten Elemente Methode
implementiert. Dadurch kann unter anderem das nichtlineare Verhalten von Faser-Thermoplast-
Verbunden unter großen Verzerrungen und die Degradation einzelner Schichten eines Mehrschichtverbunds
abgebildet werden. Ein Vergleich der Ergebnisse von Versuchen an Mehrschichtverbunden
und der Berechnung zeigt gute Übereinstimmung und die Leistungsfähigkeit der Routine auf Bauteilebene.
This work improves the process steps for the design of highly stressed components made of continuous
fiber-reinforced thermoplastics using as example CF-PA6 multilayer composites. For this
purpose, new methods for conditioning hygroscopic materials and determining the relative fiber
volume fraction were developed. This reduces the expense of material characterization significantly.
Tests on CF-PA6 layers are used to analyze the mechanical behavior of the material in terms of
stress-strain and fracture behavior. In particular, the differences to fiber-reinforced thermosets are
highlighted by using calculations on a micromechanical level. Additionally, the influence of the
processing method (tape laying) on the mechanical material properties is characterized.
Based on the knowledge gained, a new material routine is developed and implemented into a
calculation program for the analysis of mechanical structures using the finite element method.
Through this work it is now possible to calculate nonlinear behavior of fiber-reinforced thermoplastics
under large distortions and the degradation of individual layers of a multi-layer composite.
A comparison of experimental data with the calculation of multilayer composites shows good
agreement and the performance for the application on a component-level.
This thesis introduces a novel deformation method for computational meshes. It is based on the numerical path following for the equations of nonlinear elasticity. By employing a logarithmic variation of the neo-Hookean hyperelastic material law, the method guarantees that the mesh elements do not become inverted and remain well-shaped. In order to demonstrate the performance of the method, this thesis addresses two areas of active research in isogeometric analysis: volumetric domain parametrization and fluid-structure interaction. The former concerns itself with the construction of a parametrization for a given computational domain provided only a parametrization of the domain’s boundary. The proposed mesh deformation method gives rise to a novel solution approach to this problem. Within it, the domain parametrization is constructed as a deformed configuration of a simplified domain. In order to obtain the simplified domain, the boundary of the target domain is projected in the \(L^2\)-sense onto a coarse NURBS basis. Then, the Coons patch is applied to parametrize the simplified domain. As a range of 2D and 3D examples demonstrates, the mesh deformation approach is able to produce high-quality parametrizations for complex domains where many state-of-the-art methods either fail or become unstable and inefficient. In the context of fluid-structure interaction, the proposed mesh deformation method is applied to robustly update the computational mesh in situations when the fluid domain undergoes large deformations. In comparison to the state-of-the-art mesh update methods, it is able to handle larger deformations and does not result in an eventual reduction of mesh quality. The performance of the method is demonstrated on a classic 2D fluid-structure interaction benchmark reproduced by using an isogeometric partitioned solver with strong coupling.
Zeolithe sind poröse, kristalline Katalysatoren, deren Poren in der Größenordnung von Reaktandmolekülen liegen. Es gibt die Möglichkeit, verschiedene Kristallgitter von Zeolithen miteinander zu kombinieren, woraus Mischtopologien, sog. Intergrowths, entstehen. Mischtopologien, wie z. B. Zeolith ZSM-20, haben die Besonderheit, dass diese durch die Kombination zweier Gittertypen andere (katalytische) Eigenschaften aufweisen können, als die einzelnen Zeolithgittertypen, aus denen sie bestehen. Somit stellen Intergrowths eine interessante Erweiterung der ohnehin großen Vielfalt an Zeolithen dar. Im Fokus dieser Arbeit stehen die Synthese und die Modifikation, in Form der Dealuminierung, von Zeolithen mit Faujasit-Topologie in der Flüssigphase. Mittels Dealuminierung, welche eine der wichtigsten post-synthetischen Modifikationsmethoden darstellt, lassen sich unter anderem die sauren Eigenschaften der Zeolithe verändern. Die katalytischen Untersuchungen der Zeolithe wurden mittels einer Testreaktion (Disproportionierung von Ethylbenzol) durchgeführt. Die unterschiedlichen Dealuminierungsparameter wurden an den verschiedenen Zeolithen mit Faujasit-Topologie systematisch untersucht und für Zeolith ZSM-20 optimiert. Es konnten erfolgreich verschiedene Modifikationen der Zeolithen mit Faujasitstruktur mit unterschiedlichen Dealuminierungsgraden hergestellt werden. Diese wurden im Anschluss mittels der Ethylbenzoldisproportionierung katalytisch getestet und die Auswirkungen der Modifikationen in der Katalyse untersucht.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
Complex global sustainability challenges cannot be solved by governance and technology alone, but rather demand a broader cultural shift towards sustainability. Various authors postulate that a social change towards more sustainability can be manifested by a shift in human consciousness towards a more spiritual mindset. Similarly, the contemporary discourse in business literature increasingly emphasizes the importance of spirituality for business sustainability. This cumulative dissertation attempts to explore how the individual’s spirituality may be connected to business sustainability. Therefore, I carried out three studies on specific research gaps in the broad field of the connection between individual spirituality and business sustainability. Paper one (Chapter 2) addresses the general connection between the individual`s spirituality and business sustainability. The goal of the applied systematic literature review was to gain an overview of the themes that are discussed in the related literature and build a cohesive framework. This paper contributes to the literature stream of spirituality in business.
Paper two and three focus on the individual level of spirituality and business sustainability. In paper two (chapter three), we address the spiritual practice mindfulness, a secularized, widely discussed Eastern spiritual practice that is gaining popularity in the Western (business) world. Katharina Spraul co-authored this paper. Mindfulness describes a nonjudgemental, nonevaluative process of paying attention to what is happening internally and externally. We connect mindfulness to business sustainability in such a way that we hypothesize that mindfulness serves as a moderator between the intention and behavior relationship in the field of green employee behavior. Employee pro-environmental behavior was found to be an important antecedent of ecological and economic business sustainability, such as green procurement, and ecological efficiency. In order to test this hypothesis, we applied a quantitative prospective design, assessing variables at two points of time. This paper enhances the theoretical strands of mindfulness research and employee green behavior.
Paper three (chapter four) was written in co-authorship with Katharina Spraul. In this study, in terms of spiritual practices, we focus on German part-time yoga teachers. We investigate the meaningfulness experience of multiple jobholders with the case of part-time yoga teachers. Empirical research has linked meaningful work to job satisfaction and health (social sustainability) as well as work engagement and performance (economic sustainability). We pose the questions: What were the motives to start the secondary job as a yoga teacher? Which job is perceived as more meaningful and why? How does teaching yoga affect the meaningfulness of the primary, organizational job? In order to answer these questions, we applied a mixed method design. On the one hand, we conducted narrative interviews with part-time yoga teachers. On the other hand, we asked these interviewees to rank and rate Rosso et al.'s (2010) seven meaningfulness mechanisms for their jobs (with which we calculated meaningfulness values of each job). With this paper, we address gaps in research on meaningful work and multiple jobholders.
Considering the outlined theoretical strands, this cumulative dissertation contributes to sustainable development by a differentiated discussion of the relationship between the individual’s spirituality and business sustainability.
In this thesis, we present the basic concepts of isogeometric analysis (IGA) and we consider Poisson's equation as model problem. Since in IGA the physical domain is parametrized via a geometry function that goes from a parameter domain, e.g. the unit square or unit cube, to the physical one, we present a class of parametrizations that can be viewed as a generalization of polar coordinates, known as the scaled boundary parametrizations (SB-parametrizations). These are easy to construct and are particularly attractive when only the boundary of a domain is available. We then present an IGA approach based on these parametrizations, that we call scaled boundary isogeometric analysis (SB-IGA). The SB-IGA derives the weak form of partial differential equations in a different way from the standard IGA. For the discretization projection
on a finite-dimensional space, we choose in both cases Galerkin's method. Thanks to this technique, we state an equivalence theorem for linear elliptic boundary value problems between the standard IGA, when it makes use of an SB-parametrization,
and the SB-IGA. We solve Poisson's equation with Dirichlet boundary conditions on different geometries and with different SB-parametrizations.