Refine
Year of publication
Document Type
- Doctoral Thesis (1454) (remove)
Language
- German (775)
- English (676)
- Multiple languages (3)
Has Fulltext
- yes (1454) (remove)
Keywords
- Visualisierung (18)
- Simulation (17)
- Stadtplanung (13)
- Apoptosis (12)
- Katalyse (12)
- Phasengleichgewicht (12)
- Finite-Elemente-Methode (11)
- Mobilfunk (10)
- Modellierung (10)
- finite element method (10)
Faculty / Organisational entity
- Fachbereich Chemie (327)
- Fachbereich Maschinenbau und Verfahrenstechnik (286)
- Fachbereich Mathematik (245)
- Fachbereich Informatik (173)
- Fachbereich Biologie (107)
- Fachbereich Elektrotechnik und Informationstechnik (76)
- Fachbereich ARUBI (71)
- Fachbereich Bauingenieurwesen (55)
- Fachbereich Sozialwissenschaften (41)
- Fachbereich Raum- und Umweltplanung (29)
Multidisciplinary optimizations (MDOs) encompass optimization problems that combine different disciplines into a single optimization with the aim of converging towards a design that simultaneously fulfills multiple criteria. For example, considering both fluid and structural disciplines to obtain a shape that is not only aerodynamically efficient, but also respects structural constraints. Combined with CAD-based parametrizations, the optimization produces an improved, manufacturable shape. For turbomachinery applications, this method has been successfully applied using gradient-free optimization methods such as genetic algorithms, surrogate modeling, and others. While such algorithms can be easily applied without access to the source code, the number of iterations to converge is dependent on the number of design parameters. This results in high computational costs and limited design spaces. A competitive alternative is offered by gradient-based optimization algorithms combined with adjoint methods, where the computational complexity of the gradient calculation is no longer dependent on the number of design parameters, but rather on the number of outputs. Such methods have been extensively used in single-disciplinary aerodynamic optimizations using adjoint fluid solvers and CAD parametrizations. However, CAD-based MDOs leveraging adjoint methods are just beginning to emerge.
This thesis contributes to this field of research by setting up a CAD-based adjoint MDO framework for turbomachinery design using both fluid and structural disciplines. To achieve this, the von Kármán Institute’s existing CAD-based optimization framework cado is augmented by the development of a FEM-based structural solver which has been differentiated using the algorithmic differentiation tool CoDiPack of TU Kaiserslautern. While most of the code could be differentiated in a black-box fashion, special treatment is required for the iterative linear and eigenvalue solvers to ensure accuracy and reduce memory consumption. As a result, the solver has the capability of computing both stress and vibration gradients at a cost independent on the number of design parameters. For the presented application case of a radial turbine optimization, the full gradient calculation has a computational cost of approximately 3.14 times the cost of a primal run and the peak memory usage of approximately 2.76 times that of a primal run.
The FEM code leverages object-oriented design such that the same base structure can be reused for different purposes with minimal re-differentiation. This is demonstrated by considering a composite material test case where the gradients could be easily calculated with respect to an extended design space that includes material properties. Additionally, the structural solver is reused within a CAD-based mesh deformation, which propagates the structural FEM mesh gradients through to the CAD parameters. This closes the link between the CAD shape and FEM mesh. Finally, the MDO framework is applied by optimizing the aerodynamic efficiency of a radial turbine while respecting structural constraints.
„Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“, schrieb der österreichisch-englische Philosoph Ludwig Wittgenstein (1922). Das Beherrschen der Schriftsprache wurde in der neuhumanistischen Bildungstheorie nach Wilhelm von Humboldt (Humboldt & Menze, 1997) in den Mittelpunkt der Bildungsprozesse gestellt.
Bildung kann daher nur dann gelingen, wenn die Schriftsprache beherrscht wird. Dabei wird Bildung als eine Art lebenslanges Lernen verstanden, in dem es darum geht, die Funktionsweisen der Gesellschaft und der Welt in der wir leben, zu verstehen und dahingegen zu handeln (Otto, 2007). Mit dem erfolgreichen Schriftspracherwerb und dem sicheren Umgang mit der Schriftsprache ist eine Art Teilhabe am „kulturellen Gedächtnis“ so Assmann (2007) sowie an gegenwärtigen Prozessen. Nicht für alle Kinder verläuft der Erwerb der Schriftsprache ohne Schwierigkeiten. In der ersten PISA-Studie aus dem Jahr 2000 lag der Prozentsatz leseschwacher Kinder in Deutschland bei ca. 24 Prozent (OECD, 2001). Dieser verringerte sich zwar in der PISA-Studie im Jahr 2015 auf rund 16 Prozent (PISA 2015 Results (Volume V), 2017). Die Ergebnisse der aktuellen PISA-Studie sind jedoch ernüchternd. In Bezug auf die Lesekompetenz ist der Anteil der leseschwachen Kinder auf 21 Prozent gestiegen, an Gymnasien sogar auf 29 Prozent (OECD, 2019). Auch Fischbach und Kollegen (Fischbach et al., 2013) fanden bei ihrer Studie im deutschsprachigen Raum heraus, dass 18 Prozent aller Grundschüler1 erhebliche Schwierigkeiten im Lesen und Schreiben aufweisen. Stellen sich erste Schwierigkeiten beim Erlernen des Lesens und Schreibens ein, muss eine zeitige Förderung der betroffenen Kinder an erster Stelle stehen. An diesem Punkt setzt das computerbasierte Trainingsprogramm Lautarium (Klatte, Steinbrink,
Bergström, & Lachmann, 2017) an, indem es Lehrern, Eltern, Therapeuten und den betroffenen Kindern ein Werkzeug an die Hand gibt, welches sich bereits in mehreren Studien als wirksam erwiesen hat (einen Überblick bietet Klatte et al., 2017).
Entwickelt wurde dieses Programm im Zuge eines Drittmittelprojekts mit dem Schwerpunkt „Entwicklungsstörungen schulischer Fertigkeiten“ des Bundesministeriums für Bildung und Forschung. Die hier durchgeführte Studie befasst sich mit den Effekten des Trainings mit dem computerbasierten Förderprogramms Lautarium auf die phonologischen und schriftsprachlichen Leistungen von Zweitklässlern mit Lese-Rechtschreibschwierigkeiten. Lautarium basiert auf aktuellen Forschungserkenntnissen zur Bedeutung der phonologischen Verarbeitung für den Schriftspracherwerb und umfasst aufeinander aufbauende Übungen zur Phonemwahrnehmung, phonologischen Bewusstheit und Graphem-Phonem-Zuordnung, zum Lesen und Schreiben lautgetreuer Wörter und zur schnellen Worterkennung. Zwar hat sich das Trainingsprogramm bereits in mehreren Studien als wirksam erwiesen, in der jetzigen Studie wird die Wirksamkeit jedoch erstmals im Rahmen eines randomisierten kontrollierten Designs (randomized controlled trial, RCT, „Goldstandard“ der klinischen Forschung) geprüft (Borah, Moriarty, Crown, & Doshi, 2014; Kaptchuk, 2001). Es wurde zunächst ein klassisches Prätest-Posttest-Follow-up–Design realisiert, um kurz- und langfristige Effekte des Lautarium-Trainings zu erfassen (Studienteil 1: Vortest bis Nachtest 2). Eine Gruppe von Kindern (n= 24) bearbeitete das Lautarium-Training, die andere Gruppe (n= 31) ein computerbasiertes Denktraining (Lenhard, Lenhard & Klauer, 2011). Das Training erfolgte täglich etwa 20 Minuten über mehrere Wochen im Rahmen des differenzierenden Unterrichts. Im Anschluss an den Follow-upTest arbeiteten die Gruppen mit dem jeweils anderen Programm, danach folgte ein weiterer, abschließender Nachtest 3 (Studienteil 2: bis Nachtest 3, n= 44). Studienteil 1 bestätigte signifikante und teilweise anhaltende Effekte des LautariumTrainings auf Untertests zur phonologischen Bewusstheit, zum Lesen und zur Rechtschreibung. Die in früheren Studien gezeigten Effekte ließen sich somit auch im Rahmen eines RCT-Designs replizieren. In Studienteil 2 zeigten sich signifikante Effekte auf die phonologische Bewusstheit. Abschließend werden Potentiale und Grenzen des Einsatzes von Lautarium im differenzierenden Unterricht diskutiert.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Subject of this thesis is the investigation of photo-induced ultrafast elementary processes within the electronic excited-state manifold in mass-selected multinuclear coinage metal complexes (CMCs) in the gas phase. The chief objective is to ascertain how the intramolecular deactivation dynamics and gas phase reactivity are influenced by so-called metallophilic interactions between multiple d^10/d^8 metal centers, which in turn give rise to metal-delocalized electronic transitions. To this end, suitable molecular precursor ions were transferred into the gas phase by electrospray ionization (ESI) and subsequently isolated, activated, and finally analyzed in a Paul-type quadrupole ion trap (QIT) mass spectrometer. The QIT is modified to accept UV/Vis/NIR irradiation from a femtosecond laser setup. By combining several ion trap-based ion activation techniques and electronic photodissociation (PD) spectroscopy, the fragmentation pathways, as well as intrinsic optical properties (electronic PD spectra) of ionic CMCs are explored. In addition, the unconventional time-resolved transient photodissociation (t-PD) method, based on a femtosecond pump-probe excitation scheme, was employed for the first time on CMC ions in isolation, in order to elucidate their intrinsic photodynamics. This thesis mainly comprises five publications, covering the mass spectrometric and laser spectroscopic characterization of multinuclear Ag(I), Au(I), and Pt(II) based ionic complexes.
Mit dem Jahr 2020 wird der ursprüngliche zeitliche Horizont für das Nachhaltigkeitsziel der Bundesregierung zur Reduzierung der Flächenneuinanspruchnahme für Siedlungs- und Verkehrszwecke auf 30 Hektar am Tag erreicht. Angesichts der tatsächlichen Entwicklung des ‚Flächenverbrauchs‘ oberhalb dieses Zielwertes sowie dessen mannigfaltiger negativen ökologischen, sozialen und wirtschaftlichen Folgen kommt einer flächensparenden Siedlungsentwicklung nach wie vor höchste Priorität zu. Die Umwandlung von Freiraum in Siedlungs- und Verkehrsfläche erfolgt nicht nur in den städtisch geprägten Wachstumsregionen der Bundesrepublik. Auch in einigen ländlich-peripheren Bereichen zeigt sich trotz demografischer und teils struktureller Schrumpfung eine fortschreitende Flächenneuinanspruchnahme.
In den ‚Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland‘ hebt die Ministerkonferenz für Raumordnung die Pläne und Programme der Regionalplanung als geeignetes Instrumentarium zur Steuerung einer flächensparenden Siedlungsentwicklung hervor und betont das regionalplanerische Potenzial als Koordinator und Kommunikator bei kooperativen Prozessen. Gleichwohl konstatiert die Raumforschung der Regionalplanung diesbezüglich immer wieder ein Steuerungs- und Implementationsdefizit, welches insbesondere auf ein nicht Ausnutzen des zur Verfügung stehenden formellen Instrumentariums sowie institutionelle Hemmnisse zurückgeführt wird. Im Fokus entsprechender Analysen standen bisher eher Wachstumsregionen mit engen Stadt-Umland-Verflechtungen. Eine Betrachtung ob der konsequenten Anwendung des verfügbaren Instrumentariums durch die Regionalplanung liegt inzwischen einige Jahre zurück. Es besteht zudem eine Forschungslücke hinsichtlich einer integrierenden Betrachtung ergänzender informeller Handlungsansätze.
Vor diesem Hintergrund widmet sich die vorliegende Arbeit der ganzheitlichen Untersuchung regionalplanerischer Handlungsansätze zur Steuerung einer flächensparenden Siedlungsentwicklung in unterschiedlich raumstrukturell geprägten Regionen. Als Fallstudien dienen die Region Main-Rhön in Bayern, die Region Rostock in Mecklenburg-Vorpommern und die Region Stuttgart in Baden-Württemberg. Mithilfe einer Governance-Analyse werden neben der Ausgestaltung des klassischen formellen Instrumentariums der Regionalplanung informelle Formen der Handlungskoordination unter Berücksichtigung institutioneller wie raumstruktureller Rahmenbedingungen erfasst. Expertengespräche ergänzen die Methodik zur Identifizierung von Erfolgen und Defiziten der jeweiligen Governance-Formen sowie deren Einflussfaktoren.
Im Ergebnis erfolgt die Governance einer flächensparenden Siedlungsentwicklung durch die Regionalplanung in allen Fallstudienregionen in erster Linie hierarchisch durch den Regionalplan und formelle Verfahren. In unterschiedlicher Intensität kommen zudem die Governance-Formen der Verhandlung oder des Netzwerks zum Einsatz. Ein ausdifferenziertes Governance-Regime stellt einen der wesentlichen Erfolgsfaktoren bei der Umsetzung einer flächensparenden Siedlungsentwicklung dar. Defizite ergeben sich aus der fehlenden Akzeptanz seitens der Adressaten der regionalplanerischen Handlungsansätze, welche auch auf die raumstrukturelle Prägung der Regionen zurückzuführen ist.
Daraus abgeleitete Empfehlungen für die Weiterentwicklung regionalplanerischer Governance-Regime umfassen die Optimierung des hierarchischen Planungsinstrumentariums, den Einsatzes ergänzender Governance-Formen sowie die Anpassung institutioneller Rahmenbedingungen. Die raumstrukturellen Rahmenbedingungen sind stets als wesentliche Grundlage für die inhaltliche Ausrichtung eines ausdifferenzierten Governance-Regimes der Regionalplanung für eine flächensparende Siedlungsentwicklung zu berücksichtigen.
In recent years, business intelligence applications become more real-time and traditional data warehouse tables become fresher as they are continuously refreshed by streaming ETL jobs within seconds. Besides, a new type of federated system emerged that unifies domain-specific computation engines to address a wide range of complex analytical applications, which needs streaming ETL to migrate data across computation systems.
From daily-sales reports to up-to-the-second cross-/up-sell campaign activities, we observed various latency and freshness requirements set in these analytical applications. Hence, streaming ETL jobs with regular batches are not flexible enough to fit in such a mixed workload. Jobs with small batches can cause resource overprovision for queries with low freshness needs while jobs with large batches would starve queries with high freshness needs. Therefore, we argue that ETL jobs should be self-adaptive to varying SLA demands by setting appropriate batches as needed.
The major contributions are summarized as follows.
• We defined a consistency model for “On-Demand ETL” which addresses correct batches for queries to see consistent states. Furthermore, we proposed an “Incremental ETL Pipeline” which reduces the performance impact of on-demand ETL processing.
• A distributed, incremental ETL pipeline (called HBelt) was introduced in distributed warehouse systems. HBelt aims at providing consistent, distributed snapshot maintenance for concurrent table scans across different analytics jobs.
• We addressed the elasticity property for incremental ETL pipeline to guarantee that ETL jobs with batches of varying sizes can be finished within strict deadlines. Hence, we proposed Elastic Queue Middleware and HBaqueue which replace memory-based data exchange queues with a scalable distributed store - HBase.
• We also implemented lazy maintenance logic in the extraction and the loading phases to make these two phases workload-aware. Besides, we discuss how our “On-Demand ETL” thinking can be exploited in analytic flows running on heterogeneous execution engines.
Scaling up conventional processor architectures cannot translate the ever-increasing number of transistors into comparable application performance. Although the trend is to shift from single-core to multi-core architectures, utilizing these multiple cores is not a trivial task for many applications due to thread synchronization and weak memory consistency issues. This is especially true for applications in real-time embedded systems since timing analysis becomes more complicated due to contention on shared resources. One inherent reason for the limited use of instruction-level parallelism (ILP) by conventional processors is the use of registers. Therefore, some recent processors bypass register usage by directly communicating values from producer processing units to consumer processing units. In widely used superscalar processors, this direct instruction communication is organized by hardware at runtime, adversely affecting its scalability. The exposed datapath architectures provide a scalable alternative by allowing compilers to move values directly from output ports to the input ports of processing units. Though exposed datapath architectures have already been studied in great detail, they still use registers for executing programs, thus limiting the amount of ILP they can exploit. This limitation stems from a drawback in their execution paradigm, code generator, or both.
This thesis considers a novel exposed datapath architecture named Synchronous Control Asynchronous Dataflow (SCAD) that follows a hybrid control-flow dataflow execution paradigm. The SCAD architecture employs first-in-first-out (FIFO) buffers at the output and input ports of processing units. It is programmed by move instructions that transport values from the head of output buffers to the tail of input buffers. Thus, direct instruction communication is facilitated by the architecture. The processing unit triggers the execution of an operation when operand values are available at the heads of its input buffers. We propose a code generation technique for SCAD processors inspired by classical queue machines that completely eliminates the use of registers. On this basis, we first generate optimal code by using satisfiability (SAT) solvers after establishing that optimal code generation is hard. Heuristics based on a novel buffer interference analysis are then developed to compile larger programs. The experimental results demonstrate the efficacy of the execution paradigm of SCAD using our queue-oriented code generation technique.
Das Instandsetzungsprinzip W-Cl bzw. die Instandsetzungsverfahren 7.7 und 8.3 stellen im Vergleich zu konventionellen Instandsetzungsprinzipien technisch und wirtschaftlich interessante Verfahren zur Instandsetzung von chloridbelasteten Betonbauteilen dar. Die Verfahren beruhen auf der Absenkung des Wassergehaltes (W) im Bereich des chloridkontaminierten Betons (Cl), welche durch die Applikation einer Oberflächenschutzbeschichtung erreicht wird. Durch die Beschichtung soll ein intermittierendes Eindringen von Chloriden unterbunden und die Initiierung von Bewehrungskorrosion verhindert werden. Ungeklärte Fragen hinsichtlich der Wirksamkeit der Verfahren und daraus resultierende Anwendungsbeschränkungen in den maßgebenden Regelwerken haben eine praxisgerechte Anwendung der Verfahren bis dato kaum möglich gemacht.
Ziel dieser Arbeit war es im Rahmen von grundlegenden Untersuchungen die Mechanismen des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 besser zu verstehen, um damit einen Beitrag zur Schaffung der erforderlichen Grundlagen für eine breitere Anwendung der Verfahren in der Praxis zu leisten. Im Fokus stand dabei die Entwicklung eines Modells zur Beschreibung der Chloridumverteilung nach Applikation einer Oberflächenschutzbeschichtung.
Hierzu wurde zunächst ein mathematisches Modell mit einer in sich geschlossenen analytischen Lösung entwickelt, mit dessen Hilfe die Chloridumverteilung unter Annahme einer vollständigen Wassersättigung des Betons nach Applikation einer systemabdichtenden Oberflächenschutz-beschichtung berechnet werden kann.
Daran anknüpfend wurde der Einfluss der infolge der Anwendung des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 zu erwartenden Austrocknung des Betons auf die Chloridumverteilung im abgedichteten System untersucht. Auf Basis von eigenen Untersuchungen und darauf aufbauenden numerischen Berechnungen wurden materialspezifische Abminderungsfunktionen entwickelt, die die Abhängigkeit des Chloriddiffusionskoeffizienten von der Umgebungsfeuchte beschreiben.
Abschließend wurden auf Grundlage einer Parameterstudie allgemeingültige Grenzwerte für Randbedingungen hergeleitet, bis zu denen eine Instandsetzung nach dem Verfahren 7.7 angewendet werden kann, ohne dass im Zuge der Chloridumverteilung der kritische korrosionsauslösende Chloridgehalt auf Höhe der Bewehrung im geplanten Restnutzungszeitraum überschritten wird.
Ein Großteil der dieser Arbeit zu Grunde liegenden Untersuchungen erfolgte im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projektes „Anwendungsgrenzen des Instandsetzungsprinzip W-Cl“.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
This thesis is concerned with the modeling of the solid-solid phase transformation, such as the martensitic transformation. The allotropes austenite and martensite are important for industry applications. As a result of its ductility, austenite is desired in the bulk, as opposed to martensite, which desired in the near surface region. The phase field method is used to model the phase transformation by minimizing the free energy. It consists of a mechanical part, due to elastic strain and a chemical part, due to the martensitic transformation. The latter is temperature dependent. Therefore, a temperature dependent separation potential is presented here. To accommodate multiple orientation variants, a multivariant phase field model is employed. Using the Khachaturyan approach, the effective material parameters can be used to describe a constitutive model. This however, renders the nodal residual vector and elemental tangent matrix directly dependent on the phase, making a generalization complicated. An easier approach is the use of the Voigt/Taylor homogenization, in which the energy and their derivatives are interpolated creating an interface for material law of the individual phases.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
In this dissertation, I will present the studies conducted during my doctoral studies. In spite of a lot of research in the last decades, the complex cognitive processes underlying human memory are not fully unraveled. Furthermore, the development of neuroscientific methods like functional mag-netic resonance imaging (fMRI) and event-related potentials (ERPs) have further build a founda-tion for new insights. Naturally, the utilization of these techniques led to further adaptation of both these techniques and the paradigms in which they have been employed. This can be observed in the research literature on episodic memory retrieval. Familiarity and recollection, have been found to be the chief factors at play during memory retrieval. The two processes have been thoroughly characterized in several studies and reviews (e.g., Mecklinger, 2000; Rugg & Curran, 2007; Yonelinas, 2002; Zimmer & Ecker, 2010), yet there are still open questions that have to be ad-dressed by researchers in this field (c.f., Leynes, Bruett, Krizan, & Veloso, 2017; MacLeod & Donaldson, 2017).
In order to answer these questions, we conducted several studies during my doctoral studies. In Study 1, we developed a paradigm to investigated episodic memory using ERPs. In the study phase, pictorial stimuli were presented which at test were either perceptually identical, perceptually changed, or entirely new. Data collected from a sample of young adults revealed that the paradigm was suitable to elicit ERP correlates of both familiarity and recollection. As the newly developed paradigm yielded similar results as existing literature, we then applied this paradigm in two devel-opmental populations, second-graders and fifth-graders. According to the ERPs, the younger chil-dren seemed to rely on recollection alone, whereas ERPs of older children suggested the use of familiarity for perceptually identical items and only after intentional encoding. In a follow-up study two years later, we used the results from both studies to only slightly refine the paradigm, again administering it to young adults. In this study, Study 3, we found that ERP correlates were much smaller than in the earlier studies, hence we used a data-driven approach to detect time windows of interest. In spite of the large body of research on episodic memory, these studies serve to demon-strate that episodic memory is a complex interplay of several contributing cognitive processes which need to assessed carefully in order to unravel the key factors at play during familiarity and recollection.
In today’s computer networks we see an ongoing trend towards wireless communication technologies, such as Wireless LAN, Bluetooth, ZigBee and cellular networks. As the electromagnetic spectrum usable for wireless communication is finite and largely allocated for exclusive use by respective license holders, there are only few frequency bands left for general, i.e. unlicensed, use. Subsequently, it becomes apparent, that there will be an overload situation in the unlicensed bands, up to a point where no communication is possible anymore. On the other hand, it has been observed that licensed frequency bands often go unused, at least at some places or over time. Mitola combined both observations and found the term Cognitive Radio Networks [Mit00], denoting a solution for spectrum scarcity. In this concept, so called Secondary Users are allowed to also use licensed bands (attributed to a Primary User) as long as it is vacant.
In such networks, all obligations reside with Secondary Users, especially, they must avoid any interference with the Primary User. They must therefore reliably sense the presence of Primary Users and must decide which available spectrum to use. These two functionalities are called Spectrum Sensing and Spectrum Mobility and describe 2 out of 4 core functionalities of Cognitive Radio Networks and are considered in this thesis.
Regarding Spectrum Sensing, we present our own approach for energy detection in this thesis. Energy detection essentially works by comparing measured energy levels to a threshold. The inherent problem is on how to find such thresholds. Based on existing work we found in literature, we improve techniques and assert the effectiveness of our additions by conducting real world experiments.
Regarding Spectrum Mobility, we concentrate on the point, where the Primary User shows up. At this point, nodes must not use the current channel anymore, i.e. they also have no possibility to agree on another channel to switch to. We solve this problem by employing channel switching, i.e. we change channels proactively, following a schedule shared by all nodes of the network. The main contribution of this thesis is on how to synthesize those schedules to guarantee robust operation under changing conditions. For integration, we considered three dimensions of robustness (of time, of space and of channel) and, based on our algorithms and findings, defined a network protocol, which addresses perturbation within those dimensions. In an evaluation, we showed that the protocol is actually able to maintain robust operation, even if there are large drops in channel quality.
Das Ziel der vorliegenden Arbeit war es, eine lokale Version des Programmpakets Turbomole um eine Methode zu erweitern, die die Berechnung elektronischer Anregungsenergien und Übergangsmomente unter Berücksichtigung der Spin-Bahn-Wechselwirkung mit Hilfe quasirelativistischer zeitabhängiger Dichtefunktionaltheorie (TD-DFT) ermöglicht. Dazu wurde ein bereits existierender zweikomponentiger TD-DFT-Ansatz verwendet und so erweitert, dass auch offenschalige Systeme mit gradientenkorrigier ten Funktionalen berechnet werden können.
Die gewählte Implementierung ist unabhängig von der zweikomponentigen Methode, die Tatsache, dass die Molekülorbitale in einem quasirelativistischen Formalismus durch zweikomponentige, komplexe Spinoren dargestellt werden, erforderte jedoch die weitestgehende Verwendung komplexer Arithmetik.
Des Weiteren wurde das Verhalten des implementierten Austausch-Korrelations-Kernels (XC-Kernel), die Schlüsselgröße der TD-DFT, für kleine Spindichten untersucht. Dabei konnte gezeigt werden, dass die numerische Berechnung der Matrixelemente des XC-Kernels an Punkten des Integrationsgitters, für die die Spindichte gegen null geht, ihr Gradient hingegen nicht, durchaus problematisch ist und eine Regularisierung des XC-Kernels erfordert. Alternativen zur Regularisierung, wie beispielsweise die Verwendung eines Kernels ohne Gradiententerme oder Modifikationen am Funktional selbst, sind in der Literatur bekannt, im Rahmen dieser Arbeit konnte jedoch ein Ansatz entwickelt werden, der keine Veränderungen am Funktional erfordert und die Verwendung eines Kernels mit Gradientenkorrektur ermöglicht. Dazu wurde das Integrationsgitter in zwei Bereiche, abhängig von der Spindichte und ihrem Gradienten, eingeteilt. In den jeweiligen Bereichen wird nun zur Berechnung der Matrixelemente entweder der XC-Kernel für offen- oder geschlossenschalige Systeme verwendet. Für einen möglichst „glatten“ Übergang zwischen den beiden Bereichen wurde ein weiterer Bereich definiert, in dem ein mit einer Umschaltfunktion gewichteter Mittelwert beider Grenzfälle verwendet wird.
Mit dem im Rahmen dieser Arbeit entwickelten Programm ist es nun möglich, basierend auf einer zweikomponentigen Rechnung am offen- oder geschlossenschaligen Grundzustand, TD-DFT-Rechnungen mit gängigen Standarddichtefunktionalen durchzuführen. Da sowohl spinerhaltende als auch spin flip Anregungen berücksichtigt werden, erhält man mit einem Eindeterminantenansatz Informationen, die sonst nur mit Hilfe von deutlich aufwendigeren Mehrdeterminantenansätzen zugänglich sind.
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
Simplified ODE models describing blood flow rate are governed by the pressure gradient.
However, assuming the orientation of the blood flow in a human body correlates to a positive
direction, a negative pressure gradient forces the valve to shut, which stops the flow through
the valve, hence, the flow rate is zero, whereas the pressure rate is formulated by an ODE.
Presence of ODEs together with algebraic constraints and sudden changes of system characterizations
yield systems of switched differential-algebraic equations (swDAEs). Alternating
dynamics of the heart can be well modelled by means of swDAEs. Moreover, to study pulse
wave propagation in arteries and veins, PDE models have been developed. Connection between
the heart and vessels leads to coupling PDEs and swDAEs. This model motivates
to study PDEs coupled with swDAEs, for which the information exchange happens at PDE
boundaries, where swDAE provides boundary conditions to the PDE and PDE outputs serve
as inputs to swDAE. Such coupled systems occur, e.g. while modelling power grids using
telegrapher’s equations with switches, water flow networks with valves and district
heating networks with rapid consumption changes. Solutions of swDAEs might
include jumps, Dirac impulses and their derivatives of arbitrary high orders. As outputs of
swDAE read as boundary conditions of PDE, a rigorous solution framework for PDE must
be developed so that jumps, Dirac impulses and their derivatives are allowed at PDE boundaries
and in PDE solutions. This is a wider solution class than solutions of small bounded
variation (BV), for instance, used in where nonlinear hyperbolic PDEs are coupled with
ODEs. Similarly, in, the solutions to switched linear PDEs with source terms are
restricted to the class of BV. However, in the presence of Dirac impulses and their derivatives,
BV functions cannot handle the coupled systems including DAEs with index greater than one.
Therefore, hyperbolic PDEs coupled with swDAEs with index one will be studied in the BV
setting and with swDAEs whose index is greater than one will be investigated in the distributional
sense. To this end, the 1D space of piecewise-smooth distributions is extended to a 2D
piecewise-smooth distributional solution framework. 2D space of piecewise-smooth distributions
allows trace evaluations at boundaries of the PDE. Moreover, a relationship between
solutions to coupled system and switched delay DAEs is established. The coupling structure
in this thesis forms a rather general framework. In fact, any arbitrary network, where PDEs
are represented by edges and (switched) DAEs by nodes, is covered via this structure. Given
a network, by rescaling spatial domains which modifies the coefficient matrices by a constant,
each PDE can be defined on the same interval which leads to a formulation of a single
PDE whose unknown is made up of the unknowns of each PDE that are stacked over each
other with a block diagonal coefficient matrix. Likewise, every swDAE is reformulated such
that the unknowns are collected above each other and coefficient matrices compose a block
diagonal coefficient matrix so that each node in the network is expressed as a single swDAE.
The results are illustrated by numerical simulations of the power grid and simplified circulatory
system examples. Numerical results for the power grid display the evolution of jumps
and Dirac impulses caused by initial and boundary conditions as a result of instant switches.
On the other hand, the analysis and numerical results for the simplified circulatory system do
not entail a Dirac impulse, for otherwise such an entity would destroy the entire system. Yet
jumps in the flow rate in the numerical results can come about due to opening and closure of
valves, which suits clinical and physiological findings. Regarding physiological parameters,
numerical results obtained in this thesis for the simplified circulatory system agree well with
medical data and findings from literature when compared for the validation
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Das Zytosol ist der Hauptort der Proteinbiosynthese. Während viele Proteine im Zytosol
bleiben, muss ein Großteil zu unterschiedlichen Kompartimenten der Zelle transportiert
werden. Die korrekte Lokalisation der Polypeptide ist essentiell für die Homöostase der Zelle.
Werden Proteine fehlgeleitet oder gar nicht transportiert, können diese in der Zelle
aggregieren, was zu Stress bis hin zum Zelltod führen kann. Obwohl der Import
mitochondrialer Proteine über die verschiedenen Membranen der Mitochondrien sehr gut
erforscht ist, war lange unklar, wie diese Proteine zu ihrem Zielorganell transportiert werden.
In den letzten Jahren wurde diese Wissenslücke teilweise gefüllt, neue zytosolische Faktoren
wurden identifiziert und alternative Transportwege aufgedeckt.
Eine solche Entdeckung war der Transportweg namens ER-SURF. Hier werden
mitochondriale Proteine an die Membran des endoplasmatischen Retikulums transportiert, wo
sie vom Co-Chaperon Djp1 gebunden und zu den Mitochondrien gebracht werden. Im Zuge
der Studie zu ER-SURF wurde ein Protein identifiziert, das bisher noch uncharakterisiert war.
Dieses Protein nannten wir Ema19 („Efficient Mitochondria Targeting–Associated Protein
19”). Es ist ein Membranprotein des endoplasmatischen Retikulums, das vier
Transmembrandomänen besitzt.
Ziel dieses Projekts war es, die Funktion von Ema19 für die Zelle zu analysieren. Durch ein
Alignment konnte ich feststellen, dass das Protein bis in den Menschen hoch konserviert ist,
was auf eine wichtige Rolle für die Zelle schließen ließ. Da Ema19 im Zusammenhang mit
dem ER-SURF Transportweg identifiziert wurde, habe ich zunächst eine mögliche Rolle für
den Transport und Import mitochondrialer Proteine in unterschiedlichen Experimenten
getestet. Im Laufe der Arbeit wurde jedoch deutlich, dass Ema19 keine direkte Rolle beim
Import von mitochondrialen Proteinen spielt. Allerdings konnte ich durch mehrere
unabhängige Versuche einen Zusammenhang mit der Lokalisation und dem Abbau
mitochondrialer Proteine feststellen. Fehlt Ema19 in der Zelle, ist vor allem das
mitochondriale Protein Oxa1 mehr am endoplasmatischen Retikulum vorzufinden. Ebenso
konnte ich feststellen, dass Oxa1, sowie das Intermembranraumprotein Erv1, langsamer
abgebaut werden als in Wildtypzellen. Diese Experimente geben erste Hinweise auf eine
mögliche Rolle von Ema19 für den Abbau mitochondrialer Proteine an der ER-Membran.
Nichtsdestotrotz bleiben noch viele Fragen offen und weitere Versuche sind nötig, um diese
Hypothese weiter zu unterstützen.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Verkehrsflächenbürtige Feststoffe enthalten Schadstoffe wie Schwermetalle, die im Regenereignis abfließen und in Gewässern toxisch wirken können. Da ein großer Teil vieler Schwermetalle partikulär vorliegt, können diese durch eine Behandlung mittels Sedimentation zurückgehalten werden. Zur Optimierung des Feststoff- und damit Schadstoffrückhaltes ist eine Erweiterung des Kenntnisstandes zum Absetzverhalten schadstofftragender Feststoffe nötig. Es ist bekannt, dass das Schadstoffaufkommen standortspezifisch variiert. Bezüglich der für die Sedimentation absetzrelevanten Kenngrößen wie Partikelgröße und Dichte wurde der Einfluss standortspezifischer Randbedingungen auf die Zusammensetzung noch nicht umfassend untersucht. Weiter mangelt es an einer Methode zur Messung des Absetzverhaltens unter kontrollierten Bedingungen. Diese Arbeit liefert hierzu einen Beitrag.
Anhand einer Literaturstudie zu Feststoffdepositionen und -abflüssen von Verkehrsflächen wurde für die absetzrelevanten Kenngrößen Partikelgröße, -form, -dichte und organischer Anteil eine Metadatenauswertung hinsichtlich methoden- und standortspezifischen Randbedingungen durchgeführt. Für organische Anteile in Abflüssen konnte eine gesicherte Datengrundlage und Durchschnittswerte ermittelt werden. Die Datengrundlage für die weiteren Kenngrößen ist bislang gering. Der Mangel an Befunden zu absetzrelevanten Kenngrößen unterstreicht die Notwendigkeit vertiefter Untersuchungen zur Charakterisierung verkehrsflächenbürtiger Feststoffe.
In einem umfangreichen Messprogramm wurden an zehn Standorten in Frankfurt am Main von 2016 bis 2018 Feststoffe in der Trockenperiode auf der Verkehrsfläche gewonnen und hinsichtlich der genannten absetzrelevanten Kenngrößen untersucht. Standortspezifische Einflüsse wurden statistisch nachgewiesen. Feststoffaufkommen und deren Partikelgröße liegen unabhängig vom Standort nur mit geringer Variabilität vor. Es besteht ein positiver Zusammenhang zwischen der Verkehrsstärke und dem Feststoffaufkommen. Organische Anteile sind eine Funktion der vorherrschenden Vegetation am Standort. Sie variieren saisonal. Es konnte ein negativ linearer Zusammenhang zwischen der Dichte und den organischen Anteilen nachgewiesen werden. Diese Arbeit liefert damit eine neue Datengrundlage für die Modellierung von Transportprozessen von Feststoffen und ihren absetzrelevanten Kenngrößen von unterschiedlichen Verkehrsflächen.
Weiter wurde ein Laborverfahren zur Bestimmung des Absetzverhaltens verkehrsflächenbürtiger Feststoffe in konstanter Zusammensetzung (Partikelgrößenverteilung und Feststoffkonzentration) entwickelt und mit der geschaffenen Datengrundlage validiert. Es wurden erste Erkenntnisse zum Absetzverhalten von Feststoffen, organischen Anteilen und Schwermetallen gewonnen. Im untersuchten Szenario sedimentieren die Partikel diskret bedingt durch die Partikelgröße und organischen Anteile. Das Absetzverhalten der Schwermetalle korreliert mit den Feststoffen. Überproportional hohe Schwermetallkonzentrationen in feinen Partikelanteilen bedeuten jedoch eine verringerte Absetzbarkeit der jeweiligen Schwermetallanteile.
Für die Behandlung von Abflüssen aus Verkehrsflächen mit viel Vegetation am Standort legen diese Ergebnisse nahe, dass mit reduzierten Feststoffwirkungsgraden aufgrund verminderter Absetzbarkeit leichterer Bestandteile mit geringer Dichte zu rechnen ist. Mit den Laborergebnissen konnte ein starker positiver Zusammenhang zwischen dem Feststoff- und Schadstoffwirkungsgrad bestätigt werden. Die Verteilung der Schwermetalle in Partikelgrößenklassen einer Feststoffprobe ist neben den organischen Anteilen und der Dichte ein wichtiger Parameter zur Einschätzung der Absetzbarkeit bei diskretem Absetzverhalten.
The famous Mather-Yau theorem in singularity theory yields a bijection of isomorphy classes of germs of isolated hypersurface singularities and their respective Tjurina algebras.
This result has been generalized by T. Gaffney and H. Hauser to singularities of isolated singularity type. Due to the fact that both results do not have a constructive proof, it is the objective of this thesis to extract explicit information about hypersurface singularities from their Tjurina algebras.
First we generalize the result by Gaffney-Hauser to germs of hypersurface singularities, which are strongly Euler-homogeneous at the origin. Afterwards we investigate the Lie algebra structure of the module of logarithmic derivations of Tjurina algebra while considering the theory of graded analytic algebras by G. Scheja and H. Wiebe. We use the aforementioned theory to show that germs of hypersurface singularities with positively graded Tjurina algebras are strongly Euler-homogeneous at the origin. We deduce the classification of hypersurface singularities with Stanley-Reisner Tjurina ideals.
The notion of freeness and holonomicity play an important role in the investigation of properties of the aforementioned singularities. Both notions have been introduced by K. Saito in 1980. We show that hypersurface singularities with Stanley--Reisner Tjurina ideals are holonomic and have a free singular locus. Furthermore, we present a Las Vegas algorithm, which decides whether a given zero-dimensional \(\mathbb{C}\)-algebra is the Tjurina algebra of a quasi-homogeneous isolated hypersurface singularity. The algorithm is implemented in the computer algebra system OSCAR.
Der intrinsisch chirale Ligand CpCH besteht aus einem Cyclopentadienkern und zwei benzannelierten Cycloheptatrienringen, deren sterische Abstoßung die beiden „Flügel“ des Ligandenrückgrates zu einer helicalen Anordnung zwingen. Im Rahmen dieser Arbeit wurden Derivate von CpCH mit sauerstofffunktionalisierten Seitenketten ausgehend von der Deprotonierung des Liganden und anschließender Umsetzung mit Epoxiden erhalten. Durch die Reaktion von (CpC)- mit enantiomerenreinem (R)-Propylenoxid gelang die Überführung des Liganden in diastereomere Alkoholderivate mit einem Diastereomerenüberschuss von 10 %. Des Weiteren wurden einfach und zweifach phosphanfunktionalisierte Derivate von CpCH synthetisiert. Die Reaktion dieser Liganden mit unterschiedlichen Vorstufen der späten und damit elektronenreichen Übergangsmetalle führte zu einer Reihe an Rhodium(I)-, Palladium(II)-, Gold(I)- und Ruthenium(II)komplexen mit potentiellem Einsatz in der Katalyse. Die fortsetzenden Arbeiten der direkten Reaktion von CpCH mit den basischen Dimethylamidovorstufen der zweiten Übergangsmetallreihe erlaubte den Abschluss der Arbeiten zu den Titan(IV)-, Zirkonium(IV)- und Hafnium(IV)komplexen der Struktur [(η5-CpC)M(NMe2)3]. Mit Hilfe des Thallium(I)-salzes von CpCH gelang die Übertragung des Liganden auf die späten Übergangsmetalle Ruthenium und Iridium. Der lichtinitiierte Ligandenaustausch der auf diesem Weg erhaltenen kationischen Ruthenium(II)arenkomplexe in Acetonitril führte zum entsprechenden Acetonitril-substituierten Komplex [(η5-CpC)Ru(CH3CN)3]PF6, der im Anschluss erfolgreich auf seine Aktivität in der Redoxisomerisierung allylischer Alkohole und Ligandenaustauschreaktionen mit zweizähnigen Phosphan-liganden untersucht wurde. Ausgehend von [(η5-CpC)Ru(η6-C8H8O2)]PF6 gelang die Synthese eines diastereomeren Amidkomplexes [(η5-CpC)Ru{η6-C6H5-(C=O)-NH-C8H9}]PF6 durch die direkte Aminolyse des koordinierenden Carbonsäureesters mit (R)-Methylbenzylamin. Des Weiteren wurde im Rahmen dieser Arbeit die Übertragung des von J.-Y. Chung erstmals erhaltenen Keton CpCO auf Triruthenium(0)dodekacarbonyl durchgeführt. Ausgehend von der Reaktion des isolierten Ruthenium(0)tricarbonylkomplexes mit 2-Propanol gelang die Isolierung eines neuartigen bimetallischen Hydridkomplexes, der im Anschluss erfolgreich auf eine Aktivität in der Oppenauer-Oxidation von Cholesterol und in der Redoxisomerisierung allylischer Alkohole getestet wurde. Neben des Erhaltens eines durch Autoxidation entstandenen Diepoxidderivates von CpCH, ergab die direkte Reaktion des Liganden mit Luftsauerstoff und Bengalrosa das erste cyclische Endoperoxid. Die Reaktion dieser Verbindung mit Aluminium(III)chlorid führte zu einem Umlagerungsprodukt bei dem, neben der Einführung einer Ketogruppe am zentralen Fünfring, zusätzlich eine [1,2]-Alkylwanderung innerhalb einer der beiden Cycloheptatrienringe des Liganden stattgefunden hat.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
3D hand pose and shape estimation from a single depth image is a challenging computer vision and graphics problem with many applications such as
human computer interaction and animation of a personalized hand shape in
augmented reality (AR). This problem is challenging due to several factors
for instance high degrees of freedom, view-point variations and varying hand
shapes. Hybrid approaches based on deep learning followed by model fitting
preserve the structure of hand. However, a pre-calibrated hand model limits
the generalization of these approaches. To address this limitation, we proposed a novel hybrid algorithm for simultaneous estimation of 3D hand pose
and bone-lengths of a hand model which allows training on datasets that contain varying hand shapes. On the other hand, direct joint regression methods
achieve high accuracy but they do not incorporate the structure of hand in
the learning process. Therefore, we introduced a novel structure-aware algorithm which learns to estimate 3D hand pose jointly with new structural constraints. These constraints include fingers lengths, distances of joints along
the kinematic chain and fingers inter-distances. Learning these constraints
help to maintain a structural relation between the estimated joint keypoints.
Previous methods addressed the problem of 3D hand pose estimation. We
open a new research topic and proposed the first deep network which jointly
estimates 3D hand shape and pose from a single depth image. Manually annotating real data for shape is laborious and sub-optimal. Hence, we created a
million-scale synthetic dataset with accurate joint annotations and mesh files
of depth maps. However, the performance of this deep network is restricted by
limited representation capacity of the hand model. Therefore, we proposed a
novel regression-based approach in which the 3D dense hand mesh is recovered
from sparse 3D hand pose, and weak-supervision is provided by a depth image synthesizer. The above mentioned approaches regressed 3D hand meshes
from 2D depth images via 2D convolutional neural networks, which leads to
artefacts in the estimations due to perspective distortions in the images. To
overcome this limitation, we proposed a novel voxel-based deep network with
3D convolutions trained in a weakly-supervised manner. Finally, an interesting
application is presented which is in-air signature acquisition and verification
based on deep hand pose estimation. Experiments showed that depth itself is
an important feature, which is sufficient for verification.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Acrylamid ist eine Lebensmittelkontaminante, welche durch die sogenannte Maillard-Reaktion im Lebensmittel gebildet wird. Acrylamid entsteht insbesondere bei der Zubereitung kohlenhydratreicher hocherhitzer Lebensmittel, wie z.B. Pommes frites, Chips, Cerealien und ähnlichen Produkten. Die mittlere tägliche Exposition, durch den Verzehr von Lebensmittel liegt bei ca. 0,4–1,9 µg/kg Körpergewicht und Tag. Darüber hinaus entsteht Acrylamid in Folge von Pyrolyseprozessen, weshalb Tabakrauchen einen weiteren Expositionsweg darstellt. Die Menge des dabei entstehenden Acrylamids im Hauptstrom von Zigarettenrauch liegt bei 1,1–2,3 µg/Zigarette. In Studien erwies sich die Substanz als reproduktions- und gentoxisch, sowie kanzerogen beim Nager und zudem als neurotoxisch sowohl im Nager als auch beim Menschen. Bereits 1994 wurde Acrylamid von der International Agency for Research on Cancer (IARC) als wahrscheinlich krebserzeugend für den Menschen (Gruppe 2A) eingestuft. Im Zuge des Fremdstoffmetabolismus wird Acrylamid in der Leber zu Glycidamid umgesetzt. Katalysiert wird die Reaktion durch das Enzym CYP2E1 ist. Als reaktives Epoxid kann Glycidamid an die DNA binden, wodurch das in vorliegender Arbeit behandelte N7-(2-Carbamoyl-2-Hydroxyethyl)-guanin (N7-GA-Gua), gebildet wird. Dieses DNA-Addukt bildet das Hauptaddukt der Reaktion aus GA und DNA-Bausteinen.
Ziel der vorliegenden Arbeit war es, eine hochsensitive UHPLC-ESIpos-MS/MS-Methode zu entwickeln, um damit anschließend eine mögliche Hintergrundbelastung mit Acrylamid anhand des N7-GA-Gua-Addukts sowohl im Tier als auch im Menschen nachzuweisen und damit eine bessere Datenlage über die Substanz zu erhalten.
Zu Beginn dieser Arbeit wurden Synthesen der für die chromatographische Analytik benötigten Verbindungen durchgeführt. Hierbei konnten erstmals Glycidamid Kristalle erhalten und untersucht werden. In nachfolgenden in-vitro-Experimenten wurden die Zytotoxizität von Acrylamid und dessen Metaboliten mittels Resazurin-Reduktionstest, sowie die Bildung von N7-GA-Gua in primären Rattenhepatozyten (pRH) nach Inkubation mit Acrylamid, untersucht. Im Resazurin Test erwies sich Acrylamid in Konzentrationen bis zu 2500 µM als nicht zytotoxisch und konnte daher zur Inkubation der Zellen mit Konzentrationen bis zu 2000 µM Acrylamid eingesetzt werden. Im anschließend durchgeführten Inkubationsversuch, bei dem die Zellen mit 2–2000 µM Acrylamid über 1, 16 oder 24 h inkubiert wurden, konnten in allen Testkonzentrationen N7-GA-Gua-Addukte bestimmt werden. Dank der im Rahmen dieser Arbeit entwickelten sensitiven analytischen Methode, konnten N7-GA-Gua-Addukte auch in den Organen (Lunge, Niere und teilweise Leber) vom Nager (C57BL/6jRj- und BKS(D) Leprdb/JOrLR Maus und Wistar-Ratte) bestimmt werden. Geschlechts- oder organabhängige Effekte konnten nicht festgestellt werden. Einzig die Anzahl an N7-GA-Gua lag in den C57BL/6jRj-Mäusen signifikant über denen der Wistar-Ratten. In der durchgeführten Humanstudie konnten im Blut von 48 der 60 Probanden Addukte nachgewiesen werden. Signifikante Einflüsse der Lebensführung, des Alters und der Ernährung der Probanden auf den Hintergrund-Adduktgehalte wurden nicht festgestellt; es ergab sich lediglich eine schwache Korrelation zwischen der Anzahl an N7-GA-Gua und dem Gewicht bzw. dem BMI der Studienteilnehmer.
Insgesamt liefert die vorliegende Arbeit wichtige Erkenntnisse über die Gehalte an N7-GA-Gua in vitro in primären Rattenhepatozyten, als auch in vivo in Organen von Ratte und Maus, sowie im Blut des Menschen. Die Ergebnisse tragen zur Verbesserung der Datenlage über Acrylamid bei. Insbesondere die Ergebnisse der durchgeführten Humanstudie liefern Einblicke in die Hintergrundbelastung an N7 GA-Gua im Querschnitt der Bevölkerung und können daher auch für die Risikobetrachtung von Acrylamid sowie zur Ableitung weiterer Forschungsarbeiten und Studien von Interesse sein.
In today’s world, mobile communication has become one of the most widely used technologies corroborated by growing number of mobile subscriptions and extensive usage of mobile multimedia services. It is a key challenge for the network operators to accommodate such large number of users and high traffic volume. Further, several day-to-day scenarios such as public transportation, public events etc., are now characterized with high mobile data
usage. A large number of users avail cellular services in such situations posing
high load to the respective base stations. This results in increased number of dropped connections, blocking of new access attempts and blocking of handovers (HO). The users in such system will thus be subjected to poor
Quality of Experience (QoE). Beforehand knowledge of the changing data traffic dynamics associated with such practical situations will assist in designing
radio resource management schemes aiming to ease the forthcoming congestion situations. The key hypothesis of this thesis is that consideration and utilization of additional context information regarding user, network and his environment is valuable in designing such smart Radio Resource Management(RRM) schemes. Methods are developed to predict the user cell transitions, considering the fact that mobility of the users is not purely random but rather direction oriented. This is particularly used in case of traffic dense moving network or group of users moving jointly in the same vehicle (e.g., bus, train, etc.) to
predict the propagation of high load situation among cells well in advance.
This enables a proactive triggering of load balancing (LB) in cells anticipating
the arrival of high load situation and accommodating the incoming user group or moving network. The evaluated KPIs such as blocked access
attempts, dropped connections and blocked HO are reduced.
Further, everyday scenario of dynamic crowd formation is considered as another potential case of high load situation. In real world scenarios such as open air festivals, shopping malls, stadiums or public events, several mobile users gather to form a crowd. This poses high load situation to the respective serving base station at the site of crowd formation, thereby leading to congestion. As a consequence, mobile users are subjected to poor QoE due to high dropping and blocking rates. A framework to predict crowd formation in a cell is developed based on coalition of user cell transition prediction, cluster detection and trajectory prediction. This framework is suitably used to prompt context aware load balancing mechanism and activate a small cell at the probable site of crowd formation. Simulations show that proactive LB
reduces the dropping of users (23%), blocking of users (10%) and blocked
HO (15%). In addition, activation of a Small Cell (SC) at the site of frequent
crowd formation leads to further reductions in dropping of users (60%),
blocking of users (56%) and blocked HO (59%).
Similar to the framework for crowd formation prediction, a concept is developed for predicting vehicular traffic jams. Many vehicular users avail broadband cellular services on a daily basis while traveling. The density of such vehicular users change dynamically in a cell and at certain sites (e.g.
signal lights), traffic jams arise frequently leading to a high load situation at
respective serving base station. A traffic prediction algorithm is developed
from cellular network perspective as a coalition strategy consisting of schemes to predict user cell transition, vehicular cluster/moving network detection, user velocity monitoring etc. The traffic status indication provided by the algorithm is then used to trigger LB and activate/deactivate a small cell suitably. The evaluated KPIs such as blocked access attempts, dropped connections
and blocked HO are reduced by approximately 10%, 18% and 18%, respectively due to LB. In addition, switching ON of SC reduces blocked access attempts, dropped connections and blocked HO by circa 42%, 82% and 81%, respectively.
Amidst increasing number of connected devices and traffic volume, another key issue for today’s network is to provide uniform service quality
despite high mobility. Further, urban scenarios are often characterized by
coverage holes which hinder service continuity. A context aware resource allocation scheme is proposed which uses enhanced mobility prediction to facilitate service continuity. Mobility prediction takes into account additional information about the user’s origin and possible destination to predict next road segment. If a coverage hole is anticipated in upcoming road, then additional
resources are allocated to respective user and data is buffered suitably.
The buffered data is used when the user is in a coverage hole to improve service continuity. Simulation shows improvement in throughput (in coverage
hole) by circa 80% and service interruption is reduced by around 90%, for a
non-real-time streaming service. Additionally, investigation of context aware procedures is carried out with a focus on user mobility, to find commonalities among different procedures and a general framework is proposed to support mobility context awareness. The new information and interfaces which are required from various entities
(e.g., vehicular infrastructure) are discussed as well.
Device-to-Device (D2D) communications commonly refer to the technology
that enables direct communication between devices, hence relieving the
base station from traffic routing. Thus, D2D communication is a feasible
solution in crowded situations, where users in proximity requesting to communicate with one another could be granted D2D links for communication, thereby easing the traffic load to serving base station. D2D links can potentially
reuse the radio resources from cellular users (known as D2D underlay) leading to better spectral utilization. However, the mutual interference can hinder system performance. For instance, if D2D links are reusing cellular uplink resources then D2D transmissions cause interference to cellular uplink at base station. Whereas, cellular transmissions cause interference to
D2D receivers. To cope up with such issues, location aware resource allocation
schemes are proposed for D2D communication. The key aim of such RA scheme is to reuse resources with minimal interference. The RA scheme based on virtual sectoring of a cell leads to approximately 15% more established
links and 25% more capacity with respect to a random resource allocation. D2D transmissions cause significant interference to cellular links with
which they reuse physical resource blocks, thereby hindering cellular performance. Regulating D2D transmissions to mitigate the aforementioned problem would mean sub-optimal exploitation of D2D communications. As
a solution, post-resource allocation power control at cellular users is proposed.
Three schemes namely interference aware power control, blind power
control and threshold based power control are discussed. Simulation results
show reductions in dropping of cellular users due to interference from D2D
transmissions, improvement in throughput at base station (uplink) while not hindering the D2D performance.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
The number of sequenced genomes increases rapidly due to the development of faster, better and new technologies. Thus, there is a great interest in automation, and standardization of the subsequent processing and analysis stages of the generated enormous amount of data. In the current work, genomes of clones, strains and species of Streptococcus were compared, which were sequenced, annotated and analysed with several technologies and methods. For sequencing, the 454- and Illumina-technology were used. The assembly of the genomes mainly was performed by the gsAssembler (Newbler) of Roche, the annotation was performed by the annotation pipeline RAST, the transfer tool RATT or manually. Concerning analysis, sets of deduced proteins of several genomes were compared to each other and common components, the so-called core-genome, of the used genomes of one or closely related species determined. Detailed comparative analysis was performed for the genomes of isolates of two clones to gather single nucleotide variants (SNV) within genes.
This work focusses on the pathogenic organism Streptococcus pneumoniae. This species is a paradigm for transformability, virulence and pathogenicity as well as resistance mechanisms against antibiotics. Its close relatives S. mitis, S. pseudopneumoniae and S. oralis have no pathogenicity potential as high as S. pneumoniae available and are thus of high interest to understand the evolution of S. pneumoniae. Strains of two S. pneumoniae clones were chosen. One is the ST10523 clone, which is associated with patients with cystic fibrosis and is characterized by long-term persistence. This clone is lacking an active hyaluronidase, which is one of the main virulence factors. The lack of two phage clusters possibly contributed to the long persistence in the human host. The clone ST226 shows a high penicillin resistance but interestingly one strain is sensitive against penicillin. Here it could be seen that the penicillin resistance mainly arose from the presence of mosaic-PBPs, while special alleles of MurM and CiaH - both genes are associated with penicillin-resistance – were present in resistant and sensitive strains as well. Penicillin resistance of S. pneumoniae is the result of horizontal gene transfer, where DNA of closely related species, mainly S. mitis or S. oralis, served as donor. The transfer of DNA from the high-level penicillin-resistant strain S. oralis Uo5 to the sensitive strain S. pneumoniae R6 was intentioned to reveal the amount of transferred DNA and whether it is possible to reach the high resistance level of S. oralis Uo5. Altogether, about 19kb of S. oralis DNA were transferred after three successive transformation steps, about 10-fold less than during transfer from S. mitis, which is more closely related to S. pneumoniae, as donor. MurE was identified as new resistance determinant. Since the resistance level of the donor strain could not be reached, it is assumed, that further unknown factors are present which contribute to penicillin resistance. The comparison of S. pneumoniae and its close relatives was performed using deduced protein sequences. 1.041 homologous proteins are common to the four complete genomes of S. pneumoniae R6, S. pseudopneumoniae IS7493, S. mitis B6 and S. oralis Uo5. Most of the virulence and pathogenicity factors described for S. pneumoniae could also be found in commensal species. These observations were confirmed by further investigations by Kilian et al. (Kilian, et al., 2019). After adding 26 complete S. pneumoniae genomes to the analysis, only 104 gene products could be identified as specific for this species. Investigations of a larger number of related streptococci, which were isolated from human and several primates, confirmed the presence of most of the virulence factors of human pneumococci in S. oralis and S. mitis strains from primates. While NanBC is common among S. pneumoniae and is missing in all S. oralis, all S. oralis contain a ß-N-acetyl-hexosaminidase which vice versa is missing in S. pneumoniae. The occurrence of S. oralis also in free-living chimpanzees suggests the assumption, that this species is part of the commensal flora of these Old-World monkeys unlike S. pneumoniae which has evolved with its human host. Compared to S. pneumoniae, S. oralis shows an amazing variability in factors important for biosynthesis of peptidoglycan and teichoic acid (PBP, MurMN, lic-cluster). Some streptococci contain a second PGP3 homologue. Additional analyses with further isolates, especially of wild animals, are necessary to determine host-specific components.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
In recent years, thermoplastic composites (TPCs) have been increasingly used for
aerospace and automotive applications. But also other industrial sectors, such as the
medical technology, have discovered the benefits of this material class. Compared to
thermoset composites, TPCs can be recycled more easily, remelted, and welded. In
addition to that, TPC parts can be produced economically and efficiently. As an example,
short cycle times and high production rates of TPCs can be realised with the
injection moulding processing technology. Injection moulded parts have the advantage
that function integration is feasible with relatively little effort.
However, these parts are characterised by discontinuous fibre reinforcement. Fibres
are randomly distributed within the part and fibre orientation can show significant local
variations. Whereas the highest stiffness and strength values of the material are
achieved parallel to fibre orientation, the lowest values are present in transverse direction.
As a consequence, structural mechanical properties of injection moulded
discontinuous fibre reinforced parts are lower compared to their continuous fibre reinforced
counterparts. Continuous fibre reinforced components show excellent specific
mechanical properties. However, their freedom in geometrical product design is restricted.
The aim of this work is to extend the applicability of TPCs for structural mass products
due to the realisation of a high-strength interface between discontinuous and
continuous fibre reinforced material. A hybrid structure with unique properties is produced
by overmoulding a continuous unidirectional endless carbon fibre (CF) reinforced
polyether ether ketone (PEEK) insert with discontinuous short CF reinforced
PEEK. This approach enables the manufacturing of structural mass products in short
cycle times which require both superior structural mechanical properties and sufficient
freedom in product design. However, sufficient interface strength between the discontinuous
and continuous component is required.
This research is based on the application case of a pedicle screw system which is
a spinal implant used for spine stabilisation and fusion. Since the 1990s, CF-PEEK
has been successfully used for spinal cages, and recently also for pedicle screws and
pedicle screw systems. Compared to metallic implants, CF-PEEK implants show several
advantages, such as the reduction of stress shielding, the prevention of artefacts
in medical imaging technologies (X-ray, computer tomography scan, or magnetic resonance
imaging) or the avoidance of backscattering during radiotherapy. Pedicle screws,
which are used in the lumbar spine region, are subjected to high forces and moments.
Therefore, a hybrid composite pedicle screw was developed which is based on the
overmoulding process described before.
Different adherence tests were conducted to characterise the interface strength between
short and endless CF reinforced PEEK. However, no standardised test method
existed for interface strength characterisation of overmoulded structures. Sufficient interface
strength could only be achieved if a cohesive interface was formed. Cohesive
interface formation due to the melting of the surface of the endless CF reinforced PEEK
insert after contact with the molten mass required an insert pre-heating temperature of
at least 260 °C prior to overmoulding. Because no standardised test method existed
for interface strength characterisation of overmoulded structures, a novel test body was
developed. This cylinder pull-out specimen did not require any relevant rework steps
after manufacturing so that the interface strength could be directly tested after overmoulding.
Pre-heating of the endless CF reinforced PEEK inserts resulted in a 73%
increase in interface strength compared to non-pre-heated inserts.
In addition to that, a parametric finite element pedicle screw-bone model was developed.
By parametric optimisation, the optimal hybrid composite pedicle screw design
in terms of pull-out resistance was found. Within the underlying design space, the
difference in screw stability between the worst and the best screw design was approximately
12 %. The resulting design recommendations had to be opposed to the
manufacturing requirements to define the final screw design. The moulds of the injection
moulding machine were manufactured according to this design so that the hybrid
composite pedicle screw could be produced.
The findings of extensive material and interface characterisation were crucial for the
achievement of a cohesive interface between insert and overmould so that superior
structural mechanical properties of the hybrid composite pedicle screw could be
achieved. For example, the bending strength of hybrid composite screws was approximately
48% higher than the bending strength of discontinuous short CF reinforced
PEEK screws. Additionally, fatigue resistance was enhanced by the hybrid screw configuration
so that the risk of premature pedicle screw failure could be reduced. In the
breaking torque test, hybrid composite screws showed a reduction of 11% in their
breaking torque values compared to their discontinuous fibre reinforced counterparts.
However, not only in this test but also in the quasi-static and cyclic bending test, structural
integrity of the hybrid composite screws could be maintained which is important
for implant components.
Die automatisierte Faserablage bietet ein hohes Potenzial zur individuellen Herstellung
belastungsgerechter, kontinuierlich faserverstärkter Verbundwerkstoffe, wodurch
diese Fertigungstechnologie zur Herstellung thermoplastischer
Hochleistungsverbundbauteile immer mehr in den Fokus aktueller Entwicklungen
rückt. Hierbei beschränkt sich diese Technologie derzeit hauptsächlich auf die
Verarbeitung von vollimprägnierten und -konsolidierten Halbzeugen (Tapes). Im
Rahmen dieser Arbeit wurde eine neu konzeptionierte Prozesskette, basierend auf der
Kombination trockener Rovings (GF) und Polymerpulver (PC/PBT) zu
thermoplastischen Pulver-Towpregs, deren anschließender, automatisierter
Faserablage zu vorimprägnierten Preforms und der Direktimprägnierung im
variothermen Pressprozess, durchlaufen. Mit Hilfe der statistischen Versuchsplanung
wurden die Prozessschritte der Faserablage und des variothermen Pressprozesses
methodisch untersucht. Die daraus resultierenden Ergebnisse liefern ein
grundlegendes Prozessverständnis der einzelnen Prozessschritte hinsichtlich der
Imprägniermechanismen und -fortschritte. Es konnte gezeigt werden, dass im
Tapelegeprozess maßgeblich eine Makroimprägnierung der Faserstruktur erreicht
wird, welche auch den nachfolgenden Pressprozess signifikant beeinflusst. Die
Ergebnisse dieser Arbeit bilden somit die Grundlage zu Verständnis und Anwendung
der neuen Prozesskette, sowie der Einstellung und Bewertung der Prozessparameter
zur Herstellung kontinuierlich, lastgerecht faserverstärkter Thermoplaste mit
individuellen Matrix- und Faserwerkstoffen.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Diese Arbeit verbessert einige Prozessschritte zur Auslegung hochbeanspruchter Bauteile aus
endlosfaserverstärkten Faser-Thermoplast-Verbunden am Beispiel von CF-PA6 Mehrschichtverbunden.
Hierzu werden neue Verfahren zur Konditionierung hygroskopischer Werkstoffe und der
Bestimmung des relativen Faservolumenanteils entwickelt, wodurch der Aufwand zur Werkstoffcharakterisierung
signifikant reduziert werden kann.
Durch Versuche an CF-PA6 Schichten wird das mechanische Verhalten des Werkstoffs hinsichtlich
dem Spannungs-Verzerrungs- und Bruchverhalten analysiert. Dazu werden speziell die Unterschiede
zu Faser-Duroplast-Verbunden durch Berechnungen auf mikromechanischer Ebene herausgearbeitet.
Zusätzlich wird der Einfluss des verwendeten Verarbeitungsverfahrens (Tapelegen) auf
die mechanischen Werkstoffkennwerte charakterisiert.
Auf Basis der gewonnenen Erkenntnisse wird eine neue Werkstoffroutine entwickelt und in ein Berechnungsprogramm
zur Analyse mechanischer Strukturen mit Hilfe der Finiten Elemente Methode
implementiert. Dadurch kann unter anderem das nichtlineare Verhalten von Faser-Thermoplast-
Verbunden unter großen Verzerrungen und die Degradation einzelner Schichten eines Mehrschichtverbunds
abgebildet werden. Ein Vergleich der Ergebnisse von Versuchen an Mehrschichtverbunden
und der Berechnung zeigt gute Übereinstimmung und die Leistungsfähigkeit der Routine auf Bauteilebene.
This work improves the process steps for the design of highly stressed components made of continuous
fiber-reinforced thermoplastics using as example CF-PA6 multilayer composites. For this
purpose, new methods for conditioning hygroscopic materials and determining the relative fiber
volume fraction were developed. This reduces the expense of material characterization significantly.
Tests on CF-PA6 layers are used to analyze the mechanical behavior of the material in terms of
stress-strain and fracture behavior. In particular, the differences to fiber-reinforced thermosets are
highlighted by using calculations on a micromechanical level. Additionally, the influence of the
processing method (tape laying) on the mechanical material properties is characterized.
Based on the knowledge gained, a new material routine is developed and implemented into a
calculation program for the analysis of mechanical structures using the finite element method.
Through this work it is now possible to calculate nonlinear behavior of fiber-reinforced thermoplastics
under large distortions and the degradation of individual layers of a multi-layer composite.
A comparison of experimental data with the calculation of multilayer composites shows good
agreement and the performance for the application on a component-level.
This thesis introduces a novel deformation method for computational meshes. It is based on the numerical path following for the equations of nonlinear elasticity. By employing a logarithmic variation of the neo-Hookean hyperelastic material law, the method guarantees that the mesh elements do not become inverted and remain well-shaped. In order to demonstrate the performance of the method, this thesis addresses two areas of active research in isogeometric analysis: volumetric domain parametrization and fluid-structure interaction. The former concerns itself with the construction of a parametrization for a given computational domain provided only a parametrization of the domain’s boundary. The proposed mesh deformation method gives rise to a novel solution approach to this problem. Within it, the domain parametrization is constructed as a deformed configuration of a simplified domain. In order to obtain the simplified domain, the boundary of the target domain is projected in the \(L^2\)-sense onto a coarse NURBS basis. Then, the Coons patch is applied to parametrize the simplified domain. As a range of 2D and 3D examples demonstrates, the mesh deformation approach is able to produce high-quality parametrizations for complex domains where many state-of-the-art methods either fail or become unstable and inefficient. In the context of fluid-structure interaction, the proposed mesh deformation method is applied to robustly update the computational mesh in situations when the fluid domain undergoes large deformations. In comparison to the state-of-the-art mesh update methods, it is able to handle larger deformations and does not result in an eventual reduction of mesh quality. The performance of the method is demonstrated on a classic 2D fluid-structure interaction benchmark reproduced by using an isogeometric partitioned solver with strong coupling.
Zeolithe sind poröse, kristalline Katalysatoren, deren Poren in der Größenordnung von Reaktandmolekülen liegen. Es gibt die Möglichkeit, verschiedene Kristallgitter von Zeolithen miteinander zu kombinieren, woraus Mischtopologien, sog. Intergrowths, entstehen. Mischtopologien, wie z. B. Zeolith ZSM-20, haben die Besonderheit, dass diese durch die Kombination zweier Gittertypen andere (katalytische) Eigenschaften aufweisen können, als die einzelnen Zeolithgittertypen, aus denen sie bestehen. Somit stellen Intergrowths eine interessante Erweiterung der ohnehin großen Vielfalt an Zeolithen dar. Im Fokus dieser Arbeit stehen die Synthese und die Modifikation, in Form der Dealuminierung, von Zeolithen mit Faujasit-Topologie in der Flüssigphase. Mittels Dealuminierung, welche eine der wichtigsten post-synthetischen Modifikationsmethoden darstellt, lassen sich unter anderem die sauren Eigenschaften der Zeolithe verändern. Die katalytischen Untersuchungen der Zeolithe wurden mittels einer Testreaktion (Disproportionierung von Ethylbenzol) durchgeführt. Die unterschiedlichen Dealuminierungsparameter wurden an den verschiedenen Zeolithen mit Faujasit-Topologie systematisch untersucht und für Zeolith ZSM-20 optimiert. Es konnten erfolgreich verschiedene Modifikationen der Zeolithen mit Faujasitstruktur mit unterschiedlichen Dealuminierungsgraden hergestellt werden. Diese wurden im Anschluss mittels der Ethylbenzoldisproportionierung katalytisch getestet und die Auswirkungen der Modifikationen in der Katalyse untersucht.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
Complex global sustainability challenges cannot be solved by governance and technology alone, but rather demand a broader cultural shift towards sustainability. Various authors postulate that a social change towards more sustainability can be manifested by a shift in human consciousness towards a more spiritual mindset. Similarly, the contemporary discourse in business literature increasingly emphasizes the importance of spirituality for business sustainability. This cumulative dissertation attempts to explore how the individual’s spirituality may be connected to business sustainability. Therefore, I carried out three studies on specific research gaps in the broad field of the connection between individual spirituality and business sustainability. Paper one (Chapter 2) addresses the general connection between the individual`s spirituality and business sustainability. The goal of the applied systematic literature review was to gain an overview of the themes that are discussed in the related literature and build a cohesive framework. This paper contributes to the literature stream of spirituality in business.
Paper two and three focus on the individual level of spirituality and business sustainability. In paper two (chapter three), we address the spiritual practice mindfulness, a secularized, widely discussed Eastern spiritual practice that is gaining popularity in the Western (business) world. Katharina Spraul co-authored this paper. Mindfulness describes a nonjudgemental, nonevaluative process of paying attention to what is happening internally and externally. We connect mindfulness to business sustainability in such a way that we hypothesize that mindfulness serves as a moderator between the intention and behavior relationship in the field of green employee behavior. Employee pro-environmental behavior was found to be an important antecedent of ecological and economic business sustainability, such as green procurement, and ecological efficiency. In order to test this hypothesis, we applied a quantitative prospective design, assessing variables at two points of time. This paper enhances the theoretical strands of mindfulness research and employee green behavior.
Paper three (chapter four) was written in co-authorship with Katharina Spraul. In this study, in terms of spiritual practices, we focus on German part-time yoga teachers. We investigate the meaningfulness experience of multiple jobholders with the case of part-time yoga teachers. Empirical research has linked meaningful work to job satisfaction and health (social sustainability) as well as work engagement and performance (economic sustainability). We pose the questions: What were the motives to start the secondary job as a yoga teacher? Which job is perceived as more meaningful and why? How does teaching yoga affect the meaningfulness of the primary, organizational job? In order to answer these questions, we applied a mixed method design. On the one hand, we conducted narrative interviews with part-time yoga teachers. On the other hand, we asked these interviewees to rank and rate Rosso et al.'s (2010) seven meaningfulness mechanisms for their jobs (with which we calculated meaningfulness values of each job). With this paper, we address gaps in research on meaningful work and multiple jobholders.
Considering the outlined theoretical strands, this cumulative dissertation contributes to sustainable development by a differentiated discussion of the relationship between the individual’s spirituality and business sustainability.
In this thesis, we present the basic concepts of isogeometric analysis (IGA) and we consider Poisson's equation as model problem. Since in IGA the physical domain is parametrized via a geometry function that goes from a parameter domain, e.g. the unit square or unit cube, to the physical one, we present a class of parametrizations that can be viewed as a generalization of polar coordinates, known as the scaled boundary parametrizations (SB-parametrizations). These are easy to construct and are particularly attractive when only the boundary of a domain is available. We then present an IGA approach based on these parametrizations, that we call scaled boundary isogeometric analysis (SB-IGA). The SB-IGA derives the weak form of partial differential equations in a different way from the standard IGA. For the discretization projection
on a finite-dimensional space, we choose in both cases Galerkin's method. Thanks to this technique, we state an equivalence theorem for linear elliptic boundary value problems between the standard IGA, when it makes use of an SB-parametrization,
and the SB-IGA. We solve Poisson's equation with Dirichlet boundary conditions on different geometries and with different SB-parametrizations.
Additive 3D-Drucksverfahren ermöglichen eine automatisierte wie flexible Fertigung
komplexer 3D-Geometrien direkt aus einem CAD-Modell ohne die Notwendigkeit ei
nes bauteilspezifischen Werkzeugs. Nachteil vor allem beim 3D-Drucken von Kunst
stoffen sind jedoch die geringen mechanischen Eigenschaften, die auf verfahrensbe
dingte Herausforderungen, aber auch auf eine eingeschränkte Auswahl verarbeitba
rer Materialien zurückzuführen sind. Eine Möglichkeit die mechanischen Eigenschaf
ten von Kunststoffen zu verbessern, ist die Kombination mit Verstärkungsfasern. Die
höchste Verstärkungswirkung entfalten Faser-Kunststoff-Verbunde (FKV) wenn die
Fasern kontinuierlich und in Lastrichtung vorliegen. Um ihr volles Potential zu entfal
ten, müssen FKV daher möglichst gut an die jeweiligen Anwendungen angepasst
werden. Das erschwert eine automatisierte und effiziente Fertigung, gerade von
komplexeren Strukturen. Ziel der Arbeit war daher die Entwicklung eines 3D
Verfahrens für kontinuierlich faserverstärkte Kunststoffe. Hierdurch soll das Anwen
dungsspektrum kunststoffbasierter 3D-Druck-Verfahren vergrößert und gleichzeitig
eine effiziente sowie flexible Fertigung komplexer FKV-Strukturen ermöglicht werden.
Das entwickelte Prozesskonzept basiert dabei auf 3D-Druck-Extrusionsverfahren für
thermoplastische Kunststoffe. Im sogenannten Fiber Integrated Fused Deposition
Modeling Prozess, kurz FIFDM, werden bereits imprägnierte Halbzeuge in Form von
kontinuierlich faserverstärkten Thermoplaststrängen (FTS) verarbeitet. Um die Fa
serorientierung frei einstellen zu können, werden die Stränge nicht wie herkömmlich
nur schichtweise, sondern frei in alle Raumrichtungen positioniert. Realisiert wird dies
über die Steuerung der FTS-Temperatur nach der Extrusion. Im Rahmen dieser Ar
beit wurde zur Quantifizierung und zum einfachen Vergleich der Halbzeugqualität ein
Qualitätsanalyseverfahren entwickelt und damit ein geeigneter FTS für weitere Pro
zessuntersuchungen ausgewählt. Zudem wurde eine FIFDM-Prototypenanlage ent
wickelt und aufgebaut. Mithilfe der thermischen Simulation des Extrusions- und Ab
kühlprozesses konnten thermische Prozessgrenzen auch für die 3D-Ablage im Raum
definiert werden. In einer umfassenden experimentellen Prozessanalyse wurde zu
dem untersucht, welche Prozessparameter einen Einfluss auf verschiedene Zielgrö
ßen der Prozessstabilität und Bauteilqualität besitzen. Ausgehend von den Erkennt
nissen aus dieser Arbeit wurden eine erste Einschätzung des Prozesspotentials vor
genommen und Vorschläge zur Prozessoptimierung formuliert.
3D printing enables automated and flexible production of complex 3D geometries
directly from a CAD model without the need for a component-specific tool. However,
the disadvantage, especially in the Additive Manufacturing (AM) of polymers, is the
low mechanical properties, which can be attributed to process-related challenges and
to a limited selection of processable materials. One way of improving the mechanical
properties of polymers is to combine them with reinforcing fibers. The highest rein
forcing effect for Fiber Reinforced Polymer Composites (FRPC) is achieved when the
fibers are continuously present in load direction. In order to develop their full poten
tial, FRPC must therefore be adapted as well as possible to the respective applica
tion. This complicates automated and efficient production, especially of more com
plex structures. The aim of the work was therefore to develop an AM process for con
tinuously fiber-reinforced polymers. This should increase the range of applications for
polymer-based AM processes and at the same time enable efficient and flexible pro
duction of complex FRPC structures. The developed process concept is based on 3D
printing extrusion processes for thermoplastics. In the so-called Fiber Integrated
Fused Deposition Modeling Process (FIFDM) already impregnated semi-finished
products are processed in the form of continuously fiber-reinforced thermoplastic
strands (FTS). In order to be able to freely adjust the fiber orientation, the strands can
be positioned in all spatial directions, not just layer by layer as is the case with con
ventional AM systems. This is realized by controlling the FTS temperature after ex
trusion. As part of this work, a quality analysis method was developed for quantifying
and comparing the semi-finished product quality and a suitable FTS was thus select
ed for further process investigations. In addition, a FIFDM prototype unit was devel
oped and set up. With the help of thermal simulation of the extrusion and cooling
process, thermal process limits could also be defined for the 3D placement in all spa
tial directions. In a comprehensive experimental process analysis, it was investigated
which process parameters have an influence on different target parameters of pro
cess stability and component quality. Based on the results of this work, an initial as
sessment of the process potential was made and proposals for process optimization
were formulated.
Fibre reinforced polymers(FRPs) are one the newest and modern materials. In FRPs a light polymer matrix holds but weak polymer matrix is strengthened by glass or carbon fibres. The result is a material that is light and compared to its weight, very strong.\par
The stiffness of the resulting material is governed by the direction and the length of the fibres. To better understand the behaviour of FRPs we need to know the fibre length distribution in the resulting material. The classic method for this is ashing, where a sample of the material is burned and destroyed. We look at CT images of the material. In the first part we assumed that we have a full fibre segmentation, we can fit an a cylinder to each individual fibre. In this setting we identified two problems, sampling bias and censoring.\par
Sampling bias occurs since a longer fibre has a higher probability to be visible in the observation window. To solve this problem we used a reweighed fibre length distribution. The weight depends on the used sampling rule.\par
For the censoring we used an EM algorithm. The EM algorithm is used to get a Maximum Likelihood estimator in cases of missing or censored data.\par
For this setting we deduced conditions such that the EM algorithm converges to at least a stationary point of the underlying likelihood function. We further found conditions such that if the EM converges to the correct ML estimator, the estimator is consistent and asymptotically normally distributed.\par
Since obtaining a full fibre segmentation is hard we further looked in the fibre endpoint process. The fibre end point process can be modelled as a Neymann-Scott cluster process. Using this model we can find a formula for the reduced second moment measure for this process. We use this formula to get an estimator for the fibre length distribution.\par
We investigated all estimators using simulation studies. We especially investigated their performance in the case of non overlapping fibres.
Ein ressourcenschonender Umgang mit Rohstoffen ist eines der vorrangigen Ziele des 21. Jahrhunderts und erfährt immer mehr Aufmerksamkeit in der Öffentlichkeit. Einen nicht unerheblichen Beitrag zur Reduzierung des Ressourcenbedarfs kann der Einsatz von Hohlkörpern in Stahlbetondecken beisteuern. Durch den verminderten Betoneinsatz wird weniger CO2 bei der für den Beton erforderlichen Zementherstellung emittiert. Einen weiteren positiven Aspekt für den Einbau von Hohlkörpern in Stahlbetondecken stellt das deutlich reduzierte Eigengewicht dar, welches größere Spannweiten bei gleicher Deckenstärke ermöglicht.
Während sich die Biegetragfähigkeit einer Stahlbetonhohlkörperdecke lediglich geringfügig von der Biegetragfähigkeit einer massiven Stahlbetondecke unterscheidet, wird die Querkrafttragfähigkeit durch den Einbau der Hohlkörper deutlich reduziert. Die Querkrafttragfähigkeit der Hohlkörperdecke liegt bei den bislang im Bauwesen eingesetzten Hohlkörpern bei ungefähr 50 % der Querkrafttragfähigkeit einer baugleichen Vollmassivdecke, so dass die Hohlkörper in den Bereichen einer Decke, in denen hohe Querkräfte vorliegen, nicht eingebaut werden dürfen. Dies führt zu einer deutlichen Einschränkung des Einsatzbereiches der Hohlkörper. Da die Hohlkörperformen bislang keinem Optimierungsprozess hinsichtlich der Querkrafttragfähigkeit unterzogen wurden, sind die in der Baupraxis verwendeten Hohlkörperformen keinesfalls als optimal anzusehen.
In dieser Arbeit wird mit Hilfe eines mehrkriteriellen Optimierungsprozesses, basierend auf der Methode der Genetischen Programmierung, eine Hohlkörperform identifiziert, die hinsichtlich der beiden konträren Optimierungskriterien „hohe Querkrafttragfähigkeit“ und „hohe Betonvolumenverdrängung“ einen guten Kompromiss darstellt. Neben den numerischen FEM-Berechnungen zur Ermittlung der Querkrafttragfähigkeit, welche u.a. auch während des Optimierungsprozesses zur Anwendung kommen, wird die Querkrafttragfähigkeit von Plattenstreifen mit den optimierten Hohlkörpern zusätzlich in Bauteilversuchen überprüft. Um ein ganzheitlich durchdachtes neues Hohlkörperdeckensystem zu entwickeln, werden neben der Optimierung der Querkrafttragfähigkeit auch zahlreiche weitere Untersuchungen zur Optimierung des Materialeinsatzes sowie zur Transport- und Einbausituation durchgeführt.
Des Weiteren bildet die Entwicklung eines mechanisch begründeten Bemessungsmodells zur Ermittlung der Querkrafttragfähigkeit einer Hohlkörperdecke einen wesentlichen Bestandteil der vorliegenden Arbeit. Um ein abgesichertes Modell zu erstellen, welches die Querkrafttragfähigkeit realitätsnah abbildet, sind fundierte Kenntnisse zum Querkrafttragverhalten erforderlich. Dafür werden neben einer mittels der Finite Elemente Methode durchgeführten umfangreichen Parameterstudie, in der zahlreiche Einflussfaktoren auf die Querkrafttragfähigkeit von Hohlkörperdecken untersucht werden, ergänzend Bauteilversuche mit variierender Hohlkörperhöhenlage durchgeführt.
Obwohl die Durchführung von Stadtfesten vielerorts auf eine jahrzehntelange Tradition zurückgeht, sehen sich die Organisatoren von Großveranstaltungen in den letzten Jahren mit erhöhten Anforderungen an die Umsetzung ihrer Aufgaben konfrontiert. Insbesondere die Tragödie auf der Loveparade in Duisburg 2010 stieß eine Diskussion zu bestehenden Sicherheitsstandards an und zeigte, dass diese überdacht und neu geprüft werden mussten. Aber auch neue Gefährdungslagen durch terroristische Bedrohungen, ein sich zunehmend durchsetzender Präventionsgedanke und der gesellschaftliche Trend zur „Eventisierung“ wirken sich auf die Planungspraxis und die Genehmigungsverfahren von Großveranstaltungen aus. Da die Erstellung eines Sicherheitskonzeptes für eine Open-Air Veranstaltung in Deutschland (bislang) nicht obligatorisch ist, sind Praktiken der Sicherheitsproduktion vor dem Hintergrund lokalspezifischer Bedingungen zu betrachten.
In der vorliegenden Arbeit wurde den Fragen nachgegangen, inwiefern sich lokale Praktiken der Sicherheitsproduktion auf Stadtfesten unterscheiden, wie sie sich in der nahen Vergangenheit gewandelt haben und wie unterschiedliche Entwicklungsprozesse begründet werden können. Mit Hilfe eines empirischen Fallvergleichs von zwei Stadtfesten wurden Organisationsstrukturen, Sicherheitskonzepte und Sicherheitsgefühle untersucht. Methodisch basiert die Arbeit auf Experteninterviews mit relevanten Entscheidungsträgern, zwei Dokumentenanalysen von Sicherheitskonzepten, der Beschreibung sicherheitsrelevanter räumlicher Parameter auf den Veranstaltungsflächen und zwei quantitativen Befragungen von Stadtfestbesuchern. Die Forschungsfrage wurde vor dem Hintergrund einer sich wandelnden Sicherheitskultur diskutiert.
Die Ergebnisse zeigen, dass sich insbesondere Praktiken der Sicherheitskonzeption auf beiden Stadtfesten trotz ähnlicher Rahmenbedingungen unterschiedlich entwickelt haben. Empirisch lässt sich der eingetretene Wandlungsprozess durch verschiedene Faktoren begründen. Dazu zählen u.a. eine positive Grundhaltung und eine solide fachliche Kenntnis der Entscheidungsbefugten in Bezug auf Sicherheitsfragen, ein empfundener Handlungsdruck, eine zugrundeliegende Innovationsbereitschaft, unmittelbar erlebte und folgenreiche Negativerfahrungen, ein positives Feedback und die Unterstützung und Förderung durch übergeordnete lokalpolitische Instanzen, die sowohl ideelle Leitlinien vorgeben als auch finanzielle Unterstützung leisten. Professionell gestaltete Sicherheitskonzepte fördern zwar die Umsetzung zusätzlicher Sicherheitsmaßnahmen, jedoch konnte nicht festgestellt werden, dass sich Sicherheitskonzepte oder einzelne Sicherheitsmaßnahmen auf das subjektive Sicherheitsgefühl der Festbesucher auswirken. Ob sich sicherheitskulturelle Wandlungsprozesse vollziehen, hängt in erster Linie von den lokalen Bedingungen ab, d.h. von den einzelnen Personen vor Ort und von deren Erfahrungen, Werten, Einstellungen und deren Kooperationsbereitschaft. Die lokalen Bedingungen innerhalb des untersuchten Ereignisraums erscheinen in ihrer Wirkung auf Wandlungsprozesse deshalb stärker als der tiefe Kontext der Sicherheitskultur.
On the complexity and approximability of optimization problems with Minimum Quantity Constraints
(2020)
During the last couple of years, there has been a variety of publications on the topic of
minimum quantity constraints. In general, a minimum quantity constraint is a lower bound
constraint on an entity of an optimization problem that only has to be fulfilled if the entity is
“used” in the respective solution. For example, if a minimum quantity \(q_e\) is defined on an
edge \(e\) of a flow network, the edge flow on \(e\) may either be \(0\) or at least \(q_e\) units of flow.
Minimum quantity constraints have already been applied to problem classes such as flow, bin
packing, assignment, scheduling and matching problems. A result that is common to all these
problem classes is that in the majority of cases problems with minimum quantity constraints
are NP-hard, even if the problem without minimum quantity constraints but with fixed lower
bounds can be solved in polynomial time. For instance, the maximum flow problem is known
to be solvable in polynomial time, but becomes NP-hard once minimum quantity constraints
are added.
In this thesis we consider flow, bin packing, scheduling and matching problems with minimum
quantity constraints. For each of these problem classes we provide a summary of the
definitions and results that exist to date. In addition, we define new problems by applying
minimum quantity constraints to the maximum-weight b-matching problem and to open
shop scheduling problems. We contribute results to each of the four problem classes: We
show NP-hardness for a variety of problems with minimum quantity constraints that have
not been considered so far. If possible, we restrict NP-hard problems to special cases that
can be solved in polynomial time. In addition, we consider approximability of the problems:
For most problems it turns out that, unless P=NP, there cannot be any polynomial-time
approximation algorithm. Hence, we consider bicriteria approximation algorithms that allow
the constraints of the problem to be violated up to a certain degree. This approach proves to
be very helpful and we provide a polynomial-time bicriteria approximation algorithm for at
least one problem of each of the four problem classes we consider. For problems defined on
graphs, the class of series parallel graphs supports this approach very well.
We end the thesis with a summary of the results and several suggestions for future research
on minimum quantity constraints.
Photokatalytische Reaktionen laufen vergleichsweise schnell ab, wenn der verwendete Katalysator im Reaktionsmedium dispergiert ist. Verwendet man, wie es in der Praxis
häufig wünschenswert ist, immobilisierte Katalysatoren, nimmt die Reaktionsgeschwindigkeit deutlich ab. In Lichtwellenleiterreaktoren gelingt es, den Katalysator gleichmäßig zu bestrahlen und dadurch die Quantenausbeute der Photoreaktion zu erhöhen.
Im Rahmen dieser Arbeit wurde ein Strahlungsmodell entwickelt, das die Abstrahlcharakteristik einer LED in Form eines Lambertstrahlers detaillierter abbildet, als es bisher
der Fall war. Zudem wurde bei der Einkopplung der Lichtstrahlen in die optische Faser auch die Fresnel Reflektion berücksichtigt.
Bei der Strahlungsauskopplung bzw. bei der Katalysatoranregung wurden ideal glatte Beschichtungen und ideal matte Beschichtungen als Grenzfälle approximiert. Verwendet
man ideal matte Beschichtungen, kommt es zu schneller Auskopplung der Strahlen auf einem kurzen Abschnitt des Lichtleiters. Ein Teil der Strahlung geht dabei verloren. Ein anderer Teil kann nicht genutzt werden, da die gebildeten Radikale schnell rekombinieren. Durch Verringerung des Filmdiffusionswiderstandes können hier höhere Reaktionsgeschwindigkeiten erzielt werden.
Verwendet man ideal glatte Beschichtungen geht kaum Strahlung verloren und man erhält niedrige Bestrahlungsstärken auf der Katalysatoroberfläche, sodass man sich der intrisischen Reaktionsgeschwindigkeit annähert.
To assess ergonomic aspects of a (future) workplace already in the design phase where no physical prototypes exist, the use of digital human models (DHMs) becomes essential. Thereby, the prediction of human motions is a key aspect when simulating human work tasks. For ergonomic assessment e.g. the resulting postures, joint angles, the duration of the motion and muscle loads are important quantities. From a physical point of view, there is an infinite number of possible ways for a human to fulfill a given goal (trajectories, velocities...), which makes human motions and behavior hard to predict. A common approach used in state of the art commercial DHMs is the manual definition of joint angles by the user, which requires expert knowledge and is limited to postural assessments. Another way is to make use of pre-recorded motions from a real human that operates on a physical prototype, which limits assessments to scenarios which have been measured before. Both approaches need further post processing and inverse dynamics calculations with other software tools to get information about inner loads and muscle data, which leads to further uncertainties concerning validity of the simulated data.
In this thesis work a DHM control and validation framework is developed, which allows to investigate in how far the implemented human like actuation and control principles directly lead to human like motions and muscle actuations. From experiments performed in the motion laboratory, motion data is captured and muscle activations are measured using surface electromyography measurements (EMG). From the EMG data, time invariant muscle synergies are extracted by the use of a non-negative Matrix Factorization algorithm (NMF). Muscle synergies are one hypothesis from neuroscience to explain how the human central nervous system might reduce control complexity: instead of activating each muscle separately, muscles are grouped into functional units, whereas each muscle is present in each unit with a fixed amplitude. The measured experiment is then simulated in an optimal control framework. The used framework allows to build up DHMs as multibody system (MBS): bones are modeled as rigid bodies connected via joints, actuated by joint torques or by Hill type muscle models (1D string elements transferring fundamental characteristics of muscle force generation in humans). The OC code calculates the actuation signals for the modeled DHM in a way that a certain goal is fulfilled (e.g. reach for an object) while minimizing some cost function (e.g. minimizing time) and considering the side constraints that the equations of motion of the MBS are fulfilled. Therefore, three different Actuation Modes (AM) can be used (joint torques (AM-T), direct muscle actuation (AM-M) and muscle synergy actuation (AM-S), using the before extracted synergies as control parameters)). Simulation results are then compared with measured data, to investigate the influence of the different Actuation Modes and the solved OC cost function. The approach is applied to three different experiments, the basic reaching test, the weight lift test and a box lifting task, where a human arm model actuated by 29 Hill muscles is used for simulation. It is shown that, in contrast to a joint torque actuation (AM-T), using muscles as actuators (AM-M & AM-S) leads to very human like motion trajectories. Muscle synergies as control parameters, resulted in smoother velocity profiles, which were closer to those measured and appeared to be more robust, concerning the underlying muscle activation signals (compared to AM-M). In combination with a developed biomechanical cost function (a mix of different OC cost functions), the approach showed promising results, concerning the simulation of valid, human like motions, in a predictive manner.
Flüssigimprägnierverfahren erlauben die effiziente Herstellung von Faser-Kunststoff-
Verbund-Bauteilen in hohen Stückzahlen. Das Dry Fiber Placement ist ein Verfahren,
um hierzu bei geringen Verschnittraten textile Vorformlinge (Preforms) herzustellen,
die eine optimale Faserausrichtung und –platzierung ermöglichen. Hinsichtlich der
Imprägniereigenschaften sind die so hergestellten Preforms jedoch herausfordernd,
da sie im Vergleich zu konventionell verwendeten Textilien (Gewebe oder Gelege)
über eine wesentlich geringere Permeabilität verfügen. Daher wurde im Rahmen dieser
Arbeit das Imprägnierverhalten dieser Preforms grundlegend experimentell und
simulativ untersucht. Hierbei wurden Strukturvariationen auf Mikroebene (zwischen
einzelnen Fasern) und auf Mesoebene (zwischen Fasersträngen) betrachtet. Aus
den gewonnenen Erkenntnissen wurden Gestaltungsempfehlungen abgeleitet, die
zukünftig eine Optimierung der Preforms hinsichtlich ihrer Imprägniereigenschaften
ermöglichen.
Liquid composite moulding processes allow the efficient production of fiber reinforced
polymer composite components in larger batch production. Dry Fiber Placement is a
process used to produce textile preforms at low scrap rates allowing optimum fiber
alignment and positioning. Yet, their impregnation properties are challenging compared
to conventional textile materials as their permeability is significantly lower.
Hence, this work deals with fundamental examination of their impregnation behaviour
using experimental and simulative approaches. For this purpose, structural variations
on micro scale (in between single fibers) and on meso scale (in between fiber
strands) are considered. Using the gained knowledge, design recommendations
have been developed to enable optimization of preforms regarding their impregnation
behaviour.
Zur Reduktion von Kavitation am Eintritt des Laufrades einer Strömungsmaschine
finden häufig Inducer Anwendung. Hierbei handelt es sich um ein axiales Laufrad,
bei dem nur ein minimaler Druckaufbau stattfindet. Inducer sind Gegenstand der
hier vorliegenden Forschungsfragen. Basierend auf der zurzeit verfügbaren Literatur
sind zwei Arbeitshypothesen aufgestellt und untersucht. Die Hypothesen lauten
wie folgt:
1) Die Strömung im Bereich der Nabe ist abgelöst.
2) Die axiale Länge der Inducer kann verringert werden.
Die detaillierte Untersuchung der Hypothesen erfolgt durch instationäre Simulationen,
durchgeführt mit Ansys CFX in der Version 17.2. Gelöst werden hier
die Reynolds-gemittelten Navier-Stokes-Gleichungen. Um relevante Sekundärströmungseffekte
erfassen zu können, wird für die Modellierung des Reynolds-Spannungs-
Tensors der RANS Gleichungen ein Reynolds-Spannungs-Modell verwendet.
Hiermit ist eine detailliertere Modellierung physikalischer Effekte möglich. Um die
wandnahen Effekte der Strömungsablösung durch eine Strömungssimulation geeignet
abbilden zu können, wird auf eine passende Auflösung des Bereichs der
Grenzschicht geachtet. Zur Reduzierung der Fehler die sich aus der numerischen
Abbildung der realen Strömungszustände ergeben sind Voruntersuchungen bei den
Simulationen durchgeführt. Validiert werden die so generierten numerischen Ergebnisse
mittels instationärer und stationärer Messungen des statischen Drucks,
des Totaldrucks und des Strömungswinkels. Anstrichbilder basierend auf Ölfarbe
ermöglichen es die Stromlinien auf der Wand zu validieren und somit Ablösung
an der Nabe numerisch plausibel darzustellen. Somit ist sichergestellt, dass die
numerischen Ergebnisse die realen Strömungszustände bestmöglich abbilden. Alle
Untersuchungen erfolgen ohne den Einfluss von Kavitation und für Inducer mit unterschiedlich
gestalteten Vorderkanten der Schaufeln. Grundlagenwissen über die
Strömung an der Nabe, die entstehenden Verluste und den Einfluss auf die Strömungszustände
in der Auslaufstrecke liegt somit vor.
Basierend auf diesen Ergebnissen können weitere Untersuchungen erfolgen, um die
Verluste zu reduzieren und die Verteilung von Druck, Geschwindigkeit und Winkel
entlang der radialen Position in der Auslaufstrecke des Inducers homogener zu
gestalten. Die axiale Baulänge und deren mögliche Reduktion sind unmittelbar
mit einer Einsparung von Bauraum und Kosten verbunden. Basierend auf den hier
generierten Grundlagen ist ein Ansatz zur korrekten Dimensionierung der axialen
Länge bzw. des Umschlingungswinkels gegeben.
Quasiplastisches Verformungsverhalten von Organoblechen aus recyceltem Kohlenstoff-Stapelfasergarnen
(2020)
Für die Serienfertigung von Faser-Kunststoff-Verbund-Bauteilen in hohen Stückzahlen eignen sich Organobleche. Ein Nachteil dieser Halbzeugart ist das limitierte Spektrum herstellbarer Bauteile. Gleichzeitig existieren für Organobleche wie auch für andere Faser-Kunststoff-Verbunde noch keine Recyclingkonzepte, die die Materialeigenschaften erhalten. In dieser Arbeit werden Stapelfaserorganobleche aus recycelten Kohlenstoffstapelfasern und Polyamid 6 als Matrix hergestellt und hinsichtlich ihrer mechanischen Leistungsfähigkeit sowie ihrer Umformbarkeit untersucht. Die Erhaltung der Materialeigenschaften wurde dabei anhand von Zugversuchen untersucht, wobei der Einfluss der Garnondulation auf die Zugeigenschaften analysiert wurde. Die quasiplastische Verformung von Stapelfaserorganoblechen wurde grundlegend in Zugversuchen im Bereich und über der Schmelztemperatur der Matrix untersucht. Ein angepasster Thermoformprozess wurde entwickelt, der neue Freiheitsgrade zur Bauteilherstellung ermöglicht. Das Verformungsverhalten wurde untersucht und ein Kriterium zur Bewertung der Homogenität der Verformung entwickelt.
Organic sheets are suitable for the series production of fiber reinforced polymer composite components in large quantities. One disadvantage of this type of semi-finished products is the limited range of components that can be produced. Also, organic sheets, like other fiber reinforced polymer composites, are faced with the challenge of not yet having any true recycling concepts. In this work, staple fiber organic sheets made of recycled carbon staple fibers and polyamide 6 as matrix are manufactured and examined with regard to their mechanical performance and formability. The preservation of the material properties was investigated by means of tensile tests, whereby the influence of yarn undulation on tensile properties was analyzed. The quasiplastic deformation of staple fiber organic sheets was fundamentally investigated in tensile tests in the range of and above the matrix melting temperature. An adapted thermoforming process was developed which allows new degrees of freedom for component manufacturing. The local deformation behavior was investigated and a criterion for the evaluation of the homogeneity of the deformation was developed.
In der vorliegenden Dissertation wurde untersucht, wie die Wasseraufnahme von rezyklierter Gesteinskörnung in der Betonzusammensetzung so zu berücksichtigen ist, dass der Wassergehalt im Zementleim gegenüber dem Sollwert nicht durch Wassersaugen der Gesteinskörnung verändert wird. Aufbauend auf der zu entwi-ckelnden Methode zur zielsicheren Einstellung des vorgesehenen Wassergehalts im Zementleim wurde im Rahmen dieser Arbeit die Frage diskutiert, wie rezyklierte Gesteinskörnung bei gleichem Wasserzementwert die Festigkeit und das Elastizi-tätsmodul des Gesamtsystems im Vergleich zu Normalbeton beeinflusst und wel-che Faktoren dafür in welchem Maß relevant sind.
Die Untersuchungen zeigten, dass die Steuerung der Aufbereitungstechnik für rezyklierte Gesteinskörnungen es ermöglicht, vergleichbare Streuungen in den Eigenschaften bei Lieferungen aus einem Herstellwerk einzuhalten, wie sie auch für natürliche Gesteinskörnungen gegeben sind.
Des Weiteren zeigten die Untersuchungen, dass es ausreicht, die rezyklierte Ge-steinskörnung anhand der Kornrohdichten und der Wasseraufnahme zu charakte-risieren, die im Pyknometerverfahren nach zehn Minuten ermittelt werden. Aus den so gewonnenen Kennwerten kann auf die jeweilige Kornrohdichte in allen weiteren Feuchtezuständen extrapoliert werden. Die Zugabewassermenge einer Referenz-mischung aus natürlicher Gesteinskörnung sollte nach den Ergebnissen der Unter-suchungen um diejenige Menge an Zusatzwasser erhöht werden, die die rezyklier-te Gesteinskörnung innerhalb von zehn Minuten im Pyknometerversuch aufneh-men kann. Es ist nicht notwendig rezyklierte Gesteinskörnung wasserzusättigen oder vollständig zu trocknen. Maximale Festbetoneigenschaften werden erreicht, wenn die Gesteinskörnung Kernfeuchte aufweist ohne vollständig gesättigt zu sein. Die Eigenfeuchte sollte ermittelt und auf das nötige Gesamtwasser angerechnet werden.
Rezyklierte Gesteinskörnungen, unabhängig vom verwendeten zugelassenen Typ, verminderten in den Untersuchungen zu dieser Arbeit bei gleicher Zusammenset-zung der Zementsteinmatrix weder die Druckfestigkeit noch die Spaltzugfestigkeit. Das Elastizitätsmodul kann geringer ausfallen als bei Betonen mit natürlicher Ge-steinskörnung.
In dieser Arbeit wird ein formales Modell zur Beschreibung von hardwarenaher Software
vorgestellt: Die Programmnetzliste.
Die Programmnetzliste (PN) besteht aus Instruktionszellen
die in einem gerichteten azyklischen Graph verbunden sind und dabei
alle Ausführungspfade des betrachteten Programms beinhaltet. Die einzelnen Instruktionszellen
repräsentieren eine Instruktion oder eine Instruktionssequenz. Die PN verfügt
über eine explizite Darstellung des Programmablaufs und eine implizite Modellierung des
Datenpfads und ist als Modell für die Verifikation von Software nutzbar. Die Software
wird dabei auf Maschinencode-Level betrachtet.
Die Modellgenerierung besteht aus wenigen und gut automatisierbaren Schritten. Als
Grundlage dient ein – ggf. unvollständiger – Kontrollfluss Graph (CFG), der aus der Software
generiert werden kann. Die Modellgenerierung besteht aus zwei Schritten.
Der erste Schritt ist die Erzeugung des expliziten Programmablaufs, indem der CFG
abgerollt wird. Dabei wird ein sogenannter Execution-Graph (EXG) erzeugt, der alle
möglichen Ausführungspfade des betrachteten Programms beinhaltet. Um dieses Modell
so kompakt wie möglich zu halten, werden unterschiedliche Techniken verwendet – wie
das Zusammenführen gemeinsamer Pfade und das Erkennen von “toten” Verzweigungen
im Programm, die an der entsprechenden Stelle niemals ausgeführt werden.
Im Anschluss wird im zweiten Schritt der Execution-Graph in die Programmnetzliste
(PN) übersetzt. Dabei werden alle Knoten im EXG durch eine entsprechende Instruktionszelle
ersetzt. Die Kanten des Graphen entsprechen dabei dem Programmzustand. Der
Programmzustand setzt sich aus den Variablen im Speicher wie auch dem Architekturzustand
des unterliegenden Prozessors zusammen.
Ergänzt wird der Programmzustand in der Programmnetzliste um ein sogenanntes
Active-Bit, welches es ermöglicht den aktiven Pfad in der Netzliste zu markieren. Das
ist notwendig, da die Software immer nur einen Pfad gleichzeitig ausführen kann, aber
die PN alle möglichen Pfade beinhaltet. Auf der Programmnetzliste können dann mit Hilfe
von Hardware Property Checkern basierend auf BMC oder IPC diverse Eigenschaften
bewiesen werden.
Zusätzlich wird die Programmnetzliste um die Fähigkeit zur Interruptmodellierung
erweitert.
Die Ergebnisse der vorliegenden Synopsis konnten an vergleichsweise hohen Probandenzahlen zeigen, dass die auftretenden Amplituden der Kopfbeschleunigungen stark von der Herangehensweise (Stand, Sprung, Lauf) abhängen. Was zunächst trivial erscheint, ist nun evidenzbasiert und von hoher praktischer Relevanz. Bei der Technikvermittlung sind somit zunächst Kopfballvarianten aus der Standposition vorzuziehen, da diese zu einer geringeren Beschleunigung des Kopfes führen als Varianten welche mit einem Anlauf gekoppelt werden (Stand vs. Sprung). Kopfballvarianten mit einem erhöhten koordinativen Anforderungsprofil (Sprung) führen nicht zwangsläufig zu einer erhöhten Kopfbeschleunigung, sollten jedoch aus methodischen Gründen trotzdem zu einem späteren Zeitpunkt trainiert werden. Das eingesetzte Kopfballpendel führte zu Kopfbeschleunigungen zwischen 5.2 und 7.8 G. Diese Werte liegen deutlich unterhalb derer, die bei beschleunigten Bällen gemessen werden, was für den Einsatz des Kopfballpendels bei der Technikschulung spricht. Der Rumpfmuskulatur wird eine große Bedeutung bei der technischen Umsetzung von Kopfbällen zugesprochen [120]. Die vorliegenden Ergebnisse konnten jedoch keinen Anstieg der Kopfbeschleunigung nach Ermüdung der Rumpfmuskulatur darlegen. Ein Pre-Post-Vergleich bei beschleunigten Bällen muss folgen, um dies weiterführend untersuchen zu können. Vergleichbare Ergebnisse und Interpretationen liegen nun zur Wirksamkeit einer 6-wöchigen Hals-Nackenkräftigung vor, welche bei dem statischen Kopfballpendel keine Änderungen der Kopfbeschleunigung zur Folge hatten. Kritisch reflektiert werden müssen insbesondere die Art und Dauer sowie die Inhalte einer solchen Intervention. Dennoch steckt hinter dieser Hypothese weiterhin ein vielversprechender Ansatz das Kopfballspiel sicherer zu machen. Die Ausrichtung des Kopf-Hals-Rumpfsegmentes steht in keinem direkten Zusammenhang zur resultierenden Beschleunigung des Kopfes, wonach eine erhöhte Nickbewegung nicht mit einer erhöhten Kopfbeschleunigung korreliert. Im nächsten Schritt muss ein intraindividueller Vergleich vorgenommen werden, da die Kompensationsmechanismen höchst individuell sind. Außerdem sollte zukünftig die maximale Kopfbeschleunigung - unabhängig von dem Zeitpunkt - mit dem Winkel (Kopf, HWS) während des ersten Ballkontaktes verglichen werden, statt den zeitsynchronen Vergleich des Winkels und der in diesem Moment messbaren Kopfbeschleunigung vorzunehmen.
In recent years, the Internet has become a major source of visual information exchange. Popular social platforms have reported an average of 80 million photo uploads a day. These images, are often accompanied with a user provided text one-liner, called an image caption. Deep Learning techniques have made significant advances towards automatic generation of factual image captions. However, captions generated by humans are much more than mere factual image descriptions. This work takes a step towards enhancing a machine's ability to generate image captions with human-like properties. We name this field as Affective Image Captioning, to differentiate it from the other areas of research focused on generating factual descriptions.
To deepen our understanding of human generated captions, we first perform a large-scale Crowd-Sourcing study on a subset of Yahoo Flickr Creative Commons 100 Million Dataset (YFCC100M). Three thousand random image-caption pairs were evaluated by native English speakers w.r.t different dimensions like focus, intent, emotion, meaning, and visibility. Our findings indicate three important underlying properties of human captions: subjectivity, sentiment, and variability. Based on these results, we develop Deep Learning models to address each of these dimensions.
To address the subjectivity dimension, we propose the Focus-Aspect-Value (FAV) model (along with a new task of aspect-detection) to structure the process of capturing subjectivity. We also introduce a novel dataset, aspects-DB, following this way of modeling. To implement the model, we propose a novel architecture called Tensor Fusion. Our experiments show that Tensor Fusion outperforms the state-of-the-art cross residual networks (XResNet) in aspect-detection.
Towards the sentiment dimension, we propose two models:Concept & Syntax Transition Network (CAST) and Show & Tell with Emotions (STEM). The CAST model uses a graphical structure to generate sentiment. The STEM model uses a neural network to inject adjectives into a neutral caption. Achieving a high score of 93% with human evaluation, these models were selected as the top-3 at the ACMMM Grand Challenge 2016.
To address the last dimension, variability, we take a generative approach called Generative Adversarial Networks (GAN) along with multimodal fusion. Our modified GAN, with two discriminators, is trained using Reinforcement Learning. We also show that it is possible to control the properties of the generated caption-variations with an external signal. Using sentiment as the external signal, we show that we can easily outperform state-of-the-art sentiment caption models.
B-spline surfaces are a well-established tool to analytically describe objects. They are commonly used in various fields, e.g., mechanical and aerospace engineering, computer aided design, and computer graphics. Obtaining and using B-spline surface models of real-life objects is an intricate process. Initial virtual representations are usually obtained via scanning technologies in the form of discrete data, e.g., point clouds, surface meshes, or volume images. This data often requires pre-processing to remove noise and artifacts. Even with high quality data, obtaining models of complex or very large structures needs specialized solutions that are viable for the available hardware. Once B-spline models are constructed, their properties can be utilized and combined with application-specific knowledge to provide efficient solutions for practical problems.
This thesis contributes to various aspects of the processing pipeline. It addresses pre-processing, creating B-spline models of large and topologically challenging data, and the use of such models within the context of visual surface inspection. Proposed methods improve existing solutions in terms of efficiency, hardware restrictions, and quality of the results. The following contributions are presented:
Fast and memory-efficient quantile filter: Quantile filters are widely used operations in image processing. The most common instance is the median filter which is a standard solution to treat noise while preserving the shape of an object. Various implementations of such filters are available offering either high performance or low memory complexity, but not both. This thesis proposes a generalization of two existing algorithms: one that favors speed and one that favors low memory usage. An adaptable hybrid algorithm is introduced. It can be tuned for optimal performance on the available hardware. Results show that it outperforms both state-of-the-art reference methods for most practical filter sizes.
Robust B-spline reconstructions of isosurfaces in volume images: The micro-structure of wood-based thermal insulation materials is analyzed to research heat conductivity properties. High-quality scans reveal a complex system of cellulose fibers. B-spline models of individual fibers are highly desirable to conduct simulations. Due to the physical processing of the material, the surfaces of those fibers consist of challenging elements like loose filaments, holes, and tunnels. Standard solutions fail to partition the data into a small number of quadrilateral cells which is required for the B-spline construction step. A novel approach is presented that splits up the data processing into separate topology and geometry pipelines. This robust method is demonstrated by constructing B-spline models with 236 to 676 surfaces from triangulated isosurfaces with 423628 to 1203844 triangles.
Local method for smooth B-spline surface approximations: Constructing smooth B-spline models to approximate discrete data is a challenging task. Various standard solutions exist, often imposing restrictions to knot vectors, spline order, or available degrees of freedom for the data approximation. This thesis presents a local approach with less restrictions aiming for approximate \(G^1\)-continuity. Nonlinear terms are added to standard minimization problems. The local design of the algorithm compensates for the higher computational complexity. Results are shown and evaluated for objects of varying complexity. A comparison with an exact \(G^1\)-continuous method shows that the novel method improves approximation accuracy on average by a factor of 10 at the cost of having small discontinuities in normal vectors of less than 1 degree.
Model-based viewpoint generation for surface inspection: Within modern and flexible factories, surface inspection of products is still a very rigid process. An automated inspection system requires the definition of viewpoints from which a robot then takes pictures during the inspection process. Setting up such a system is a time-intensive process which is primarily done manually by experts. This work presents a purely virtual approach for the generation of viewpoints. Based on an intuitive definition of analytic feature functionals, a non-uniform sampling with respect to inspection-specific criteria is performed on given B-spline models. This leads to the definition of a low number of viewpoint candidates. Results of applying this method to several test objects with varying parameters indicate that good viewpoints can be obtained through a fast process that can be performed fully automatically or interactively through the use of meaningful parameters.
Ethernet has become an established communication technology in industrial automation. This was possible thanks to the tremendous technological advances and enhancements of Ethernet such as increasing the link-speed, integrating the full-duplex transmission and the use of switches. However these enhancements were still not enough for certain high deterministic industrial applications such as motion control, which requires cycle time below one millisecond and jitter or delay deviation below one microsecond. To meet these high timing requirements, machine and plant manufacturers had to extend the standard Ethernet with real-time capability. As a result, vendor-specific and non-IEEE standard-compliant "Industrial Ethernet" (IE) solutions have emerged.
The IEEE Time-Sensitive Networking (TSN) Task Group specifies new IEEE-conformant functionalities and mechanisms to enable the determinism missing from Ethernet. Standard-compliant systems are very attractive to the industry because they guarantee investment security and sustainable solutions. TSN is considered therefore to be an opportunity to increase the performance of established Industrial-Ethernet systems and to move forward to Industry 4.0, which require standard mechanisms.
The challenge remains, however, for the Industrial Ethernet organizations to combine their protocols with the TSN standards without running the risk of creating incompatible technologies. TSN specifies 9 standards and enhancements that handle multiple communication aspects. In this thesis, the evaluation of the use of TSN in industrial real-time communication is restricted to four deterministic standards: IEEE802.1AS-Rev, IEEE802.1Qbu IEEE802.3br and IEEE802.1Qbv. The specification of these TSN sub-standards was finished at an early research stage of the thesis and hardware prototypes were available.
Integrating TSN into the Industrial-Ethernet protocols is considered a substantial strategical challenge for the industry. The benefits, limits and risks are too complex to estimate without a thorough investigation. The large number of Standard enhancements makes it hard to select the required/appropriate functionalities.
In order to cover all real-time classes in the automation [9], four established Industrial-Ethernet protocols have been selected for evaluation and combination with TSN as well as other performance relevant communication features.
The objectives of this thesis are to
(1) Provide theoretical, simulation and experimental evaluation-methodologies for the timing performance analysis of the deterministic TSN-standards mentioned above. Multiple test-plans are specified to evaluate the performance and compatibility of early version TSN-prototypes from different providers.
(2) Investigate multiple approaches and deduce migration strategies to integrate these features into the established Industrial-Ethernet protocols: Sercos III, Profinet IRT, Profinet RT and Ethernet/IP. A scenario of coexistence of time-critical traffic with other traffic in a TSN-network proves that the timing performance for highly deterministic applications, e.g. motion-control, can only be guaranteed by the TSN scheduling algorithm IEEE802.1Qbv.
Based on a requirements survey of highly deterministic industrial applications, multiple network scenarios and experiments are presented. The results are summarized into two case studies. The first case study shows that TSN alone is not enough to meet these requirements. The second case study investigates the benefits of additional mechanisms (Gigabit link-speed, minimum cycle time modeling, frame forwarding mechanisms, frame structure, topology migration, etc.) in combination with the TSN features. An implementation prototype of the proposed system and a simulation case study are used for the evaluation of the approach. The prototype is used for the evaluation and validation of the simulation model. Due to given scalability constraints of the prototype (no cut-through functionalities, limited number of TSN-prototypes, etc…), a realistic simulation model, using the network simulation tool OMNEST / OMNeT++, is conducted.
The obtained evaluation results show that a minimum cycle time ≤1 ms and a maximum jitter ≤1 μs can be achieved with the presented approaches.
Im Nachwuchsleistungssport erfahren psychologische, speziell leistungsmotivationale Merkmale zunehmende Beachtung. Nach Ansicht von Praktikern und Wissenschaftlern sollen diese verstärkt zur Talentauswahl genutzt werden. Die insgesamt inkonsistente empirische Forschungs- und Befundlage aus explorativen und korrelativen Studien – im Vergleich zum angestrebten Vorhersagezeitraum oft über relativ kurze Beobachtungszeiträume – lässt an einer verlässlichen praktischen Anwendung aber zweifeln.
Die Voraussetzungen für eine Anwendung in systematischen Identifikations- und Auswahlprozessen sind (1) verlässliches Diagnostizieren anhand leistungsmotivationaler Erhebungsinstrumente mit ausreichender Testgüte, (2) hohe differenzielle Entwicklungsstabilität sowie Effekte der Leistungsmotivation auf (3) aktuelle und (4) künftige Leistungen bzw. Erfolge und deren Entwicklung. Die Prüfung dieser Annahmen ist Gegenstand der vorliegenden Arbeit. Anhand von zwei Studien wurden leistungsmotivationale Merkmale mit AMS-S (Wenhold et al., 2009), SMS-28 (Burtscher et al., 2011) und TEOSQ-D (Rethorst & Wehrmann, 1998) sowie Erfolgs- bzw. Leistungsindikatoren bei Nachwuchssportlern erfasst. 83 bis 144 Sportler einer Eliteschule des Sports (Alter 14,89 < MW < 15,35 Jahre; 1,46 < SD < 1,57) wurden hierbei über ein Jahr, 51 Fußballspieler aus fünf Vereinen (11,02 < 0,7 Jahre) über vier Jahre beobachtet.
Die Untersuchungen erbrachten vier zentrale Ergebnisse. 1. Die psychometrischen Ergebnisse deuten auf eine überwiegende Konstruktabdeckung durch die Instrumente hin, wobei die Reliabilitäten teilweise beeinträchtigt waren (0,60 < rtt < 0,82). 2. Hinsichtlich der differenziellen Stabilität waren Veränderungen der leistungsmotivationalen Merkmale über die Zeit meist durch beträchtliche interindividuelle Heterogenität gekennzeichnet (0,20 < rtt < 0,77). 3. Die leistungsmotivationalen Merkmale wiesen keine signifikanten Effekte auf aktuelle und künftige Leistungen bzw. Erfolge auf. Auch bei multivariater linearer und non-linearer Analyse mehrerer leistungsmotivationaler Merkmale zeigten sich im Quer- und Längsschnitt keine bedeutsame Erklärungskraft für Leistungs- oder Erfolgsunterschiede. 4. Es zeigten sich ebenfalls keine signifikanten Effekte der ein- bzw. zweijährigen Erfolgs- und Leistungsentwicklung mit den zuvor erhobenen Merkmalen der Leistungsmotivation. Bei wenigen Analysen schienen extrinsische Motivation und Egoorientierung allerdings signifikante Prädiktoren zu sein.
Die Ergebnisse dieser mehrjährigen prospektiven Analysen sprechen gegen die Einbindung leistungsmotivationaler Merkmale in Talentauswahlprozesse. Die Ergebnisse anderer Untersuchungen mit teilweise inkonsistenten Ergebnissen werden vor dem Hintergrund dieser Arbeit eingeordnet und die vorliegenden Ergebnisse hinsichtlich unterschiedlicher Tendenzen diskutiert. Daraus ergeben sich neue Perspektiven für die zukünftige Forschung.
The Directive 97/23/EC of the European Parliament and of the Council of 29 May 1997 on the approximation of the laws of the Member States concerning pressure equipment (European Commision, 1997) is the basis of the legal framework for protection of pressure equipment within the European Union. Codes and standards are useful to comply with the legal and regulatory responsibilities stipulated in PED Directive regarding the protection of pressure equipment against overpressure, sizing, and selection safety relief devices.
Rupture disk devices are primary relief devices to protect vessels, pipe, and equipment against overpressure. A rupture disk bursts once the so-called burst pressure is reached in the protected system, thereby discharging flow and preventing further increase in pressure. Currently, rupture disks are sized with standards and codes assuming the worst-case scenario at burst pressure. There is however no standardized procedure for sizing rupture disks with two-phase flow and there lacks suited test-facilities, test-sections, and reliable experimental data for model validation. Sizing rupture disk vent-line systems with current characteristic numbers comes with significant uncertainties, especially for high-velocity compressible flows (Schmidt, 2015).
Zero-Emission and Green Safety are current trends for organizations that seek to attain innovative protection concepts beyond regulatory compliance. A procedure to size a rupture disk vent-line should accurately determine the discharge rate and pressure-drop across a rupture disk, from the point of rupture disk activation to the point when the system depressurizes fully. This procedure is critical for further safety considerations, such as for modeling the dispersion of toxic gases released during emergency-relief and calculating the emissions to the environment with time.
Over-dimensioning is one measure taken today to mitigate uncertainties encountered while sizing with current methods. This is not always an option, as over-dimensioning the rupture disk vent-line system leads to unnecessary financial costs. It may also cause malfunction of the collecting systems downstream when the fluids discharged are more than the design limits. Emissions to the environment are thereby potentially higher than necessary, causing excessive harm to the environment. Under-dimensioning, on the other hand, may lead to hazardous incidents with loss of human life and equipment. This work has therefore focused on the investigation of the mass flow rate and pressure-drop through rupture disk devices with compressible gas and two-phase flow.
The experimental focus was in the design, construction, and commissioning of a high-capacity, high-pressure industry-scale test facility for testing small- to large-diameter rupture disks and other fittings with gas flow. The resulting test facility is suited to test safety devices and pipe fittings at near realistic flow conditions at pressures up to 150 bar. This work also presents the design of a pilot plant for testing rupture disks with air/water two-phase flow. These test facilities open-up new frontiers for capacity testing because they have precise and state-of-the-art measurement and instrumentation. Experimental results from these facilities deliver reliable experimental data to validate proposed sizing procedures for rupture disk devices.
The theoretical focus was on the development of a reliable rupture disk sizing procedure for compressible gas and two-phase flow. This required phenomenological studies of flow through rupture disks with both experiments and CFD studies. Better suited rupture disk characteristic numbers and model parameters for determining the mass flow rate and pressure-drop across rupture disks are identified. The proposed sizing procedure with compressible gas and two-phase flow predicts the dischargeable mass flow rate and pressure-drop across a rupture disk within ±4 % of measured value. Experimental validation has been undertaken with different types of rupture disks. The procedure is suited for determine the mass flow rate and pressure-drop through rupture disk seamlessly, from the point of rupture disk activation (worst-case scenario) to the point when the system fully depressurizes beyond regulatory compliance.
Decentralization is the norm of future smart production as it assists in contextual dynamic decision-making and thereby increases the flexibility required to produce highly customized products. When manufacturing business software is operated as a cloud-based solution, it experiences network latency and connectivity issues. To overcome these problems, the production control should be delegated to the manufacturing edge layer and hence, the argument of decentralization is even more applicable to this narrative. Semantic technologies, on the other hand, assist in discerning the meaning, reasoning and drawing inferences from the data. There are several specifications and frameworks to automate the discovery, orchestration and invocation of web services; the prominent are OWL-S and SAWSDL. This thesis adapts these frameworks for OPC UA, and consequently, the proposed semantically enriched OPC UA concept enables the edge layer to create flexible production orchestration plans in a manufacturing scenario controlled by cloud MES.
Forschungsrelevanter Hintergrund: Mitunter die häufigsten Verletzungen im Sport
sind am Kniegelenk zu lokalisieren. Neben der hohen Prävalenzrate sind vor allem
ligamentäre Schädigungen wie eine Ruptur des vorderen Kreuzbandes besonders
schwerwiegend. Es sind lange Ausfallzeiten von durchschnittlich 7,5 Monaten zu verzeichnen,
wobei eine vollständige Rückkehr zum ursprünglichen Leistungsniveau
ungewiss ist. Auch die Wahrscheinlichkeit einer Reruptur ist deutlich erhöht und häufig
bedeutet eine schwere Knieverletzung das frühzeitige sportliche Karriereende.
Auch müssen betroffene Sportler oftmals mit schweren Folgeerscheinungen wie einer
Gelenksarthrose rechnen. Als Risikosportarten für diese Art von Verletzungen
gelten Ballsportspiele wie Fußball, Handball oder Basketball. Charakteristisch für das
Auftreten einer Knieverletzung in diesen von hoher Dynamik und Schnelligkeit geprägten
Mannschaftsspielen ist die Tatsache, dass sich diese mehrheitlich ohne direkten
Gegnerkontakt als „non-contact“ Trauma ereignen. In der Regel findet eine
Verletzung bei sportspieltypischen Manövern wie Landungen nach Sprüngen, spontanen
Richtungsänderungen oder plötzlichen Drehbewegungen statt. Als Verletzungsmechanismus
bei diesen Bewegungsformen ist in den meisten Fällen der sog.
„Dynamische Knievalgus“ verantwortlich. Dieser ist gekennzeichnet durch ein Abknicken
des Kniegelenks nach innen (Knieabduktion/Valgisierung) in Verbindung mit
einer Rotation der Tibia bei geringem Flexionsgrad des Kniegelenks. Die maximale
Kraftleistungsfähigkeit sowie das neuromuskuläre Aktivierungsverhalten der knieumschließenden
Muskelgruppen und der Hüftmuskulatur können den Verletzungsmechanismus
beeinflussen. Insbesondere die Hüftmuskulatur kann durch ihre Eigenschaften
korrigierend auf die Beinachse und damit auf die Kontrolle des Kniegelenks
einwirken. Die Forschungslage über die Zusammenhänge der Hüfte und deren muskulärer
Strukturen hinsichtlich ihrer protektiven Wirkungsweise bildet sich jedoch defizitär
und teilweise unspezifisch ab. Daher ist die Zielsetzung der vorliegenden Arbeit,
Kontrollmechanismen ausgehend vom Hüftgelenk in Bezug auf eine verbesserte
dynamische Kniegelenksstabilität mittels eines ganzheitlichen Ansatzes zu
evaluieren. Des Weiteren wird in der vorliegenden Arbeit die Wirkungsweise eines
apparativen Krafttrainings gegenüber eines koordinativen Sprungtrainings mit jeweiliger
Fokussierung des Hüftgelenks analysiert.
Methodik: Anhand relevanter Belastungsformen (uni- und bilaterale Drop Jumps,
einbeinige Landemanöver und reaktive laterale Sprungbewegungen) unter Belastungsstufen
wurden bei Ballspielsportlern Situationen simuliert, in denen der beschriebene
Verletzungsmechanismus auftreten kann. Dabei wurden im Sinne eines
ganzheitlichen, multimodularen Screening-Verfahrens die Knie- und Hüftgelenksbewegungen
mittels 3-D Kinematik erfasst. Die kinetische Analyse umfasst die Berechnung
der Gelenksmomente, Bodenreaktionskräfte und die Ermittlung der maximalen
Kraftfähigkeit der relevanten Hüftmuskulatur sowie der Oberschenkelstreckerkette.
Der Einfluss des neuromuskulären Aktivierungsverhaltens auf die dynamische Kniegelenkskontrolle
wurde über elektromyographische Verfahren abgebildet. Der Studienteil
1 untersuchte in einem Querschnittdesign die Auswirkungen der unterschiedlichen
Belastungsformen hinsichtlich der Determinanten der dynamischen Kniegelenksstabilität,
der Studienteil 2 diesbezügliche Zusammenhänge mit Hüftgelenksexkursionen
und deren (neuro-) muskulären Strukturen. Im Rahmen des Studienteils 3
wurden in einem Längsschnittdesign zwei Interventionsgruppen (apparatives Krafttraining
vs. koordinatives Sprungtraining) im Pre- zu-Posttest-Vergleich auf Unterschiede
der kniestabilisierenden Parameter sowie Indikatoren für eine Verletzungsexposition
hin untersucht.
Zentrale Ergebnisse: In der vorliegenden Studie kann gezeigt werden, dass laterale
Sprungmanöver im Vergleich zu vertikalen Sprung- oder Landemanövern größere
Knie- und Hüftgelenksexkursionen aufweisen und damit eine erhöhte Belastung für
diese spieltypischen Situationen einhergeht. Im Vergleich der Belastungsformen
scheinen Belastungssteigerungen innerhalb einer Belastungsform einen untergeordneten
Einfluss auf eine Verletzungsexposition zu haben. Vielmehr entscheidend ist
die verhältnismäßige Risikoeinordnung der Belastungsformen zueinander. Für alle
Bewegungen wird ein starker Zusammenhang der Hüftstellung in der Rotation mit
der dynamischen Kniegelenkskontrolle festgestellt. Um die Komplexität der Kniegelenkskontrolle
über die gesamte Belastungsphase abbilden zu können, wurde als
neue Messmethodik die „medio-laterale Knieschlackerbewegung“ erarbeitet und mit
den maximalen kinematischen Knieparametern als Indikator für die (In-)Stabilität des
Kniegelenks eingesetzt. Die (neuro-) muskulären Eigenschaften der Hüftmuskulatur
können insbesondere durch ihre außenrotatorische und abduzierende Wirkung Einfluss
auf die Ausrichtung der Gelenkachse und damit auf die Kniegelenkskontrolle
nehmen. Dabei scheinen Elemente eines koordinativen Sprungtrainings effektiver
als ein apparatives Krafttraining zu sein.
Fazit: Die Arbeit liefert einen Beitrag, um die komplexen Zusammenhänge der dynamischen
Kniegelenkskontrolle im Kontext verletzungsrelevanter Szenarien im Sport
zu evaluieren. Durch eine ganzheitliche Analyse der Knie- und Hüftgelenksbewegungen
sowie der dazugehörigen kinetischen sowie (neuro-)muskulären Parameter können
die gewonnenen Erkenntnisse helfen, Verletzungsmechanismen des Kniegelenks
besser zu kontrollieren. Diagnostische Verfahren und Trainingsprogramme
können auf dieser Basis weiterentwickelt werden, woraus durch ein tieferes Verständnis
die Möglichkeiten der Verletzungsprävention zukünftig optimiert gestaltet
werden können.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung und Analyse von Faktoren der haus-ärztlichen Standortfaktoren im ländlichen Raum.
Lebensqualität gerade auch in ländlichen Räumen in Deutschland ist vor allem daran geknüpft, welche Angebote der Daseinsvorsorge vor Ort bestehen. Die ambulante medizinische Versorgung nimmt dabei eine Schlüsselstellung ein, gerade vor dem Hintergrund einer im Zuge des demographischen Wandels immer älter werdenden Gesellschaft, insbesondere auf dem Land.
Niedergelassene Ärzte bilden dabei das Rückgrat einer bedarfsgerechten flächenhaften Versorgung, von denen wiederum die Hausärzte als Generalisten mit bislang sehr kleinräumiger Verteilungsstruktur erster Ansprechpartner für Patienten sind. Allerdings werden in Zukunft viele Hausarztsitze nicht mehr adäquat nachbesetzt werden können, da es zu wenige Nachfolger gibt. Unter dem gegenwärtigen Ungleichgewicht von Angebot und Nachfrage an Hausarztpraxen existiert kein funktionsfähiges Verteilungssystem zur Erreichung einer möglichst homogenen Flächenversorgung. Umso wichtiger ist es, den Prozess der Standortentscheidung von Hausärzten möglichst gut nachvollziehen zu können, um festzustellen anhand welcher Kriterien Hausärzte ihren Standort festlegen. In dieser Arbeit werden darum zunächst auf Expertenaussagen gestützte unternehmerische und private Faktoren ermittelt, die bei der hausärztlichen Standortwahl von Relevanz sein können.
Die Gründe für den bevorstehenden und bereits in manchen Regionen bemerkbaren Hausarztmangel liegen dabei zum einen im Ausbildungssystem, wo im langjährigen Verlauf Schwankungen in der Ausbildungsmenge und Missverhältnisse zur Bedarfsmenge an Ärzten zur einer aktuelle Verknappung beigetragen haben. Ebenso wurde die frühere Dominanz an männlichen Medizinstudenten durch eine Dominanz weiblicher Nachwuchsmediziner abgelöst, mit neuen Standortansprüchen und gewünschten Arbeitsformen. Allerdings nicht nur weibliche Nachwuchsmediziner bevorzugen heute Arbeitsmodelle, in denen sie ein Höchstmaß an Flexibilität haben, was vor allem in immer begehrter werdende Teamarbeit, Teilzeittätigkeiten, Anstellungs- anstelle von freiberuflichen Tätigkeitsformen und damit insgesamt in vor allem präferierte Tätigkeiten im stationären Versorgungsbereich hinausläuft. Die eher unattraktiven Arbeitsbedingungen als Hausarzt mit hoher Arbeitsbelastung mit im Vergleich zu anderen Facharztgruppen wenig attraktivem Gehalt tun ihr Übriges zur zunehmenden Verschmähung der allgemeinmedizinischen Weiterbildung zum Hausarzt bei, stattdessen findet immer häufiger eine Spezialisierung unter Nachwuchsmedizinern statt.
Alle angedachten bzw. in Umsetzung begriffene Maßnahmen zur Attraktivierung des Haus- bzw. Landarztberufs, vor allem finanzielle Anreize und Imagekampagnen, aber auch der Aufbau größerer Versorgungseinrichtungen, telemedizinischer Behandlungsmöglichkeiten und nicht-ärztlicher Delegationsformen, haben bislang nicht den erhofften Effekt einer Stabilisierung der Versorgungssituation. Dies gilt besonders auch im ländlichen Raum, wo die Ausstattung an Einrichtungen der Daseinsvorsorge in aller Regel nicht mit städtischen Qualitätsstandards mithalten kann. Bei einer relativ großen Wahlfreiheit durch nicht besetzbare Stellen und Posten älterer Ärzte bestehen für Nachwuchsmediziner jedoch heute gerade auch in dieser räumlichen Hinsicht größtmögliche Entscheidungsfreiheiten. Dies führt bereits heute zu einer Bevorzugung städtischer Räume als Arbeitsstandort und verschärft so zusätzlich die hausärztliche Versorgungslage im ländlichen Raum.
Im Rahmen einer empirischen Untersuchung an standardisiert befragten Hausärzten der zuvor gebildeten Modellräume Eifel und Unterfranken wurde dazu untersucht, welche unternehmerischen und privaten Faktoren überhaupt Hausärzte in die ländlichen Räume ziehen und ob diese im zeitlichen Verlauf sind. Neben den ökonomisch günstigen Voraussetzungen für Hausärzte mit leicht verfügbarer Kassenzulassung und großer Patientenzahl spricht dabei vor allem der landschaftliche Reiz für eine Niederlassung im ländlichen Raum. Von besonderer Relevanz war bislang auch immer das kinderfreundliche Lebensumfeld mit entsprechend vorgehaltenen Bildungseinrichtungen, allerdings verliert dieser Faktor durch den immer seltener werdenden Kin-der Wunsch langsam an Bedeutung unter den Hausärzten.
Jedoch bestehen zudem eine Reihe von sekundär bedeutsamen Faktoren, die auch vor Ort gestaltbar sein und so von innen heraus die Nachwuchsmediziner in Richtung ländlicher Räume ziehen können. Dazu zählen medizinische Einrichtungen (v.a. Fachärzte und Kliniken), Einkaufsmöglichkeiten, Sportstätten und das kulturelle Angebot.
Diese Faktoren gilt es zu stärken bzw. etwaige Schwächen ländlicher Räume in dieser Hinsicht mit kompensatorischen Maßnahmen inner- und überregional zu begegnen. Insbesondere wird es für eine zukünftig adäquate hausärztliche Versorgung unerlässlich sein, stärker auf die Interessen und Standortanforderungen weiblicher Mediziner mit besseren Betreuungsangeboten für Kinder, beruflichen Entfaltungsmöglichkeiten für Ehepartner, aber auch gewünschten Arbeitsorganisationsformen mit einem Mehr an Teamarbeit und flexiblen Arbeitsmodellen und -zeiten an zentraleren Standorten einzugehen.
Interconnection networks enable fast data communication between components of a digital system. The selection of an appropriate interconnection network and its architecture plays an important role in the development process of the system. The selection of a bad network architecture may significantly delay the communication between components and decrease the overall system performance.
There are various interconnection networks available. Most of them are blocking networks. Blocking means that even though a pair of source and target components may be free, a connection between them might still not be possible due to limited capabilities of the network. Moreover, routing algorithms of blocking networks have to avoid deadlocks and livelocks, which typically does only allow poor real-time guarantees for delivering a message. Nonblocking networks can always manage all requests that are coming from their input components and can therefore deliver all messages in guaranteed time, i.e, with strong real-time guarantees. However, only a few networks are nonblocking and easy to implement. The simplest one is the crossbar network which is a comparably simple circuit with also a simple routing algorithm. However, while its circuit depth of O(log(n)) is optimal, its size increases with O(n^2) and quickly becomes infeasible for large networks. Therefore, the construction of nonblocking networks with a quasipolynomial size O(nlog(n)^a) and polylogarithmic depth O(log(n)^b) turned out as a research problem.
Benes [Clos53; Bene65] networks were the first non blocking networks having an optimal size of O(nlog(n)) and an optimal depth of O(log(n)), but their routing algorithms are quite complicated and require circuits of depth O(log(n)^2) [NaSa82].
Other nonblocking interconnection networks are derived from sorting networks. Essentially, there are merge-based (MBS) and radix-based (RBS) sorting networks. MBS and RBS networks can be both implemented in a pipelined fashion which leads to a big advantage for their circuit implementation. While these networks are nonblocking and can implement all n! permutations, they cannot directly handle partial permutations that frequently occur in practice since not every input component communicates at every point of time with an output component. For merge-based sorting networks, there is a well known general solution called the Batcher-Banyan network. However, for the larger class of radix-based sorting networks this does not work, and there is only one solution known for a particular permutation network.
In this thesis, new nonblocking radix-based interconnection networks are presented. In particular, for a certain permutation network, three routing algorithms are developed and their circuit implementations are evaluated concerning their size, depth, and power consumption. A special extension of these networks allows them to route also partial permutations. Moreover, three general constructions to convert any binary sorter into a ternary split module were presented which is the key to construct a radix-based interconnection network that can cope with partial permutations. The thesis compares also chip designs of these networks with other radix-based sorting networks as well as with the Batcher-Banyan networks as competitors. As a result, it turns out that the proposed radix-based networks are superior and could form the basis of larger manycore architectures.
Although today’s bipeds are capable of demonstrating impressive locomotion skills, in many aspects, there’s still a big gap compared to the capabilities observed in humans. Partially, this is due to the deployed control paradigms that are mostly based on analytical approaches. The analytical nature of those approaches entails strong model dependencies – regarding the robotic platform as well as the environment – which makes them prone to unknown disturbances. Recently, an increasing number of biologically-inspired control approaches have been presented from which a human-like bipedal gait emerges. Although the control structures only rely on proprioceptive sensory information, the smoothness of the motions and the robustness against external disturbances is impressive. Due to the lack of suitable robotic platforms, until today the controllers have been mostly applied to
simulations.
Therefore, as the first step towards a suitable platform, this thesis presents the Compliant Robotic Leg (CARL) that features mono- as well as biarticular actuation. The design is driven by a set of core-requirements that is primarily derived from the biologically-inspired behavior-based bipedal locomotion control (B4LC) and complemented by further functional aspects from biomechanical research. Throughout the design process, CARL is understood as a unified dynamic system that emerges from the interplay of the mechanics, the electronics, and the control. Thus, having an explicit control approach and the respective gait in mind, the influence of each subsystem on the characteristics of the overall system is considered
carefully.
The result is a planar robotic leg whose three joints are driven by five highly integrated linear SEAs– three mono- and two biarticular actuators – with minimized reflected inertia. The SEAs are encapsulated by FPGA-based embedded nodes that are designed to meet the hard application requirements while enabling the deployment of a full-featured robotic framework. CARL’s foot is implemented using a COTS prosthetic foot; the sensor information is obtained from the deformation of its main structure. Both subsystems are integrated into a leg structure that matches the proportions of a human with a size of 1.7 m.
The functionality of the subsystems, as well as the overall system, is validated experimentally. In particular, the final experiment demonstrates a coordinated walking motion and thereby confirms that CARL can produce the desired behavior – a natural looking, human-like gait is emerging from the interplay of the behavior-based walking control and the mechatronic system. CARL is robust regarding impacts, the redundant actuation system can render the desired joint torques/impedances, and the foot system supports the walking structurally while it provides the necessary sensory information. Considering that there is no movement of the upper trunk, the angle and torque profiles are comparable to the ones found in humans.
The neural networks have been extensively used for tasks based on image sensors. These models have, in the past decade, consistently performed better than other machine learning methods on tasks of computer vision. It is understood that methods for transfer learning from neural networks trained on large datasets can reduce the total data requirement while training new neural network models. These methods tend not to perform well when the data recording sensor or the recording environment is unique from the existing large datasets. The machine learning literature provides various methods for prior-information inclusion in a learning model. Such methods employ methods like designing biases into the data representation vectors, enforcing priors or physical constraints on the models. Including such information into neural networks for the image frames and image-sequence classification is hard because of the very high dimensional neural network mapping function and little information about the relation between the neural network parameters. In this thesis, we introduce methods for evaluating the statistically learned data representation and combining these information descriptors. We have introduced methods for including information into neural networks. In a series of experiments, we have demonstrated methods for adding the existing model or task information to neural networks. This is done by 1) Adding architectural constraints based on the physical shape information of the input data, 2) including weight priors on neural networks by training them to mimic statistical and physical properties of the data (hand shapes), and 3) by including the knowledge about the classes involved in the classification tasks to modify the neural network outputs. These methods are demonstrated, and their positive influence on the hand shape and hand gesture classification tasks are reported. This thesis also proposes methods for combination of statistical and physical models with parametrized learning models and show improved performances with constant data size. Eventually, these proposals are tied together to develop an in-car hand-shape and hand-gesture classifier based on a Time of Flight sensor.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
Der Leitungsbau hat vor dem Hintergrund der aktuellen ökologischen Herausforderungen und unter dem Aspekt einer umweltgerechten und sicheren Bewirtschaftung des Abwassers nach wie vor einen hohen Stellenwert unter den kommunalen Aufgaben. Nach Erhebungen des Statistischen Bundesamts von 2016 wurden in den letzten Jahren jährlich ca. 4.600 km neue Entwässerungskanäle hergestellt. Dabei sind Baustellen immer ein Eingriff in die Umwelt. Insbesondere der innerstädtische Kanalbau hat erhebliche Auswirkungen auf den Verkehrsfluss. Im urbanen Umfeld und generell bei größeren Tiefenlagen stellt der maschinelle Rohrvortrieb eine Verlegemethode für Abwasserkanäle dar, die gegenüber der offenen Bauweise deutlich reduzierte Einschränkungen für Anwohner und Verkehrsfluss mit sich bringt. Um eine möglichst wirtschaftliche Herstellung von Leitungen zu erreichen, gehen die Bestrebungen hin zu möglichst wenigen Schachtbauwerken. In der Folge werden immer längere Vortriebsstrecken, aber auch immer mehr bogenförmige Trassen mit immer engeren Kurvenradien geplant. Durch eine gekrümmte Trassierung lassen sich insbesondere Schächte vermeiden, die im Wesentlichen dazu dienen, Hindernisse zu umgehen oder nicht geraden Straßenverläufen zu folgen.
Um gekrümmten Trassen folgen zu können, müssen sich die Vortriebsrohre gegeneinander abwinkeln. Die Abwinklung führt zu einer Verkleinerung der Kontaktfläche in der Rohrfuge und zu einer Spannungsumlagerung auf die Kurveninnenseite des Rohrspiegels. Die entstehenden Spannungsspitzen können an dieser Stelle zu einer Überbeanspruchung der Rohrwandung führen.
Die vorliegende Arbeit entwickelt eine alternative Ausführung der Rohrenden. Diese soll durch eine gelenkige Rohrverbindung die Kontaktfläche zwischen zwei Rohren vergrößern und das Abwinkeln in der Rohrfügung verhindern. Die Gelenkigkeit der Verbindung wird durch die Ausrundung der Rohrenden erreicht.
Da die gelenkige Rohrverbindung - aufgrund ihrer Ausrundung - eine grundlegend andere Kinematik aufweist als Rohre mit ebenem Rohrspiegel, werden die Auswirkungen der Ausrundung auf die Geometrie, die Hydraulik und die Statik der neuartigen Rohre untersucht.
This thesis investigates how smart sensors can quantify the process of learning. Traditionally, human beings have obtained various skills by inventing technologies. Those who integrate technologies into daily life and enhance their capabilities are called augmented humans. While most existing augmenting human technologies focus on directly assisting specific skills, the objective of this thesis is to assist learning -- the meta-skill to master new skills -- with the aim of long-term augmentations.
Learning consists of cognitive activities such as reading, writing, and watching. It has been considered that tracking them by motion sensors (in the same way as the recognition of physical activities) is a challenging task because dynamic body movements could not be observed during cognitive activities. I have solved this problem with smart sensors monitoring eye movements and physiological signals.
I propose activity recognition methods using sensors built into eyewear computers. Head movements and eye blinks measured by an infrared proximity sensor on Google Glass could classify five activities including reading with 82% accuracy. Head and eye movements measured by electrooculography on JINS MEME could classify four activities with 70% accuracy. In a wild experiment involving seven participants who wore JINS MEME more than two weeks, deep neural networks could detect natural reading activities with 74% accuracy. I demonstrate Wordometer 2.0, an application to estimate the number of rear words on JINS MEME, which was evaluated in a dataset involving five readers with 11% error rate.
Smart sensors can recognize not only activities but also internal states during the activities. I present an expertise recognition method using an eye tracker which performs 70% classification accuracy into three classes using one minute data of reading a textbook, a positive correlation between interest and pupil diameter (p < 0.01), a negative correlation between mental workload and nose temperature measured by an infrared thermal camera (p < 0.05), an interest detection on newspaper articles, and effective gaze and physiological features to estimate self-confidence while solving multiple choice questions and spelling tests of English vocabulary.
The quantified learning process can be utilized for feedback to each learner on the basis of the context. I present HyperMind, an interactive intelligent digital textbook. It can be developed on HyperMind Builder which may be employed to augment any electronic text by multimedia aspects activated via gaze.
Applications mentioned above have already been deployed at several laboratories including Immersive Quantified Learning Lab (iQL-Lab) at the German Research Center for Artificial Intelligence (DFKI).
As visualization as a field matures, the discussion about the development of a
theory of the field becomes increasingly vivid. Despite some voices claiming that
visualization applications would be too different from each other to generalize,
there is a significant push towards a better understanding of the principles underlying
visual data analysis. As of today, visualization is primarily data-driven.
Years of experience in the visalization of all kinds of different data accumulated
a vast reservoir of implicit knowledge in the community of how to best represent
data according to its shape, its format, and what it is meant to express.
This knowledge is complemented by knowledge imported to visualization from
a variety of other fields, for example psychology, vision science, color theory,
and information theory. Yet, a theory of visualization is still only nascent. One
major reason for that is the field's too strong focus on the quantitative aspects
of data analysis. Although when designing visualizations major design decisions
also consider perception and other human factors, the overall appearance
of visualizations as of now is determined primarily by the type and format of
the data to be visualized and its quantitative attributes like scale, range, or
density. This is also reflected by the current approaches in theoretical work on
visualization. The models developed in this regard also concentrate primarily
on perceptual and quantitative aspects of visual data analysis. Qualitative considerations
like the interpretations made by viewers and the conclusions drawn
by analysts currently only play a minor role in the literature. This Thesis contributes
to the nascent theory of visualization by investigating approaches to
the explicit integration of qualitative considerations into visual data analysis.
To this end, it promotes qualitative visual analysis, the explicit discussion of
the interpretation of artifacts and structures in the visualization, of efficient
workflows designed to optimally support an analyst's reasoning strategy and
capturing information about insight provenance, and of design methodology
tailoring visualizations towards the insights they are meant to provide rather
than to the data they show. Towards this aim, three central qualitative principles
of visual information encodings are identified during the development of
a model for the visual data analysis process that explicitly includes the anticipated
reasoning structure into the consideration. This model can be applied
throughout the whole life cycle of a visualization application, from the early
design phase to the documentation of insight provenance during analysis using
the developed visualization application. The three principles identified inspire
novel visual data analysis workflows aiming for an insight-driven data analysis
process. Moreover, two case studies prove the benefit of following the qualitative
principles of visual information encodings for the design of visualization
applications. The formalism applied to the development of the presented theoretical
framework is founded in formal logics, mathematical set theory, and the
theory of formal languages and automata. The models discussed in this Thesis
and the findings derived from them are therefore based on a mathematically
well-founded theoretical underpinning. This Thesis establishes a sound theoretical
framework for the design and description of visualization applications and
the prediction of the conclusions an analyst is capable of drawing from working
with the visualization. Thereby, it contributes an important piece to the yet
unsolved puzzle of developing a visualization theory.
Die Disproportionierung gesättigter Kohlenwasserstoffe, auch Chevron-Prozess genannt, basiert auf einem Vorschlag von Thomas Hughes aus dem Jahr 1964. Der im Phillipp’s Triolefin Process genutzte Metathesekatalysator wird hierbei durch eine weitere Komponente ergänzt, die zusätzlich Dehydrier- und Hydrierreaktionen katalysiert. Somit wird die Metathesereaktion durch eine vorgelagerte Dehydrier- und eine nachgelagerte Hydrierreaktion zu einem
dreistufigen Reaktionssystem erweitert. 1973 wurde diese Reaktion erstmals von Burnett und
Hughes als Alkandisproportionierung beschrieben. In Analogie zum Phillip’s Triolefin Process werden lineare gesättigte Kohlenwasserstoffe mit gleicher Kettenlänge zu unterschiedlichen Produkten mit höheren und niedrigeren Molekulargewichten umgesetzt. Bei der MA werden entgegengesetzt langkettige und kurzkettige Kohlenwasserstoffe als Edukte genutzt, aus welchen die Moleküle mit den dazwischen liegenden Kettenlängen gebildet werden.
Im Rahmen dieser Arbeit wurde die Disproportionierung von Alkanen (MR) an heterogenen, bifunktionellen Katalysatoren untersucht, um ein besseres Verständnis des Einflusses verschiedener Komponenten auf die Wirkweise und Flexibilität des Gesamtsystems zu erlangen. Zusätzlich wurde ein quantifizierbarer Bezug zwischen den verschiedenen Katalysatorkombinationen hergestellt. Um die in der Literatur beschriebenen Ergebnisse zu
reproduzieren, wurde zunächst eine Strömungsapparatur geplant, ausgelegt und konstruiert. In einer ersten Laufzeitmessung wurde das aus der Literatur bekannte Katalysatorsystem
(Pt/Li/γ-Al2O3 & WOX/SiO2) untersucht. Dadurch konnten die weiteren Laufzeitmessungen mit modifizierten Materialien in Relation zu den ursprünglichen Ergebnissen der Literatur gesetzt werden. Mit dem Ziel die katalytische Aktivität des Pt-basierten Katalysatorsystems zu verbessern, wurde der Li-Promotor der Pt-Teilkomponente variiert und durch Na, K und Sn ersetzt, bzw. ersatzlos entfernt. Bei einem zweiten Ansatz zur Untersuchung des katalytischen Verhaltens des Pt-Systems wurden die Trägermaterialen variiert. Hierzu wurde das γ-Al2O3 durch verschiedene mikroporöse und mesoporöse Materialien ersetzt.
Als Alternative zu dem in der Literatur ausführlich beschriebenen Pt-basierten Katalysatorsystem wurde in dieser Arbeit CrOx untersucht. In einer ersten
Versuchsreihe wurde die katalytische Aktivität des Systems in Abhängigkeit von der Cr-Beladung der Dehydrier-/Hydrierkomponente untersucht. In einer zweiten Versuchsreihe wurde, wie schon bei dem Pt-Katalysator, der Promotor der Dehydrier-/Hydrierkomponente evaluiert. Eine weitere Variation stellte die Untersuchung der mesoporösen Materialien MCM-41 und
SBA-15 als Trägermaterial der Metathesekomponente dar. Da, anders als bei Pt, für das Cr-basierte Katalysatorsystem vor dieser Arbeit keine Informationen zu dem katalytischen Verhalten in Abhängigkeit von den Betriebsparametern vorlagen, wurden in einer letzten Versuchsreihe die Betriebsbedingungen evaluiert.
Die Ergebnisse der durchgeführten Versuchsreihen mit zahlreichen Variationen in der Katalysatorzusammensetzung weisen auf eine hohe Flexibilität des bestehenden Systems im Hinblick auf den Austausch der Katalysatorkomponenten hin. In diesem Rahmen konnte gezeigt werden, dass die in dieser Arbeit untersuchten CrOx-basierten Katalysatoren eine realistische Alternative mit vielseitigen Optimierungsmöglichkeiten zu den bisher bekannten, Pt-basierten Systemen darstellt.
In a recent paper, G. Malle and G. Robinson proposed a modular anologue to Brauer's famous \( k(B) \)-conjecture. If \( B \) is a \( p \)-block of a finite group with defect group \( D \), then they conjecture that \( l(B) \leq p^r \), where \( r \) is the sectional \( p \)-rank of \( D \). Since this conjecture is relatively new, there is obviously still a lot of work to do. This thesis is concerned with proving their conjecture for the finite groups of exceptional Lie type.
Mit dem Einsatz stiftförmiger Verbindungsmittel am Stabende werden Holzstäbe durch die notwendigen Bohrlöcher für die Verbindungsmittel und durch die notwendigen Schlitze für etwaige Verbindungsbleche stets geometrisch und damit statisch geschwächt. Das volle Tragpotential des Einzelstabes kann somit - mit konventionellen Verbindungsmitteln, wie Stabdübeln, (Pass)-Bolzen aber auch Dübeln besonderer Bauart – nicht vollständig ausgeschöpft werden.
Im Rahmen dieser Arbeit wird die Verstärkung von Bauteilanschlüssen in auf Normalkraft beanspruchten Stabtragwerken mit Kunstharzpressholz (KP) untersucht, das mittels einer Keilzinkenverbindung an die Enden nativer Stäbe geklebt wird. Es werden sowohl charakteristische Keilzinkenfestigkeiten unterschiedlicher Profilgeometrien an hybriden Verbindungen zwischen nativem Holz und KP ermittelt als auch Lochleibungsfestigkeiten von KP unterschiedlichen Aufbaus an zylindrischen Verbindungsmitteln mit einem Durchmesser von d = 8 mm bis d = 60 mm bestimmt. Die Untersuchungen belegen, dass die Tragfähigkeit des Anschlussbereiches sowie die Tragfähigkeit der Keilzinkenverbindung zwischen nativem Holz und KP größer ist als die Tragfähigkeit des Bruttoquerschnitts eines nativen Stabes bis Festigkeitsklasse C35. Deshalb kann die volle Tragfähigkeit des Bruttoquerschnitts für den statischen Nachweis angesetzt und damit eine Bemessung auf den Spannungsnachweis bei Zugstäben und auf den Stabilitätsnachweis bei Druckstäben vereinfacht werden. Gleichzeitig ist eine Reduktion der für die Verbindung notwendigen zylindrischen Verbindungsmittel auf ein einziges möglich, was die Bauteilmontage als auch die Bauteildemontage erheblich vereinfacht.
Aufgrund seiner hohen Festigkeit, Härte und Formstabilität eignet sich KP bestens um reversible Bauteilanschlüsse auszubilden. Um die Verbindung zerstörungsfrei zu lösen und um die Wiederverwendbarkeit der Bauteile zu ermöglichen, müssen plastisch irreversible Verformungen der Verbindungsmittel als auch der Lochleibung ausgeschlossen werden. Innerhalb dieser Arbeit wird neben den eigentlichen Lochleibungsfestigkeiten daher auch der Einfluss der Verbindungsmittelschlankheit auf das Tragverhalten von Anschlüssen mit zylindrischen Verbindungsmitteln in KP untersucht.
Neben Scher-Lochleibungsanschlüssen werden auch Anschlüsse mit vorgespannten Schrauben im KP-verstärkten Stabende thematisiert. Im Vergleich zu reinen Scher-Lochleibungsverbindungen kann mit gleitfesten Verbindungen die Tragfähigkeit des Bauteilanschlusses signifikant gesteigert werden. Zudem lassen sich unter Einhaltung üblicher Bauteiltoleranzen nach DIN 18203-3 (2008) zugleich hohe Anschlusssteifigkeiten realisieren.
Für Scher-Lochleibungsanschlüsse und für gleitfeste Anschlüsse werden Gleichungssysteme als auch Bemessungstabellen entwickelt. Das Potential KP-verstärkter Stäbe wird am Beispiel modular aufgebauter Fachwerkträger mit Scher-Lochleibungsverbindungen erörtert.
Abschließend werden ringförmige Knotenanschlüsse aus KP vorgestellt. Mit diesen organisch geformten Freiformknoten können Stäbe unterschiedlichen Querschnitts, unterschiedlicher Länge und unter unterschiedlichen Winkeln gestoßen werden.
Mit dieser Arbeit wird die Grundlage zur Bemessung von Holztragwerken mit Knotenverstärkungen aus KP geschaffen.
This thesis aims to examine various determinants of perceived team diversity on the on hand, and, on the other hand, the individual consequences of perceived team diversity. To ensure a strong theoretical foundation, I integrate and discuss different conceptualizations of and theoretical approaches to team diversity, empirically examined in three independent studies. The first study investigates the relationship between objective team diversity and perceived team diversity, and as moderators individual attitudes toward diversity and perception of one’s own work team’s diversity. The second study answers the questions of why and when dirty-task frequency impairs employees’ work relations and the third study examines how different cognitive mechanisms mediate the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. Taken together, study results provide support for the selection-extraction-application model of people perception and the assumption that individuals can integrate objective team characteristics into their mental representation of teams, using them to judging the team. Moreover, results show that a fit between perceived supervisor support and perceived organizational value of diversity can buffer the effects of dirty-task frequency on perception of identity-based subgroups, as well as perceived relationship conflict and surface acting, through employees’ perceptions of identity-based subgroups. Also, perceived social-identity threat and perceived procedural fairness but not perceived distributive fairness and perceived transactive memory systems serve as cognitive mechanisms of the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. These results contribute to diversity literature, such as the theory of subgroups in work teams and the categorization-elaboration model. In addition, I propose the input-mediator-output-input model of perceived team diversity, based on the study results, and recommend practitioners to develop diversity mindsets in teams.
Mehrschichtige Stahlbetonwandtafeln bestehen aus einer Trag- und Vorsatzschale aus Stahlbeton sowie einer innenliegenden Dämmschicht. Die als Fassade fungierende Vorsatzschale ist in der Regel nichttragend und dient als Wetterschutzschicht für die Wärmedämmung sowie zur Gestaltung des Gebäudes. Trotz der nichttragenden Funktion werden diese Fassaden massiv ausgeführt, da die innenliegende Bewehrung vor Korrosion geschützt werden muss. Das widerspricht dem Trend zu immer größeren, filigranen Sichtbetonfassaden, die ein Minimum an Fugen aufweisen. Durch innovative Entwicklungen im Bereich der Betontechnologie sowie in der Verankerungstechnik wird der Bau von filigranen, unbewehrten, energieeffizienten und nachhaltigen Architekturbetonfassaden mit wenigen Zentimetern Bauteildicke als Vorsatzschale von mehrschichtigen Stahlbetonwand-tafeln ermöglicht. Dieses Potential eröffnet sich durch die Verwendung von Ultrahochleistungsbetonen, die sich unteranderem durch ihre hohe Zug- und Biegezugfestigkeit auszeichnen. Durch Verbindungsmittel aus glasfaserverstärktem Kunststoff wird die Fassade mehrfach statisch unbestimmt befestigt. Aufgrund des vergleichsweise geringen Elastizitätsmoduls können die sonst kritischen Belastungen infolge Zwangs reduziert werden.
Gegenstand der vorliegenden Arbeit ist die Entwicklung eines abgesicherten Bemessungskonzeptes um unbewehrte, punktgestützte Fassaden als Vorsatzschicht in mehrschichtigen Stahlbetonwandtafeln bemessen zu können. Dabei liegt der Fokus auf der Berücksichtigung von Zwangseinwirkungen, Expositionen und geometrischen Einflüssen. Es werden umfangreiche, kleinmaßstäbliche Versuche durchgeführt, um den Maßstabseffekt, den Einfluss der Tragrichtung, des verwendeten Gesteins sowie Expositionen infolge Temperatur, Feuchtigkeit und Frost-Tau-Wechseln auf den Materialwiderstand zu untersuchen. In Großversuchen werden ausgewählte Expositionen sowie geometrische Parameter am Gesamtsystem erforscht. Weiterhin wird der Einfluss der lokalen und globalen Steifigkeit der Unterkonstruktion analysiert. In einem nächsten Schritt erfolgen die numerische Simulation des Fassadensystems und die Modellverifizierung anhand der Ergebnisse der Großversuche. Mithilfe einer Parameterstudie wird der Einfluss einer globalen und lokalen Steifigkeitsänderung der Unterkonstruktion untersucht. Ein weiterer Fokus liegt auf der Spannungsverteilung im Bereich einspringender Bauteilecken.
Die Ergebnisse münden in einem Bemessungskonzept und Konstruktionsregeln für die Fassadenplatte, Verbindungsmittel sowie die Verankerung. Für die Fassade wird ein Biege- und Normalkraftnachweis eingeführt. Die Verbindungsmittel werden auf Biegung und Zug, Schub und Stabilität nachgewiesen. Hinsichtlich der Verankerung wird ein Zug-, Querzug- und Drucknachweis geführt. Das Bemessungskonzept basiert auf einer Kombination der Bemessung von Glas- und Betonwerksteinfassaden, beinhaltet Geometriefaktoren wie im Holzbau und berücksichtigt erstmalig und planmäßig auch Zwangseinwirkungen. Die Berechnungsmodelle werden anhand der Versuchsergebnisse plausibilisiert. Ein semiprobabilistisches Teilsicherheitskonzept mit der Bestimmung des Teilsicherheitsbeiwertes für UHPC (engl. Ultra High Performance Concrete) sowie ein Resttragfähigkeitsnachweis runden die Arbeit ab.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Die vorliegende Arbeit behandelt die Neuentwicklung der Betriebselektronik für eine Rasterkraftsonde die im Frequenzmodulationsverfahren betrieben wird. Rasterkraftsonden haben das Potenzial zukünftige Messaufgaben der Fertigungsmesstechnik, die durch Tastschnittgeräte und Optische Messgeräte nicht mehr gelöst werden, zu lösen. Als Grundlage für die Entwicklung eines Sensors zum Messen rauer, technischer Oberflächen dient die Akiyama-Sonde: bei dieser handelt es sich um eine Rasterkraftsonde deren Auslenkung sensorlos, ohne zusätzliche Bauteile, detektiert werden kann. Im Rahmen dieser Arbeit wurde zunächst die Eignung der Akiyama-Sonde zum Messen technischer Oberflächen untersucht. Anschließend wurde eine neue Betriebselektronik für die Sonde entwickelt. Die neuentwickelte Elektronik zeichnet sich durch einen sehr einfachen Aufbau aus: in Kern besteht sie nur aus einem FPGA, einem Analog-Digital-Umsetzer und einem Digital-Analog-Umsetzer. Methodisch wurde bei der Entwicklung ein modellbasiertes Vorgehen gewählt: Zunächst wurde die Akiyama-Sonde in ihrem Arbeitspunkt modelliert. Basierend auf dem Modell erfolgte der virtuelle Entwurf der Betriebselektronik. Ein physikalischer Prototyp wurde somit erst spät im Entwicklungsprozess benötigt. Abschließend wurde anhand von Experimenten die Fähigkeit der neuen Betriebselektronik zum Messen von Auslenkungen im Nanometer-Bereich nachgewiesen.
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Diversification is one of the main pillars of investment strategies. The prominent 1/N portfolio, which puts equal weight on each asset is, apart from its simplicity, a method which is hard to outperform in realistic settings, as many studies have shown. However, depending on the number of considered assets, this method can lead to very large portfolios. On the other hand, optimization methods like the mean-variance portfolio suffer from estimation errors, which often destroy the theoretical benefits. We investigate the performance of the equal weight portfolio when using fewer assets. For this we explore different naive portfolios, from selecting the best Sharpe ratio assets to exploiting knowledge about correlation structures using clustering methods. The clustering techniques separate the possible assets into non-overlapping clusters and the assets within a cluster are ordered by their Sharpe ratio. Then the best asset of each portfolio is chosen to be a member of the new portfolio with equal weights, the cluster portfolio. We show that this portfolio inherits the advantages of the 1/N portfolio and can even outperform it empirically. For this we use real data and several simulation models. We prove these findings from a statistical point of view using the framework by DeMiguel, Garlappi and Uppal (2009). Moreover, we show the superiority regarding the Sharpe ratio in a setting, where in each cluster the assets are comonotonic. In addition, we recommend the consideration of a diversification-risk ratio to evaluate the performance of different portfolios.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Im Rahmen dieser Arbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden dargestellt und die korrespondierenden Rutheniumkomplexe hinsichtlich ihrer Aktivität in homogenkatalytischen Hydrierungs- und Dehydrierungsreaktionen untersucht. Durch Anwendung des Prinzips von Le Chatelier konnte die katalytische Transferhydrierung verschiedener Substrate mit Isopropanol, dem gängigen Lösungsmittel und Wasserstoffdonor dieser Umsetzung, optimiert werden. Zusätzlich gelang die Substitution dieses sekundären Alkohols gegen preiswertes Ethanol, welches aus nachwachsenden Rohstoffen gewonnen werden kann. Dabei nahm die rasche Entfernung des gebildeten Acetaldehyds aus dem Gleichgewicht eine Schlüsselrolle zur Vermeidung unerwünschter Nebenreaktionen und zum Erzielen hoher Produktausbeuten ein. Selektive Funktionalisierungen der Katalysatorstruktur lieferten grundlegende Einblicke in die Struktur-Eigenschafts-Beziehungen des Systems und trugen somit zu dessen Verständnis bei. Unter Berücksichtigung ökonomischer Aspekte wurden darüber hinaus zwei praktische, sehr effiziente Varianten der Ley-Griffith-Oxidation zur Dehydrierung unterschiedlicher Alkohole und Amine erarbeitet. Der zugrundeliegende Reaktionsmechanismus wurde anhand von DFT-Rechnungen eingehend erforscht.
This work describes the development of a continuum phase field model that can describe static as well as dynamic wetting scenarios on the nano- and microscale.
The model reaches this goal by a direct integration of an equation of state as well as a direct integration of the dissipative properties of a specific fluid, which are both obtained from molecular simulations. The presented approach leads to good agreement between the predictions of the phase field model and the physical properties of the regarded fluid.
The implementation of the model employs a mixed finite element formulation, a newly developed semi-implicit time integration scheme, as well as the concept of hyper-dual numbers. This ensures a straightforward and robust exchangeability of the constitutive equation for the regarded fluid.
The presented simulations show good agreement between the results of the present phase field model and results from molecular dynamics simulations. Furthermore, the results show that the model enables the investigation of wetting scenarios on the microscale. The continuum phase field model of this work bridges the gap between the molecular models on the nanoscale and the phenomenologically motivated continuum models on the macroscale.
Faser-Kunststoff-Verbunde erfahren aufgrund ihrer guten gewichtsspezifischen mechanischen Kennwerte eine zunehmende Verbreitung in verschiedensten Anwendungsfeldern. Eine Voraussetzung für die Ausnutzung der Leichtbaupotenziale bei gleichzeitiger Begrenzung der Herstellkosten ist jedoch eine werkstoffgerechte Lasteinleitung durch geeignete Verbindungsverfahren.
Gegenstand dieser Arbeit ist die Untersuchung eines Ansatzes zur Herstellung von Strukturen aus Faser-Kunststoff-Verbund durch eine getrennte Herstellung von teilausgehärteten Substrukturen mit anschließender Verbindung durch gemeinsame Vollaushärtung. Zur umfassenden Analyse der Prozessfenster und Potenziale werden zunächst am Beispiel eines faserverstärkten Werkstoffes auf Epoxidharzbasis die wichtigsten Zustands- und Eigenschaftsänderungen während der Vernetzung des Matrixharzes charakterisiert. Als Resultat dieser Analysen können die Entwicklung des Aushärtegrads bei verschiedener Temperaturführung im Aushärteprozess sowie die grundlegenden mechanischen Eigenschaften von Matrixwerkstoff und Verbund bei verschiedenen Aushärtegraden quantifiziert werden.
Aufbauend auf diesen Ergebnissen werden anhand experimenteller Untersuchungen an durch gemeinsame Aushärtung hergestellten Laminaten die Verbindungseigenschaften in Abhängigkeit von unterschiedlichen Einflussfaktoren ermittelt. Für die zwei Prozessvarianten Autoklavprozess und Resin Transfer Molding (RTM) wird die Energiefreisetzungsrate unter Mode I-Belastung bei Variation des Aushärtegrads der zu verbindenden Laminate analysiert. Die Variation der Verbindungseigenschaften wird anhand von rasterelektronenmikroskopischen Untersuchungen der Bruchfläche erklärt. Weiterhin wird der Einfluss der Oberflächeneigenschaften durch Anwendung verschiedener Vorbehandlungen analysiert. Die Oberflächeneigenschaften Oberflächenspannung, Topografie und chemische Zusammensetzung werden gemessen und hinsichtlich ihrer Prognosefähigkeit für die Verbindungseigenschaften diskutiert.
Zur Demonstration der Umsetzbarkeit der Herstellmethode auf Bauteilebene werden für den Einsatz im Luftfahrtbereich typische Details hergestellt und mechanisch geprüft. Die Eigenschaften der in der hier untersuchten Methodik hergestellten Details zeigen nur geringe Abweichungen im Vergleich zu denen der Referenzmethode.
The advent of heterogeneous many-core systems has increased the spectrum
of achievable performance from multi-threaded programming. As the processor components become more distributed, the cost of synchronization and
communication needed to access the shared resources increases. Concurrent
linearizable access to shared objects can be prohibitively expensive in a high
contention workload. Though there are various mechanisms (e.g., lock-free
data structures) to circumvent the synchronization overhead in linearizable
objects, it still incurs performance overhead for many concurrent data types.
Moreover, many applications do not require linearizable objects and apply
ad-hoc techniques to eliminate synchronous atomic updates.
In this thesis, we propose the Global-Local View Model. This programming model exploits the heterogeneous access latencies in many-core systems.
In this model, each thread maintains different views on the shared object: a
thread-local view and a global view. As the thread-local view is not shared,
it can be updated without incurring synchronization costs. The local updates
become visible to other threads only after the thread-local view is merged
with the global view. This scheme improves the performance at the expense
of linearizability.
Besides the weak operations on the local view, the model also allows strong
operations on the global view. Combining operations on the global and the
local views, we can build data types with customizable consistency semantics
on the spectrum between sequential and purely mergeable data types. Thus
the model provides a framework that captures the semantics of Multi-View
Data Types. We discuss a formal operational semantics of the model. We
also introduce a verification method to verify the correctness of the implementation of several multi-view data types.
Frequently, applications require updating shared objects in an “all-or-nothing” manner. Therefore, the mechanisms to synchronize access to individual objects are not sufficient. Software Transactional Memory (STM)
is a mechanism that helps the programmer to correctly synchronize access to
multiple mutable shared data by serializing the transactional reads and writes.
But under high contention, serializable transactions incur frequent aborts and
limit parallelism, which can lead to severe performance degradation.
Mergeable Transactional Memory (MTM), proposed in this thesis, allows accessing multi-view data types within a transaction. Instead of aborting
and re-executing the transaction, MTM merges its changes using the data-type
specific merge semantics. Thus it provides a consistency semantics that allows
for more scalability even under contention. The evaluation of our prototype
implementation in Haskell shows that mergeable transactions outperform serializable transactions even under low contention while providing a structured
and type-safe interface.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Nowadays a large part of communication is taking place on social media platforms such as Twitter, Facebook, Instagram, or YouTube, where messages often include multimedia contents (e.g., images, GIFs or videos). Since such messages are in digital form, computers can in principle process them in order to make our lives more convenient and help us overcome arising issues. However, these goals require the ability to capture what these messages mean to us, that is, how we interpret them from our own subjective points of view. Thus, the main goal of this dissertation is to advance a machine's ability to interpret social media contents in a more natural, subjective way.
To this end, three research questions are addressed. The first question aims at answering "How to model human interpretation for machine learning?" We describe a way of modeling interpretation which allows for analyzing single or multiple ways of interpretation of both humans and computer models within the same theoretic framework. In a comprehensive survey we collect various possibilities for such a computational analysis. Particularly interesting are machine learning approaches where a single neural network learns multiple ways of interpretation. For example, a neural network can be trained to predict user-specific movie ratings from movie features and user ID, and can then be analyzed to understand how users rate movies. This is a promising direction, as neural networks are capable of learning complex patterns. However, how analysis results depend on network architecture is a largely unexplored topic. For the example of movie ratings, we show that the way of combining information for prediction can affect both prediction performance and what the network learns about the various ways of interpretation (corresponding to users).
Since some application-specific details for dealing with human interpretation only become visible when going deeper into particular use-cases, the other two research questions of this dissertation are concerned with two selected application domains: Subjective visual interpretation and gang violence prevention. The first application study deals with subjectivity that comes from personal attitudes and aims at answering "How can we predict subjective image interpretation one would expect from the general public on photo-sharing platforms such as Flickr?" The predictions in this case take the form of subjective concepts or phrases. Our study on gang violence prevention is more community-centered and considers the question "How can we automatically detect tweets of gang members which could potentially lead to violence?" There, the psychosocial codes aggression, loss and substance use serve as proxy to estimate the subjective implications of online messages.
In these two distinct application domains, we develop novel machine learning models for predicting subjective interpretations of images or tweets with images, respectively. In the process of building these detection tools, we also create three different datasets which we share with the research community. Furthermore, we see that some domains such as Chicago gangs require special care due to high vulnerability of involved users. This motivated us to establish and describe an in-depth collaboration between social work researchers and computer scientists. As machine learning is incorporating more and more subjective components and gaining societal impact, we have good reason to believe that similar collaborations between the humanities and computer science will become increasingly necessary to advance the field in an ethical way.
More than ten years ago, ER-ANT1 was shown to act as an ATP/ADP antiporter and to exist in the endoplasmic reticulum (ER) of higher plants. Because structurally different transporters generally mediate energy provision to the ER, the physiological function of ER-ANT1 was not directly evident.
Interestingly, mutant plants lacking ER-ANT1 exhibit a photorespiratory phenotype. Although many research efforts were undertaken, the possible connection between the transporter and photorespiration also remained elusive. Here, a forward genetic approach was used to decipher the role of ER-ANT1 in the plant context and its association to photorespiration.
This strategy identified that additional absence of a putative HAD-type phosphatase partially restored the photorespiratory phenotype. Localisation studies revealed that the corresponding protein is targeted to the chloroplast. Moreover, biochemical analyses demonstrate that the HAD-type phosphatase is specific for pyridoxal phosphate. These observations, together with transcriptional and metabolic data of corresponding single (ER-ANT1) and double (ER-ANT1, phosphatase) loss-of-function mutant plants revealed an unexpected connection of ER-ANT1 to vitamin B6 metabolism.
Finally, a scenario is proposed, which explains how ER-ANT1 may influence B6 vitamer phosphorylation, by this affects photorespiration and causes several other physiological alterations observed in the corresponding loss-of-function mutant plants.
Spin-crossover and valence tautomeric complexes are of tremendous interest in the field of molecular electronics, electronic storage devices and information processing. Herein, synthesis and characterization of the spin-crossover and valence tautomeric cobalt dioxolene complexes are reported. All the synthesized complexes contain N,N'-di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4tBu2) as ancillary ligands. Only various types of co-ligands which are different dioxolene ligands, have been used. The mononuclear cobalt dioxolene complexes have been synthesized by using dideprotonated form of the dioxolene ligand 4,5-dichlorocatechol (H2DCCat) as co-ligands, and the cobalt bis(dioxolene) complexes have been synthesized by using dideprotonated form of the 3,3'-dihydroxy-diphenoquinone-(4,4') (H2(SQ-SQ)) as co-ligands.
Analytically pure samples of the complexes [Co(L-N4tBu2)(DCCat)] (1), [Co(L-N4tBu2)(DCCat)](BPh4) (2b), [Co2(L-N4tBu2)2(SQ-SQ)](BPh4)2.4 DMF (3b), [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d), have been synthesized and characterized by X-ray crystallography, magnetic and electrochemical measurements. The complexes have been investigated by UV/Vis/NIR-, IR-, and NMR spectroscopic measurements.
The complex [Co(L-N4tBu2)(DCCat)] (1) shows temperature invariant high-spin cobalt(II) catecholate state. One-electron oxidation of 1 has yielded the complex [Co(L-N4tBu2)(DCCat)](BPh4) (2b). The solid state properties of 2b are best described by the low-spin cobalt(III) catecholate state, but the solution state properties of the complex 2b are best described by the valence tautomeric transition from the low-spin cobalt(III) catecholate to the low-spin cobalt(II) semiquinonate state.
For the cobalt bis(dioxolene) complexes, it is found that spin-crossover for the two cobalt(II) centers is accompanied by the electronic state changes of the coordinated bis(dioxolene) unit from singlet open-shell biradicaloid to singlet closed-shell quinonoid form in complex 3b. Approaching similar synthetic method to 3b, but performing the metathesis reaction with sodium tetrafluoroborate rather than sodium tetraphenylborate has resulted in the formation of the complex [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d). The solid state properties of the complex are best described by the temperature induced valence tautomeric transition for the low-spin cobalt(III) center which is accompanied by the spin-crossover process for the cobalt(II) center. Thus, the electronic state of the complex 3d changes from LS-CoIII-Cat-SQ-CoII-LS to HS-CoII-(SQ-SQ)CS-CoII-HS state upon change in temperature.
Temperature-induced electronic configuration changes of the (SQ-SQ)CS2- ligands from open-shell biradicaloid to closed-shell quinonoid configurations are not observed for the nickel-, copper- and zinc bis(dioxolene) complexes 4a, 5a and 6b, respectively. For these complexes, the metal ions are bridged by (SQ-SQ)CS2- ligand and the paramagnetic metal ions are very weakly antiferromagnetically coupled.
Intermetallische Verbindungen stellen eine relativ neue Gruppe heterogener Katalysatoren dar. Durch die Bildung von Kristallstrukturen und die damit einhergehende Änderung elektronischer und geometrischer Strukturen handelt es sich nicht einfach um Dotierungen von bestehenden Systemen, man kann viel mehr von "neuen Elementen" für die Katalyse sprechen. Jede Kombination hat ihre eigenen Eigenschaften und damit ungeahntes Potential für katalytische Anwendungen.
Eine Gruppe intermetallischer Verbindungen stellen Heusler-Phasen dar. Diese Untergruppe der intermetallischen Phasen zeigt sich im Feld der Katalyse als unbeschriebenes Blatt, ist in Anwendungen der Physik aber schon ein etabliertes System. Heusler-Verbindungen weisen die Zusammensetzung X2YZ auf, die Elemente X und Y sind in der Regel Übergangsmetalle während das Z Element aus der III. – V. Hauptgruppe stammt. Es handelt sich um ein kubisches Gitter der Raumgruppe Fm3 ̅m (Nr. 225) mit Cu2MnAl als Strukturtyp bestimmende Verbindung und der Strukturberichte Bezeichnung L21.
Ziel dieser Arbeit war es, SiO2 geträgerte Materialien basierend auf einer Heusler-Phase zu synthetisieren und diese auf ihre katalytische Aktivität in Modellreaktionen zu testen. Zunächst wurde eine Reihe von Verbindungen mit der Einsatzstöchiometrie X2YZ über Co Imprägnierung hergestellt. Bei allen Materialen wurde Cu als X-Element gewählt. Die Y-Position wurde mit den Elementen Ce, Co, Fe, La, Mn, Ni und Ti besetzt, während die Z-Position durch die Elemente Al, Ga, In, Sb, Si und Sn besetzt wurde. Aus den gewählten Zusammensetzungen ergaben sich 42 verschiedene Materialien. Über Röntgenbeugung wurden die fünf Kombinationen Cu2CoSn, Cu2FeSn, Cu2LaIn, Cu2NiSn2 und Cu2TiIn (jeweils 30 Gew.% auf SiO2) als aussichtsreichste Materialien bestimmt.
Mit Modellsubstanzen aus dem Bereich der Alkine (2-Hexin), der Aromaten (Benzol), der Aldehyde (Aceton) und der α, β ungesättigten Aldehyde (Citral, Citronellal, Zimtaldehyd und Furfural) wurde die höchste katalytische Aktivität an dem Material 30 Gew. % Cu2NiSn/SiO2 erzielt. Für dieses Material wurde eine Optimierung der Synthese angestrebt. Als wichtigster Parameter zur Ausbildung einer nanopartikulären Heusler-Phase in der nasschemischen Synthese stellte sich der Metallgehalt auf dem Träger heraus. Die drei Charakterisierungsmethoden N2 Physisorption, XRD und TEM zeigten, dass es möglich ist, die Heusler-Phase 10 Gew. % Cu2NiSn/SiO2 über den nasschemischen Weg als nanopartikuläres Material herzustellen.
Die katalytischen Eigenschaften dieses Materials wurden anhand der Modellsubstanz Zimtaldehyd umfassend untersucht sowie vergleichend mono- und bimetallische Materialien basierend auf den drei Metallen Cu, Ni und Sn herangezogen. Mit der Heusler Phase 10 Gew. % Cu2NiSn/SiO2 wurde bei einer Reaktionstemperatur von 150 °C nach 5 h ein Umsatz von 67 % mit einer Selektivität von 49 % zu Zimtalkohol erzielt, während das thermodynamisch begünstige Produkt Hydrozimtaldehyd mit einer Selektivität von lediglich 30 % gebildet wurde. Die Heusler Verbindung weist die höchste Chemoselektivität zu Zimtalkohol aller in dieser Arbeit getesteten Systeme auf. Während die Aktivität des in dieser Arbeit entwickeltem Heusler-Materials Cu2NiSn/SiO2 geringer ist, können mit der Literatur vergleichbare Selektivitäten zu Zimtalkohol erreicht werden. Die Ergebnisse zur chemoselektiven Hydrierung eines nasschemisch hergestellten Materials zeigen somit die Vielseitigkeit und das große Potential von intermetallischen Heusler Verbindungen in der heterogenen Katalyse.