Refine
Year of publication
Document Type
- Doctoral Thesis (1469) (remove)
Language
- German (784)
- English (681)
- Multiple languages (4)
Keywords
- Visualisierung (18)
- Simulation (17)
- Stadtplanung (13)
- Apoptosis (12)
- Katalyse (12)
- Phasengleichgewicht (12)
- Finite-Elemente-Methode (11)
- Mobilfunk (10)
- Modellierung (10)
- finite element method (10)
Faculty / Organisational entity
- Fachbereich Chemie (328)
- Fachbereich Maschinenbau und Verfahrenstechnik (290)
- Fachbereich Mathematik (246)
- Fachbereich Informatik (175)
- Fachbereich Biologie (109)
- Fachbereich Elektrotechnik und Informationstechnik (77)
- Fachbereich ARUBI (71)
- Fachbereich Bauingenieurwesen (56)
- Fachbereich Sozialwissenschaften (43)
- Fachbereich Raum- und Umweltplanung (29)
Der moderne Schulbau verlangt nach neuen Wegen, um veränderte pädagogische und architektonische Anfor-derungen mit den präskriptiven Vorgaben bisheriger Bauweisen in Einklang zu bringen. Im Zyklus der ständigen Anpassung geltender Bauvorschriften an die Veränderungen der Gesellschaft und den Stand der Technik, gilt es, den Wunsch nach neuen Schulbauformen aufzugreifen und ingenieurmäßig und baurechtlich fortzuentwickeln. Basierend auf den Leitlinien neuer Schulbauformen und den darauf aufbauenden, mit ingenieurmäßiger Argumentation entwickelten Geometrien, werden diese, mittels rechnerischer Verfahren des Brandschutzingenieurwesens, konkretisiert. Um die These der Gleichwertigkeit des Sicherheitsniveaus von konventionellen und neuen pädagogischen Schulbauformen zu verifizieren, werden konventionelle Schulen als Grenzwertmodelle nach Maßgabe präskriptiver Vorgaben entwickelt und mithilfe eines Handrechenverfahrens werden die Grund-lagen von Personenströmen in Gebäuden ermittelt. Die Anwendung des Handrechenverfahrens auf konventionelle Schulmodelle liefert Erkenntnisse über die Leistungsfähigkeit der einzelnen Rettungswegelemente. Zusätzlich wird deutlich, dass das Verfahren sehr aufwändig ist und insbesondere bei paralleler graphischer Er-mittlung, es einer intensiven Auseinandersetzung mit dem Rechenverfahren bedarf. Für das Verständnis inge-nieurmäßiger Räumungsnachweise, stellt das Handrechenverfahren eine wichtige und notwendige Voraussetzung dar, um Computer unterstützte Individualmodelle korrekt anzuwenden und deren Ergebnisse sinnvoll interpretieren zu können. Es wird auch deutlich, dass das Handrechenverfahren aufgrund des hohen Aufwandes nicht dazu geeignet ist, um umfangreiche Parameterstudien durchzuführen.
Auf der Grundlage pädagogischer und architektonischer Leitlinien erfolgen Modellentwicklungen unterschiedlicher Raumformen. Das hierfür entwickelte Rettungswegsystem wird, unter Zuhilfenahme eines Computer unterstützen Individualmodells, mittels Parameterstudien zur Verifizierung ungünstigster Randbedingungen untersucht. Die ungünstigste Raumgeometrie bildet die Grundlage zur Fortentwicklung ganzer Gebäudegrundrisse und die Entwicklung unterschiedlich großer Schulgebäudekörper. Die Ergebnisse der Parameterstudien alter und neuer Schulbauformen, aus mehr als 8000 Simulationsdurchläufen, werden als bewertender Vergleich der Risikosituation, zu unterschiedlichen Schulmodellen herangezogen. Als wesentliche Vergleichsgröße dient die Anzahl der Agenten (Personen), welche bei der Gegenüberstellung konventioneller und neuer Schulbauformen, jeweils gleich ist.
Aus den Ergebnissen der Untersuchungen werden die Kapazitätsgrenzen konventioneller Schulbauformen nach Maßgabe präskriptiver Vorgaben verdeutlicht. Insbesondere die Bestimmung des ungünstigsten Szenarios unter Beachtung temporärer Zustände und die Berücksichtigung von Ausfallszenarien baulicher Rettungswege, verdeutlichen die Relevanz einer ingenieurmäßigen Betrachtung des Themas.
Zusätzlich zu den Vergleichsbetrachtungen zwischen konventionellen und neuen Schulbauformen wird ein Instrument entwickelt, welches die Qualität der Rettungswege hinsichtlich gegenläufiger Ströme berücksichtigt. Es erfolgt eine Betrachtung, die unter Berücksichtigung des zeitlichen Verlaufs die gegenläufige Bewegung von Flüchtenden Personen und den Kräften des abwehrenden Brandschutzes betrachtet. Die Instrumente zur Bestimmung der Qualität der Rettungswege sind dazu geeignet, allgemeingültig auf Gebäude besonderer Art und Nutzung zu übertragen.
In order to exploit the full lightweight potential of fibre-reinforced plastics (FRP), a detailed knowledge of their progressive failure behaviour under load is required. In this context, acoustic emission analysis offers a method to characterize the underlying mechanisms in more detail. By detecting and analszing acoustic waves emitted during
crack initiation and growth, the location and type of damage can be described over the course of the test. A major challenge thereby is the differentiation between FRP specific damaging events, such as fibre and matrix fractures, on the basis of their acoustic emissions.
The present work deals with the influence of two parameters which can have a significant impact on the acoustic characteristics of damaging events. These include the depth in which the damaging event occurs (source depth) and the lateral distance the acoustic wave has to travel from the source to the sensor (source-to-sensor distance).
In order to gain an understanding of the effects of both parameters, the work highlights the properties of guided waves in fibre- reinforced plastics as crucial. By analysing artificial acoustic emission sources as well as acoustic emissions from real damaging
events, the work demonstrates that changes in source depth and source-to-sensor distance can be accompanied by strong changes in the modal and frequency content of the acoustic emissions. These changes can even lead to a fibre break being mistakenly classified as a matrix break and vice versa. Consequently, for more reliable results in
source identification, the influence of source depth and source-to-sensor distance must be considered. In this context, the use of modal acoustic emission analysis can be of great benefit in understanding the underlying phenomena and developing more robust evaluation methods.
Der Beruf schulischer Lehrkräfte ist starken Spannungsverhältnissen und Antinomien ausgesetzt, die es gerade in der unterrichtlichen Gestaltung zu bewerkstelligen gilt. Durch aktuelle bildungspolitische Forderungen, die eine Medienkompetenzförderung und die Einbindung digitaler Medien in den Unterricht fordern, wachsen auch die Erwartungen an den Lehrer*innenberuf sowie seine Aufgaben. Da es gilt, Schülerinnen und Schüler auf eine selbst- und eigenverantwortliche Teilhabe in der Gesellschaft vorzubereiten, braucht es daher geeignete Lehr- und Lernkonzepte, um digital gestützte Veränderungs- und Arbeitsprozesse zu berücksichtigen. Das fordert zuweilen ein Umdenken bewährter Unterrichtskonzepte und Rollenwahrnehmungen von Lehrkräften. In der Arbeit steht daher die Rollenwahrnehmung schulischer Lehrkräfte unter der Perspektive eines digitalen Medieneinsatzes im Fokus. Dazu wurde in einem zweistufigen qualitativen Analyseverfahren Rollenwahrnehmungen von Lehrerinnen und Lehrern erhoben und diese vor dem Hintergrund der sozialen Rollentheorie von Parsons diskutiert.
Robuste Optimierung wird zur Entscheidungsunterstützung eines komplexen Beschaffungs- und Transportmodells genutzt, um die Risikoeinstellung der Entscheidenden abzubilden und gleichzeitig ein robustes Ergebnis zu erzielen. Die Modellierung des Problems ist umfassend dargestellt und Ergebnisse der nicht-deterministischen Planung bei verschiedenen Parametern und Risikoeinstellungen gegenübergestellt. Die Datenunsicherheit wird an einem Praxisfall erläutert und Methoden und -empfehlungen zum Umgang mit dieser dargestellt.
Glasfaserverstärktes Sheet Molding Compound (G-SMC) wird seit mehreren Jahrzehnten vorrangig in der Automobilindustrie zur Herstellung von Außenhaut- und Verkleidungsbauteilen verwendet.
Es handelt sich dabei hauptsächlich um ebene und großflächige Bauteile mit niedrigen oder semistrukturellen Anforderungen. Aufgrund der hohen Designfreiheit von Bauteilen dieser Werkstoff-klasse wird seit einigen Jahren versucht diese durch die Steigerung der mechanischen Kennwerte
als strukturelle Komponenten zu befähigen und in Fahrzeugstrukturen zu integrieren. Die beiden wichtigsten Stellgrößenen sind hierbei die Verwendung von Kohlenstofffasern (C-Fasern) zusammen
mit einem hohen Faservolumengehalt (über 40 Vol-%). Mit dem Einsatz teurer C-Fasern und dem Wunsch nach effzientem Materialeinsatz steigt der Bedarf nach Simulationswerkzeugen, um die Formfüllung bzw. Bauteilherstellung zu beschreiben. Für G-SMC wurden bisher DProzesssimulationen entwickelt und validiert. Trotz allem ist der Einsatz in der industriellen Praxis bisher kaum verbreitet. Insbesondere lassen sie sich auf den Einsatz von Kohlenstofffaserverstärkten Sheet Molding Compounds (C-SMC) nicht anwenden, da hierbei komplexe, teilweise verripte 3D-Bauteile vorliegen. Um die Material- und Produktkosten bei C-SMC zu senken, werden mittlerweile auch rezyklierte Halbzeuge angeboten und industriell eingesetzt. Diese Halbzeuge weisen in ihrem Umform- und Fließverhalten deutliche Unterschiede zu Neufasermaterialien auf.
Hier setzt die vorliegende Arbeit an. Sie leistet einen Beitrag zur Charakterisierung und phänomenologischen Beschreibung von C-SMC mit neuen und rezyklierten C-Fasern. Dabei stehen Methoden zur Erzeugung von Eingangs- und Validierungsdaten für die 3D-Prozesssimulation im
Vordergrund. Zur Bestimmung der Faserorientierungen als wichtigste Kenngröße wird das Wirbelstromverfahren in Transmission verwendet. Dabei wird erstmalig eine Methode zur Messung von komplexeren 3D-Bauteilen gezeigt und eine Übertragung auf Finite-Elemente-Netze (FE-Netze) entwickelt. Auf Basis der Materialcharakterisierung wird eine durchgängige, virtuelle 3D-Prozesskette (VPK) für den Pressvorgang bereitgestellt. Für die 3D-Simulation des Pressvorgangs wird der gekoppelte Euler-Lagrange-Ansatz (CEL) verwendet. Ein wichtiges Unterscheidungsmerkmal gegenüber der bisherigen Modellierung von G-SMC ist der festkörpermechanische Betrachtungsansatz des C-SMC beim Pressen. Insbesondere für rezykliertes C-SMC mit einer Wirrfaserstruktur und starken Kompaktierung kommen die bisher verwendeten uidmechanischen Anäatze an die Grenzen ihrer Gültigkeit. Für die Simulation der Bauteilabkühlung nach dem Pressvorgang wird eine linearelastische, orthotrope 3D-Verzugssimulation entwickelt.
Für die Verknüpfung der Presssimulation mit der anschließenden Verzugssimulation wird eine modulare Schnittstellenlösung bereitgestellt. Ein Fokus der Entwicklung ist die industrielle Einsetzbarkeit der VPK, weshalb Werkzeuge und Methoden bereitgestellt werden, um komplexere Modelle zu erstellen und diese zu verknüpfen. Die Anwendbarkeit und Prognosegüte der entwickelten VPK wird abschließend an einem Vorserienbauteil einer PKW-Stütze C-Säule ausführlich untersucht.
This work deals with the simulation of the micro-cutting process of titanium. For this
purpose, a suitable crystal-plastic material model is developed and efficient implemen-
tations are investigated to simulate the micro-cutting process. Several challenges arise
for the material model. On the one hand, the low symmetry hexagonal close-packed
crystal structure of titanium has to be considered. On the other hand, large defor-
mations and strains occur during the machining process. Another important part is
the algorithm for the determination of the active slip systems, which has a significant
influence on the stability of the simulation. In order to obtain a robust implemen-
tation, different aspects, such as the algorithm for the determination of the active
slip systems, the method for mesh separation between chip and workpiece as well as
the hardening process are investigated, and different approaches are compared. The
developed crystal-plastic material model and the selected implementations are first
validated and investigated using illustrative examples. The presented simulations of
the micro-cutting process show the influence of different machining parameters on the
process. Finally, the influence of a real microstructure on the plastic deformation and
the cutting force during the process is shown.
Most of eukaryotes show signs of having sex or sexual recombination, and the other asexual eukaryotes have evidences of evolving from sexual ancestors. Meiotic recombination, or crossover are proved to have two pathways in eukaryotes, whose distribution was well studied in many model eukaryotes. However, the distribution of sex in specific lineage is debating. The distribution and evolution of meiotic recombination pathways in alveolates would provide us clues of lost/gaining of pathways in early eukaryotes and fill the gaps between protist and more complex multicellular organisms (fungi, animals and plants) .
In this dissertation, we designed a customized program with Python, which integrated Blastp and HMMER v3.0, to search for homologs of 51 meiotic genes (11 meiosis-specific and 40 meiosis-related genes ) in the whole genome sequences or EST data of five Ciliates, seven Apicomplexa, two Chromerida, one Perkinsus, one Dinoflagellates and Chrysophytes (golden algae). All candidate homologs were then verified by reciprocal Blastp search against the nonredundant protein sequence database of NCBI and phylogeny analysis of RAxML.
The gene inventory results shows that several eukaryotic meiosis-specific and meiosis-related genes are missing in every group. However, the presents of meiosis initiate protein Spo11 in some putative asexual lineage (Symbiodinium, Colpodean and Chrysophytes) suggest that they might be cryptically sexual. Within alveolates, Apicomplexa are capable of both pathways, while Ciliates and Dinoflagellates using a set of mitotic repair proteins for meiotic recombination. We speculated that the result of the abandonment of the pathway I might due to the abnormal chromosome structure of both Ciliates and Dinoflagellates. Phylogenetic analysis of the distribution of meiotic pathways within alveolates suggest that the reduction of meiotic pathway I in Ciliates and Dinoflagellates are independent. Considering that Apicomplexa are capable of both meiotic pathways, we would infer that those two pathways exist in the common ancestor of alveolates.
This thesis consists of two parts, i.e. the theoretical background of (R)ABSDE including basic theorems, theoretical proofs and properties (Chapter 2-4), as well as numerical algorithms and simulations for (R)ABSDES (Chapter 5). For the theoretical part, we study ABSDEs (Chapter 2), RABSDEs with one obstacle (Chapter 3)and RABSDEs with two obstacles (Chapter 4) in the defaultable setting respectively, including the existence and uniqueness theorems, applications, the comparison theorem for ABSDEs, their relations with PDEs and stochastic differential delay equations (SDDE). The numerical algorithm part (Chapter 5) introduces two main algorithms, a discrete penalization scheme and a discrete reflected scheme based on a random walk approximation of the Brownian motion as well as a discrete approximation of the default martingale; we give the convergence results of the algorithms, provide a numerical example and an application in American game options in order to illustrate the performance of the algorithms.
Im Rahmen dieser Arbeit sollten literaturbekannte Polyoxometallate synthetisiert und mit verschiedenen Gegenionen umgesetzt werden. Ziel dabei sollte sein, Oxidationsreaktionen in Batch-Ansätzen durchzuführen und diese im Anschluss daran auf einen Rohrreaktor zu übertragen. Dabei wird zuerst die Synthese der Polyoxometallate vorgestellt. Im Anschluss daran werden Oxidationsreaktionen von Alkoholen und Olefinen diskutiert.
Es konnte festgestellt werden, dass die Oxidation von Alkoholen mit verschiedenen Polyoxometallaten in den Batch-Versuchen nach einigen Stunden keinen vollständigen Umsatz ergab. Im Rohrreaktor zeigte sich hingegen, dass hohe Ausbeuten innerhalb von Minuten erreichbar sind. Aufgrund dessen wurde der Rohrreaktor etwas umgebaut, um die Reaktionen in kleineren Maßstäben zu untersuchen, wobei auch die Verweilzeiten und die Temperatur variiert wurden. Auch hier konnten hohe Ausbeuten nach wenigen Minuten verzeichnet werden.
Anschließend wurden Olefine im Rohrreaktor untersucht, wobei es zu Problemen mit der verwendeten Pumpe kam. Folglich mussten der Katalysator bzw. das Gegenion verändert werden, um Untersuchungen in organischen Lösungsmitteln zu ermöglichen. Es stellte sich heraus, dass Olefine epoxidiert werden können, dies aber, im Vergleich zu den Alkoholen, wesentlich schlechter funktioniert. Weitere Untersuchungen in den Batch-Ansätzen bezüglich der Olefin Epoxidierung zeigten, dass dabei hohe Umsätze nach kurzen Zeiten realisiert werden.
Drahtlose Kommunikationssysteme dringen in immer mehr Anwendungsbereiche vor. Für einige Anwendungsszenarien, wie etwa die Prozessautomatisierung in Fabriken und Industrieanlagen, ist die Zuverlässigkeit vieler drahtloser Kommunikationssysteme wie IEEE 802.11 (WLAN) oder Bluetooth aber noch unzureichend. Daher wurden für diese Anwendungsbereiche spezielle Kommunikationssysteme wie WirelessHART oder ISA 100.11a entwickelt. Diese basieren meist auf Time Division Multiple Access (TDMA) und erreichen durch exklusive Reservierungen deterministische Zuverlässigkeit, falls kein anderes Kommunikationssystem die genutzten Kanäle stört.
Diese Arbeit behandelt geeignete Protokolle und Algorithmen, um die Zuverlässigkeit drahtloser Kommunikationssysteme zu verbessern. Im ersten Teil der Arbeit werden Verfahren für TDMA-basierte Kommunikationssysteme betrachtet. Basierend auf IEEE 802.15.4 werden mehrere Funktionalitäten für ProNet 4.0, einem an der Arbeitsgruppe Vernetzte Systeme der TU Kaiserslautern entwickelten Kommunikations-Stack für Industrie 4.0, entworfen und auf Imote 2 Sensorknoten implementiert. Zuverlässige Kommunikation bedarf Kenntnis von sowohl der Kommunikationstopologie, über die Knoten miteinander kommunizieren können, als auch der Interferenztopologie, die angibt, wie Knoten sich gegenseitig stören können. Dazu stellt die Arbeit mit dem Automatic Topology Discovery Protocol (ATDP) ein Verfahren zur automatischen Topologieerkennung vor. Anschließend wird QoS Multicast Routing betrachtet und mit dem QoS Multicast Routing Protocol (QMRP) ein Verfahren für partiell mobile Netzwerke entwickelt. Weiterhin wird mit ProMid eine Kommunikations-Middleware beschrieben, die ein hohes Abstraktionslevel aufweist und die darunter liegenden Schichten steuert. Die dienstorientierte Architektur nutzt eine verteilte Service Registry, wobei die Auswahl der Registry-Knoten anhand eines dafür entwickelten Clustering-Algorithmus erfolgt. Das Heterogeneous Network Clustering (HNC) genannte Verfahren berücksichtigt ein heterogenes Netzwerkmodell mit Knoten, die Clusterhead bzw. Gateway werden müssen, können bzw. nicht dürfen.
Der zweite Teil der Arbeit behandelt Protokolle und Algorithmen für zuverlässige wettbewerbsbasierte Kommunikationssysteme. Die in diesem Kapitel vorgestellten Verfahren sind in einem auf WLAN basierenden Kommunikations-Stack implementiert und evaluiert worden. Zunächst wird ein Verfahren für die Topologieerkennung in WLAN-Netzwerken vorgestellt. Anschließend wird ein auf dem Token Bucket-Mechanismus basierendes Verfahren zur Verkehrskontrolle entwickelt. Daraus wird mit der Unusable Wasted Bandwidth Ratio eine Metrik abgeleitet, die es erlaubt, die Auslastung des Mediums abzuschätzen. Aufbauend auf dem Verfahren zur Verkehrskontrolle wird eine kooperative faire Bandbreitenskalierung für WLAN vorgestellt. Das Verfahren verteilt die Bandbreite fair unter den internen Knoten unter Berücksichtigung der Quality of Service (QoS) Anforderungen. Dabei reagiert es dynamisch auf Änderungen des externen Verkehrs und verhindert so Überlastsituationen. Letztlich wird ein Clustering-Protokoll vorgestellt, welches durch das Anwendungsszenario der Überwachung von Güterzügen motiviert ist und Linientopologien bildet sowie dynamisch repariert. Das auf Bluetooth LE aufbauende Verfahren dient dazu, Energie einzusparen, und wurde in einer Kooperation mit der Bosch Engineering GmbH entwickelt.
Optical Character Recognition (OCR) is one of the central problems in pattern recognition. Its
applications have played a great role in the digitization of document images collected from het-
erogeneous sources. Many of the well-known scripts have OCR systems with sufficiently high
performance that enables OCR applications in industrial/commercial settings. However, OCR sys-
tems yield very-good results only on a narrow domain and very-specific use cases. Thus, it is still
a challenging task, and there are other exotic languages with indigenous scripts, such as Amharic,
for which no well-developed OCR systems exist.
As many as 100 million people speak Amharic, and it is an official working language of Ethiopia.
Amharic script contains about 317 different alphabets derived from 34 consonants with small changes.
The change involves shortening or elongating one of its main legs or adding small diacritics to the
right, left, top, or bottom of the consonant character. Such modifications lead the characters to have
similar shapes and make the recognition task complex, but this is particularly interesting for charac-
ter recognition research. So far, Amharic script recognition models are developed based on classical
machine learning techniques, and they are very limited in addressing the issues for Amharic OCR.
The motivation of this thesis is, therefore, to explore and tailor contemporary deep learning tech-
niques for the OCR of Amharic.
This thesis addresses the challenges in Amharic OCR through two main contributions. The first
contribution is an algorithmic contribution in which we investigate deep learning approaches that
suit the demand for Amharic OCR. The second is a technical contribution that comprises several
works towards the OCR model development; thus, it introduces a new Amharic database consisting
of collections of images annotated at a character and text-line level. It also presents a novel CNN-
based framework designed by leveraging the grapheme of characters in Fidel-Gebeta (where Fidel-
Gebeta consists of the full set of Amharic characters in matrix structure) and achieves 94.97%
overall character recognition accuracy.
In addition to character level methods, text-line level methods are also investigated and devel-
oped based on sequence-to-sequence learning. These models avoid several of the pre-processing
stages used in prior works by eliminating the need to segment individual characters. In this design,
we use a stack of CNNs, before the Bi-LSTM layers and train from end-to-end. This model out-
performs the LSTM-CTC based network, on average, by a CER of 3.75% with the ADOCR test
set. Motivated by the success of attention, in addressing the problems’ of long sequences in Neural
Machine Translation (NMT), we proposed a novel attention-based methodology by blending the
attention mechanism into CTC objective function. This model performs far better than the existing
techniques with a CER of 1.04% and 0.93% on printed and synthetic text-line images respectively.
Finally, this thesis provides details on various tasks that have been performed for the development
of Amharic OCR. As per our empirical analysis, the majority of the errors are due to poor annotation
of the dataset. As future work, the methods proposed in this thesis should be further investigated
and extended to deal with handwritten and historical Amharic documents.
Das Ultraschallschweißen ist eine innovative und vielversprechende Fügetechnologie für hybride
Werkstoffsysteme. Im Rahmen dieser Arbeit wird erstmalig das kontinuierliche Metall-
Ultraschallschweißen zur Verbindung von Leichtmetalllegierungen mit faserverstärkten Kunststoffen
für den Einsatz im Hydrauliksystem eines Flugzeuges betrachtet. Dafür wurden Ultraschallschweißanlagen
und Prozessparameter für translatorisches Schweißen ebener und für das
neuartige orbitale Schweißen rohrförmiger Fügepartner entwickelt. Das Ultraschallschweißen
von Titan erfordert besonders robuste Sonotroden. Die Härte, die Festigkeit und die vergleichsweise
geringe Wärmeleitfähigkeit bedeuten eine hohe mechanische und thermische Beanspruchung
der Sonotrode während des Schweißprozesses. Gleichzeitig muss die Sonotrode mit hoher
Amplitude von bis zu 50 μm schwingen, um eine feste Verbindung erzeugen zu können.
Der Werkstoff, die Geometrie und die Sonotrodenkoppelfläche müssen speziell für das Ultraschallschweißen
von Titan ausgelegt werden. Im Rahmen dieser Arbeit wurden Schweißanlagen,
Prozessparameter und Sonotroden erfolgreich für den orbitalen Ultraschallschweißprozess
entwickelt, sodass eine Ti6Al4V-Fitting/CF-PEEK-Rohr-Verbindung hergestellt werden
konnte, die einem Innendruck von 960 bar standhielt, der einer Axialkraft von 81,7 kN und
einer relativen Zugscherkraft in Bezug zur Schweißnahtlänge von 390 N/mm entspricht.
Die vorliegende Synopsis hat sich in ihren Inhalten maßgeblich mit drei Aspekten der Ganzkörper-Elektromyostimulation (GK-EMS) beschäftigt: der Zielgruppe, den Stimulationsparametern sowie der Effektivität des Trainings.
Auf Basis der durchgeführten Studien konnte die zu trainierende Zielgruppe um ein jugendliches Probandengut mit unterschiedlichem sportlichem Hintergrund (Radsport, Fußball) erweitert werden, was die Anwendung einer GK-EMS Applikation nun auch bei minderjährigen Athleten unter Einhaltung diverser Sicherheitsaspekte möglich macht.
Bei den untersuchten Stimulationsparametern wurden die Erkenntnisse in Bezug zur maximalen Intensitätstoleranz erweitert, hier kommt es nach drei aufeinanderfolgenden Untersuchungen zu einer Anpassung dieser, was ein Ansatz zur Erstellung eines Maximums und einer nachfolgenden Ableitung von objektiven Trainingsintensitäten sein kann. Die verwendete Stimulationsfrequenz (20 Hz oder 85 Hz) hat des Weiteren keinen Einfluss auf die Leistungssteigerungen unterschiedlicher Parameter (Counter Movement Jump, Squat Jump, Rumpfflexion und Rumpfextension) nach einer 10-wöchigen GK-EMS Applikation mit einem untrainierten Probandengut.
Die Effektivität des GK-EMS konnte durch einen 8 bis 10-wöchigen Trainingszeitraum mit unterschiedlichen Zielgruppen anhand unterschiedlicher Zielparameter belegt werden, vor allem bei den Maximalkraftparametern der Rumpfflexion (+33.7%), Rumpfextension (+20.9%), der Knieflexion (+20.7%) sowie Knieextension (+31.4%) wurden hierbei signifikante Leistungssteigerungen festgestellt.
Aufbauend auf den generierten Ergebnissen wurde ein 4-Faktoren-Modell des GK-EMS aufgestellt, welches in der praktischen Anwendung als ein dynamisches Leitbild zur sicheren und effektiven GK-EMS Anwendung zu betrachten ist und der Maximierung des Trainingserfolgs bei gleichzeitiger Kontrolle der Inhalte und Minimierung von gesundheitlichen Risiken für den Trainierenden dient.
Die Inhalte des GK-EMS, vor allem in Bezug auf die verwendeten Stimulationsparameter, sollten in zukünftigen Untersuchungen weiter spezifiziert werden, um eine verbesserte Systematisierung und somit eine sichere Anwendung des GK-EMS zu gewährleisten.
Mit dem Vorhandensein elektrischer Energie und moderner Sensorik an elektrisch unterstützten Fahrrädern eröffnen sich neue Möglichkeiten der Entwicklung von Fahrerassistenzsystemen am Pedelec zur Erhöhung der Sicherheit und des Fahrkomforts. Die Leistungsfähigkeit solcher Systeme kann durch die Nutzung von Inertialsensorik weiter gesteigert werden. Jedoch müssen solche Sensoren, vor allem bei sicherheitsrelevanten Assistenzsystemen, zuverlässige, robuste und plausible Sensordaten liefern. Hieraus ergibt sich das Thema dieser Arbeit: die Evaluation von Inertialsensorik für Fahrerassistenzsysteme am Pedelec anhand systematischer Untersuchung der Fahrdynamik.
Durch simulative und experimentelle Untersuchungen der MEMS-Sensorik und der Fahrdynamik, basierend auf Testkatalogen, werden die Anforderungen an Inertialsensorik abgeleitet und die Störbarkeit der Drehrate analysiert. Dabei führt die Betrachtung verschiedener Sensortypen, Fahrszenarien und Anbaupositionen zu der Erkenntnis, dass bspw. die Anbauposition am Sattelrohr und in der Antriebseinheit besonders geeignet sind. Vor allem der betrachtete Automotive-MEMS-Sensor liefert auch bei potentiell kritischen Vibrationen bei einer Fahrt über Kopfsteinpflaster oder über Treppenstufen sowie bei Bremsenquietschen zuverlässig plausible Sensordaten.
Zusätzlich zeigt eine Betrachtung der Auswirkungen von Sensorfehlern auf eine Datenfusion, d.h. der Berechnung der Raumwinkel, dass vor allem die Minimierung des Offset-Fehlers, bspw. durch eine Langzeitkorrektur, sinnvoll erscheint und resultierende Winkelfehler minimieren kann.
Die Untersuchung der Fahrdynamik betrachtet insbesondere das Fahrszenario (kritische) Kurvenfahrt. Anhand der Fahrdaten zahlreicher Pedelec-Nutzer werden eine Methode zur Erkennung von Kurvenfahrten sowie theoretische Ansätze zur Vermeidung einer kritischen Kurvenfahrt durch einen aktiven Lenkeingriff realisiert.
Multidisciplinary optimizations (MDOs) encompass optimization problems that combine different disciplines into a single optimization with the aim of converging towards a design that simultaneously fulfills multiple criteria. For example, considering both fluid and structural disciplines to obtain a shape that is not only aerodynamically efficient, but also respects structural constraints. Combined with CAD-based parametrizations, the optimization produces an improved, manufacturable shape. For turbomachinery applications, this method has been successfully applied using gradient-free optimization methods such as genetic algorithms, surrogate modeling, and others. While such algorithms can be easily applied without access to the source code, the number of iterations to converge is dependent on the number of design parameters. This results in high computational costs and limited design spaces. A competitive alternative is offered by gradient-based optimization algorithms combined with adjoint methods, where the computational complexity of the gradient calculation is no longer dependent on the number of design parameters, but rather on the number of outputs. Such methods have been extensively used in single-disciplinary aerodynamic optimizations using adjoint fluid solvers and CAD parametrizations. However, CAD-based MDOs leveraging adjoint methods are just beginning to emerge.
This thesis contributes to this field of research by setting up a CAD-based adjoint MDO framework for turbomachinery design using both fluid and structural disciplines. To achieve this, the von Kármán Institute’s existing CAD-based optimization framework cado is augmented by the development of a FEM-based structural solver which has been differentiated using the algorithmic differentiation tool CoDiPack of TU Kaiserslautern. While most of the code could be differentiated in a black-box fashion, special treatment is required for the iterative linear and eigenvalue solvers to ensure accuracy and reduce memory consumption. As a result, the solver has the capability of computing both stress and vibration gradients at a cost independent on the number of design parameters. For the presented application case of a radial turbine optimization, the full gradient calculation has a computational cost of approximately 3.14 times the cost of a primal run and the peak memory usage of approximately 2.76 times that of a primal run.
The FEM code leverages object-oriented design such that the same base structure can be reused for different purposes with minimal re-differentiation. This is demonstrated by considering a composite material test case where the gradients could be easily calculated with respect to an extended design space that includes material properties. Additionally, the structural solver is reused within a CAD-based mesh deformation, which propagates the structural FEM mesh gradients through to the CAD parameters. This closes the link between the CAD shape and FEM mesh. Finally, the MDO framework is applied by optimizing the aerodynamic efficiency of a radial turbine while respecting structural constraints.
„Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“, schrieb der österreichisch-englische Philosoph Ludwig Wittgenstein (1922). Das Beherrschen der Schriftsprache wurde in der neuhumanistischen Bildungstheorie nach Wilhelm von Humboldt (Humboldt & Menze, 1997) in den Mittelpunkt der Bildungsprozesse gestellt.
Bildung kann daher nur dann gelingen, wenn die Schriftsprache beherrscht wird. Dabei wird Bildung als eine Art lebenslanges Lernen verstanden, in dem es darum geht, die Funktionsweisen der Gesellschaft und der Welt in der wir leben, zu verstehen und dahingegen zu handeln (Otto, 2007). Mit dem erfolgreichen Schriftspracherwerb und dem sicheren Umgang mit der Schriftsprache ist eine Art Teilhabe am „kulturellen Gedächtnis“ so Assmann (2007) sowie an gegenwärtigen Prozessen. Nicht für alle Kinder verläuft der Erwerb der Schriftsprache ohne Schwierigkeiten. In der ersten PISA-Studie aus dem Jahr 2000 lag der Prozentsatz leseschwacher Kinder in Deutschland bei ca. 24 Prozent (OECD, 2001). Dieser verringerte sich zwar in der PISA-Studie im Jahr 2015 auf rund 16 Prozent (PISA 2015 Results (Volume V), 2017). Die Ergebnisse der aktuellen PISA-Studie sind jedoch ernüchternd. In Bezug auf die Lesekompetenz ist der Anteil der leseschwachen Kinder auf 21 Prozent gestiegen, an Gymnasien sogar auf 29 Prozent (OECD, 2019). Auch Fischbach und Kollegen (Fischbach et al., 2013) fanden bei ihrer Studie im deutschsprachigen Raum heraus, dass 18 Prozent aller Grundschüler1 erhebliche Schwierigkeiten im Lesen und Schreiben aufweisen. Stellen sich erste Schwierigkeiten beim Erlernen des Lesens und Schreibens ein, muss eine zeitige Förderung der betroffenen Kinder an erster Stelle stehen. An diesem Punkt setzt das computerbasierte Trainingsprogramm Lautarium (Klatte, Steinbrink,
Bergström, & Lachmann, 2017) an, indem es Lehrern, Eltern, Therapeuten und den betroffenen Kindern ein Werkzeug an die Hand gibt, welches sich bereits in mehreren Studien als wirksam erwiesen hat (einen Überblick bietet Klatte et al., 2017).
Entwickelt wurde dieses Programm im Zuge eines Drittmittelprojekts mit dem Schwerpunkt „Entwicklungsstörungen schulischer Fertigkeiten“ des Bundesministeriums für Bildung und Forschung. Die hier durchgeführte Studie befasst sich mit den Effekten des Trainings mit dem computerbasierten Förderprogramms Lautarium auf die phonologischen und schriftsprachlichen Leistungen von Zweitklässlern mit Lese-Rechtschreibschwierigkeiten. Lautarium basiert auf aktuellen Forschungserkenntnissen zur Bedeutung der phonologischen Verarbeitung für den Schriftspracherwerb und umfasst aufeinander aufbauende Übungen zur Phonemwahrnehmung, phonologischen Bewusstheit und Graphem-Phonem-Zuordnung, zum Lesen und Schreiben lautgetreuer Wörter und zur schnellen Worterkennung. Zwar hat sich das Trainingsprogramm bereits in mehreren Studien als wirksam erwiesen, in der jetzigen Studie wird die Wirksamkeit jedoch erstmals im Rahmen eines randomisierten kontrollierten Designs (randomized controlled trial, RCT, „Goldstandard“ der klinischen Forschung) geprüft (Borah, Moriarty, Crown, & Doshi, 2014; Kaptchuk, 2001). Es wurde zunächst ein klassisches Prätest-Posttest-Follow-up–Design realisiert, um kurz- und langfristige Effekte des Lautarium-Trainings zu erfassen (Studienteil 1: Vortest bis Nachtest 2). Eine Gruppe von Kindern (n= 24) bearbeitete das Lautarium-Training, die andere Gruppe (n= 31) ein computerbasiertes Denktraining (Lenhard, Lenhard & Klauer, 2011). Das Training erfolgte täglich etwa 20 Minuten über mehrere Wochen im Rahmen des differenzierenden Unterrichts. Im Anschluss an den Follow-upTest arbeiteten die Gruppen mit dem jeweils anderen Programm, danach folgte ein weiterer, abschließender Nachtest 3 (Studienteil 2: bis Nachtest 3, n= 44). Studienteil 1 bestätigte signifikante und teilweise anhaltende Effekte des LautariumTrainings auf Untertests zur phonologischen Bewusstheit, zum Lesen und zur Rechtschreibung. Die in früheren Studien gezeigten Effekte ließen sich somit auch im Rahmen eines RCT-Designs replizieren. In Studienteil 2 zeigten sich signifikante Effekte auf die phonologische Bewusstheit. Abschließend werden Potentiale und Grenzen des Einsatzes von Lautarium im differenzierenden Unterricht diskutiert.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Subject of this thesis is the investigation of photo-induced ultrafast elementary processes within the electronic excited-state manifold in mass-selected multinuclear coinage metal complexes (CMCs) in the gas phase. The chief objective is to ascertain how the intramolecular deactivation dynamics and gas phase reactivity are influenced by so-called metallophilic interactions between multiple d^10/d^8 metal centers, which in turn give rise to metal-delocalized electronic transitions. To this end, suitable molecular precursor ions were transferred into the gas phase by electrospray ionization (ESI) and subsequently isolated, activated, and finally analyzed in a Paul-type quadrupole ion trap (QIT) mass spectrometer. The QIT is modified to accept UV/Vis/NIR irradiation from a femtosecond laser setup. By combining several ion trap-based ion activation techniques and electronic photodissociation (PD) spectroscopy, the fragmentation pathways, as well as intrinsic optical properties (electronic PD spectra) of ionic CMCs are explored. In addition, the unconventional time-resolved transient photodissociation (t-PD) method, based on a femtosecond pump-probe excitation scheme, was employed for the first time on CMC ions in isolation, in order to elucidate their intrinsic photodynamics. This thesis mainly comprises five publications, covering the mass spectrometric and laser spectroscopic characterization of multinuclear Ag(I), Au(I), and Pt(II) based ionic complexes.
Mit dem Jahr 2020 wird der ursprüngliche zeitliche Horizont für das Nachhaltigkeitsziel der Bundesregierung zur Reduzierung der Flächenneuinanspruchnahme für Siedlungs- und Verkehrszwecke auf 30 Hektar am Tag erreicht. Angesichts der tatsächlichen Entwicklung des ‚Flächenverbrauchs‘ oberhalb dieses Zielwertes sowie dessen mannigfaltiger negativen ökologischen, sozialen und wirtschaftlichen Folgen kommt einer flächensparenden Siedlungsentwicklung nach wie vor höchste Priorität zu. Die Umwandlung von Freiraum in Siedlungs- und Verkehrsfläche erfolgt nicht nur in den städtisch geprägten Wachstumsregionen der Bundesrepublik. Auch in einigen ländlich-peripheren Bereichen zeigt sich trotz demografischer und teils struktureller Schrumpfung eine fortschreitende Flächenneuinanspruchnahme.
In den ‚Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland‘ hebt die Ministerkonferenz für Raumordnung die Pläne und Programme der Regionalplanung als geeignetes Instrumentarium zur Steuerung einer flächensparenden Siedlungsentwicklung hervor und betont das regionalplanerische Potenzial als Koordinator und Kommunikator bei kooperativen Prozessen. Gleichwohl konstatiert die Raumforschung der Regionalplanung diesbezüglich immer wieder ein Steuerungs- und Implementationsdefizit, welches insbesondere auf ein nicht Ausnutzen des zur Verfügung stehenden formellen Instrumentariums sowie institutionelle Hemmnisse zurückgeführt wird. Im Fokus entsprechender Analysen standen bisher eher Wachstumsregionen mit engen Stadt-Umland-Verflechtungen. Eine Betrachtung ob der konsequenten Anwendung des verfügbaren Instrumentariums durch die Regionalplanung liegt inzwischen einige Jahre zurück. Es besteht zudem eine Forschungslücke hinsichtlich einer integrierenden Betrachtung ergänzender informeller Handlungsansätze.
Vor diesem Hintergrund widmet sich die vorliegende Arbeit der ganzheitlichen Untersuchung regionalplanerischer Handlungsansätze zur Steuerung einer flächensparenden Siedlungsentwicklung in unterschiedlich raumstrukturell geprägten Regionen. Als Fallstudien dienen die Region Main-Rhön in Bayern, die Region Rostock in Mecklenburg-Vorpommern und die Region Stuttgart in Baden-Württemberg. Mithilfe einer Governance-Analyse werden neben der Ausgestaltung des klassischen formellen Instrumentariums der Regionalplanung informelle Formen der Handlungskoordination unter Berücksichtigung institutioneller wie raumstruktureller Rahmenbedingungen erfasst. Expertengespräche ergänzen die Methodik zur Identifizierung von Erfolgen und Defiziten der jeweiligen Governance-Formen sowie deren Einflussfaktoren.
Im Ergebnis erfolgt die Governance einer flächensparenden Siedlungsentwicklung durch die Regionalplanung in allen Fallstudienregionen in erster Linie hierarchisch durch den Regionalplan und formelle Verfahren. In unterschiedlicher Intensität kommen zudem die Governance-Formen der Verhandlung oder des Netzwerks zum Einsatz. Ein ausdifferenziertes Governance-Regime stellt einen der wesentlichen Erfolgsfaktoren bei der Umsetzung einer flächensparenden Siedlungsentwicklung dar. Defizite ergeben sich aus der fehlenden Akzeptanz seitens der Adressaten der regionalplanerischen Handlungsansätze, welche auch auf die raumstrukturelle Prägung der Regionen zurückzuführen ist.
Daraus abgeleitete Empfehlungen für die Weiterentwicklung regionalplanerischer Governance-Regime umfassen die Optimierung des hierarchischen Planungsinstrumentariums, den Einsatzes ergänzender Governance-Formen sowie die Anpassung institutioneller Rahmenbedingungen. Die raumstrukturellen Rahmenbedingungen sind stets als wesentliche Grundlage für die inhaltliche Ausrichtung eines ausdifferenzierten Governance-Regimes der Regionalplanung für eine flächensparende Siedlungsentwicklung zu berücksichtigen.
In recent years, business intelligence applications become more real-time and traditional data warehouse tables become fresher as they are continuously refreshed by streaming ETL jobs within seconds. Besides, a new type of federated system emerged that unifies domain-specific computation engines to address a wide range of complex analytical applications, which needs streaming ETL to migrate data across computation systems.
From daily-sales reports to up-to-the-second cross-/up-sell campaign activities, we observed various latency and freshness requirements set in these analytical applications. Hence, streaming ETL jobs with regular batches are not flexible enough to fit in such a mixed workload. Jobs with small batches can cause resource overprovision for queries with low freshness needs while jobs with large batches would starve queries with high freshness needs. Therefore, we argue that ETL jobs should be self-adaptive to varying SLA demands by setting appropriate batches as needed.
The major contributions are summarized as follows.
• We defined a consistency model for “On-Demand ETL” which addresses correct batches for queries to see consistent states. Furthermore, we proposed an “Incremental ETL Pipeline” which reduces the performance impact of on-demand ETL processing.
• A distributed, incremental ETL pipeline (called HBelt) was introduced in distributed warehouse systems. HBelt aims at providing consistent, distributed snapshot maintenance for concurrent table scans across different analytics jobs.
• We addressed the elasticity property for incremental ETL pipeline to guarantee that ETL jobs with batches of varying sizes can be finished within strict deadlines. Hence, we proposed Elastic Queue Middleware and HBaqueue which replace memory-based data exchange queues with a scalable distributed store - HBase.
• We also implemented lazy maintenance logic in the extraction and the loading phases to make these two phases workload-aware. Besides, we discuss how our “On-Demand ETL” thinking can be exploited in analytic flows running on heterogeneous execution engines.
Scaling up conventional processor architectures cannot translate the ever-increasing number of transistors into comparable application performance. Although the trend is to shift from single-core to multi-core architectures, utilizing these multiple cores is not a trivial task for many applications due to thread synchronization and weak memory consistency issues. This is especially true for applications in real-time embedded systems since timing analysis becomes more complicated due to contention on shared resources. One inherent reason for the limited use of instruction-level parallelism (ILP) by conventional processors is the use of registers. Therefore, some recent processors bypass register usage by directly communicating values from producer processing units to consumer processing units. In widely used superscalar processors, this direct instruction communication is organized by hardware at runtime, adversely affecting its scalability. The exposed datapath architectures provide a scalable alternative by allowing compilers to move values directly from output ports to the input ports of processing units. Though exposed datapath architectures have already been studied in great detail, they still use registers for executing programs, thus limiting the amount of ILP they can exploit. This limitation stems from a drawback in their execution paradigm, code generator, or both.
This thesis considers a novel exposed datapath architecture named Synchronous Control Asynchronous Dataflow (SCAD) that follows a hybrid control-flow dataflow execution paradigm. The SCAD architecture employs first-in-first-out (FIFO) buffers at the output and input ports of processing units. It is programmed by move instructions that transport values from the head of output buffers to the tail of input buffers. Thus, direct instruction communication is facilitated by the architecture. The processing unit triggers the execution of an operation when operand values are available at the heads of its input buffers. We propose a code generation technique for SCAD processors inspired by classical queue machines that completely eliminates the use of registers. On this basis, we first generate optimal code by using satisfiability (SAT) solvers after establishing that optimal code generation is hard. Heuristics based on a novel buffer interference analysis are then developed to compile larger programs. The experimental results demonstrate the efficacy of the execution paradigm of SCAD using our queue-oriented code generation technique.
Das Instandsetzungsprinzip W-Cl bzw. die Instandsetzungsverfahren 7.7 und 8.3 stellen im Vergleich zu konventionellen Instandsetzungsprinzipien technisch und wirtschaftlich interessante Verfahren zur Instandsetzung von chloridbelasteten Betonbauteilen dar. Die Verfahren beruhen auf der Absenkung des Wassergehaltes (W) im Bereich des chloridkontaminierten Betons (Cl), welche durch die Applikation einer Oberflächenschutzbeschichtung erreicht wird. Durch die Beschichtung soll ein intermittierendes Eindringen von Chloriden unterbunden und die Initiierung von Bewehrungskorrosion verhindert werden. Ungeklärte Fragen hinsichtlich der Wirksamkeit der Verfahren und daraus resultierende Anwendungsbeschränkungen in den maßgebenden Regelwerken haben eine praxisgerechte Anwendung der Verfahren bis dato kaum möglich gemacht.
Ziel dieser Arbeit war es im Rahmen von grundlegenden Untersuchungen die Mechanismen des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 besser zu verstehen, um damit einen Beitrag zur Schaffung der erforderlichen Grundlagen für eine breitere Anwendung der Verfahren in der Praxis zu leisten. Im Fokus stand dabei die Entwicklung eines Modells zur Beschreibung der Chloridumverteilung nach Applikation einer Oberflächenschutzbeschichtung.
Hierzu wurde zunächst ein mathematisches Modell mit einer in sich geschlossenen analytischen Lösung entwickelt, mit dessen Hilfe die Chloridumverteilung unter Annahme einer vollständigen Wassersättigung des Betons nach Applikation einer systemabdichtenden Oberflächenschutz-beschichtung berechnet werden kann.
Daran anknüpfend wurde der Einfluss der infolge der Anwendung des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 zu erwartenden Austrocknung des Betons auf die Chloridumverteilung im abgedichteten System untersucht. Auf Basis von eigenen Untersuchungen und darauf aufbauenden numerischen Berechnungen wurden materialspezifische Abminderungsfunktionen entwickelt, die die Abhängigkeit des Chloriddiffusionskoeffizienten von der Umgebungsfeuchte beschreiben.
Abschließend wurden auf Grundlage einer Parameterstudie allgemeingültige Grenzwerte für Randbedingungen hergeleitet, bis zu denen eine Instandsetzung nach dem Verfahren 7.7 angewendet werden kann, ohne dass im Zuge der Chloridumverteilung der kritische korrosionsauslösende Chloridgehalt auf Höhe der Bewehrung im geplanten Restnutzungszeitraum überschritten wird.
Ein Großteil der dieser Arbeit zu Grunde liegenden Untersuchungen erfolgte im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projektes „Anwendungsgrenzen des Instandsetzungsprinzip W-Cl“.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
This thesis is concerned with the modeling of the solid-solid phase transformation, such as the martensitic transformation. The allotropes austenite and martensite are important for industry applications. As a result of its ductility, austenite is desired in the bulk, as opposed to martensite, which desired in the near surface region. The phase field method is used to model the phase transformation by minimizing the free energy. It consists of a mechanical part, due to elastic strain and a chemical part, due to the martensitic transformation. The latter is temperature dependent. Therefore, a temperature dependent separation potential is presented here. To accommodate multiple orientation variants, a multivariant phase field model is employed. Using the Khachaturyan approach, the effective material parameters can be used to describe a constitutive model. This however, renders the nodal residual vector and elemental tangent matrix directly dependent on the phase, making a generalization complicated. An easier approach is the use of the Voigt/Taylor homogenization, in which the energy and their derivatives are interpolated creating an interface for material law of the individual phases.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
In this dissertation, I will present the studies conducted during my doctoral studies. In spite of a lot of research in the last decades, the complex cognitive processes underlying human memory are not fully unraveled. Furthermore, the development of neuroscientific methods like functional mag-netic resonance imaging (fMRI) and event-related potentials (ERPs) have further build a founda-tion for new insights. Naturally, the utilization of these techniques led to further adaptation of both these techniques and the paradigms in which they have been employed. This can be observed in the research literature on episodic memory retrieval. Familiarity and recollection, have been found to be the chief factors at play during memory retrieval. The two processes have been thoroughly characterized in several studies and reviews (e.g., Mecklinger, 2000; Rugg & Curran, 2007; Yonelinas, 2002; Zimmer & Ecker, 2010), yet there are still open questions that have to be ad-dressed by researchers in this field (c.f., Leynes, Bruett, Krizan, & Veloso, 2017; MacLeod & Donaldson, 2017).
In order to answer these questions, we conducted several studies during my doctoral studies. In Study 1, we developed a paradigm to investigated episodic memory using ERPs. In the study phase, pictorial stimuli were presented which at test were either perceptually identical, perceptually changed, or entirely new. Data collected from a sample of young adults revealed that the paradigm was suitable to elicit ERP correlates of both familiarity and recollection. As the newly developed paradigm yielded similar results as existing literature, we then applied this paradigm in two devel-opmental populations, second-graders and fifth-graders. According to the ERPs, the younger chil-dren seemed to rely on recollection alone, whereas ERPs of older children suggested the use of familiarity for perceptually identical items and only after intentional encoding. In a follow-up study two years later, we used the results from both studies to only slightly refine the paradigm, again administering it to young adults. In this study, Study 3, we found that ERP correlates were much smaller than in the earlier studies, hence we used a data-driven approach to detect time windows of interest. In spite of the large body of research on episodic memory, these studies serve to demon-strate that episodic memory is a complex interplay of several contributing cognitive processes which need to assessed carefully in order to unravel the key factors at play during familiarity and recollection.
In today’s computer networks we see an ongoing trend towards wireless communication technologies, such as Wireless LAN, Bluetooth, ZigBee and cellular networks. As the electromagnetic spectrum usable for wireless communication is finite and largely allocated for exclusive use by respective license holders, there are only few frequency bands left for general, i.e. unlicensed, use. Subsequently, it becomes apparent, that there will be an overload situation in the unlicensed bands, up to a point where no communication is possible anymore. On the other hand, it has been observed that licensed frequency bands often go unused, at least at some places or over time. Mitola combined both observations and found the term Cognitive Radio Networks [Mit00], denoting a solution for spectrum scarcity. In this concept, so called Secondary Users are allowed to also use licensed bands (attributed to a Primary User) as long as it is vacant.
In such networks, all obligations reside with Secondary Users, especially, they must avoid any interference with the Primary User. They must therefore reliably sense the presence of Primary Users and must decide which available spectrum to use. These two functionalities are called Spectrum Sensing and Spectrum Mobility and describe 2 out of 4 core functionalities of Cognitive Radio Networks and are considered in this thesis.
Regarding Spectrum Sensing, we present our own approach for energy detection in this thesis. Energy detection essentially works by comparing measured energy levels to a threshold. The inherent problem is on how to find such thresholds. Based on existing work we found in literature, we improve techniques and assert the effectiveness of our additions by conducting real world experiments.
Regarding Spectrum Mobility, we concentrate on the point, where the Primary User shows up. At this point, nodes must not use the current channel anymore, i.e. they also have no possibility to agree on another channel to switch to. We solve this problem by employing channel switching, i.e. we change channels proactively, following a schedule shared by all nodes of the network. The main contribution of this thesis is on how to synthesize those schedules to guarantee robust operation under changing conditions. For integration, we considered three dimensions of robustness (of time, of space and of channel) and, based on our algorithms and findings, defined a network protocol, which addresses perturbation within those dimensions. In an evaluation, we showed that the protocol is actually able to maintain robust operation, even if there are large drops in channel quality.
Das Ziel der vorliegenden Arbeit war es, eine lokale Version des Programmpakets Turbomole um eine Methode zu erweitern, die die Berechnung elektronischer Anregungsenergien und Übergangsmomente unter Berücksichtigung der Spin-Bahn-Wechselwirkung mit Hilfe quasirelativistischer zeitabhängiger Dichtefunktionaltheorie (TD-DFT) ermöglicht. Dazu wurde ein bereits existierender zweikomponentiger TD-DFT-Ansatz verwendet und so erweitert, dass auch offenschalige Systeme mit gradientenkorrigier ten Funktionalen berechnet werden können.
Die gewählte Implementierung ist unabhängig von der zweikomponentigen Methode, die Tatsache, dass die Molekülorbitale in einem quasirelativistischen Formalismus durch zweikomponentige, komplexe Spinoren dargestellt werden, erforderte jedoch die weitestgehende Verwendung komplexer Arithmetik.
Des Weiteren wurde das Verhalten des implementierten Austausch-Korrelations-Kernels (XC-Kernel), die Schlüsselgröße der TD-DFT, für kleine Spindichten untersucht. Dabei konnte gezeigt werden, dass die numerische Berechnung der Matrixelemente des XC-Kernels an Punkten des Integrationsgitters, für die die Spindichte gegen null geht, ihr Gradient hingegen nicht, durchaus problematisch ist und eine Regularisierung des XC-Kernels erfordert. Alternativen zur Regularisierung, wie beispielsweise die Verwendung eines Kernels ohne Gradiententerme oder Modifikationen am Funktional selbst, sind in der Literatur bekannt, im Rahmen dieser Arbeit konnte jedoch ein Ansatz entwickelt werden, der keine Veränderungen am Funktional erfordert und die Verwendung eines Kernels mit Gradientenkorrektur ermöglicht. Dazu wurde das Integrationsgitter in zwei Bereiche, abhängig von der Spindichte und ihrem Gradienten, eingeteilt. In den jeweiligen Bereichen wird nun zur Berechnung der Matrixelemente entweder der XC-Kernel für offen- oder geschlossenschalige Systeme verwendet. Für einen möglichst „glatten“ Übergang zwischen den beiden Bereichen wurde ein weiterer Bereich definiert, in dem ein mit einer Umschaltfunktion gewichteter Mittelwert beider Grenzfälle verwendet wird.
Mit dem im Rahmen dieser Arbeit entwickelten Programm ist es nun möglich, basierend auf einer zweikomponentigen Rechnung am offen- oder geschlossenschaligen Grundzustand, TD-DFT-Rechnungen mit gängigen Standarddichtefunktionalen durchzuführen. Da sowohl spinerhaltende als auch spin flip Anregungen berücksichtigt werden, erhält man mit einem Eindeterminantenansatz Informationen, die sonst nur mit Hilfe von deutlich aufwendigeren Mehrdeterminantenansätzen zugänglich sind.
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
Simplified ODE models describing blood flow rate are governed by the pressure gradient.
However, assuming the orientation of the blood flow in a human body correlates to a positive
direction, a negative pressure gradient forces the valve to shut, which stops the flow through
the valve, hence, the flow rate is zero, whereas the pressure rate is formulated by an ODE.
Presence of ODEs together with algebraic constraints and sudden changes of system characterizations
yield systems of switched differential-algebraic equations (swDAEs). Alternating
dynamics of the heart can be well modelled by means of swDAEs. Moreover, to study pulse
wave propagation in arteries and veins, PDE models have been developed. Connection between
the heart and vessels leads to coupling PDEs and swDAEs. This model motivates
to study PDEs coupled with swDAEs, for which the information exchange happens at PDE
boundaries, where swDAE provides boundary conditions to the PDE and PDE outputs serve
as inputs to swDAE. Such coupled systems occur, e.g. while modelling power grids using
telegrapher’s equations with switches, water flow networks with valves and district
heating networks with rapid consumption changes. Solutions of swDAEs might
include jumps, Dirac impulses and their derivatives of arbitrary high orders. As outputs of
swDAE read as boundary conditions of PDE, a rigorous solution framework for PDE must
be developed so that jumps, Dirac impulses and their derivatives are allowed at PDE boundaries
and in PDE solutions. This is a wider solution class than solutions of small bounded
variation (BV), for instance, used in where nonlinear hyperbolic PDEs are coupled with
ODEs. Similarly, in, the solutions to switched linear PDEs with source terms are
restricted to the class of BV. However, in the presence of Dirac impulses and their derivatives,
BV functions cannot handle the coupled systems including DAEs with index greater than one.
Therefore, hyperbolic PDEs coupled with swDAEs with index one will be studied in the BV
setting and with swDAEs whose index is greater than one will be investigated in the distributional
sense. To this end, the 1D space of piecewise-smooth distributions is extended to a 2D
piecewise-smooth distributional solution framework. 2D space of piecewise-smooth distributions
allows trace evaluations at boundaries of the PDE. Moreover, a relationship between
solutions to coupled system and switched delay DAEs is established. The coupling structure
in this thesis forms a rather general framework. In fact, any arbitrary network, where PDEs
are represented by edges and (switched) DAEs by nodes, is covered via this structure. Given
a network, by rescaling spatial domains which modifies the coefficient matrices by a constant,
each PDE can be defined on the same interval which leads to a formulation of a single
PDE whose unknown is made up of the unknowns of each PDE that are stacked over each
other with a block diagonal coefficient matrix. Likewise, every swDAE is reformulated such
that the unknowns are collected above each other and coefficient matrices compose a block
diagonal coefficient matrix so that each node in the network is expressed as a single swDAE.
The results are illustrated by numerical simulations of the power grid and simplified circulatory
system examples. Numerical results for the power grid display the evolution of jumps
and Dirac impulses caused by initial and boundary conditions as a result of instant switches.
On the other hand, the analysis and numerical results for the simplified circulatory system do
not entail a Dirac impulse, for otherwise such an entity would destroy the entire system. Yet
jumps in the flow rate in the numerical results can come about due to opening and closure of
valves, which suits clinical and physiological findings. Regarding physiological parameters,
numerical results obtained in this thesis for the simplified circulatory system agree well with
medical data and findings from literature when compared for the validation
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Das Zytosol ist der Hauptort der Proteinbiosynthese. Während viele Proteine im Zytosol
bleiben, muss ein Großteil zu unterschiedlichen Kompartimenten der Zelle transportiert
werden. Die korrekte Lokalisation der Polypeptide ist essentiell für die Homöostase der Zelle.
Werden Proteine fehlgeleitet oder gar nicht transportiert, können diese in der Zelle
aggregieren, was zu Stress bis hin zum Zelltod führen kann. Obwohl der Import
mitochondrialer Proteine über die verschiedenen Membranen der Mitochondrien sehr gut
erforscht ist, war lange unklar, wie diese Proteine zu ihrem Zielorganell transportiert werden.
In den letzten Jahren wurde diese Wissenslücke teilweise gefüllt, neue zytosolische Faktoren
wurden identifiziert und alternative Transportwege aufgedeckt.
Eine solche Entdeckung war der Transportweg namens ER-SURF. Hier werden
mitochondriale Proteine an die Membran des endoplasmatischen Retikulums transportiert, wo
sie vom Co-Chaperon Djp1 gebunden und zu den Mitochondrien gebracht werden. Im Zuge
der Studie zu ER-SURF wurde ein Protein identifiziert, das bisher noch uncharakterisiert war.
Dieses Protein nannten wir Ema19 („Efficient Mitochondria Targeting–Associated Protein
19”). Es ist ein Membranprotein des endoplasmatischen Retikulums, das vier
Transmembrandomänen besitzt.
Ziel dieses Projekts war es, die Funktion von Ema19 für die Zelle zu analysieren. Durch ein
Alignment konnte ich feststellen, dass das Protein bis in den Menschen hoch konserviert ist,
was auf eine wichtige Rolle für die Zelle schließen ließ. Da Ema19 im Zusammenhang mit
dem ER-SURF Transportweg identifiziert wurde, habe ich zunächst eine mögliche Rolle für
den Transport und Import mitochondrialer Proteine in unterschiedlichen Experimenten
getestet. Im Laufe der Arbeit wurde jedoch deutlich, dass Ema19 keine direkte Rolle beim
Import von mitochondrialen Proteinen spielt. Allerdings konnte ich durch mehrere
unabhängige Versuche einen Zusammenhang mit der Lokalisation und dem Abbau
mitochondrialer Proteine feststellen. Fehlt Ema19 in der Zelle, ist vor allem das
mitochondriale Protein Oxa1 mehr am endoplasmatischen Retikulum vorzufinden. Ebenso
konnte ich feststellen, dass Oxa1, sowie das Intermembranraumprotein Erv1, langsamer
abgebaut werden als in Wildtypzellen. Diese Experimente geben erste Hinweise auf eine
mögliche Rolle von Ema19 für den Abbau mitochondrialer Proteine an der ER-Membran.
Nichtsdestotrotz bleiben noch viele Fragen offen und weitere Versuche sind nötig, um diese
Hypothese weiter zu unterstützen.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Verkehrsflächenbürtige Feststoffe enthalten Schadstoffe wie Schwermetalle, die im Regenereignis abfließen und in Gewässern toxisch wirken können. Da ein großer Teil vieler Schwermetalle partikulär vorliegt, können diese durch eine Behandlung mittels Sedimentation zurückgehalten werden. Zur Optimierung des Feststoff- und damit Schadstoffrückhaltes ist eine Erweiterung des Kenntnisstandes zum Absetzverhalten schadstofftragender Feststoffe nötig. Es ist bekannt, dass das Schadstoffaufkommen standortspezifisch variiert. Bezüglich der für die Sedimentation absetzrelevanten Kenngrößen wie Partikelgröße und Dichte wurde der Einfluss standortspezifischer Randbedingungen auf die Zusammensetzung noch nicht umfassend untersucht. Weiter mangelt es an einer Methode zur Messung des Absetzverhaltens unter kontrollierten Bedingungen. Diese Arbeit liefert hierzu einen Beitrag.
Anhand einer Literaturstudie zu Feststoffdepositionen und -abflüssen von Verkehrsflächen wurde für die absetzrelevanten Kenngrößen Partikelgröße, -form, -dichte und organischer Anteil eine Metadatenauswertung hinsichtlich methoden- und standortspezifischen Randbedingungen durchgeführt. Für organische Anteile in Abflüssen konnte eine gesicherte Datengrundlage und Durchschnittswerte ermittelt werden. Die Datengrundlage für die weiteren Kenngrößen ist bislang gering. Der Mangel an Befunden zu absetzrelevanten Kenngrößen unterstreicht die Notwendigkeit vertiefter Untersuchungen zur Charakterisierung verkehrsflächenbürtiger Feststoffe.
In einem umfangreichen Messprogramm wurden an zehn Standorten in Frankfurt am Main von 2016 bis 2018 Feststoffe in der Trockenperiode auf der Verkehrsfläche gewonnen und hinsichtlich der genannten absetzrelevanten Kenngrößen untersucht. Standortspezifische Einflüsse wurden statistisch nachgewiesen. Feststoffaufkommen und deren Partikelgröße liegen unabhängig vom Standort nur mit geringer Variabilität vor. Es besteht ein positiver Zusammenhang zwischen der Verkehrsstärke und dem Feststoffaufkommen. Organische Anteile sind eine Funktion der vorherrschenden Vegetation am Standort. Sie variieren saisonal. Es konnte ein negativ linearer Zusammenhang zwischen der Dichte und den organischen Anteilen nachgewiesen werden. Diese Arbeit liefert damit eine neue Datengrundlage für die Modellierung von Transportprozessen von Feststoffen und ihren absetzrelevanten Kenngrößen von unterschiedlichen Verkehrsflächen.
Weiter wurde ein Laborverfahren zur Bestimmung des Absetzverhaltens verkehrsflächenbürtiger Feststoffe in konstanter Zusammensetzung (Partikelgrößenverteilung und Feststoffkonzentration) entwickelt und mit der geschaffenen Datengrundlage validiert. Es wurden erste Erkenntnisse zum Absetzverhalten von Feststoffen, organischen Anteilen und Schwermetallen gewonnen. Im untersuchten Szenario sedimentieren die Partikel diskret bedingt durch die Partikelgröße und organischen Anteile. Das Absetzverhalten der Schwermetalle korreliert mit den Feststoffen. Überproportional hohe Schwermetallkonzentrationen in feinen Partikelanteilen bedeuten jedoch eine verringerte Absetzbarkeit der jeweiligen Schwermetallanteile.
Für die Behandlung von Abflüssen aus Verkehrsflächen mit viel Vegetation am Standort legen diese Ergebnisse nahe, dass mit reduzierten Feststoffwirkungsgraden aufgrund verminderter Absetzbarkeit leichterer Bestandteile mit geringer Dichte zu rechnen ist. Mit den Laborergebnissen konnte ein starker positiver Zusammenhang zwischen dem Feststoff- und Schadstoffwirkungsgrad bestätigt werden. Die Verteilung der Schwermetalle in Partikelgrößenklassen einer Feststoffprobe ist neben den organischen Anteilen und der Dichte ein wichtiger Parameter zur Einschätzung der Absetzbarkeit bei diskretem Absetzverhalten.
The famous Mather-Yau theorem in singularity theory yields a bijection of isomorphy classes of germs of isolated hypersurface singularities and their respective Tjurina algebras.
This result has been generalized by T. Gaffney and H. Hauser to singularities of isolated singularity type. Due to the fact that both results do not have a constructive proof, it is the objective of this thesis to extract explicit information about hypersurface singularities from their Tjurina algebras.
First we generalize the result by Gaffney-Hauser to germs of hypersurface singularities, which are strongly Euler-homogeneous at the origin. Afterwards we investigate the Lie algebra structure of the module of logarithmic derivations of Tjurina algebra while considering the theory of graded analytic algebras by G. Scheja and H. Wiebe. We use the aforementioned theory to show that germs of hypersurface singularities with positively graded Tjurina algebras are strongly Euler-homogeneous at the origin. We deduce the classification of hypersurface singularities with Stanley-Reisner Tjurina ideals.
The notion of freeness and holonomicity play an important role in the investigation of properties of the aforementioned singularities. Both notions have been introduced by K. Saito in 1980. We show that hypersurface singularities with Stanley--Reisner Tjurina ideals are holonomic and have a free singular locus. Furthermore, we present a Las Vegas algorithm, which decides whether a given zero-dimensional \(\mathbb{C}\)-algebra is the Tjurina algebra of a quasi-homogeneous isolated hypersurface singularity. The algorithm is implemented in the computer algebra system OSCAR.
Der intrinsisch chirale Ligand CpCH besteht aus einem Cyclopentadienkern und zwei benzannelierten Cycloheptatrienringen, deren sterische Abstoßung die beiden „Flügel“ des Ligandenrückgrates zu einer helicalen Anordnung zwingen. Im Rahmen dieser Arbeit wurden Derivate von CpCH mit sauerstofffunktionalisierten Seitenketten ausgehend von der Deprotonierung des Liganden und anschließender Umsetzung mit Epoxiden erhalten. Durch die Reaktion von (CpC)- mit enantiomerenreinem (R)-Propylenoxid gelang die Überführung des Liganden in diastereomere Alkoholderivate mit einem Diastereomerenüberschuss von 10 %. Des Weiteren wurden einfach und zweifach phosphanfunktionalisierte Derivate von CpCH synthetisiert. Die Reaktion dieser Liganden mit unterschiedlichen Vorstufen der späten und damit elektronenreichen Übergangsmetalle führte zu einer Reihe an Rhodium(I)-, Palladium(II)-, Gold(I)- und Ruthenium(II)komplexen mit potentiellem Einsatz in der Katalyse. Die fortsetzenden Arbeiten der direkten Reaktion von CpCH mit den basischen Dimethylamidovorstufen der zweiten Übergangsmetallreihe erlaubte den Abschluss der Arbeiten zu den Titan(IV)-, Zirkonium(IV)- und Hafnium(IV)komplexen der Struktur [(η5-CpC)M(NMe2)3]. Mit Hilfe des Thallium(I)-salzes von CpCH gelang die Übertragung des Liganden auf die späten Übergangsmetalle Ruthenium und Iridium. Der lichtinitiierte Ligandenaustausch der auf diesem Weg erhaltenen kationischen Ruthenium(II)arenkomplexe in Acetonitril führte zum entsprechenden Acetonitril-substituierten Komplex [(η5-CpC)Ru(CH3CN)3]PF6, der im Anschluss erfolgreich auf seine Aktivität in der Redoxisomerisierung allylischer Alkohole und Ligandenaustauschreaktionen mit zweizähnigen Phosphan-liganden untersucht wurde. Ausgehend von [(η5-CpC)Ru(η6-C8H8O2)]PF6 gelang die Synthese eines diastereomeren Amidkomplexes [(η5-CpC)Ru{η6-C6H5-(C=O)-NH-C8H9}]PF6 durch die direkte Aminolyse des koordinierenden Carbonsäureesters mit (R)-Methylbenzylamin. Des Weiteren wurde im Rahmen dieser Arbeit die Übertragung des von J.-Y. Chung erstmals erhaltenen Keton CpCO auf Triruthenium(0)dodekacarbonyl durchgeführt. Ausgehend von der Reaktion des isolierten Ruthenium(0)tricarbonylkomplexes mit 2-Propanol gelang die Isolierung eines neuartigen bimetallischen Hydridkomplexes, der im Anschluss erfolgreich auf eine Aktivität in der Oppenauer-Oxidation von Cholesterol und in der Redoxisomerisierung allylischer Alkohole getestet wurde. Neben des Erhaltens eines durch Autoxidation entstandenen Diepoxidderivates von CpCH, ergab die direkte Reaktion des Liganden mit Luftsauerstoff und Bengalrosa das erste cyclische Endoperoxid. Die Reaktion dieser Verbindung mit Aluminium(III)chlorid führte zu einem Umlagerungsprodukt bei dem, neben der Einführung einer Ketogruppe am zentralen Fünfring, zusätzlich eine [1,2]-Alkylwanderung innerhalb einer der beiden Cycloheptatrienringe des Liganden stattgefunden hat.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
3D hand pose and shape estimation from a single depth image is a challenging computer vision and graphics problem with many applications such as
human computer interaction and animation of a personalized hand shape in
augmented reality (AR). This problem is challenging due to several factors
for instance high degrees of freedom, view-point variations and varying hand
shapes. Hybrid approaches based on deep learning followed by model fitting
preserve the structure of hand. However, a pre-calibrated hand model limits
the generalization of these approaches. To address this limitation, we proposed a novel hybrid algorithm for simultaneous estimation of 3D hand pose
and bone-lengths of a hand model which allows training on datasets that contain varying hand shapes. On the other hand, direct joint regression methods
achieve high accuracy but they do not incorporate the structure of hand in
the learning process. Therefore, we introduced a novel structure-aware algorithm which learns to estimate 3D hand pose jointly with new structural constraints. These constraints include fingers lengths, distances of joints along
the kinematic chain and fingers inter-distances. Learning these constraints
help to maintain a structural relation between the estimated joint keypoints.
Previous methods addressed the problem of 3D hand pose estimation. We
open a new research topic and proposed the first deep network which jointly
estimates 3D hand shape and pose from a single depth image. Manually annotating real data for shape is laborious and sub-optimal. Hence, we created a
million-scale synthetic dataset with accurate joint annotations and mesh files
of depth maps. However, the performance of this deep network is restricted by
limited representation capacity of the hand model. Therefore, we proposed a
novel regression-based approach in which the 3D dense hand mesh is recovered
from sparse 3D hand pose, and weak-supervision is provided by a depth image synthesizer. The above mentioned approaches regressed 3D hand meshes
from 2D depth images via 2D convolutional neural networks, which leads to
artefacts in the estimations due to perspective distortions in the images. To
overcome this limitation, we proposed a novel voxel-based deep network with
3D convolutions trained in a weakly-supervised manner. Finally, an interesting
application is presented which is in-air signature acquisition and verification
based on deep hand pose estimation. Experiments showed that depth itself is
an important feature, which is sufficient for verification.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Acrylamid ist eine Lebensmittelkontaminante, welche durch die sogenannte Maillard-Reaktion im Lebensmittel gebildet wird. Acrylamid entsteht insbesondere bei der Zubereitung kohlenhydratreicher hocherhitzer Lebensmittel, wie z.B. Pommes frites, Chips, Cerealien und ähnlichen Produkten. Die mittlere tägliche Exposition, durch den Verzehr von Lebensmittel liegt bei ca. 0,4–1,9 µg/kg Körpergewicht und Tag. Darüber hinaus entsteht Acrylamid in Folge von Pyrolyseprozessen, weshalb Tabakrauchen einen weiteren Expositionsweg darstellt. Die Menge des dabei entstehenden Acrylamids im Hauptstrom von Zigarettenrauch liegt bei 1,1–2,3 µg/Zigarette. In Studien erwies sich die Substanz als reproduktions- und gentoxisch, sowie kanzerogen beim Nager und zudem als neurotoxisch sowohl im Nager als auch beim Menschen. Bereits 1994 wurde Acrylamid von der International Agency for Research on Cancer (IARC) als wahrscheinlich krebserzeugend für den Menschen (Gruppe 2A) eingestuft. Im Zuge des Fremdstoffmetabolismus wird Acrylamid in der Leber zu Glycidamid umgesetzt. Katalysiert wird die Reaktion durch das Enzym CYP2E1 ist. Als reaktives Epoxid kann Glycidamid an die DNA binden, wodurch das in vorliegender Arbeit behandelte N7-(2-Carbamoyl-2-Hydroxyethyl)-guanin (N7-GA-Gua), gebildet wird. Dieses DNA-Addukt bildet das Hauptaddukt der Reaktion aus GA und DNA-Bausteinen.
Ziel der vorliegenden Arbeit war es, eine hochsensitive UHPLC-ESIpos-MS/MS-Methode zu entwickeln, um damit anschließend eine mögliche Hintergrundbelastung mit Acrylamid anhand des N7-GA-Gua-Addukts sowohl im Tier als auch im Menschen nachzuweisen und damit eine bessere Datenlage über die Substanz zu erhalten.
Zu Beginn dieser Arbeit wurden Synthesen der für die chromatographische Analytik benötigten Verbindungen durchgeführt. Hierbei konnten erstmals Glycidamid Kristalle erhalten und untersucht werden. In nachfolgenden in-vitro-Experimenten wurden die Zytotoxizität von Acrylamid und dessen Metaboliten mittels Resazurin-Reduktionstest, sowie die Bildung von N7-GA-Gua in primären Rattenhepatozyten (pRH) nach Inkubation mit Acrylamid, untersucht. Im Resazurin Test erwies sich Acrylamid in Konzentrationen bis zu 2500 µM als nicht zytotoxisch und konnte daher zur Inkubation der Zellen mit Konzentrationen bis zu 2000 µM Acrylamid eingesetzt werden. Im anschließend durchgeführten Inkubationsversuch, bei dem die Zellen mit 2–2000 µM Acrylamid über 1, 16 oder 24 h inkubiert wurden, konnten in allen Testkonzentrationen N7-GA-Gua-Addukte bestimmt werden. Dank der im Rahmen dieser Arbeit entwickelten sensitiven analytischen Methode, konnten N7-GA-Gua-Addukte auch in den Organen (Lunge, Niere und teilweise Leber) vom Nager (C57BL/6jRj- und BKS(D) Leprdb/JOrLR Maus und Wistar-Ratte) bestimmt werden. Geschlechts- oder organabhängige Effekte konnten nicht festgestellt werden. Einzig die Anzahl an N7-GA-Gua lag in den C57BL/6jRj-Mäusen signifikant über denen der Wistar-Ratten. In der durchgeführten Humanstudie konnten im Blut von 48 der 60 Probanden Addukte nachgewiesen werden. Signifikante Einflüsse der Lebensführung, des Alters und der Ernährung der Probanden auf den Hintergrund-Adduktgehalte wurden nicht festgestellt; es ergab sich lediglich eine schwache Korrelation zwischen der Anzahl an N7-GA-Gua und dem Gewicht bzw. dem BMI der Studienteilnehmer.
Insgesamt liefert die vorliegende Arbeit wichtige Erkenntnisse über die Gehalte an N7-GA-Gua in vitro in primären Rattenhepatozyten, als auch in vivo in Organen von Ratte und Maus, sowie im Blut des Menschen. Die Ergebnisse tragen zur Verbesserung der Datenlage über Acrylamid bei. Insbesondere die Ergebnisse der durchgeführten Humanstudie liefern Einblicke in die Hintergrundbelastung an N7 GA-Gua im Querschnitt der Bevölkerung und können daher auch für die Risikobetrachtung von Acrylamid sowie zur Ableitung weiterer Forschungsarbeiten und Studien von Interesse sein.
In today’s world, mobile communication has become one of the most widely used technologies corroborated by growing number of mobile subscriptions and extensive usage of mobile multimedia services. It is a key challenge for the network operators to accommodate such large number of users and high traffic volume. Further, several day-to-day scenarios such as public transportation, public events etc., are now characterized with high mobile data
usage. A large number of users avail cellular services in such situations posing
high load to the respective base stations. This results in increased number of dropped connections, blocking of new access attempts and blocking of handovers (HO). The users in such system will thus be subjected to poor
Quality of Experience (QoE). Beforehand knowledge of the changing data traffic dynamics associated with such practical situations will assist in designing
radio resource management schemes aiming to ease the forthcoming congestion situations. The key hypothesis of this thesis is that consideration and utilization of additional context information regarding user, network and his environment is valuable in designing such smart Radio Resource Management(RRM) schemes. Methods are developed to predict the user cell transitions, considering the fact that mobility of the users is not purely random but rather direction oriented. This is particularly used in case of traffic dense moving network or group of users moving jointly in the same vehicle (e.g., bus, train, etc.) to
predict the propagation of high load situation among cells well in advance.
This enables a proactive triggering of load balancing (LB) in cells anticipating
the arrival of high load situation and accommodating the incoming user group or moving network. The evaluated KPIs such as blocked access
attempts, dropped connections and blocked HO are reduced.
Further, everyday scenario of dynamic crowd formation is considered as another potential case of high load situation. In real world scenarios such as open air festivals, shopping malls, stadiums or public events, several mobile users gather to form a crowd. This poses high load situation to the respective serving base station at the site of crowd formation, thereby leading to congestion. As a consequence, mobile users are subjected to poor QoE due to high dropping and blocking rates. A framework to predict crowd formation in a cell is developed based on coalition of user cell transition prediction, cluster detection and trajectory prediction. This framework is suitably used to prompt context aware load balancing mechanism and activate a small cell at the probable site of crowd formation. Simulations show that proactive LB
reduces the dropping of users (23%), blocking of users (10%) and blocked
HO (15%). In addition, activation of a Small Cell (SC) at the site of frequent
crowd formation leads to further reductions in dropping of users (60%),
blocking of users (56%) and blocked HO (59%).
Similar to the framework for crowd formation prediction, a concept is developed for predicting vehicular traffic jams. Many vehicular users avail broadband cellular services on a daily basis while traveling. The density of such vehicular users change dynamically in a cell and at certain sites (e.g.
signal lights), traffic jams arise frequently leading to a high load situation at
respective serving base station. A traffic prediction algorithm is developed
from cellular network perspective as a coalition strategy consisting of schemes to predict user cell transition, vehicular cluster/moving network detection, user velocity monitoring etc. The traffic status indication provided by the algorithm is then used to trigger LB and activate/deactivate a small cell suitably. The evaluated KPIs such as blocked access attempts, dropped connections
and blocked HO are reduced by approximately 10%, 18% and 18%, respectively due to LB. In addition, switching ON of SC reduces blocked access attempts, dropped connections and blocked HO by circa 42%, 82% and 81%, respectively.
Amidst increasing number of connected devices and traffic volume, another key issue for today’s network is to provide uniform service quality
despite high mobility. Further, urban scenarios are often characterized by
coverage holes which hinder service continuity. A context aware resource allocation scheme is proposed which uses enhanced mobility prediction to facilitate service continuity. Mobility prediction takes into account additional information about the user’s origin and possible destination to predict next road segment. If a coverage hole is anticipated in upcoming road, then additional
resources are allocated to respective user and data is buffered suitably.
The buffered data is used when the user is in a coverage hole to improve service continuity. Simulation shows improvement in throughput (in coverage
hole) by circa 80% and service interruption is reduced by around 90%, for a
non-real-time streaming service. Additionally, investigation of context aware procedures is carried out with a focus on user mobility, to find commonalities among different procedures and a general framework is proposed to support mobility context awareness. The new information and interfaces which are required from various entities
(e.g., vehicular infrastructure) are discussed as well.
Device-to-Device (D2D) communications commonly refer to the technology
that enables direct communication between devices, hence relieving the
base station from traffic routing. Thus, D2D communication is a feasible
solution in crowded situations, where users in proximity requesting to communicate with one another could be granted D2D links for communication, thereby easing the traffic load to serving base station. D2D links can potentially
reuse the radio resources from cellular users (known as D2D underlay) leading to better spectral utilization. However, the mutual interference can hinder system performance. For instance, if D2D links are reusing cellular uplink resources then D2D transmissions cause interference to cellular uplink at base station. Whereas, cellular transmissions cause interference to
D2D receivers. To cope up with such issues, location aware resource allocation
schemes are proposed for D2D communication. The key aim of such RA scheme is to reuse resources with minimal interference. The RA scheme based on virtual sectoring of a cell leads to approximately 15% more established
links and 25% more capacity with respect to a random resource allocation. D2D transmissions cause significant interference to cellular links with
which they reuse physical resource blocks, thereby hindering cellular performance. Regulating D2D transmissions to mitigate the aforementioned problem would mean sub-optimal exploitation of D2D communications. As
a solution, post-resource allocation power control at cellular users is proposed.
Three schemes namely interference aware power control, blind power
control and threshold based power control are discussed. Simulation results
show reductions in dropping of cellular users due to interference from D2D
transmissions, improvement in throughput at base station (uplink) while not hindering the D2D performance.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
The number of sequenced genomes increases rapidly due to the development of faster, better and new technologies. Thus, there is a great interest in automation, and standardization of the subsequent processing and analysis stages of the generated enormous amount of data. In the current work, genomes of clones, strains and species of Streptococcus were compared, which were sequenced, annotated and analysed with several technologies and methods. For sequencing, the 454- and Illumina-technology were used. The assembly of the genomes mainly was performed by the gsAssembler (Newbler) of Roche, the annotation was performed by the annotation pipeline RAST, the transfer tool RATT or manually. Concerning analysis, sets of deduced proteins of several genomes were compared to each other and common components, the so-called core-genome, of the used genomes of one or closely related species determined. Detailed comparative analysis was performed for the genomes of isolates of two clones to gather single nucleotide variants (SNV) within genes.
This work focusses on the pathogenic organism Streptococcus pneumoniae. This species is a paradigm for transformability, virulence and pathogenicity as well as resistance mechanisms against antibiotics. Its close relatives S. mitis, S. pseudopneumoniae and S. oralis have no pathogenicity potential as high as S. pneumoniae available and are thus of high interest to understand the evolution of S. pneumoniae. Strains of two S. pneumoniae clones were chosen. One is the ST10523 clone, which is associated with patients with cystic fibrosis and is characterized by long-term persistence. This clone is lacking an active hyaluronidase, which is one of the main virulence factors. The lack of two phage clusters possibly contributed to the long persistence in the human host. The clone ST226 shows a high penicillin resistance but interestingly one strain is sensitive against penicillin. Here it could be seen that the penicillin resistance mainly arose from the presence of mosaic-PBPs, while special alleles of MurM and CiaH - both genes are associated with penicillin-resistance – were present in resistant and sensitive strains as well. Penicillin resistance of S. pneumoniae is the result of horizontal gene transfer, where DNA of closely related species, mainly S. mitis or S. oralis, served as donor. The transfer of DNA from the high-level penicillin-resistant strain S. oralis Uo5 to the sensitive strain S. pneumoniae R6 was intentioned to reveal the amount of transferred DNA and whether it is possible to reach the high resistance level of S. oralis Uo5. Altogether, about 19kb of S. oralis DNA were transferred after three successive transformation steps, about 10-fold less than during transfer from S. mitis, which is more closely related to S. pneumoniae, as donor. MurE was identified as new resistance determinant. Since the resistance level of the donor strain could not be reached, it is assumed, that further unknown factors are present which contribute to penicillin resistance. The comparison of S. pneumoniae and its close relatives was performed using deduced protein sequences. 1.041 homologous proteins are common to the four complete genomes of S. pneumoniae R6, S. pseudopneumoniae IS7493, S. mitis B6 and S. oralis Uo5. Most of the virulence and pathogenicity factors described for S. pneumoniae could also be found in commensal species. These observations were confirmed by further investigations by Kilian et al. (Kilian, et al., 2019). After adding 26 complete S. pneumoniae genomes to the analysis, only 104 gene products could be identified as specific for this species. Investigations of a larger number of related streptococci, which were isolated from human and several primates, confirmed the presence of most of the virulence factors of human pneumococci in S. oralis and S. mitis strains from primates. While NanBC is common among S. pneumoniae and is missing in all S. oralis, all S. oralis contain a ß-N-acetyl-hexosaminidase which vice versa is missing in S. pneumoniae. The occurrence of S. oralis also in free-living chimpanzees suggests the assumption, that this species is part of the commensal flora of these Old-World monkeys unlike S. pneumoniae which has evolved with its human host. Compared to S. pneumoniae, S. oralis shows an amazing variability in factors important for biosynthesis of peptidoglycan and teichoic acid (PBP, MurMN, lic-cluster). Some streptococci contain a second PGP3 homologue. Additional analyses with further isolates, especially of wild animals, are necessary to determine host-specific components.