Refine
Year of publication
- 2019 (164) (remove)
Document Type
- Doctoral Thesis (74)
- Article (39)
- Master's Thesis (16)
- Periodical Part (14)
- Working Paper (7)
- Part of a Book (2)
- Conference Proceeding (2)
- Other (2)
- Preprint (2)
- Report (2)
- Book (1)
- Course Material (1)
- Diploma Thesis (1)
- Habilitation (1)
Has Fulltext
- yes (164)
Keywords
- Erwachsenenbildung (6)
- Schule (5)
- wissenschaftliche Weiterbildung (5)
- Digitalisierung (3)
- Evaluation (3)
- Mathematische Modellierung (3)
- Organisationsentwicklung (3)
- Schulentwicklung (3)
- Simulation (3)
- Zertifikatskurs (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (23)
- Kaiserslautern - Fachbereich Sozialwissenschaften (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Physik (15)
- Distance and Independent Studies Center (DISC) (14)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Universität (7)
Faserkunststoffverbunde (FKV) haben durch die Substitution metallischer Strukturen
ein großes Leichtbaupotential. Die Integration von aktiven Materialien wie Formgedächtnislegierungen
(FGL) in Bauteile aus FKV ermöglicht die Herstellung aktiver
Hybridverbunde, wodurch eine zusätzliche Bauraum- und Gewichtsersparnis möglich
ist bzw. völlig neue Lösungsansätze denkbar werden.
Dabei hat die Kraftübertragung zwischen FGL und FKV einen entscheidenden Einfluss
auf die Performance solcher aktiver Hybridverbunde. Nur bei einer ausreichenden
Kraftübertragung kann das vollständige Aktorikpotential der FGL ausgenutzt
werden. Dabei sind zwei Bereiche zu unterscheiden, die sich durch unterschiedliche
Belastungsszenarien auszeichnen. Während im Randbereich Schubspannungen auftreten,
da dort die Kraft aus der FGL in den FKV eingeleitet wird, ist der mittlere Bereich
von Normalspannungen geprägt, die zu einem Ablösen der FGL vom FKV führen
können.
Im Rahmen dieser Arbeit wurden deshalb Methoden zur Charakterisierung der Kraftübertragung
in beiden Bereichen identifiziert. Zusätzlich wurden verschiedene Kraftübertragungsmechanismen
vergleichend untersucht. Durch eine modellhafte Betrachtung
wurde ein besseres Verständnis der Versagensmechanismen erreicht.
Dabei konnte gezeigt werden, dass mittels Pull-Out Versuchen ein Vergleich zwischen
verschiedenen Kraftübertragungsmechanismen möglich ist. Formschlüssige
Verbindungen ermöglichten eine Steigerung der Pull-Out Kraft um mehr als das 10-
fache im Vergleich zu unbehandelten Drähten. Allerdings wurde auch deutlich, dass
die Temperatur großen Einfluss auf die Matrixeigenschaften und damit auf das Interface
zwischen FGL und FKV hat. Durch die Verwendung einer Spannungsoptik
konnte die inhomogene Spannungsverteilung sowie der Versagensfortschritt visualisiert
werden. Mit Hilfe von 90°-Schälversuchen konnte gezeigt werden, dass durch
das Aufsticken der FGL-Drähte auf dem FKV ein Ablösen im mittleren Bereich verhindert
werden kann. Anhand von Verformungsversuchen an aktiven Hybridverbunden
konnten diese Ergebnisse bestätigt werden. Durch die in dieser Arbeit gewonnenen Ergebnisse ist zukünftig möglich, die Performance aktiver Hybridverbunde zu steigern, da die von den FGL generierte Kraft nahezu vollständig in den Hybridverbund eingeleitet werden kann, ohne dass es zu einem strukturellen Versagen kommt.
In jüngerer Vergangenheit wurden Konzepte zur Bestimmung der erforderlichen
Bewehrung zur Begrenzung der Rissbreite in dicken Bauteilen erarbeitet und in den
aktuellen Bemessungsnormen des Stahlbeton- und Spannbetonbaus verankert. Mit
Hilfe dieser Konzepte ist es möglich, dicke Bauteile gegenüber den bislang
angewendeten Bemessungsverfahren sinnvoll zu bewehren.
Stahlbetonhochbaudecken zählen jedoch in der Regel zu den schlanken Bauteilen und
somit nicht zu der Kategorie von Bauteilen, für die die neuen Bemessungsansätze
entwickelt wurden. Dennoch sind sie es, die den Massenverbrauch in den Tragwerken
von Hochbauten dominieren. Die Auslegung von Stahlbetondecken spielt somit eine
entscheidende Rolle im Hinblick auf die Wirtschaftlichkeit und die Umweltfreundlichkeit
von Hochbauten.
Stahlbetonhochbaudecken sind im Regelfall einer kombinierten Beanspruchung aus
Last und Zwang unterworfen. Die hierbei für die Bemessung erforderliche Größe der
Zwangkraft kann angesichts ihrer direkten Verknüpfung mit der Steifigkeit nur mit Hilfe
von physikalisch nichtlinearen Finite-Elemente-Berechnungen mit ausreichender
Genauigkeit abgeschätzt werden. Für Tragwerksplaner wäre ein solches Vorgehen im
Rahmen von realen Bauprojekten jedoch mit einem unverhältnismäßig hohen Aufwand
verbunden. In der Praxis ist es daher derzeit üblich, an jeder Stelle eines Bauteils den
größeren Wert derjenigen Bewehrungsquerschnitte einzulegen, die sich aus Last oder
aus Zwang ergeben. Die zur Aufnahme der Zwangbeanspruchungen erforderliche
Bewehrung wird hierbei basierend auf der Risskraft des jeweiligen Bauteils gewählt.
Dieses Vorgehen ist aber in vielen Fällen unwirtschaftlich und kann auch auf der
unsicheren Seite liegen.
Im Rahmen der vorliegenden Arbeit wird daher die Frage nach einer geeigneten
Bewehrung für Hochbaudecken unter einer kombinierten Beanspruchung aus Last und
zentrischem Zwang experimentell und numerisch untersucht. Auf Basis der
gewonnenen Erkenntnisse aus den experimentellen und numerischen
Untersuchungen wird ein Näherungsverfahren ausgearbeitet, welches eine
wirklichkeitsnahe Abschätzung der Zwanglängskraft und somit eine wirtschaftliche und
sichere Wahl der Bewehrung zur Begrenzung der Rissbreite bei einachsig gespannten
Stahlbetonhochbaudecken erlaubt.
Die Nachrechnung bestehender Bauwerke muss grundsätzlich auf Basis der aktuellen, bauaufsichtlich eingeführten technischen Baubestimmungen geführt werden. Dazu werden charakteristische Materialkennwerte der verwendeten Baustoffe benötigt.
Im Rahmen einer Vordimensionierung kann die Betondruckfestigkeit durch Umrechnung von aus der Herstellzeit dokumentierten Werten abgeschätzt werden. Für eine abgesicherte Nachrechnung hingegen muss die charakteristische Betondruckfestigkeit durch Untersuchungen am Bauwerk ermittelt werden, um den Einfluss verschiedener last- oder zeitabhängiger Prozesse zu erfassen.
Zur statistischen Bewertung der experimentell ermittelten Werte der In-situ-Betondruckfestigkeit existieren verschiedene Verfahren. Besonders bei kleinem Stichprobenumfang führen die bisher gebräuchlichen Verfahren nach DIN EN 1990:2010-12 und DIN EN 13791:2008-05 jedoch teilweise zu ingenieurmäßig als kritisch einzustufenden Ergebnissen, welche die tatsächliche In-situ-Betondruckfestigkeit erheblich über- oder unterschätzen können.
Aufbauend auf Untersuchungen an realen, umfangreichen Datensätzen wurde in dieser Arbeit ein neues Verfahren mit den vom Stichprobenumfang und dem Variationskoeffizienten abhängigen modifizierten Ansätzen A und B zur Bestimmung der charakteristischen In-situ-Betondruckfestigkeit, basierend auf experimentell, mit direkten Prüfverfahren ermittelten Einzelwerten, entwickelt.
Zur Bestimmung des Nachrechnungswertes der Betondruckfestigkeit gilt es über den charakteristischen Wert der In-situ-Betondruckfestigkeit hinaus auch noch den Unterschied zwischen Bauwerks- und Normprobekörperdruckfestigkeit sowie den Einfluss von Dauerstandseffekten zu bewerten.
Die durchgeführten Untersuchungen zeigen, dass bei Bestandsbetonen, wie auch bereits im Neubaufall, das Verhältnis zwischen Bauwerks- und Normprobekörperfestigkeit ca. 0,85 beträgt. Auch bei der experimentellen Ermittlung der In-situ-Betondruckfestigkeit an aus dem Bauwerk entnommenen Proben ist der Unterschied zwischen Kurzzeit- und Dauerstandsfestigkeit mit dem im Neubaufall gebräuchlichen Faktor αcc = 0,85 zu berücksichtigen.
Neben der Druckfestigkeit, ist im Rahmen der Nachrechnung von Bestandsbauwerken auch teilweise die Zugfestigkeit oder der Elastizitätsmodul von Bestandsbetonen zu bewerten. Die in DIN EN 1992-1-1:2011-01 enthaltenen Beziehungen zwischen Druck- und Zugfestigkeit sowie zwischen Druckfestigkeit und Elastizitätsmodul sind jedoch ausschließlich für im Neubaufall verwendete Betone nach DIN EN 206-1:2001-07 ausgelegt.
Die Untersuchungen zeigen, dass die in DIN EN 1992-1-1:2011-01 enthaltene Korrelation zwischen Druck- und Zugfestigkeit auch zur groben Abschätzung der Zugfestigkeit von Bestandsbetonen verwendet werden kann. Im Einzelfall sind jedoch auch große Abweichungen nicht auzuschließen. Bedingt durch den großen Einfluss der Gesteinskörnung ist nur eine sehr grobe Abschätzung des Elastizitätsmoduls aus der In-situ-Betondruckfestigkeit möglich.
Basierend auf den Erkenntnissen und Erfahrungen zum Klimawandel ergaben sich in den letzten Jahren weltweit enorme energie- und klimapolitische Veränderungen. Dies führt zu einem immer stärken Wandel der Erzeugungs-, Verbrauchs- und Versorgungsstrukturen unserer Energiesysteme. Der Fokus der Energieerzeugung auf fluktuierenden erneuerbaren Energieträgern erfordert einen weitreichenderen Einsatz von Flexibilitäten als dies bisher der Fall war.
Diese Arbeit diskutiert den Einsatz von Wärmepumpen und Speichersystemen als Flexibilitäten im Kontext des Zellularen Ansatzes der Energieversorgung. Dazu werden die Flexibilitätspotentiale von Wärmepumpen -Speichersystemen auf drei Betrachtungsebenen untersucht und validiert. Erstere berücksichtigt die Wärmepumpe, den thermischen Speicher und thermische Lasten in einer generellen Potentialbetrachtung. Darauf aufbauend folgt die Betrachtung der Wärmepumpen-Speichersysteme im Rahmen einer Haushalts-Zelle als energetische Einheit, gefolgt von Untersuchungen im Niederspannungs-Zellkontext. Zur Abbildung des Flexibilitätsverhaltens werden detaillierte Modelle der Wandler und Speicher sowie deren Steuerungen entwickelt und anhand von Zeitreihensimulationen analysiert und evaluiert.
Die zentrale Frage ob Wärmepumpen mit Speichersystemen einen Beitrag als Flexibilität zum Gelingen der Energiewende leisten können kann mit einem klaren Ja beantwortet werden. Dennoch sind die beim Einsatz von Wärmepumpen-Speichersystemen als Flexibilität zu beachtenden Randbedingungen vielfältig und bedürfen, je nach Anwendungszweck der Flexibilität, einer genauen Betrachtung. Die entscheidenden Faktoren sind dabei die Außentemperatur, der zeitliche Kontext, das Netz und die Wirtschaftlichkeit.
Die räumliche Planung begegnet häufig Herausforderungen, zu deren Bewältigung nicht auf existierendes Wissen zurückgegriffen werden kann. Um neuartiges Wissen zu erzielen, werden insbesondere Modellvorhaben – kleinmaßstäbliche, befristete reale Feldexperimente – als Instrument eingesetzt. Diese zielen darauf ab, wiederverwendbares Wissen reproduzierbar zu erzeugen. Im Rahmen eines Modellvorhabens werden in verschiedenen Modellräumen vielfältige innovative Projekte initiiert, über einen festen Zeitraum umgesetzt sowie bewertet. Akademische oder private Institutionen begleiten Modellvorhaben wissenschaftlich, um allgemeingültige und übertragbare Erkenntnisse zu identifizieren. Die Ergebnisse dieser umfassenden Evaluation werden in einem Abschlussbericht dokumentiert. Erfahrungen zeigen allerdings, dass dies zur Verteilung der Ergebnisse nicht ausreicht, um die Nutzung und Wiederverwendung der in Modellvorhaben generierten Erkenntnisse sicherzustellen. Dies liegt insbesondere daran, dass die Abschlussberichte zu wenig anwendungsorientiert und zu umfangreich sind. So ist der Vergleich zwischen vorhandenen Berichten und einem laufenden Modellvorhaben mit einem zu hohen Aufwand verbunden, wodurch sich ein unausgeglichenes Aufwand-Ertrag-Verhältnis ergibt. Somit wird das Lernen aus Modellvorhaben erschwert.
Um eine effektive und effiziente Dissemination und Verstetigung sowie Wiederverwendbarkeit von Wissen generiert in Modellvorhaben zu erzielen, wurde im Rahmen der vorliegenden Forschungsarbeit ein Modell entwickelt. In einem ersten Schritt wurde für die Analyse von Modellvorhaben eine allgemeingültige Struktur geschaffen, die mit dem generellen Ablauf eines Projekts im Rahmen des Projektmanagements vergleichbar ist. Diese Struktur reduziert den Aufwand Erkenntnisse und Wissen jeweils für die folgenden hier definierten Phasen zu nutzen: Identifikation einer neuen Herausforderung; Projektaufruf; Bewerbungen der möglichen Teilnehmer; Bewertungen der Bewerbungen durch den Initiator; Durchführung; Auswertung; Dissemination, Transfer und Verstetigung.
Im nächsten Schritt wurde in die einzelnen Phasen eines Modellvorhabens ein Wissensmanagementprozess – die Bausteine Wissensziele, -identifikation, -erwerb, - entwicklung, -bewertung, -bewahrung, -(ver)teilung und -nutzung – integriert, um die gemeinsame Nutzungseinheit vom umfassenden Abschlussbericht auf kleinere, in sich abgeschlossene Informationseinheiten zu reduzieren. Auf diese Weise wird der Aufwand für die Identifikation, den Erwerb und die Nutzung von Wissen verringert. Am Ende jeder Phase wird eine Bewertung durchgeführt sowie das erzielte Wissen effizient geteilt. Dafür ist eine systematische Interaktion zwischen Akteuren von Modellvorhaben und eine zentrale Sammlung des Wissens notwendig. Ein wesentliches Ergebnis dieser Arbeit ist die Entwicklung einer neuartigen Austauschinfrastruktur, die das generierte Wissen einerseits bewahrt und andererseits systematisch verteilt. Dadurch kann bereits im Verlauf eines Modellvorhabens gewonnenes Wissen ausgetauscht und wiederverwendet werden, sodass
die Phase der Dissemination, Transfer und Verstetigung in den Prozess verschoben wird. Die Infrastruktur soll frei zugänglich sein und nutzerfreundlich gestaltet werden.
Durch das entwickelte Modell wird eine effektive und effiziente Wiederverwendung von Wissen generiert in Modellvorhaben ermöglicht sowie eine belastbare Grundlage für neue Projekte in der räumlichen Planung geschaffen.
In this paper we present the results of the project “#Datenspende” where during the German election in 2017 more than 4000 people contributed their search results regarding keywords connected to the German election campaign.
Analyzing the donated result lists we prove, that the room for personalization of the search results is very small. Thus the opportunity for the effect mentioned in Eli Pariser’s filter bubble theory to occur in this data is also very small, to a degree that it is negligible. We achieved these results by applying various similarity measures to the result lists that were donated. The first approach using the number of common results as a similarity measure showed that the space for personalization is less than two results out of ten on average when searching for persons and at most four regarding the search for parties. Application of other, more specific measures show that the space is indeed smaller, so that the presence of filter bubbles is not evident.
Moreover this project is also a proof of concept, as it enables society to permanently monitor a search engine’s degree of personalization for any desired search terms. The general design can also be transferred to intermediaries, if appropriate APIs restrict selective access to contents relevant to the study in order to establish a similar degree of trustworthiness.
Die Arbeit fokussiert sich auf die Frage, ob unter bestimmten individuellen Bedingungen der Lehrkräfte und unter Berücksichtigung der organisationalen Bedingungen, die Implementierung von iPads zu einer Veränderung der Lehr- und Lernprozesse führt, die einen problemorientierten, schülerzentrierten Unterricht favorisieren. Zuerst werden die Potentiale der Informations- und Kommunikationstechnik beschrieben, das „iPad“ vorgestellt und die verschiedenen Unterrichtsformen definiert. Danach werden die einzelnen Bedingungsfaktoren für den iPad-Einsatz auf Individuallevel sowie auf der Ebene der Organisation Schule aufgezählt, die Begrifflichkeiten geklärt und jeweils ein Bezug zur praktischen Umsetzung hergestellt. Anhand der Literatur zu theoretischen und empirischen Arbeiten wird versucht, eine Antwort auf die Frage zu finden, welche Bedingungen für eine qualitativ hochwertige Implementierung von iPads notwendig sind. Abschließend werden diese Innovationsbedingungen kritisch reflektiert und die wichtigsten Erkenntnisse herausgestellt, um den Prozess einer iPad-Implementierung an einer Grundschule anzuregen und Empfehlungen zu einem iPad-Konzept zu geben.
Weiterbildung an Hochschulen. Eine Fallstudie am Beispiel der Technischen Universität Kaiserslautern
(2019)
Mit der vorliegenden Studie soll ein Beitrag zur empirisch gestützten Klärung des Begriffs und damit auch zur Verbesserung seiner statistischen Erfassung geleistet werden. Dazu wird der Modus einer Fallstudie gewählt, um die organisationalen und institutionellen Rahmenbedingungen in einem speziellen Hochschulkontext miteinzubeziehen und bei der Analyse der Weiterbildungsangebote würdigen zu können. Die Grundlage dessen bildet eine Auseinandersetzung mit dem mitunter generisch gebrauchten Begriff der wissenschaftlichen Weiterbildung, die von einer Reflexion über dessen Definition bis hin zu einem Vorschlag reicht, anhand welchen hochschulische Weiterbildungsangebote differenzierter als bisher attribuiert werden können.
Wearable activity recognition aims to identify and assess human activities with the help
of computer systems by evaluating signals of sensors which can be attached to the human
body. This provides us with valuable information in several areas: in health care, e.g. fluid
and food intake monitoring; in sports, e.g. training support and monitoring; in entertainment,
e.g. human-computer interface using body movements; in industrial scenarios, e.g.
computer support for detected work tasks. Several challenges exist for wearable activity
recognition: a large number of nonrelevant activities (null class), the evaluation of large
numbers of sensor signals (curse of dimensionality), ambiguity of sensor signals compared
to the activities and finally the high variability of human activity in general.
This thesis develops a new activity recognition strategy, called invariants classification,
which addresses these challenges, especially the variability in human activities. The
core idea is that often even highly variable actions include short, more or less invariant
sub-actions which are due to hard physical constraints. If someone opens a door, the
movement of the hand to the door handle is not fixed. However the door handle has to
be pushed to open the door. The invariants classification algorithm is structured in four
phases: segmentation, invariant identification, classification, and spotting. The segmentation
divides the continuous sensor data stream into meaningful parts, which are related
to sub-activities. Our segmentation strategy uses the zero crossings of the central difference
quotient of the sensor signals, as segment borders. The invariant identification finds
the invariant sub-activities by means of clustering and a selection strategy dependent on
certain features. The classification identifies the segments of a specific activity class, using
models generated from the invariant sub-activities. The models include the invariant
sub-activity signal and features calculated on sensor signals related to the sub-activity. In
the spotting, the classified segments are used to find the entire activity class instances in
the continuous sensor data stream. For this purpose, we use the position of the invariant
sub-activity in the related activity class instance for the estimation of the borders of the
activity instances.
In this thesis, we show that our new activity recognition strategy, built on invariant
sub-activities, is beneficial. We tested it on three human activity datasets with wearable
inertial measurement units (IMU). Compared to previous publications on the same
datasets we got improvement in the activity recognition in several classes, some with a
large margin. Our segmentation achieves a sensible method to separate the sensor data in
relation to the underlying activities. Relying on sub-activities makes us independent from
imprecise labels on the training data. After the identification of invariant sub-activities,
we calculate a value called cluster precision for each sensor signal and each class activity.
This tells us which classes can be easily classified and which sensor channels support
the classification best. Finally, in the training for each activity class, our algorithm selects
suitable signal channels with invariant sub-activities on different points in time and
with different length. This makes our strategy a multi-dimensional asynchronous motif
detection with variable motif length.
Wärmedämm-Verbundsysteme (WDVS) zählen gegenwärtig zu den am meisten eingesetzten Fassadenkonstruktionen, dennoch oder gerade deswegen stoßen die Systeme in der Architektur auf Ablehnung. Auf der technischen Seite wird mit der Anfälligkeit für Algen-/Pilzwuchs, Spechtlöchern oder dem Brandschutz argumentiert. Die architektonische Seite wettert gegen das unwahrhaftige Erscheinungsbild einer massiven Putzwand und äußert Bedenken beim Einsatz im Bestand. Auch im Feuilleton regt sich Widerstand und Angst gewohnte Stadtbilder zu verlieren. Trotz der Probleme können sich Architekten unter den gegebenen politischen Rahmenbedingungen und Kostenzwängen nicht mehr dem WDV-System entziehen. Die Moraldiskussion, die sich unmittelbar an der Fassade abarbeitet und ebenso problematische Verbundbauweisen ausblendet, verdeutlicht, dass es sich vorwiegend um ein Wahrnehmungsproblem handelt. WDV-Systeme gelten als unecht, billig und gestaltungsarm. Damit sich diese architektonische Wahrnehmung von WDV-Systemen nachhaltig verändert, werden systematisch Möglichkeiten und Potenziale vorgestellt, um WDVS zur Bedingung der Gestaltung werden zu lassen. In diesem Sinne interpretiert die Arbeit WDV-Systeme als architektonisches Mittel, das einer gestalterischen Logik folgt, welche sich unmittelbar aus den Gegebenheiten des Systems heraus entwickelt.
The focus of this work is to provide and evaluate a novel method for multifield topology-based analysis and visualization. Through this concept, called Pareto sets, one is capable to identify critical regions in a multifield with arbitrary many individual fields. It uses ideas found in graph optimization to find common behavior and areas of divergence between multiple optimization objectives. The connections between the latter areas can be reduced into a graph structure allowing for an abstract visualization of the multifield to support data exploration and understanding.
The research question that is answered in this dissertation is about the general capability and expandability of the Pareto set concept in context of visualization and application. Furthermore, the study of its relations, drawbacks and advantages towards other topological-based approaches. This questions is answered in several steps, including consideration and comparison with related work, a thorough introduction of the Pareto set itself as well as a framework for efficient implementation and an attached discussion regarding limitations of the concept and their implications for run time, suitable data, and possible improvements.
Furthermore, this work considers possible simplification approaches like integrated single-field simplification methods but also using common structures identified through the Pareto set concept to smooth all individual fields at once. These considerations are especially important for real-world scenarios to visualize highly complex data by removing small local structures without destroying information about larger, global trends.
To further emphasize possible improvements and expandability of the Pareto set concept, the thesis studies a variety of different real world applications. For each scenario, this work shows how the definition and visualization of the Pareto set is used and improved for data exploration and analysis based on the scenarios.
In summary, this dissertation provides a complete and sound summary of the Pareto set concept as ground work for future application of multifield data analysis. The possible scenarios include those presented in the application section, but are found in a wide range of research and industrial areas relying on uncertainty analysis, time-varying data, and ensembles of data sets in general.
The coordination of multiple external representations is important for learning, but yet a difficult task for students, requiring instructional support. The subject in this study covers a typical relation in physics between abstract mathematical equations (definitions of divergence and curl) and a visual representation (vector field plot). To support the connection across both representations, two instructions with written explanations, equations, and visual representations (differing only in the presence of visual cues) were designed and their impact on students’ performance was tested. We captured students’ eye movements while they processed the written instruction and solved subsequent coordination tasks. The results show that students instructed with visual cues (VC students) performed better, responded with higher confidence, experienced less mental effort, and rated the instructional quality better than students instructed without cues. Advanced eye-tracking data analysis methods reveal that cognitive integration processes appear in both groups at the same point in time but they are significantly more pronounced for VC students, reflecting a greater attempt to construct a coherent mental representation during the learning process. Furthermore, visual cues increase the fixation count and total fixation duration on relevant information. During problem solving, the saccadic eye movement pattern of VC students is similar to experts in this domain. The outcomes imply that visual cues can be beneficial in coordination tasks, even for students with high domain knowledge. The study strongly confirms an important multimedia design principle in instruction, that is, that highlighting conceptually relevant information shifts attention to relevant information and thus promotes learning and problem solving. Even more, visual cues can positively influence students’ perception of course materials.
Graphs and flow networks are important mathematical concepts that enable the modeling and analysis of a large variety of real world problems in different domains such as engineering, medicine or computer science. The number, sizes and complexities of those problems permanently increased during the last decades. This led to an increased demand of techniques that help domain experts in understanding their data and its underlying structure to enable an efficient analysis and decision making process.
To tackle this challenge, this work presents several new techniques that utilize concepts of visual analysis to provide domain scientists with new visualization methodologies and tools. Therefore, this work provides novel concepts and approaches for diverse aspects of the visual analysis such as data transformation, visual mapping, parameter refinement and analysis, model building and visualization as well as user interaction.
The presented techniques form a framework that enriches domain scientists with new visual analysis tools and help them analyze their data and gain insight from the underlying structures. To show the applicability and effectiveness of the presented approaches, this work tackles different applications such as networking, product flow management and vascular systems, while preserving the generality to be applicable to further domains.
In cyanobacteria and plants, VIPP1 plays crucial roles in the biogenesis and repair of thylakoid membrane protein complexes and in coping with chloroplast membrane stress. In chloroplasts, VIPP1 localizes in distinct patterns at or close to envelope and thylakoid membranes. In vitro, VIPP1 forms higher-order oligomers of >1 MDa that organize into rings and rods. However, it remains unknown how VIPP1 oligomerization is related to function. Using time-resolved fluorescence anisotropy and sucrose density gradient centrifugation, we show here that Chlamydomonas reinhardtii VIPP1 binds strongly to liposomal membranes containing phosphatidylinositol-4-phosphate (PI4P). Cryo-electron tomography reveals that VIPP1 oligomerizes into rods that can engulf liposomal membranes containing PI4P. These findings place VIPP1 into a group of membrane-shaping proteins including epsin and BAR domain proteins. Moreover, they point to a potential role of phosphatidylinositols in directing the shaping of chloroplast membranes.
3D joint kinematics can provide important information about the quality of movements. Optical motion capture systems (OMC) are considered the gold standard in motion analysis. However, in recent years, inertial measurement units (IMU) have become a promising alternative. The aim of this study was to validate IMU-based 3D joint kinematics of the lower extremities during different movements. Twenty-eight healthy subjects participated in this study. They performed bilateral squats (SQ), single-leg squats (SLS) and countermovement jumps (CMJ). The IMU kinematics was calculated using a recently-described sensor-fusion algorithm. A marker based OMC system served as a reference. Only the technical error based on algorithm performance was considered, incorporating OMC data for the calibration, initialization, and a biomechanical model. To evaluate the validity of IMU-based 3D joint kinematics, root mean squared error (RMSE), range of motion error (ROME), Bland-Altman (BA) analysis as well as the coefficient of multiple correlation (CMC) were calculated. The evaluation was twofold. First, the IMU data was compared to OMC data based on marker clusters; and, second based on skin markers attached to anatomical landmarks. The first evaluation revealed means for RMSE and ROME for all joints and tasks below 3°. The more dynamic task, CMJ, revealed error measures approximately 1° higher than the remaining tasks. Mean CMC values ranged from 0.77 to 1 over all joint angles and all tasks. The second evaluation showed an increase in the RMSE of 2.28°– 2.58° on average for all joints and tasks. Hip flexion revealed the highest average RMSE in all tasks (4.87°– 8.27°). The present study revealed a valid IMU-based approach for the measurement of 3D joint kinematics in functional movements of varying demands. The high validity of the results encourages further development and the extension of the present approach into clinical settings.
Untersuchung der spektroskopischen und kinetischen Eigenschaften von Dihydroxysäure-Dehydratasen
(2019)
Eisen-Schwefel-Cluster sind wichtige Cofaktoren, die an der Redox- und Nicht-Redox-Katalyse beteiligt sind. Enzyme der Lyase-Familie wie Aconitase, Fumarase und DihydroxysäureDehydratase enthalten Cluster, die an drei Cystein-Liganden koordiniert sind. Das Eisenion, das an einen Nicht-Cysteinyl-Liganden koordiniert ist, wirkt als Lewis-Säure und interagiert mit dem Substrat über die Hydroxygruppe des dritten Kohlenstoffatoms und der Carboxygruppe. Das in dieser Arbeit untersuchte Enzym ist die Dihydroxysäure-Dehydratase (DHAD), welche an der Biosynthese der Aminosäuren Isoleucin, Leucin und Valin beteiligt ist. In dieser Arbeit wurden die kinetischen und spektroskopischen Eigenschaften von DHAD aus Streptococcus mutans, Streptococcus thermophilus, Saccharomyces cerevisiae und Escherichia coli untersucht. Zu diesem Zweck wurden ihre Gene kloniert und die Proteine in E. coli Zellen exprimiert. Nach der Proteinreinigung zeigten die UV-Vis-, ESR- und Mössbauer-Spektroskopie die Anwesenheit eines [2Fe-2S]2+-Clusters in der S. mutans DHAD, eines [4Fe-4S]2+-Cluster in E. coli DHAD und einer Mischung von [2Fe-2S]2+- und [4Fe-4S]2+ -Cluster in der S. cerevisiae DHAD. Darüber hinaus unterstützten die Ergebnisse der Sauerstoffstabilitätstests und des Eisen- und säurelabilen Sulfidgehalts die spektroskopischen Analysen. MössbauerSpektroskopie lieferte zusätzlich Information für das Vorhandensein eines nicht-cysteinyl-koordinierten Eisenions in den Clustern der S. mutans und in E. coli DHAD. Enzymaktivitätsmessungen mit dem Dinitrophenylhydrazin-Assay und den hier etablierten gekoppelten Assays mit NADH-abhängigen Ketoisovalerat-reduzierenden Dehydrogenasen wurden durchgeführt, um die spezifischen Aktivitäten und die kinetischen Parameter der DHAD zu bestimmen. Interaktionsstudien der S. mutans DHAD mit dem Substrat, dem Produkt, den substrat- und produktähnlichen Verbindungen mittels UV-Vis-, ESR-, Mössbauer- und FT-IR-Spektroskopie zeigten, dass nur das (2R)-Isomer des Substrats und 2-Ketosäuren (KIV, Kbut) mit dem Cluster der S. mutans DHAD interagierten. Das DHAD-Produkt (2-Ketoisovalerat) interagiert vermutlich über seine Enolform mit dem Cluster. Interessanterweise wurde starke Interaktion des Clusters mit der β-Mercaptogruppe von 3-Mercaptopropionat beobachtet. Diese Wechselwirkung wurde unabhängig durch Inhibitionsstudien verifiziert. Anschließend zeigte eine Gelfiltrationsanalyse die Reversibilität der Interaktionen. Insgesamt hat die vorliegende Arbeit unser Wissen über die biotechnologisch wichtigen DHAD-Enzyme erweitert.
Nachfolgend ist ein modularer Multilevel-Umrichter mit einer Mehrzahl von Einzelmodulen beschrieben, bei dem eine erste Gruppe von Modulen hintereinander zu einem geschlossenen Ring verschaltet sind und mindestens zwei Abgriffe jeweils zwischen zwei benachbarten Einzelmodulen des Rings angeordnet sind. An mindestens zwei Abgriffen ist je eine zweite weitere Gruppe von Modulen als von der Ringanordnung abzweigendes und einen Sternstrang bildendes Phasenmodul vorgesehen ist. Diese letztgenannten Gruppen von Modulen bilden an den Enden jeweils Anschlüsse oder Abgriffe. Die Module erlauben durch Schaltelemente ein Verschalten von Energiespeichern benachbarter Einzelmodule, wodurch zwischen zwei benachbarten Phasenanschlüssen eine Spannungsdifferenz bereitstellbar ist, die von einer Steuereinheit entsprechend eines Verlaufs eines mehrphasigen Drehfeldes regelbar ist. Ferner betrifft die vorliegende Erfindung ein Polyphasensystem und ein Verfahren zum effizienten Leistungsaustausch zwischen Modulen.
Passive graduated filters with fixed absorption profile are currently used in image recording to avoid overexposure. However, a whole set of filters with prescribed gradients is required to cope with changing illumination conditions. Furthermore, they demand mechanical adjustment during operation. To overcome these deficiencies we present a microfabricated active electrochromic graduated filter which combines multiple functionalities: The overall absorbance, the position of medium transmission as well as the magnitude of its gradient can be tuned continuously by electrical means. Live image control is possible using low operation voltages in the range of ±2 V to reach a high change in optical density ΔOD of 1.01 (400 nm to 780 nm) with a coloration and bleaching time 1.3 s and 0.2 s, respectively. Owing to their low volume and power consumption they are suitable for widespread applications like in smartphones, surveillance cameras or microscopes.
The simulation of physical phenomena involving the dynamic behavior of fluids and gases
has numerous applications in various fields of science and engineering. Of particular interest
is the material transport behavior, the tendency of a flow field to displace parts of the
medium. Therefore, many visualization techniques rely on particle trajectories.
Lagrangian Flow Field Representation. In typical Eulerian settings, trajectories are
computed from the simulation output using numerical integration schemes. Accuracy concerns
arise because, due to limitations of storage space and bandwidth, often only a fraction
of the computed simulation time steps are available. Prior work has shown empirically that
a Lagrangian, trajectory-based representation can improve accuracy [Agr+14]. Determining
the parameters of such a representation in advance is difficult; a relationship between the
temporal and spatial resolution and the accuracy of resulting trajectories needs to be established.
We provide an error measure for upper bounds of the error of individual trajectories.
We show how areas at risk for high errors can be identified, thereby making it possible to
prioritize areas in time and space to allocate scarce storage resources.
Comparative Visual Analysis of Flow Field Ensembles. Independent of the representation,
errors of the simulation itself are often caused by inaccurate initial conditions,
limitations of the chosen simulation model, and numerical errors. To gain a better understanding
of the possible outcomes, multiple simulation runs can be calculated, resulting in
sets of simulation output referred to as ensembles. Of particular interest when studying the
material transport behavior of ensembles is the identification of areas where the simulation
runs agree or disagree. We introduce and evaluate an interactive method that enables application
scientists to reliably identify and examine regions of agreement and disagreement,
while taking into account the local transport behavior within individual simulation runs.
Particle-Based Representation and Visualization of Uncertain Flow Data Sets. Unlike
simulation ensembles, where uncertainty of the solution appears in the form of different
simulation runs, moment-based Eulerian multi-phase fluid simulations are probabilistic in
nature. These simulations, used in process engineering to simulate the behavior of bubbles in
liquid media, are aimed toward reducing the need for real-world experiments. The locations
of individual bubbles are not modeled explicitly, but stochastically through the properties of
locally defined bubble populations. Comparisons between simulation results and physical
experiments are difficult. We describe and analyze an approach that generates representative
sets of bubbles for moment-based simulation data. Using our approach, application scientists
can directly, visually compare simulation results and physical experiments.
Private data analytics systems preferably provide required analytic accuracy to analysts and specified privacy to individuals whose data is analyzed. Devising a general system that works for a broad range of datasets and analytic scenarios has proven to be difficult.
Despite the advent of differentially private systems with proven formal privacy guarantees, industry still uses inferior ad-hoc mechanisms that provide better analytic accuracy. Differentially private mechanisms often need to add large amounts of noise to statistical results, which impairs their usability.
In my thesis I follow two approaches to improve the usability of private data analytics systems in general and differentially private systems in particular. First, I revisit ad-hoc mechanisms and explore the possibilities of systems that do not provide Differential Privacy or only a weak version thereof. Based on an attack analysis I devise a set of new protection mechanisms including Query Based Bookkeeping (QBB). In contrast to previous systems QBB only requires the history of analysts’ queries in order to provide privacy protection. In particular, QBB does not require knowledge about the protected individuals’ data.
In my second approach I use the insights gained with QBB to propose UniTraX, the first differentially private analytics system that allows to analyze part of a protected dataset without affecting the other parts and without giving up on accuracy. I show UniTraX’s usability by way of multiple case studies on real-world datasets across different domains. UniTraX allows more queries than previous differentially private data analytics systems at moderate runtime overheads.
Visualization is vital to the scientific discovery process.
An interactive high-fidelity rendering provides accelerated insight into complex structures, models and relationships.
However, the efficient mapping of visualization tasks to high performance architectures is often difficult, being subject to a challenging mixture of hardware and software architectural complexities in combination with domain-specific hurdles.
These difficulties are often exacerbated on heterogeneous architectures.
In this thesis, a variety of ray casting-based techniques are developed and investigated with respect to a more efficient usage of heterogeneous HPC systems for distributed visualization, addressing challenges in mesh-free rendering, in-situ compression, task-based workload formulation, and remote visualization at large scale.
A novel direct raytracing scheme for on-the-fly free surface reconstruction of particle-based simulations using an extended anisoptropic kernel model is investigated on different state-of-the-art cluster setups.
The versatile system renders up to 170 million particles on 32 distributed compute nodes at close to interactive frame rates at 4K resolution with ambient occlusion.
To address the widening gap between high computational throughput and prohibitively slow I/O subsystems, in situ topological contour tree analysis is combined with a compact image-based data representation to provide an effective and easy-to-control trade-off between storage overhead and visualization fidelity.
Experiments show significant reductions in storage requirements, while preserving flexibility for exploration and analysis.
Driven by an increasingly heterogeneous system landscape, a flexible distributed direct volume rendering and hybrid compositing framework is presented.
Based on a task-based dynamic runtime environment, it enables adaptable performance-oriented deployment on various platform configurations.
Comprehensive benchmarks with respect to task granularity and scaling are conducted to verify the characteristics and potential of the novel task-based system design.
A core challenge of HPC visualization is the physical separation of visualization resources and end-users.
Using more tiles than previously thought reasonable, a distributed, low-latency multi-tile streaming system is demonstrated, being able to sustain a stable 80 Hz when streaming up to 256 synchronized 3840x2160 tiles and achieve 365 Hz at 3840x2160 for sort-first compositing over the internet, thereby enabling lightweight visualization clients and leaving all the heavy lifting to the remote supercomputer.
Patients after total hip arthroplasty (THA) suffer from lingering musculoskeletal restrictions. Three-dimensional (3D) gait analysis in combination with machine-learning approaches is used to detect these impairments. In this work, features from the 3D gait kinematics, spatio temporal parameters (Set 1) and joint angles (Set 2), of an inertial sensor (IMU) system are proposed as an input for a support vector machine (SVM) model, to differentiate impaired and non-impaired gait. The features were divided into two subsets. The IMU-based features were validated against an optical motion capture (OMC) system by means of 20 patients after THA and a healthy control group of 24 subjects. Then the SVM model was trained on both subsets. The validation of the IMU system-based kinematic features revealed root mean squared errors in the joint kinematics from 0.24° to 1.25°. The validity of the spatio-temporal gait parameters (STP) revealed a similarly high accuracy. The SVM models based on IMU data showed an accuracy of 87.2% (Set 1) and 97.0% (Set 2). The current work presents valid IMU-based features, employed in an SVM model for the classification of the gait of patients after THA and a healthy control. The study reveals that the features of Set 2 are more significant concerning the classification problem. The present IMU system proves its potential to provide accurate features for the incorporation in a mobile gait-feedback system for patients after THA.
Topology-Based Characterization and Visual Analysis of Feature Evolution in Large-Scale Simulations
(2019)
This manuscript presents a topology-based analysis and visualization framework that enables the effective exploration of feature evolution in large-scale simulations. Such simulations pose additional challenges to the already complex task of feature tracking and visualization, since the vast number of features and the size of the simulation data make it infeasible to naively identify, track, analyze, render, store, and interact with data. The presented methodology addresses these issues via three core contributions. First, the manuscript defines a novel topological abstraction, called the Nested Tracking Graph (NTG), that records the temporal evolution of features that exhibit a nesting hierarchy, such as superlevel set components for multiple levels, or filtered features across multiple thresholds. In contrast to common tracking graphs that are only capable of describing feature evolution at one hierarchy level, NTGs effectively summarize their evolution across all hierarchy levels in one compact visualization. The second core contribution is a view-approximation oriented image database generation approach (VOIDGA) that stores, at simulation runtime, a reduced set of feature images. Instead of storing the features themselves---which is often infeasable due to bandwidth constraints---the images of these databases can be used to approximate the depicted features from any view angle within an acceptable visual error, which requires far less disk space and only introduces a neglectable overhead. The final core contribution combines these approaches into a methodology that stores in situ the least amount of information necessary to support flexible post hoc analysis utilizing NTGs and view approximation techniques.
In this thesis, we deal with the worst-case portfolio optimization problem occuring in discrete-time markets.
First, we consider the discrete-time market model in the presence of crash threats. We construct the discrete worst-case optimal portfolio strategy by the indifference principle in the case of the logarithmic utility. After that we extend this problem to general utility functions and derive the discrete worst-case optimal portfolio processes, which are characterized by a dynamic programming equation. Furthermore, the convergence of the discrete worst-case optimal portfolio processes are investigated when we deal with the explicit utility functions.
In order to further study the relation of the worst-case optimal value function in discrete-time models to continuous-time models we establish the finite-difference approach. By deriving the discrete HJB equation we verify the worst-case optimal value function in discrete-time models, which satisfies a system of dynamic programming inequalities. With increasing degree of fineness of the time discretization, the convergence of the worst-case value function in discrete-time models to that in continuous-time models are proved by using a viscosity solution method.
Synapses are the fundamental structures that regulate the functionality of the neural circuit. The ability of the synapse to modulate its structure and function at a fast rate due to various sensory inputs provides the strength to the nervous system to incorporate new adaptations and behaviors in the animal. The synapses are very dynamic throughout the life of the animal starting from early development. Continuous events of formation and elimination of synapse, activation and inhibition of synaptic function are observed in almost all synapses. These processes occur at a high speed and require controlled cellular mechanisms. Imbalance in these processes results in defective nervous system and has been reported in many neurological disorders. Thus, it is important to understand the mechanisms that regulate process of synapse development maintenance and function.
Kinases and phosphatases are the key regulators of cellular mechanisms. Understanding the function of these molecules in the neuron will shed light on the molecular mechanisms of synaptic plasticity. Using Drosophila melanogaster larval neuromuscular junction as a model, Bulat et al. (2014) performed a large RNAi based screen targeting kinome and phosphatome of Drosophila to identify the essential kinases and phosphatases and found Myeloid leukemia factor-1 adaptor molecule (Madm) and Protein phosphatase 4 (PP4) as novel regulators of synapse development and maintenance. The function of these molecules in the nervous system has not been reported and hence I investigated on the role of Madm and PP4 in the regulation of synapse development, maintenance and function.
Myeloid leukemia factor-1 adaptor molecule (Madm), a ubiquitously expressing psuedokinase essentially functions to regulate synaptic growth, stability and function. Using a combination of genetic and high throughput imaging, I could demonstrate that Madm functions to regulate the synaptic growth and stability from the presynapse and synaptic organization form the postsynapse. Also, I could demonstrate that Madm functions in association with mTOR pathway to regulate synapse growth acting downstream of 4E-BP. In addition, using electrophysiology, we could demonstrate that Madm is essential for the basic synaptic transmission with an additive function of retrograde synaptic potentiation. In summary, I could demonstrate that Madm is a novel regulator of synaptic development, maintenance and function.
Protein phosphatase 4 (PP4), a ubiquitously expressing protein phosphatase is involved in the regulation of multiple aspects of the nervous system. I could demonstrate that PP4 is essential for the development of nervous system and the metamorphosis. Using genetics and imaging analysis, I could demonstrate that loss of PP4 results in the abnormal morphology of cell organelles. In addition, I could show that loss of PP4 results in defective brain development with poorly developed structures.
Altogether, in this study, I could demonstrate the importance of novel molecules, a pesudokinase Madm and protein phosphatases PP4 in the nervous system to regulate distinct aspects of the neuron.
Muscular imbalances of the trunk muscles are held responsible for changes in body posture. At the same time, whole-body electromyostimulation (WB-EMS) has been established as a new training method that enables simultaneous stimulation of many muscle groups. This study was aiming to analyze if a 10 weeks WB-EMS training changes posture-relevant parameters and/or improves isometric strength of the trunk extensors and flexors, and if there are differences based on stimulation at 20 Hz and 85 Hz. Fifty eight untrained adult test persons were divided into three groups (control, CON; training with 20 Hz stimulation, TR20; training with 85 Hz, TR85). Anthropometric parameters, trunk extension and flexion forces and torques, and posture parameters were determined before (n = 58) and after (n = 53: CON: n = 15, TR20: n = 19, TR85: n = 19) a 10 weeks WB-EMS training program (15 applications, 9 exercises). Differences between the groups were calculated for pre- and post-tests using univariate ANOVA and between the test times using repeated (2 × 3) ANOVA. Comparisons of pairs were calculated post hoc based on Fisher (LSD). No differences between the groups were found for the posture parameters. The post hoc analysis of both trunk flexion and trunk extension forces and torques showed a significant difference between the groups TR85 and CON but no difference between the other group pairs. A 10 weeks whole-body electrostimulation training with a stimulation frequency of 85 Hz in contrast to training with a stimulation frequency of 20 Hz improves the trunk muscle strength of an untrained group but does not significantly change posture parameters.
The structural integrity of synaptic connections critically depends on the interaction between synaptic cell adhesion molecules (CAMs) and the underlying actin and microtubule cytoskeleton. This interaction is mediated by giant Ankyrins, that act as specialized adaptors to establish and maintain axonal and synaptic compartments. In Drosophila, two giant isoforms of Ankyrin2 (Ank2) control synapse stability and organization at the larval neuromuscular junction (NMJ). Both Ank2-L and Ank2-XL are highly abundant in motoneuron axons and within the presynaptic terminal, where they control synaptic CAMs distribution and organization of microtubules. Here, we address the role of the conserved N-terminal ankyrin repeat domain (ARD) for subcellular localization and function of these giant Ankyrins in vivo. We used a P[acman] based rescue approach to generate deletions of ARD subdomains, that contain putative binding sites of interacting transmembrane proteins. We show that specific subdomains control synaptic but not axonal localization of Ank2-L. These domains contain binding sites to L1-family member CAMs, and we demonstrate that these regions are necessary for the organization of synaptic CAMs and for the control of synaptic stability. In contrast, presynaptic Ank2-XL localization only partially depends on the ARD but strictly requires the presynaptic presence of Ank2-L demonstrating a critical co-dependence of the two isoforms at the NMJ. Ank2-XL dependent control of microtubule organization correlates with presynaptic abundance of the protein and is thus only partially affected by ARD deletions. Together, our data provides novel insights into the synaptic targeting of giant Ankyrins with relevance for the control of synaptic plasticity and maintenance.
Planar force or pressure is a fundamental physical aspect during any people-vs-people and people-vs-environment activities and interactions. It is as significant as the more established linear and angular acceleration (usually acquired by inertial measurement units). There have been several studies involving planar pressure in the discipline of activity recognition, as reviewed in the first chapter. These studies have shown that planar pressure is a promising sensing modality for activity recognition. However, they still take a niche part in the entire discipline, using ad hoc systems and data analysis methods. Mostly these studies were not followed by further elaborative works. The situation calls for a general framework that can help push planar pressure sensing into the mainstream.
This dissertation systematically investigates using planar pressure distribution sensing technology for ubiquitous and wearable activity recognition purposes. We propose a generic Textile Pressure Mapping (TPM) Framework, which encapsulates (1) design knowledge and guidelines, (2) a multi-layered tool including hardware, software and algorithms, and (3) an ensemble of empirical study examples. Through validation with various empirical studies, the unified TPM framework covers the full scope of application recognition, including the ambient, object, and wearable subspaces.
The hardware part constructs a general architecture and implementations in the large-scale and mobile directions separately. The software toolkit consists of four heterogeneous tiers: driver, data processing, machine learning, visualization/feedback. The algorithm chapter describes generic data processing techniques and a unified TPM feature set. The TPM framework offers a universal solution for other researchers and developers to evaluate TPM sensing modality in their application scenarios.
The significant findings from the empirical studies have shown that TPM is a versatile sensing modality. Specifically, in the ambient subspace, a sports mat or carpet with TPM sensors embedded underneath can distinguish different sports activities or different people's gait based on the dynamic change of body-print; a pressure sensitive tablecloth can detect various dining actions by the force propagated from the cutlery through the plates to the tabletop. In the object subspace, swirl office chairs with TPM sensors under the cover can be used to detect the seater's real-time posture; TPM can be used to detect emotion-related touch interactions for smart objects, toys or robots. In the wearable subspace, TPM sensors can be used to perform pressure-based mechanomyography to detect muscle and body movement; it can also be tailored to cover the surface of a soccer shoe to distinguish different kicking angles and intensities.
All the empirical evaluations have resulted in accuracies well-above the chance level of the corresponding number of classes, e.g., the `swirl chair' study has classification accuracy of 79.5% out of 10 posture classes and in the `soccer shoe' study the accuracy is 98.8% among 17 combinations of angle and intensity.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle
für Mittelspannungsnetze (MS-Netze) wegen der hohen Anzahlen der MS-Netze und Verteilnetzbetreiber (VNB)
nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer MS-Netze in wissenschaftlichen Publikationen
aus datenschutzrechtlichen Gründen meist nicht erwünscht. In dieser Arbeit werden MS-Netzmodelle
sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare MS-Netzmodelle
für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen
sowie zur Methodenentwicklung verwendet werden.
Diese Arbeit beinhaltet die Synthese zweier cyclischer Amidat-Liganden und die Untersuchung des Koordinationsverhaltens dieser Makrocyclen. Dabei wurden die strukturellen, elektrochemischen und spektroskopischen Eigenschaften der entstandenen Komplexverbindungen untersucht. Um höhere Oxidationsstufen am Metallion besser zu stabilisieren als durch neutrale Liganden, wurden die Liganden H\(_2\)L-Me\(_2\)TAOC und HL-TAAP-\(^t\)Bu\(_2\) hergestellt. Es sind zwölfgliedrige makrocyclische Ringe mit vielen sp\(^2\)-hybridisierten Atomen, die eine sterische Rigidität bedingen. Gleichzeitig besitzen sie zwei trans-ständige, sp\(^3\)-hybridisierte Amin-Donoratome, die eine Faltung entlang der N\(_{Amin}\)-N\(_{Amin}\)-Achse ermöglichen. Die äquatorialen Stickstoffdonoratome werden durch deprotonierte Amid-Gruppen bzw. durch das Stickstoffatom eines Pyridinrings zur Verfügung gestellt. Für beide Liganden konnte eine zufriedenstellende Syntheseroute, mit passablen Ausbeuten etabliert werden. In der Kristallstruktur des Makrocyclus HL-TAAP-\(^t\)Bu\(_2\) wird eine Wanne-Wanne-Konformation beobachtet. Die für eine cis-oktaedrische Koordination an Metallionen benötigte Konformation wird bereits im metallfreien Zustand des Liganden wegen der intramolekularen Wasserstoffbrückenbindungen verwirklicht. Die freie Rotation um die C-C-Bindungen ist bei diesem Liganden nur leicht gehindert, da die diastereotopen H-Atome der Methylengruppen im \(^1\)H-NMR-Spektrum als breite Singuletts in Erscheinung treten. Die Makrocyclen konnten erfolgreich mit Nickel(II)-, Kupfer(II)- und Cobalt(II)-Ionen komplexiert und kristallisiert werden. Dabei wurden zufriedenstellende Ausbeuten erhalten. Ohne weiteren zweifach koordinierenden Coliganden bildet der Ligand H\(_2\)L-Me\(_2\)TAOC stets fünffach koordinierte Mono-chloro-Komplexe. Der Ligand HL-TAAP-\(^t\)Bu\(_2\) bildet sechsfach koordinierte Verbindungen. Durch die Verwendung von zweizähnigen Coliganden wurde für den Makrocyclus H\(_2\)L-Me\(_2\)TAOC eine sechsfache Koordination erzwungen. Wie alle sechsfach koordinierte Verbindungen in dieser Arbeit liegen sie in einer cis-oktaedrischen Koordinationsumgebung vor. Um Vergleichskomplexe zu erhalten, wurden auch mit den Diazapyridinophan-Liganden L-N\(_4\)Me\(_2\) und L-N\(_4\)\(^t\)Bu\(_2\) die entsprechenden Kupfer- und Nickelkomplexe mit den jeweiligen Coliganden synthetisiert. In den Kristallstrukturen sind die entsprechenden Verbindungen der Diazapyridinophan-Liganden generell stärker gefaltet als die der Amidat-Liganden. Durch die starken \( \sigma\)-Donoreigenschaften der Amidatgruppen werden im Allgemeinen kürzere äquatoriale Bindungen zu den Metallionen verursacht. Durch den Vergleich der Bindungslängen mit ähnlichen bekannten high- und low-spin-Cobalt(II)-Komplexen hat sich gezeigt, dass für die Länge der Co-N\(_{Amid}\)-Bindung im high-spin-Zustand Werte von 1,95 bis 1,97 Å gefunden werden. Für den low-spin-Zustand werden Werte zwischen 1,92 und 1,95 Å gefunden. Durch die elektrochemischen Untersuchungen konnte gezeigt werden, dass beim überwiegenden Teil der Verbindungen das Potential der Oxidationen deutlich in der Reihenfolge der Makrocyclen H\(_2\)L-Me\(_2\)TAOC < HL-TAAP-\(^t\)Bu\(_2\) < L-N\(_4\)Me\(_2\) < L-N\(_4\)\(^t\)Bu\(_2\) ansteigt. Das belegt eindeutig die leichtere Oxidierbarkeit der Komplexe mit den negativ geladenen Liganden, die damit höhere Oxidationsstufen besser stabilisieren. Durch die Energie der ersten Anregung in den UV/Vis-Spektren der Nickel(II)-Komplexe ergibt sich die Ligandenfeldstärke der makrocyclischen Liganden etwa in der Reihenfolge H\(_2\)L-Me\(_2\)TAOC ≈ L-N\(_4\)Me\(_2\) > L-N\(_4\)\(^t\)Bu\(_2\) ≈ HL-TAAP-\(^t\)Bu\(_2\).
Spatial regression models provide the opportunity to analyse spatial data and spatial processes. Yet, several model specifications can be used, all assuming different types of spatial dependence. This study summarises the most commonly used spatial regression models and offers a comparison of their performance by using Monte Carlo experiments. In contrast to previous simulations, this study evaluates the bias of the impacts rather than the regression coefficients and additionally provides results for situations with a non-spatial omitted variable bias. Results reveal that the most commonly used spatial autoregressive (SAR) and spatial error (SEM) specifications yield severe drawbacks. In contrast, spatial Durbin specifications (SDM and SDEM) as well as the simple SLX provide accurate estimates of direct impacts even in the case of misspecification. Regarding the indirect `spillover' effects, several - quite realistic - situations exist in which the SLX outperforms the more complex SDM and SDEM specifications.
IoT systems consist of Hardware/Software systems (e.g., sensors) that are embedded in a physical world, networked and that interact with complex software platforms. The validation of such systems is a challenge and currently mostly done by prototypes. This paper presents the virtual environment for simulation, emulation and validation of an IoT platform and its semantic model in real life scenarios. It is based on a decentralized, bottom up approach that offers interoperability of IoT devices and the value-added services they want to use across different domains. The framework is demonstrated by a comprehensive case study. The example consists of the complete IoT “Smart Energy” use case with focus on data privacy by homomorphic encryption. The performance of the network is compared while using partially homomorphic encryption, fully homomorphic encryption and no encryption at all.As a major result, we found that our framework is capable of simulating big IoT networks and the overhead introduced by homomorphic encryption is feasible for VICINITY.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
In this thesis, we consider the problem of processing similarity queries over a dataset of top-k rankings and class constrained objects. Top-k rankings are the most natural and widely used technique to compress a large amount of information into a concise form. Spearman’s Footrule distance is used to compute the similarity between rankings, considering how well rankings agree on the positions (ranks) of ranked items. This setup allows the application of metric distance-based pruning strategies, and, alternatively, enables the use of traditional inverted indices for retrieving rankings that overlap in items. Although both techniques can be individually applied, we hypothesize that blending these two would lead to better performance. First, we formulate theoretical bounds over the rankings, based on Spearman's Footrule distance, which are essential for adapting existing, inverted index based techniques to the setting of top-k rankings. Further, we propose a hybrid indexing strategy, designed for efficiently processing similarity range queries, which incorporates inverted indices and metric space indices, such as M- or BK-trees, resulting in a structure that resembles both indexing methods with tunable emphasis on one or the other. Moreover, optimizations to the inverted index component are presented, for early termination and minimizing bookkeeping. As vast amounts of data are being generated on a daily bases, we further present a distributed, highly tunable, approach, implemented in Apache Spark, for efficiently processing similarity join queries over top-k rankings. To combine distance-based filtering with inverted indices, the algorithm works in several phases. The partial results are joined for the computation of the final result set. As the last contribution of the thesis, we consider processing k-nearest-neighbor (k-NN) queries over class-constrained objects, with the additional requirement that the result objects are of a specific type. We introduce the MISP index, which first indexes the objects by their (combination of) class belonging, followed by a similarity search sub index for each subset of objects. The number of such subsets can combinatorially explode, thus, we provide a cost model that analyzes the performance of the MISP index structure under different configurations, with the aim of finding the most efficient one for the dataset being searched.
Der vorliegende Band 6 der Schriftenreihe Wasser Infrastruktur Ressourcen ist als Festschrift der Verabschiedung von Prof. Dr.-Ing. Theo G. Schmitt gewidmet. Theo Schmitt wird im April 2019 nach über 26 Jahren als aktiver Professor an der TU Kaiserslautern in den Ruhestand treten. Er trat im Oktober 1992 als Nachfolger von Karlheinz Jacobitz die Leitung des Fachgebietes Siedlungswasserwirtschaft an der damaligen Universität Kaiserslautern - heute TU Kaiserslautern - an.
Theo Schmitts persönliche Schwerpunkte liegen im Bereich der Siedlungsentwässerung, er lässt sich mitnichten darauf reduzieren. Seine Arbeiten sind geprägt durch die Überzeugung, dass siedlungswasserwirtschaftliche Handlungsstrategien und Lösungskonzepte in die Zukunft gerichtet ‚Wandel und Ungewissheit‘ bedenken müssen. Daraus resultiert u. a. seine große Offenheit gegenüber neuen Herausforderungen und interdisziplinärer Vernetzung von Wissen und Sichtweisen. Schon früh hat das Fachgebiet beispielsweise mit der Technomathematik, der Elektrotechnik und der Informatik im Bereich der künstlichen Intelligenz fachübergreifend zusammen gearbeitet. Die Verzahnung von Ingenieur- und Naturwissenschaften hat häufig unmittelbar über seine MitarbeiterInnen am Fachgebiet stattgefunden. Dadurch ist eine große Breite an bearbeiteten Themen entstanden, die weite Bereiche der Siedlungswasserwirtschaft umfassen, von hydraulischen und stofflichen Fragestellungen zu urbanen Regenwasserabflüssen über den Systemwandel in der Abwasserentsorgung bis hin zu innovativen Verfahren der Abwasserreinigung und Kläranlagen als Regelbaustein der Energiewende. Die insgesamt 14 Beiträge dieser Festschrift belegen diese Vielfalt, die sich insbesondere auch durch den Stil der Offenheit und Vielfältigkeit, mit der Theo Schmitt das Fachgebiet geleitet hat, entwickeln konnte.
Drei Generationen von SiedlungswasserwirtschaftlerInnen, angefangen bei Theo Schmitts Doktorvater Prof. Hermann H. Hahn, bis hin zu ehemaligen Doktorkindern und deren MitarbeiterInnen tragen mit ihren persönlichen Themen zur Festschrift bei. Hermann H. Hahn blickt mit dem Abstand des vor Jahren emeritierten Professors kritisch auf die aktuellen Entwicklungen in der siedlungswasserwirtschaftlichen Forschung. Die weiteren Beiträge promovierter Doktorkinder zeigen die enorme thematische Breite aktueller und abgeschlossener Forschungsprojekte und Doktorarbeiten, die Theo Schmitt initiiert und begleitet hat.
Der etwas ungewöhnlich anmutende Titel dieser Festschrift ‚From K-Town to KOSMOS‘ spielt zum einen auf die von ihm entwickelte Software zur Kontinuierlichen Schmutzfrachtmodellierung (KOSMO) an, die mit seinen modelltechnischen Ansätzen (u. a. hydrodynamischer Simulationskern, Schmutzstoffakkumulation- und Abtrag) seiner Zeit und kommerziellen Lösungen weit voraus war und die ihn bis heute zu dem deutschlandweit gefragten und geschätzten Spezialisten und Problemlöser auf diesem Gebiet macht. Zum anderen hebt der Titel darauf ab, dass Theo Schmitts Expertise in der Siedlungswasserwirtschaft von der TU Kaiserslautern aus nach außen wirkt. Seine von ‚K-Town‘ ausgehenden Arbeiten haben wegweisende Fachbeiträge für Deutschland geliefert und insbesondere das nationale Regelwerk weiter entwickelt. Dies sind hohe Verdienste, die die DWA durch die Verleihung der Max-Prüß-Medaille im Oktober 2018 gewürdigt hat. Seine stets auch auf die globalen Problemstellungen gerichtete Sicht, beispielsweise zum Umgang mit den Folgen des Klimawandels, rechtfertigt schließlich die Erweiterung des Wortspiels zu ‚KOSMOS‘.
Im Zentrum der Arbeit steht die Sicherung und Stärkung des Selbstbestimmungsrechts von Menschen mit Behinderung in Gesundheitsfragen. Dieses politisch und gesellschaftlich eingeforderte Recht soll in Einrichtungen der Behindertenhilfe durch Professionalisierung der Fachkräfte umgesetzt werden. Hier soll die vorliegende Masterarbeit ansetzen und die Lücke dieser Nachfrage schließen. Sie ist eine theoretische Ausarbeitung eines Kurskonzepts mit Blended Learning, das sich an Fachkräfte richtet und die Schulung zur Nutzung einer Handreichung zur ethischen Reflexion zum Ziel hat. Die Umsetzung des erarbeiteten Kurskonzepts und damit die Implementierung der Handreichung in die Institution ist Aufgabe der betrieblichen Weiterbildung. Dies soll in einem Theorie-Praxis-Transfer aufgezeigt werden. Die zentrale Frage lautet demnach: Wie kann die in der Diakonie Stetten entwickelte Handreichung zur Sicherung und Stärkung des Selbstbestimmungsrechts von Menschen mit
Behinderung unter Berücksichtigung des aktuellen Forschungsstandes mit Blended Learning implementiert werden?
Using molecular dynamics simulation, we study nanoindentation in large samples of Cu–Zr glass at various temperatures between zero and the glass transition temperature. We find that besides the elastic modulus, the yielding point also strongly (by around 50%) decreases with increasing temperature; this behavior is in qualitative agreement with predictions of the cooperative shear model. Shear-transformation zones (STZs) show up in increasing sizes at low temperatures, leading to shear-band activity. Cluster analysis of the STZs exhibits a power-law behavior in the statistics of STZ sizes. We find strong plastic activity also during the unloading phase; it shows up both in the deactivation of previous plastic zones and the appearance of new zones, leading to the observation of pop-outs. The statistics of STZs occurring during unloading show that they operate in a similar nature as the STZs found during loading. For both cases, loading and unloading, we find the statistics of STZs to be related to directed percolation. Material hardness shows a weak strain-rate dependence, confirming previously reported experimental findings; the number of pop-ins is reduced at slower indentation rate. Analysis of the dependence of our simulation results on the quench rate applied during preparation of the glass shows only a minor effect on the properties of STZs.
Hamiltonian daemons allow the transfer of energy from systems with very fast degrees
of freedom to systems with slower ones across several orders of magnitude. They act on
small scales and can be regarded as micro-engines.
Such daemons were previously described in the classical as well as the quantum me-
chanical regime. In this thesis the semi-classical regime is examined, where quantum
phenomena occur as corrections to classical systems. Here, the focus is on numerical
simulations.
First some introductory models are examined. They are concerned with quantum
tunneling, since it occurs as an important quantum correction, as well as with the
capture and decay of bound states, since this represents the transition between the
dynamical phases of a daemon: adiabatic decoupling and downconversion.
The examinations are carried out using wave functions, as solutions to the Schrödinger
equation, and by means of Wigner functions in a quantum mechanical phase-space in
the framework of the Weyl-Wigner-Groenewold-Moyal formalism. For one these Wigner
functions are computed from the wave functions, but they are also obtained from a
numerical method based on the Moyal equation, which will be introduced here.
After developing this methodology, it is employed in the study of a daemon system
with a tilted washboard potential. The daemon behavior is studied with regards to
quantum corrections, especially in phase-space and concerning Kruskal’s theorem, which
describes the capture of phase-space flow via a time-dependent separatrix.
Lastly the semi-classically quantized phase-space will be discussed as a basis for a
combined description of both classical and quantum daemons. The behavior of the
energy spectrum in the deep quantum regime is explained by dynamical tunneling pro-
cesses.
In computer graphics, realistic rendering of virtual scenes is a computationally complex problem. State-of-the-art rendering technology must become more scalable to
meet the performance requirements for demanding real-time applications.
This dissertation is concerned with core algorithms for rendering, focusing on the
ray tracing method in particular, to support and saturate recent massively parallel computer systems, i.e., to distribute the complex computations very efficiently
among a large number of processing elements. More specifically, the three targeted
main contributions are:
1. Collaboration framework for large-scale distributed memory computers
The purpose of the collaboration framework is to enable scalable rendering
in real-time on a distributed memory computer. As an infrastructure layer it
manages the explicit communication within a network of distributed memory
nodes transparently for the rendering application. The research is focused on
designing a communication protocol resilient against delays and negligible in
overhead, relying exclusively on one-sided and asynchronous data transfers.
The hypothesis is that a loosely coupled system like this is able to scale linearly
with the number of nodes, which is tested by directly measuring all possible
communication-induced delays as well as the overall rendering throughput.
2. Ray tracing algorithms designed for vector processing
Vector processors are to be efficiently utilized for improved ray tracing performance. This requires the basic, scalar traversal algorithm to be reformulated
in order to expose a high degree of fine-grained data parallelism. Two approaches are investigated: traversing multiple rays simultaneously, and performing
multiple traversal steps at once. Efficiently establishing coherence in a group
of rays as well as avoiding sorting of the nodes in a multi-traversal step are the
defining research goals.
3. Multi-threaded schedule and memory management for the ray tracing acceleration structure
Construction times of high-quality acceleration structures are to be reduced by
improvements to multi-threaded scalability and utilization of vector processors. Research is directed at eliminating the following scalability bottlenecks:
dynamic memory growth caused by the primitive splits required for high-
quality structures, and top-level hierarchy construction where simple task par-
allelism is not readily available. Additional research addresses how to expose
scatter/gather-free data-parallelism for efficient vector processing.
Together, these contributions form a scalable, high-performance basis for real-time,
ray tracing-based rendering, and a prototype path tracing application implemented
on top of this basis serves as a demonstration.
The key insight driving this dissertation is that the computational power necessary
for realistic light transport for real-time rendering applications demands massively
parallel computers, which in turn require highly scalable algorithms. Therefore this
dissertation provides important research along the path towards virtual reality.
In recent years, the Federal Republic of Germany has been the most significant destination for asylum-related migration in the European Union. Asylum-related migrants are those who left their country of origin to search for better life in a country that is safe and usually provides better economic opportunities. Most of these migrants sought asylum; however, not all needed international protection. There is a continuum between forced and voluntary migration and the categorization and categories of migrants are very context-dependent. The main research questions in this research report are the following: 1. What kinds of asylum-related migrants (refugees, people with a temporary residence permit, asylum seekers, non-deportable former asylum seekers and undocumented migrants) live in Germany, in particular in Rhineland-Palatinate and Kaiserslautern? 2. What are the everyday lives of asylum-related migrants like in Rhineland-Palatinate and Kaiserslautern? 3. What are the migration wishes and plans of asylum-related migrants in Rhineland-Palatinate and Kaiserslautern? 4. How and for what reasons do asylum-related migrants in Rhineland-Palatinate and Kaiserslautern use the Internet and social media? The research questions are answered based on the empirical material collected during the field research in the spring and summer of 2019. In addition, earlier research and statistics on migrants, asylum seekers and refugees in Germany are utilized. Asylum-related migrants responded according to their own views; the results indicate both their perspectives and our interpretation of them.
Die Versorgungsaufgaben für Niederspannungsnetze werden sich in den kommenden Jahrzehnten durch die weitere Verbreitung von Photovoltaikanlagen, Wärmepumpenheizungen und Elektroautomobilen gegenüber denen des Jahres 2018 voraussichtlich stark ändern. In der Praxis verbreitete Planungsgrundsätze für den Neubau von Niederspannungsnetzen sind veraltet, denn sie stammen vielfach in ihren Grundzügen aus Zeiten, in denen die neuen Lasten und Einspeisungen nicht erwartet und dementsprechend nicht berücksichtigt wurden. Der Bedarf für neue Planungsgrundsätze fällt zeitlich mit der Verfügbarkeit regelbarer Ortsnetztransformatoren (rONT) zusammen, die zur Verbesserung der Spannungsverhältnisse im Netz eingesetzt werden können. Die hier entwickelten neuen Planungsgrundsätze erfordern für ländliche und vorstädtische Versorgungsaufgaben (nicht jedoch für städtische Versorgungsaufgaben) den rONT-Einsatz, um die hohen erwarteten Leistungen des Jahres 2040 zu geringen Kosten beherrschen zu können. Eine geeignete rONT-Standardregelkennlinie wird angegeben. In allen Fällen werden abschnittsweise parallelverlegte Kabel mit dem Querschnitt 240 mm² empfohlen.
Eine große Bandbreite tribologisch belasteter Bauteile kann durch Verwendung einer Oberflächenbeschichtung verbessert werden. Mit Beschichtungswerkstoffen aus Hochleistungspolymeren und funktionellen Füllstoffen lassen sich in tribologischen Systemen niedrige Reib- und Verschleißwerte realisieren.
Diese Arbeit zielt auf die Entwicklung von PBI (Polybenzimidazol)-Hochleitungsbeschichtungen für den Einsatz in tribologisch beanspruchten Systemen ab. Die gewonnenen Erkenntnisse ergänzen die bislang unzureichend beschriebenen bzw. erforschten Prozesse zur Herstellung von PBI-basierten Beschichtungen. Als Matrixmaterialien werden PBI sowie PAI (Polyamidimid) als Referenzsystem untersucht. Eine systematische Entwicklung von Lösungsprozessen bildet dabei das erste Prozessfenster zur Herstellung von gelöstem und flüssig verarbeitbarem PBI.
Die Entwicklung der Temperprozesse, basierend auf thermischen Analysen mittels dynamischen Differenzkalorimetrie (DSC), stellt in dieser Arbeit ein weiteres Prozessfenster der Beschichtungsherstellung dar. Die daraus resultierenden ungefüllten PBI-Schichten (ohne Füllstoffe) werden systematischen Untersuchungen unterzogen. Thermische Untersuchungen, wie Thermogravimetrie (TGA), die dynamisch-mechanisch-thermische Analyse (DMTA) sowie DSC-Messungen, veranschaulichen die hohe Temperaturbeständigkeit und damit ein breites Temperatureinsatzfenster der PBI-Beschichtungen.
Tribologische Untersuchungsergebnisse, insbesondere der Gleitverschleißprüfungen an ungefüllten PBI-Beschichtungen, stellen dessen hervorragende tribologische Leistungsfähigkeit im Vergleich zu den am Markt etablierten PAI-Systemen dar. Begleitend zu tribologischen Analysen werden mechanische, thermische und strukturelle Untersuchungen durchgeführt und miteinander in Korrelation gebracht.Die Herstellung von PBI-PAI-Blends und die anschließenden tribologischen, mechanischen, thermischen und strukturellen Untersuchungen zeigen das Verbesserungspotential eines PAI-Systems durch die Zugabe von PBI-Anteilen. Die Ergebnisse zeigten, dass es möglich ist, ein PAI-System durch die Zugabe von PBI-Anteilen den speziellen Anwendungen entsprechend anzupassen.
Die Modifizierung der PBI-Beschichtungen mit Füllstoffen wie Graphit, PTFE usw. sowie deren Bewertung anhand von Gleitverschleißuntersuchungen, bei Variation der Prüfparameter, ermöglichen einen direkten Vergleich mit marktetablierten PAI-Beschichtungscompound und einem kommerziell erhältlichen PBI-Halbzeug. Die ermittelten Messwerte verdeutlichen hierbei das Potential (Verschleißwiderstand, thermische Stabilität) von PBI-Beschichtungen in tribologisch hoch belasteten Systemen.
Zur Verbesserung der Abrasivbeständigkeit werden die PBI-Beschichtungen mit harten Titancarbid-Partikeln verstärkt. Eine systematische Untersuchung der Abrasion sowie ein Modell zur Vorhersage des Abrasivverschleißes werden erarbeitet.
A wide range of tribologically stressed components can be improved by using a surface coating. Coatings based on high-performance polymers and functional fillers lead to low friction and wear in tribological systems.
The objective of this work is the development of high performance coatings based on polybenzimidazole for tribologically stressed systems. The investigations should complete the inadequately described or researched processes for the production of PBI-based coatings. The matrix materials investigated are PBI and PAI (reference system). The systematic development of solution processes represents the first process window for the production of dissolved and liquid processable PBI.
The development of annealing processes, based on thermal analyzes (DSC), represents an additional process window of coating production in this work. The resulting pure PBI coatings (without fillers) are subjected to systematic investigations. Thermal characterizations such as Thermogravimetry (TGA), Dynamic Mechanical Thermal Analysis (DMTA) and Differential Scanning Calorimetry (DSC) measurements demonstrate the high temperature resistance and a wide temperature range of PBI coatings.
Tribological test results, in particular the sliding wear tests on pure PBI coatings, show their outstanding tribological performance in comparison to the PAI systems established on the market. Accompanying to tribological analyzes, mechanical, thermal and structural investigations are carried out and correlated with each other.
The preparation of PBI-PAI blends and the subsequent tribological, mechanical, thermal and structural investigations show the potential for improvement of a PAI system by the addition of PBI fractions. The possibility of adapting a PAI system to the relevant applications by adding PBI fractions to reduce the high material costs of the PBI polymer is presented in this work.
The modification of the PBI coatings with fillers such as graphite, PTFE, etc. as well as the subsequent sliding wear tests, with variation of the test parameters (pressure and
velocity-variation), allow a direct comparison with the market-established PAI coating compound and a commercially available PBI bulk material. The measured values illustrate the suitability of PBI coatings for tribologically highly loaded systems.
To improve the abrasion resistance, the PBI coatings are reinforced with hard titanium carbide particles. Systematic investigations on the abrasion wear as well as a model for the prediction of the abrasive wear are developed.
Gegenstand dieser Arbeit ist die optische Erzeugung von Magnetisierungsverteilungen und der Propagation von Spinwellen durch diese. Spinwellen sind kollektive Anregungen des Spinsystems eines magnetischen Materials - das zugehörige Quasiteilchen wird Magnon genannt. Diese Dissertation wurde im Rahmen von Projekt B04 des transregionalen Sonderforschungsbereiches SFB/TRR 173 "Spin+X - Spin in its collective environment" der Deutschen Forschungsgemeinschaft (DFG) durchgeführt. Das Forschungsprogramm befasst sich mit der Wechselwirkung von Elektronenspins mit deren Umgebung und umfasst neben der theoretischen und experimentellen Grundlagenforschung auch die Übertragung auf technische Anwendungen. In der vorliegenden Arbeit wird die Manipulation von Magnonenströmen in magnetischen Materialien diskutiert. Generell gibt es zwei Methoden zur Modifikation der Eigenschaften eines Materials: Entweder die chemische Zusammensetzung oder die Struktur der Probe wird verändert. Zur räumlichen Veränderung des Materials werden üblicherweise Lithografie-, Abscheidungs- und Ätzprozesse verwendet. Diese Verfahren legen die Eigenschaften des Materials irreversibel fest. In dieser Arbeit wird eine neue Methode zur transienten Modulation der Eigenschaften von magnetischen Materialien entwickelt und an verschiedenen Anwendungen demonstriert. Ein Laser in Kombination mit einem räumlichen Lichtmodulator, auf welchem Computer generierte Hologramme dargestellt werden, erlaubt die Erzeugung von fast beliebigen Intensitätsverteilungen auf einem dünnen magnetischen Film – Yttrium Eisen Granat mit wenigen µm Filmdicke. Das Laserlicht wird von der Probe absorbiert und erzeugt somit optisch induzierte thermische Profile. Daraus resultiert ebenfalls eine lokale Modifikation der Sättigungsmagnetisierung und somit entstehen Magnetisierungslandschaften. Durch zeitliche Modulation der Intensität des Lichts und Wärmeabgabe an die Umgebung, sind diese magnetischen Strukturen dynamisch und rekonfigurierbar. Solche Magnetisierungslandschaften werden in dieser Arbeit verwendet um die Propagation von Spinwellen in der Probe zu beeinflussen. So werden zum Beispiel auf einer einzigen Probe ein- und quasi-zweidimensionale magnonische Kristalle mit unterschiedlichen Gitterkonstanten realisiert. Ein vektorieller Netzwerkanalysator bestimmt das Transmissions- und Reflexionsspektrum. Die auftretenden Bandlücken lassen sich sowohl mit der Transfermatrixmethode beschreiben als auch mit der Dispersionsrelation von Spinwellen vergleichen. Die ermittelten experimentellen Ergebnisse entsprechen den Erwartungen. Eine weitere Anwendung der neu entwickelten Strukturierungsmethode ist die Konvertierung von unterschiedlichen Spinwellentypen. Die Propagation von Spinwellen in parallel zur Filmebene magnetisierten Proben ist streng anisotrop. Magnetostatische Rückwärts-Volumenmoden, die entlang der Magnetisierungsrichtung propagieren, und Oberflächenmoden, die sich senkrecht zu dieser Richtung ausbreiten, existieren üblicherweise nicht simultan bei einer gegebenen Frequenz und sonstigen äußeren Parametern. Durch Verwendung von optisch induzierten Magnetisierungsgradienten lässt sich sowohl experimentell als auch mittels Simulationen zeigen, dass eine Änderung der Propagationsrichtung um bis zu 90° – und somit eine Modenkonvertierung – möglich ist. Der dritte Anwendungsbereich von Magnetisierungslandschaften in dieser Arbeit ist die Spinwellen-Optik. Die räumliche Modulation der Sättigungsmagnetisierung verändert den lokalen Brechungsindex für Spinwellen. Analog zur konventionellen Optik mit Licht können somit Komponenten zur Beeinflussung der Spinwellenpropagation konstruiert werden. In Simulationen werden Spiegel zur Ablenkung von Spinwellenstrahlen, Axicons zur Erzeugung von Bessel-Strahlen und Gradientenindexlinsen zur Fokussierung von Spinwellen gezeigt. Außerdem können Gradientenindexlinsen dazu verwendet werden um Fourieroptik mit Spinwellen zu realisieren.
On the Effect of Nanofillers on the Environmental Stress Cracking Resistance of Glassy Polymers
(2019)
It is well known that reinforcing polymers with small amounts of nano-sized fillers is one of the most effective methods for simultaneously improving their mechanical and thermal properties. However, only a small number of studies have focused on environ-mental stress cracking (ESC), which is a major issue for premature failures of plastic products in service. Therefore, the contribution of this work focused on the influence of nano-SiO2 particles on the morphological, optical, mechanical, thermal, as well as envi-ronmental stress cracking properties of amorphous-based nanocomposites.
Polycarbonate (PC), polystyrene (PS) and poly(methyl methacrylate) (PMMA) nanocom-posites containing different amounts and sizes of nano-SiO2 particles were prepared using a twin-screw extruder followed by injection molding. Adding a small amount of nano-SiO2 caused a reduction in optical properties but improved the tensile, toughness, and thermal properties of the polymer nanocomposites. The significant enhancement in mechanical and thermal properties was attributed to the adequate level of dispersion and interfacial interaction of the SiO2 nanoparticles in the polymer matrix. This situation possibly increased the efficiency of stress transfer across the nanocomposite compo-nents. Moreover, the data revealed a clear dependency on the filler size. The polymer nanocomposites filled with smaller nanofillers exhibited an outstanding enhancement in both mechanical properties and transparency compared with nanocomposites filled with larger particles. The best compromise of strength, toughness, and thermal proper-ties was achieved in PC-based nanocomposites. Therefore, special attention to the influ-ence of nanofiller on the ESC resistance was given to PC.
The ESC resistance of the materials was investigated under static loading with and without the presence of stress-cracking agents. Interestingly, the incorporation of nano-SiO2 greatly enhanced the ESC resistance of PC in all investigated fluids. This result was particularly evident with the smaller quantities and sizes of nano-SiO2. The enhancement in ESC resistance was more effective in mild agents and air, where the quality of the deformation process was vastly altered with the presence of nano-SiO2. This finding confirmed that the new structural arrangements on the molecular scale in-duced by nanoparticles dominate over the ESC agent absorption effect and result in greatly improving the ESC resistance of the materials. This effect was more pronounced with increasing molecular weight of PC due to an increase in craze stability and fibril density. The most important and new finding is that the ESC behavior of polymer-based nanocomposites/ stress-cracking agent combinations can be scaled using the Hansen solubility parameter. Thus allowed us to predict the risk of ESC as a function of the filler content for different stress-cracking agents without performing extensive tests. For a comparison of different amorphous polymer-based nanocomposites at a given nano-SiO2 particle content, the ESC resistance of materials improved in the following order: PMMA/SiO2 < PS/SiO2 < low molecular weight PC/SiO2 < high molecular weight PC/SiO2. In most cases, nanocomposites with 1 vol.% of nano-SiO2 particles exhibited the largest improvement in ESC resistance.
However, the remarkable improvement in the ESC resistance—particularly in PC-based nanocomposites—created some challenges related to material characterization because testing times (failure time) significantly increased. Accordingly, the superposition ap-proach has been applied to construct a master curve of crack propagation model from the available short-term tests at different temperatures. Good agreement of the master curves with the experimental data revealed that the superposition approach is a suitable comparative method for predicting slow crack growth behavior, particularly for long-duration cracking tests as in mild agents. This methodology made it possible to mini-mize testing time.
Additionally, modeling and simulations using the finite element method revealed that multi-field modeling could provide reasonable predictions for diffusion processes and their impact on fracture behavior in different stress cracking agents. This finding sug-gests that the implemented model may be a useful tool for quick screening and mitigat-ing the risk of ESC failures in plastic products.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Using industrial robots for machining applications in flexible manufacturing
processes lacks a high accuracy. The main reason for the deviation is the
flexibility of the gearbox. Secondary Encoders (SE) as an additional, high precision
angle sensor offer a huge potential of detecting gearbox deviations. This paper
aims to use SE to reduce gearbox compliances with a feed forward, adaptive
neural control. The control network is trained with a second network for system
identification. The presented algorithm is capable of online application and optimizes
the robot accuracy in a nonlinear simulation.
Biological soil crusts (biocrusts) have been recognized as key ecological players in arid and semiarid regions at both local and global scales. They are important biodiversity components, provide critical ecosystem services, and strongly influence soil-plant relationships, and successional trajectories via facilitative, competitive, and edaphic engineering effects. Despite these important ecological roles, very little is known about biocrusts in seasonally dry tropical forests. Here we present a first baseline study on biocrust cover and ecosystem service provision in a human-modified landscape of the Brazilian Caatinga, South America's largest tropical dry forest. More specifically, we explored (1) across a network of 34 0.1 ha permanent plots the impact of disturbance, soil, precipitation, and vegetation-related parameters on biocrust cover in different stages of forest regeneration, and (2) the effect of disturbance on species composition, growth and soil organic carbon sequestration comparing early and late successional communities in two case study sites at opposite ends of the disturbance gradient. Our findings revealed that biocrusts are a conspicuous component of the Caatinga ecosystem with at least 50 different taxa of cyanobacteria, algae, lichens and bryophytes (cyanobacteria and bryophytes dominating) covering nearly 10% of the total land surface and doubling soil organic carbon content relative to bare topsoil. High litter cover, high disturbance by goats, and low soil compaction were the leading drivers for reduced biocrust cover, while precipitation was not associated Second-growth forests supported anequally spaced biocrust cover, while in old-growth-forests biocrust cover was patchy. Disturbance reduced biocrust growth by two thirds and carbon sequestration by half. In synthesis, biocrusts increase soil organic carbon (SOC) in dry forests and as they double the SOC content in disturbed areas, may be capable of counterbalancing disturbance-induced soil degradation in this ecosystem. As they fix and fertilize depauperated soils, they may play a substantial role in vegetation regeneration in the human-modified Caatinga, and may have an extended ecological role due to the ever-increasing human encroachment on natural landscapes. Even though biocrusts benefit from human presence in dry forests, high levels of anthropogenic disturbance could threaten biocrust-provided ecosystem services, and call for further, in-depth studies to elucidate the underlying mechanisms.
Indentation into a metastable austenite may induce the phase transformation to the bcc phase. We study this process using
atomistic simulation. At temperatures low compared to the equilibrium transformation temperature, the indentation triggers the
transformation of the entire crystallite: after starting the transformation, it rapidly proceeds throughout the simulation crystallite.
The microstructure of the transformed sample is characterized by twinned grains. At higher temperatures, around the equilibrium
transformation temperature, the crystal transforms only locally, in the vicinity of the indent pit. In addition, the indenter
produces dislocation plasticity in the remaining austenite. At intermediate temperatures, the crystal continuously transforms
throughout the indentation process.
In Vergabeverfahren muss nicht zwingend das billigste Angebot den Zuschlag erhalten. Die Wirtschaftlichkeit bestimmt sich vielmehr nach dem besten Preis-Leistungs-Verhältnis. Und hier kann neben dem Preis oder den Kosten die Leistungsstärke (Qualität, Innovation, Nachhaltigkeit, etc.) der Angebote eine wesentliche Rolle als zulässiges Zuschlagskriterium spielen.
Die Arbeit betrachtet neben der Begrifflichkeit des wirtschaftlichsten Angebots die Zulässigkeit, Angemessenheit und die Anwendbarkeit des Zuschlagskriteriums Nachhaltigkeit (umweltbezogene Aspekte, soziale Aspekte) zur Bestimmung des wirtschaftlichsten Angebots. Dabei werden die Anforderungen an die Transparenz und einen wirksamen Wettbewerb untersucht.
Neben der Angemessenheit des Zuschlagskriteriums Nachhaltigkeit und dem Bestimmungsrecht des Auftraggebers wird auch die Messbarkeit und Bewertbarkeit sowie die Bewertungsspielräume der Auftraggeber und die mögliche Verletzung von Bieterrechten betrachtet.
Außerdem wird die Frage untersucht, ob und wie Nachhaltigkeit als Zuschlagskriterium mit den Handlungsprinzipien von Wirtschaftlichkeit und Sparsamkeit des Haushaltsrechts vereinbar sind.
Cell migration is essential for embryogenesis, wound healing, immune surveillance, and
progression of diseases, such as cancer metastasis. For the migration to occur, cellular
structures such as actomyosin cables and cell-substrate adhesion clusters must interact.
As cell trajectories exhibit a random character, so must such interactions. Furthermore,
migration often occurs in a crowded environment, where the collision outcome is deter-
mined by altered regulation of the aforementioned structures. In this work, guided by a
few fundamental attributes of cell motility, we construct a minimal stochastic cell migration
model from ground-up. The resulting model couples a deterministic actomyosin contrac-
tility mechanism with stochastic cell-substrate adhesion kinetics, and yields a well-defined
piecewise deterministic process. The signaling pathways regulating the contractility and
adhesion are considered as well. The model is extended to include cell collectives. Numer-
ical simulations of single cell migration reproduce several experimentally observed results,
including anomalous diffusion, tactic migration, and contact guidance. The simulations
of colliding cells explain the observed outcomes in terms of contact induced modification
of contractility and adhesion dynamics. These explained outcomes include modulation
of collision response and group behavior in the presence of an external signal, as well as
invasive and dispersive migration. Moreover, from the single cell model we deduce a pop-
ulation scale formulation for the migration of non-interacting cells. In this formulation,
the relationships concerning actomyosin contractility and adhesion clusters are maintained.
Thus, we construct a multiscale description of cell migration, whereby single, collective,
and population scale formulations are deduced from the relationships on the subcellular
level in a mathematically consistent way.
Wine and alcoholic fermentations are complex and fascinating ecosystems. Wine aroma is shaped by the wine’s chemical compositions, in which both microbes and grape constituents play crucial roles. Activities of the microbial community impact the sensory properties of the final product, therefore, the characterisation of microbial diversity is essential in understanding and predicting sensory properties of wine. Characterisation has been challenging with traditional approaches, where microbes are isolated and therefore analyzed outside from their natural environment. This causes a bias in the observed microbial composition structure. In addition, true community interactions cannot be studied using isolates. Furthermore, the multiplex ties between wine chemical and sensory compositions remain evasive due to their multivariate and nonlinear nature. Therefore, the sensorial outcome arising from different microbial communities has remained inconclusive.
In this thesis, microbial diversity during Riesling wine fermentations is investigated with the aim to understand the roles of microbial communities during fermentations and their links to sensory properties. With the advancement of high-throughput tools based ‘omic methods, such as next-generation sequencing (NGS) technologies, it is now possible to study microbial communities and their functions without isolation by culturing. This developing field and its potential to wine community is reviewed in Chapter 1. The standardisation of methods remains challenging in the field. DNA extraction is a key step in capturing the microbial diversity in samples for generating NGS data, therefore, DNA extraction methods are evaluated in Chapter 2. In Chapter 3, machine learning is utilized in guiding raw data mining generated by the untargeted GC-MS analysis. This step is crucial in order to take full advantages of the large scope of data generated by ‘omic methods. These lay a solid foundation for Chapters 4 and 5 where microbial community structures and their outputs - chemical and sensory compositions are studied by using approaches and tools based on multiple ‘omics methods.
The results of this thesis show first that by using novel statistical approaches, it is possible to extract meaningful information from heterogeneous biological, chemical and sensorial data. Secondly, results suggest that the variation in wine aroma, might be related
to microbial interactions taking place not only inside a single community, but also the
IV
interactions between communities, such as vineyard and winery communities. Therefore, the true sensory expression of terroir might be masked by the interaction between two microbial communities, although more work is needed to uncover this potential relationship. Such potential interaction mechanisms were uncovered between non- Saccharomyces yeast and bacteria in this work and unexpected novel bacterial growth was observed during alcohol fermentation. This suggests new layers in understanding of wine fermentations. In the future, multi-omic approaches could be applied to identify biological pathways leading to specific wine aroma as well as investigate the effects upon specific winemaking conditions. These results are relevant not just for the wine industry, but also to other industries where complex microbial networks are important. As such, the approaches presented in this thesis might find widely use in the food industry.
Im Rahmen dieser Dissertationsarbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden im Ligandenrückgrat und in N-Position funktionalisiert, um chirale C2-symmetrische tridentate Liganden mit Stickstoffdonoratomen bzw. bifunktionelle pentadentate Liganden mit Stickstoff- und Phosphordonoratomen zu generieren. Die C2-symmetrischen tridentaten Liganden wurden mit Eisen(II)- und Ruthenium(II)vorstufen zu monometallischen Katalysatoren umgesetzt. Diese wurden erfolgreich in der Hydrosilylierung und Transferhydrierung von Carbonylverbindungen angewendet. Ebenso wurden erste Untersuchungen der Reaktionsmechanismenverläufe durchgeführt. Mit Hilfe der gut zugänglichen bifunktionellen Bispyrazolylpyridinliganden konnten zahlreiche mono- und multimetallische Übergangsmetallkomplexverbindungen synthetisiert und teilweise auf Kooperativität in der katalytischen Reduzierung von Ketonen getestet werden. Dabei wurde bei den durchgeführten Hydrierungs- und Transferhydrierungsreaktionen eine deutliche Aktivitätssteigerung einiger multimetallischer Katalysatoren im Vergleich zu deren monometallischen Derivaten beobachtet. Durch geschickte Wahl der Übergangsmetallkombinationen konnten zusätzlich erste Erkenntnisse über die Kooperativität innerhalb der multimetallischen Katalysatoren gewonnen werden.
Wetted contacts play an important role in many fields. A prominent example in engineering is the lubricated contact between tool and workpiece in machining processes with cutting liquids. In such contacts, highly dynamic processes occur in the fluid at small length scales under extreme conditions regarding temperature, pressure, and shear. Experimental studies of these phenomena are generally not feasible. Thus, only little information on the actual processes in the contact zone is available. A tractable route for obtaining such information is molecular dynamics (MD) simulation. As input for these simulations, only a potential model that describes the interactions on the atomistic scale, is needed. On that basis also complex processes can be predicted. In the present work, a simple model potential was used, i.e. the Lennard-Jones truncated and shifted potential (LJTS), which was parameterized to describe the solids, the fluid, and their interactions. A novel method for determining fluid properties with non-equilibrium MD simulations was developed, which yields thermal, caloric and transport properties in a single simulation run. It can also be used for studying the influence of shear on these properties. With the new method, a comprehensive study of properties of the LJTS fluid was carried out. Furthermore, it was investigated how these fluid properties change near the solid-fluid interface and how these changes affect the conductive heat transfer between the solid and the fluid. Finally, a nanotribological process was studied, in which all these phenomena occur simultaneously.
Modifizierte, phosphatfreie Organomineralharze in glas- und basaltfaserverstärkten Kunststoffen
(2019)
Die vorliegende Arbeit befasst sich mit der Modifikation duroplastischer, kalthärtender Organomineralharzmatrices für glas- und basaltfaserverstärkte Kunststoffe, welche zukünftig Anwendung in der Kurzliner-Sanierung defekter und korrosiv belasteter Rohrleitungen finden sollen. Bei dem heute zur Anwendung kommenden, so genannten 3P-Harz (Polyisocyanat, Polykieselsäure, Phosphat), dienen organische Phosphorsäureester als Emulgatoren der reaktiven PMDI/WG-Emulsion. Diese unterliegen jedoch der Gefahr, durch die EU-Verordnung REACH (EG-Nr. 1907/2006) restriktiert zu werden. Es wird gezeigt, dass die Substitution der organischen Phosphorsäureester durch epoxidiertes Leinsamenöl (ELO) aus nachwachsenden Rohstoffen ohne Einbußen der Verarbeitbarkeit und der (bruch-)mechanischen Eigenschaften möglich ist. Dadurch bleibt eine REACH-Konformität des Harzsystems gewährleistet. Die weitergehende gezielte Modifikation der in situ mit Polysilikatpartikeln gefüllten Polyharnstoffharze mittels silan-terminierter Polymere (STP) führt außerdem zu Verbesserungen der Bruchzähigkeit durch Matrix/Partikel-Brückenbildungen.
Gegenüber dem phosphathaltigen Stand der Technik Harz wird durch die entwickelten 2P-Matrices (Polyisocyanat, Polykieselsäure) eine erhöhte Schadenstoleranz in GFK wie auch in neuartigen BFK nachgewiesen. Ferner wird die Dauerhaftigkeit erhöht und ein unerwünschtes Ausdiffundieren phosphathaltiger, umweltbelastender Emulgatoren wird vermieden. Es werden synergistische Effekte wirksam, welche aufgrund der STP-Modifikation in GFK und neuartigen BFK zu einer verbesserten Faser/Matrix-Haftung und somit einer erhöhten Lebensdauer führen. Der Einsatz von glasähnlichen aber thermisch- und korrosionsbeständigen Basaltfasern, welche in energiearmen Prozessen aus natürlichem Lavagestein gewonnen werden, wird positiv bewertet.
Most modern multiprocessors offer weak memory behavior to improve their performance in terms of throughput. They allow the order of memory operations to be observed differently by each processor. This is opposite to the concept of sequential consistency (SC) which enforces a unique sequential view on all operations for all processors. Because most software has been and still is developed with SC in mind, we face a gap between the expected behavior and the actual behavior on modern architectures. The issues described only affect multithreaded software and therefore most programmers might never face them. However, multi-threaded bare metal software like operating systems, embedded software, and real-time software have to consider memory consistency and ensure that the order of memory operations does not yield unexpected results. This software is more critical as general consumer software in terms of consequences, and therefore new methods are needed to ensure their correct behavior.
In general, a memory system is considered weak if it allows behavior that is not possible in a sequential system. For example, in the SPARC processor with total store ordering (TSO) consistency, all writes might be delayed by store buffers before they eventually are processed by the main memory. This allows the issuing process to work with its own written values before other processes observed them (i.e., reading its own value before it leaves the store buffer). Because this behavior is not possible with sequential consistency, TSO is considered to be weaker than SC. Programming in the context of weak memory architectures requires a proper comprehension of how the model deviates from expected sequential behavior. For verification of these programs formal representations are required that cover the weak behavior in order to utilize formal verification tools.
This thesis explores different verification approaches and respectively fitting representations of a multitude of memory models. In a joint effort, we started with the concept of testing memory operation traces in regard of their consistency with different memory consistency models. A memory operation trace is directly derived from a program trace and consists of a sequence of read and write operations for each process. Analyzing the testing problem, we are able to prove that the problem is NP-complete for most memory models. In that process, a satisfiability (SAT) encoding for given problem instances was developed, that can be used in reachability and robustness analysis.
In order to cover all program executions instead of just a single program trace, additional representations are introduced and explored throughout this thesis. One of the representations introduced is a novel approach to specify a weak memory system using temporal logics. A set of linear temporal logic (LTL) formulas is developed that describes all properties required to restrict possible traces to those consistent to the given memory model. The resulting LTL specifications can directly be used in model checking, e.g., to check safety conditions. Unfortunately, the derived LTL specifications suffer from the state explosion problem: Even small examples, like the Peterson mutual exclusion algorithm, tend to generate huge formulas and require vast amounts of memory for verification. For this reason, it is concluded that using the proposed verification approach these specifications are not well suited for verification of real world software. Nonetheless, they provide comprehensive and formally correct descriptions that might be used elsewhere, e.g., programming or teaching.
Another approach to represent these models are operational semantics. In this thesis, operational semantics of weak memory models are provided in the form of reference machines that are both correct and complete regarding the memory model specification. Operational semantics allow to simulate systems with weak memory models step by step. This provides an elegant way to study the effects that lead to weak consistent behavior, while still providing a basis for formal verification. The operational models are then incorporated in verification tools for multithreaded software. These state space exploration tools proved suitable for verification of multithreaded software in a weak consistent memory environment. However, because not only the memory system but also the processor are expressed as operational semantics, some verification approach will not be feasible due to the large size of the state space.
Finally, to tackle the beforementioned issue, a state transition system for parallel programs is proposed. The transition system is defined by a set of structural operational semantics (SOS) rules and a suitable memory structure that can cover multiple memory models. This allows to influence the state space by use of smart representations and approximation approaches in future work.
The systems in industrial automation management (IAM) are information systems. The management parts of such systems are software components that support the manufacturing processes. The operational parts control highly plug-compatible devices, such as controllers, sensors and motors. Process variability and topology variability are the two main characteristics of software families in this domain. Furthermore, three roles of stakeholders -- requirement engineers, hardware-oriented engineers, and software developers -- participate in different derivation stages and have different variability concerns. In current practice, the development and reuse of such systems is costly and time-consuming, due to the complexity of topology and process variability. To overcome these challenges, the goal of this thesis is to develop an approach to improve the software product derivation process for systems in industrial automation management, where different variability types are concerned in different derivation stages. Current state-of-the-art approaches commonly use general-purpose variability modeling languages to represent variability, which is not sufficient for IAM systems. The process and topology variability requires more user-centered modeling and representation. The insufficiency of variability modeling leads to low efficiency during the staged derivation process involving different stakeholders. Up to now, product line approaches for systematic variability modeling and realization have not been well established for such complex domains. The model-based derivation approach presented in this thesis integrates feature modeling with domain-specific models for expressing processes and topology. The multi-variability modeling framework includes the meta-models of the three variability types and their associations. The realization and implementation of the multi-variability involves the mapping and the tracing of variants to their corresponding software product line assets. Based on the foundation of multi-variability modeling and realization, a derivation infrastructure is developed, which enables a semi-automated software derivation approach. It supports the configuration of different variability types to be integrated into the staged derivation process of the involved stakeholders. The derivation approach is evaluated in an industry-grade case study of a complex software system. The feasibility is demonstrated by applying the approach in the case study. By using the approach, both the size of the reusable core assets and the automation level of derivation are significantly improved. Furthermore, semi-structured interviews with engineers in practice have evaluated the usefulness and ease-of-use of the proposed approach. The results show a positive attitude towards applying the approach in practice, and high potential to generalize it to other related domains.
Model uncertainty is a challenge that is inherent in many applications of mathematical models in various areas, for instance in mathematical finance and stochastic control. Optimization procedures in general take place under a particular model. This model, however, might be misspecified due to statistical estimation errors and incomplete information. In that sense, any specified model must be understood as an approximation of the unknown "true" model. Difficulties arise since a strategy which is optimal under the approximating model might perform rather bad in the true model. A natural way to deal with model uncertainty is to consider worst-case optimization.
The optimization problems that we are interested in are utility maximization problems in continuous-time financial markets. It is well known that drift parameters in such markets are notoriously difficult to estimate. To obtain strategies that are robust with respect to a possible misspecification of the drift we consider a worst-case utility maximization problem with ellipsoidal uncertainty sets for the drift parameter and with a constraint on the strategies that prevents a pure bond investment.
By a dual approach we derive an explicit representation of the optimal strategy and prove a minimax theorem. This enables us to show that the optimal strategy converges to a generalized uniform diversification strategy as uncertainty increases.
To come up with a reasonable uncertainty set, investors can use filtering techniques to estimate the drift of asset returns based on return observations as well as external sources of information, so-called expert opinions. In a Black-Scholes type financial market with a Gaussian drift process we investigate the asymptotic behavior of the filter as the frequency of expert opinions tends to infinity. We derive limit theorems stating that the information obtained from observing the discrete-time expert opinions is asymptotically the same as that from observing a certain diffusion process which can be interpreted as a continuous-time expert. Our convergence results carry over to convergence of the value function in a portfolio optimization problem with logarithmic utility.
Lastly, we use our observations about how expert opinions improve drift estimates for our robust utility maximization problem. We show that our duality approach carries over to a financial market with non-constant drift and time-dependence in the uncertainty set. A time-dependent uncertainty set can then be defined based on a generic filter. We apply this to various investor filtrations and investigate which effect expert opinions have on the robust strategies.
Sozioökonomische Trends mit hoher Raumrelevanz bilden die Grundlage für die Zukunftsfragen von Regionen und Kommunen. Zugleich bedingen ein anhaltender Verstädterungsprozess sowie zunehmend differenziert und zum Teil stark divergent ablaufende Entwicklungsdynamiken eine Zunahme regionaler Ungleichgewichte. Eben diese Entwicklung wirft Fragen nach der Sicher-stellung der Leitvorstellung gleichwertiger Lebensverhältnisse auf. Insbesondere Mittelstädten werden in diesem Zusammenhang gerade für strukturschwache und periphere Regionen als Anker im Raum angesehen. Zugleich stehen Mittelstädte ländlich-peripherer Regionen in einer zunehmenden Diskrepanz hinsichtlich ihrer Funktionszuordnung sowie der an sie gestellten Her-ausforderungen. Einerseits ist ihnen aus raumordnungspolitischer Sicht neben ihrer Rolle als regionale Versorgungs-, Arbeitsmarkt- und Wirtschaftszentren eine stabilisierende Funktion des Umlandes sowie eine Trägerfunktion der ländlichen Entwicklungsdynamik zugeschrieben. Ande-rerseits weisen sie gleichzeitig selbst eine erhöhte Betroffenheit bezüglich des infrastrukturellen Anpassungsdrucks an sozioökonomische Veränderungsprozesse auf, den es zu bewältigen gilt.
Entsprechend gilt der Erhalt und der Ausbau der Leistungsfähigkeit der Mittelstädte außerhalb von Verdichtungsräumen als ein wesentlicher Beitrag zur zukünftigen, flächendeckenden Siche-rung der Grunddaseinsvorsorge in ländlich-peripheren Regionen.
Vorliegende Arbeit widmet sich somit erstens einer Untersuchung der regionalen Stabilisierungs-funktion von Mittelstädten für ländlich-periphere Räume einschließlich einer Analyse der Mög-lichkeiten und Grenzen deren Aufrechterhaltung unter den Einflüssen sozioökonomischer Trans-formationsprozesse und den damit verbundenen Anpassungsbedarfen. Darauf aufbauend um-fasst sie zweitens eine Analyse zur Identifikation von Erfolgsfaktoren, die mittelstädtische Stabili-sierungsfunktionen in ländlich-peripheren Räumen zukünftig sicherstellen.
Hierzu widmet sich die Arbeit zunächst einer definitorischen Einordnung des Stabilisierungsbe-griffs in den Regionalwissenschaften. Eng verknüpft ist damit einhergehend die Analyse landes- und regionalplanerischer sowie regionalökonomischer Ansätze unter dem Blickwinkel ihres Sta-bilisierungsgedankens sowie die Untersuchung von bestehenden Strategien zum Umgang mit regionalen Strukturwandelprozessen.
Daran anknüpfend erfolgt eine indikatorenbasierte beziehungsweise funktionale Typisierung des Stadttypus Mittelstadt im Kontext des ländlich-peripheren Raumtypus. Damit einhergehend wird fünf ausgewählten Fallstudien eine vertiefende Evaluation zugeführt. Hierdurch ergeben sich ergänzende Erkenntnisse insbesondere im Hinblick auf Verflechtungen zwischen Kreisregion und Mittelstadt, auf den Bedeutungsgrad der Mittelstadt bezüglich ihrer Wohn-, Arbeitsplatz- und Versorgungszentralität sowie insbesondere im Hinblick auf bestehende Handlungserfordernisse sowie Entwicklungsstrategien und Handlungsansätze zur Stärkung der Funktion und Rolle der Mittelstadt in und für ihr ländlich-peripheres Umfeld.
Daraus abgeleitet wird dargelegt, welche Handlungserfordernisse sich hieraus für die Regional-entwicklung ergeben und welche zukunftsfähigen Ansätze und Strategien auf der kommunalen, regionalen sowie landesplanerischen Ebene sich besonders eignen, um die Anker- und Stabilisie-rungsfunktion der Mittelstädte ländlicher-peripherer Räume zu stärken und somit letztlich die Daseinsvorsorge in ländlich-peripheren Regionen auch zukünftig gesichert zu wissen.
Nachhaltigkeit und Digitalisierung sind zwei der großen Themen unserer
Zeit. In beiden Kontexten wird oft von Transformation gesprochen: Wirtschaft und Gesellschaft werden sich maßgeblich verändern. Deshalb sollten die beiden Trends Digitalisierung und Nachhaltigkeit zusammen betrachtet und ihre Zusammenhänge untersucht werden. Grundsätzlich
wird der Digitalisierung in der wissenschaftlichen Literatur ein Einfluss
auf die Erreichung einer nachhaltigen Zukunft attestiert – sowohl positiv
als auch negativ. Im Rahmen der Digitalisierungsforschung ist der Aspekt
der Nachhaltigkeit zumeist mehr Zusatz als Leitbild. Ob und inwiefern
eine digitale Transformation auch eine Nachhaltigkeitstransformation mit
sich bringt, bleibt in der Forschung also bisher weitestgehend unbeantwortet. Daher ist es unser Ziel, eine mögliche Wirkungskette aufzustellen,
die sowohl nachhaltigkeitsbezogene als auch Digitalisierungsaspekte vor
dem Hintergrund der Erreichung der Agenda 2030 integriert. Der Tenor
unserer Recherche: Digitalisierung wird von sich aus keine der großen
Nachhaltigkeitsherausforderungen lösen, sofern sie nicht in eine klare
Strategie eingebettet ist.
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Micronuclei-based model system reveals functional consequences of chromothripsis in human cells
(2019)
Cancer cells often harbor chromosomes in abnormal numbers and with aberrant structure. The consequences of these chromosomal aberrations are difficult to study in cancer, and therefore several model systems have been developed in recent years. We show that human cells with extra chromosome engineered via microcell-mediated chromosome transfer often gain massive chromosomal rearrangements. The rearrangements arose by chromosome shattering and rejoining as well as by replication-dependent mechanisms. We show that the isolated micronuclei lack functional lamin B1 and become prone to envelope rupture, which leads to DNA damage and aberrant replication. The presence of functional lamin B1 partly correlates with micronuclei size, suggesting that the proper assembly of nuclear envelope might be sensitive to membrane curvature. The chromosomal rearrangements in trisomic cells provide growth advantage compared to cells without rearrangements. Our model system enables to study mechanisms of massive chromosomal rearrangements of any chromosome and their consequences in human cells.
This thesis addresses several challenges for sustainable logistics operations and investigates (1) the integration of intermediate stops in the route planning of transportation vehicles, which especially becomes relevant when alternative-fuel vehicles with limited driving range or a sparse refueling infrastructure are considered, (2) the combined planning of the battery replacement infrastructure and of the routing for battery electric vehicles, (3) the use of mobile load replenishment or refueling possibilities in environments where the respective infrastructure is not available, and (4) the additional consideration of the flow of goods from the end user in backward direction to the point of origin for the purpose of, e.g., recapturing value or proper disposal. We utilize models and solution methods from the domain of operations research to gain insights into the investigated problems and thus to support managerial decisions with respect to these issues.
In this dissertation we apply financial mathematical modelling to electricity markets. Electricity is different from any other underlying of financial contracts: it is not storable. This means that electrical energy in one time point cannot be transferred to another. As a consequence, power contracts with disjoint delivery time spans basically have a different underlying. The main idea throughout this thesis is exactly this two-dimensionality of time: every electricity contract is not only characterized by its trading time but also by its delivery time.
The basis of this dissertation are four scientific papers corresponding to the Chapters 3 to 6, two of which have already been published in peer-reviewed journals. Throughout this thesis two model classes play a significant role: factor models and structural models. All ideas are applied to or supported by these two model classes. All empirical studies in this dissertation are conducted on electricity price data from the German market and Chapter 4 in particular studies an intraday derivative unique to the German market. Therefore, electricity market design is introduced by the example of Germany in Chapter 1. Subsequently, Chapter 2 introduces the general mathematical theory necessary for modelling electricity prices, such as Lévy processes and the Esscher transform. This chapter is the mathematical basis of the Chapters 3 to 6.
Chapter 3 studies factor models applied to the German day-ahead spot prices. We introduce a qualitative measure for seasonality functions based on three requirements. Furthermore, we introduce a relation of factor models to ARMA processes, which induces a new method to estimate the mean reversion speed.
Chapter 4 conducts a theoretical and empirical study of a pricing method for a new electricity derivative: the German intraday cap and floor futures. We introduce the general theory of derivative pricing and propose a method based on the Hull-White model of interest rate modelling, which is a one-factor model. We include week futures prices to generate a price forward curve (PFC), which is then used instead of a fixed deterministic seasonality function. The idea that we can combine all market prices, and in particular futures prices, to improve the model quality also plays the major role in Chapter 5 and Chapter 6.
In Chapter 5 we develop a Heath-Jarrow-Morton (HJM) framework that models intraday, day-ahead, and futures prices. This approach is based on two stochastic processes motivated by economic interpretations and separates the stochastic dynamics in trading and delivery time. Furthermore, this framework allows for the use of classical day-ahead spot price models such as the ones of Schwartz and Smith (2000), Lucia and Schwartz (2002) and includes many model classes such as structural models and factor models.
Chapter 6 unifies the classical theory of storage and the concept of a risk premium through the introduction of an unobservable intrinsic electricity price. Since all tradable electricity contracts are derivatives of this actual intrinsic price, their prices should all be derived as conditional expectation under the risk-neutral measure. Through the intrinsic electricity price we develop a framework, which also includes many existing modelling approaches, such as the HJM framework of Chapter 5.
Magnetoelastic coupling describes the mutual dependence of the elastic and magnetic fields and can be observed in certain types of materials, among which are the so-called "magnetostrictive materials". They belong to the large class of "smart materials", which change their shape, dimensions or material properties under the influence of an external field. The mechanical strain or deformation a material experiences due to an externally applied magnetic field is referred to as magnetostriction; the reciprocal effect, i.e. the change of the magnetization of a body subjected to mechanical stress is called inverse magnetostriction. The coupling of mechanical and electromagnetic fields is particularly observed in "giant magnetostrictive materials", alloys of ferromagnetic materials that can exhibit several thousand times greater magnitudes of magnetostriction (measured as the ratio of the change in length of the material to its original length) than the common magnetostrictive materials. These materials have wide applications areas: They are used as variable-stiffness devices, as sensors and actuators in mechanical systems or as artificial muscles. Possible application fields also include robotics, vibration control, hydraulics and sonar systems.
Although the computational treatment of coupled problems has seen great advances over the last decade, the underlying problem structure is often not fully understood nor taken into account when using black box simulation codes. A thorough analysis of the properties of coupled systems is thus an important task.
The thesis focuses on the mathematical modeling and analysis of the coupling effects in magnetostrictive materials. Under the assumption of linear and reversible material behavior with no magnetic hysteresis effects, a coupled magnetoelastic problem is set up using two different approaches: the magnetic scalar potential and vector potential formulations. On the basis of a minimum energy principle, a system of partial differential equations is derived and analyzed for both approaches. While the scalar potential model involves only stationary elastic and magnetic fields, the model using the magnetic vector potential accounts for different settings such as the eddy current approximation or the full Maxwell system in the frequency domain.
The distinctive feature of this work is the analysis of the obtained coupled magnetoelastic problems with regard to their structure, strong and weak formulations, the corresponding function spaces and the existence and uniqueness of the solutions. We show that the model based on the magnetic scalar potential constitutes a coupled saddle point problem with a penalty term. The main focus in proving the unique solvability of this problem lies on the verification of an inf-sup condition in the continuous and discrete cases. Furthermore, we discuss the impact of the reformulation of the coupled constitutive equations on the structure of the coupled problem and show that in contrast to the scalar potential approach, the vector potential formulation yields a symmetric system of PDEs. The dependence of the problem structure on the chosen formulation of the constitutive equations arises from the distinction of the energy and coenergy terms in the Lagrangian of the system. While certain combinations of the elastic and magnetic variables lead to a coupled magnetoelastic energy function yielding a symmetric problem, the use of their dual variables results in a coupled coenergy function for which a mixed problem is obtained.
The presented models are supplemented with numerical simulations carried out with MATLAB for different examples including a 1D Euler-Bernoulli beam under magnetic influence and a 2D magnetostrictive plate in the state of plane stress. The simulations are based on material data of Terfenol-D, a giant magnetostrictive materials used in many industrial applications.
Low damping magnetic properties and perpendicular magnetic anisotropy in the Heusler alloy Fe1.5CoGe
(2019)
We present a study of the dynamic magnetic properties of TiN-buffered epitaxial thin films of the Heusler alloy Fe1.5CoGe. Thickness series annealed at different temperatures are prepared and the magnetic damping is measured, a lowest value of α = 2.18 × 10−3 is obtained. The perpendicular magnetic anisotropy properties in Fe1.5CoGe/MgO are also characterized. The evolution of the interfacial perpendicular anisotropy constant K⊥S with the annealing temperature is shown and compared with the widely used CoFeB/MgO interface. A large volume contribution to the perpendicular anisotropy of (4.3 ± 0.5) × 105 J/m3 is also found, in contrast with vanishing bulk contribution in common Co- and Fe-based Heusler alloys.
Linking protistan community shifts along salinity gradients with cellular haloadaptation strategies
(2019)
Salinity is one of the most structuring environmental factors for microeukaryotic communities. Using eDNA barcoding, I detected significant shifts in microeukaryotic community compositions occurring at distinct salinities between brackish and marine conditions in the Baltic Sea. I, furthermore, conducted a metadata analysis including my and other marine and hypersaline community sequence data to confirm the existence of salinity-related transition boundaries and significant changes in alpha diversity patterns along a brackish to hypersaline gradient. One hypothesis for the formation of salinity-dependent transition boundaries between brackish to hypersaline conditions is the use of different cellular haloadaptation strategies. To test this hypothesis, I conducted metatranscriptome analyses of microeukaryotic communities along a pronounced salinity gradient (40 – 380 ‰). Clustering of functional transcripts revealed differences in metabolic properties and metabolic capacities between microeukaryotic communities at specific salinities, corresponding to the transition boundaries already observed in the taxonomic eDNA barcoding approach. In specific, microeukaryotic communities thriving at mid-hypersaline conditions (≤ 150 ‰) seem to predominantly apply the ‘low-salt – organic-solutes-in’ strategy by accumulating compatible solutes to counteract osmotic stress. Indications were found for both the intracellular synthesis of compatible solutes as well as for cellular transport systems. In contrast, communities of extreme-hypersaline habitats (≥ 200 ‰) may preferentially use the ‘high-salt-in’ strategy, i. e. the intracellular accumulation of inorganic ions in high concentrations, which is implied by the increased expression of Mg2+, K+, Cl- transporters and channels.
In order to characterize the ‘low-salt – organic-solutes-in’ strategy applied by protists in more detail, I conducted a time-resolved transcriptome analysis of the heterotrophic ciliate Schmidingerothrix salinarum serving as model organism. S. salinarum was thus subjected to a salt-up shock to investigate the intracellular response to osmotic stress by shifts of gene expression. After increasing the external salinity, an increased expression of two-component signal transduction systems and MAPK cascades was observed. In an early reaction, the expression of transport mechanisms for K+, Cl- and Ca2+ increased, which may enhance the capacity of K+, Cl- and Ca2+ in the cytoplasm to compensate possibly harmful Na+ influx. Expression of enzymes for the synthesis of possible compatible solutes, starting with glycine betaine, followed by ectoine and later proline, could imply that the inorganic ions K+, Cl- and Ca2+ are gradually replaced by the synthesized compatible solutes. Additionally, expressed transporters for choline (precursor of glycine betaine) and proline could indicate an intracellular accumulation of compatible solutes to balance the external salinity. During this accumulation, the up-regulated ion export mechanisms may increase the capacity for Na+ expulsion from the cytoplasm and ion compartmentalization between cell organelles seem to happen.
The results of my PhD project revealed first evidence at molecular level for the salinity-dependent use of different haloadaptation strategies in microeukaryotes and significantly extend existing knowledge about haloadaptation processes in ciliates. The results provide ground for future research, such as (comparative) transcriptome analysis of ciliates thriving in extreme-hypersaline habitats or experiments like qRT-PCR to validate transcriptome results.
Die Teilnahme an Weiterbildung wird immer beliebter und seit geraumer Zeit auch auf einem kontinuierlich hohen Niveau nachgefragt. Zunehmend agieren auch immer mehr Hochschulen als Anbieter auf dem Weiterbildungsmarkt, deren Relevanz durch die Bologna-Reform und der bildungspolitischen Betonung der Strategie einer Recurrent Education untermauert wurde. Die Lernenden, die als lebenslang Lernende auch im Erwachsenenalter in ihre Zukunft investieren, gelten als weiterbildungsaffine Teilnehmende, die über eine Vielzahl an gesammelten biographischen Lern- und Berufserfahrungen verfügen und häufig berufs- und lebensbegleitend wissenschaftliche Weiterbildung partizipieren. Über eine Kosten-Nutzen-Kalkulation von Weiterbildungsteilnahmen hinaus, stehen seit der Bologna-Reform neben den Lernergebnissen gleichsam die durch die Teilnahmen erzielten Weiterbildungswirkungen als Outcome im Fokus. Der bildungspolitische Blick auf diesen wissensbasierten Outcome bedeutet auch, stärker die individuelle Kompetenzbilanz der Teilnehmenden bei der Betrachtung ihrer Bildungsbemühungen einzubeziehen. Wenn bei der Beurteilung wirksamer Weiterbildungsteilnahmen vor allem die Lernenden und deren Kompetenzentwicklung im Mittelpunkt stehen, stellt sich die Frage, welche nachhaltigen und langfristigen Effekte die Lernenden selbst der Weiterbildung zurechnen und erlebbar auch als Erweiterung der eigenen Handlungsvielfalt wahrnehmen. Die hiesige Interviewstudie, angesiedelt im Feld der Teilnehmerforschung, rekonstruiert typische Handlungsmuster als Aneignungsperformanz von Fernstudierenden im angeleiteten Selbststudium und interpretiert diese im Hinblick auf die wahrgenommene Kompetenzentwicklung durch die Weiterbildung. Damit ist das Ziel verbunden Hinweise für die Gestaltung outcomeorientierter Lehr-Lernarrangements zu erarbeiten.
Leben in Kaiserslautern 2019
(2019)
Das Projekt zum „Leben in Kaiserslautern 2019“ (LiK) untersucht die Lebensqualität in Kaiserslautern, die Zufriedenheit mit der Demokratie und den politischen Institutionen sowie die politische und gesellschaftliche Partizipation der Bürgerinnen und Bürger. Der Bericht stellt das methodische Design der LiK-Befragung vor. Es werden deskriptive Ergebnisse aus der Befragung präsentiert. Dabei wird auch Bezug auf Ergebnisse aus bundesweiten Bevölkerungsumfragen, die einen Vergleich zwischen Kaiserslautern und ganz Deutschland erlauben, genommen.
Das zentrale Erkenntnisinteresse der Masterarbeit besteht darin, nachzuvollziehen, wie es dazu kommt, dass sich Menschen im 3. Lebensalter kulturell bilden und engagieren. Genauer sollen Hypothesen dazu abgeleitet werden, welche Voraussetzungen und Umstände begünstigen, dass Ältere an selbsttätigen Angeboten kultureller Bildung teilnehmen. Dieser Frage wird am Beispiel von Teilnehmenden von Alten- bzw. Mehrgenerationstheatergruppen in einer Großstadt in Norddeutschland nachgegangen.
Im ersten Teil der Arbeit werden für die Fragestellung relevante Aspekte zu den Themen Alter und Altern, Bildung im Alter, kulturelle Erwachsenenbildung und Theaterspielen im Alter aufgegriffen und aktuelle Forschungsstände skizziert. Herausforderungen der Lebensphase Alter werden besprochen und in Beziehung gesetzt zu den Themen und Möglichkeiten der (kulturellen) Erwachsenenbildung.
Im zweiten Teil der Arbeit folgt die Darstellung der empirischen Untersuchung, in welcher anhand qualitativer Leitfadeninterviews zur Fragestellung geforscht wurde. Hierzu wurden Teilnehmende im 3. Lebensalter befragt, die sich in Alten- oder Mehrgenerationstheatergruppen betätigen. Methoden und Ablauf der Untersuchung werden beschrieben und die Ergebnisse im Anschluss dargestellt, interpretiert und diskutiert. Die Arbeit schließt mit einem Ausblick und einem resümierenden Fazit.
Der zunehmende Ausbau dezentraler Erzeugungsanlagen sowie die steigende Anzahl an Elektrofahrzeugen stellen die Niederspannungsnetze vor neue Herausforderungen. Neben der Einhaltung des zulässigen Spannungsbands führen Erzeugungsanlagen und neue Lasten zu einer zunehmenden thermischen Auslastung der Leitungen. Einfache, konventionelle Maßnahmen wie Topologieänderungen zu vermascht betriebenen Niederspannungsnetzen sind ein erster hilfreicher und kostengünstiger Ansatz, bieten aber keinen grundsätzlichen Schutz vor einer thermischen Überlastung der Betriebsmittel. Diese Arbeit befasst sich mit der Konzeption eines Spannungs- und Wirkleistungsreglers für vermaschte Niederspannungsnetze. Durch den Regler erfolgt eine messtechnische Erfassung der Spannungen und Ströme in einzelnen Messpunkten des Niederspannungsnetzes. Mit Hilfe eines speziellen Kennlinienverfahrens kann eine Leistungsverschiebung in einzelnen Netzmaschen hervorgerufen und vorgegebene Soll- oder Grenzwerte eingehalten werden. In vorliegender Arbeit werden die analytischen Grundlagen des Reglers, seine Hardware sowie das Kennlinienverfahren zusammen mit den realisierbaren Regelkonzepten vorgestellt. Die Ergebnisse aus Simulationsstudien, Labor- und Feldtests stellen die Effektivität des Reglers eindeutig dar und werden diskutiert.
Integrationskurslehrkräfte stehen im Bemühen der Bundesrepublik Deutschland um die gesellschaftliche Integration von Neuzugewanderten an „vorderster Front“. Sie erleben Integrationskurse als Orte der interkulturellen Begegnung und müssen gleichzeitig die besonderen Bedingungen des Lernens Erwachsener berücksichtigen. Die Arbeit untersucht mithilfe von Experteninterviews die Frage, welche Herausforderungen für die Lehrkräfte damit verbunden sind und wie sie diesen begegnen. Der Fokus liegt dabei auf dem Umgang mit weiblichen Teilnehmenden. Diese sind zum Zeitpunkt der Untersuchung überwiegend Geflüchtete aus dem arabischen Raum. Im ersten Hauptteil wird sich zunächst mit dem Kulturbegriff und dem Phänomen der Interkulturalität auseinandergesetzt. Konzepte zur interkulturellen Kompetenz werden vorgestellt. Ferner wird beschrieben, wie interkulturelles Lernen in der Erwachsenenbildung erfolgen kann. Die Curricula der Integrationskurse messen den Themen Interkulturalität und Wertevermittlung eine herausragende Bedeutung zu. Die Arbeit zeigt auf, dass an die Qualifikation der Lehrkräfte auf diesem Gebiet jedoch keinerlei verpflichtende Anforderungen gestellt werden. Der zweite Hauptteil der Arbeit umfasst die empirische Untersuchung: eine leitfadengestützte Befragung von acht Integrationskurslehrkräften. Die Auswertung der Interviews erfolgte kategorienbasiert mithilfe der inhaltlich strukturierenden qualitativen Inhaltsanalyse nach Kuckartz unter Verwendung von MAX-QDA-Software. Die Befragung zeigt, dass Integrationskurslehrkräften eine außerordentlich hohe interkulturelle Kompetenz abverlangt wird. Einerseits begegnen ihnen im Kurs lernfreudige Frauen, die an Bildung interessiert sind und eine Berufstätigkeit anstreben. Diese Frauen können ihren Bedürfnissen oft nicht in dem gewünschten Maße nachkommen. Gründe sind Mehrfachbelastungen durch Familienaufgaben, Rollenzuschreibungen durch das Familienumfeld aber auch das Fehlen einer wirkungsvollen Unterstützung der deutschen Behörden. Andererseits treffen die Lehrkräfte auf Teilnehmerinnen, die kein Interesse an Bildung und Beruf zeigen und kaum Lernfortschritte machen. Auf die beschriebene Heterogenität sind die Lehrkräfte weder kulturell noch didaktisch-methodisch vorbereitet. Sie meistern die interkulturellen Herausforderungen aufgrund ihrer biographischen Erfahrungen und mithilfe kollegialer Unterstützung. Allerdings wird deutlich, dass eine (selbst-)reflexive Haltung zu interkulturellen Themen, Wissen über die Herkunftskultur der Teilnehmerinnen sowie Kenntnisse zur Methodik der Wertevermittlung nur selten erworben wurden.
Topological insulators (TI) are a fascinating new state of matter. Like usual insulators, their band structure possesses a band gap, such that they cannot conduct current in their bulk. However, they are able to conduct current along their edges and surfaces, due to edge states that cross the band gap. What makes TIs so interesting and potentially useful are these robust unidirectional edge currents. They are immune to significant defects and disorder, which means that they provide scattering-free transport.
In photonics, using topological protection has a huge potential for applications, e.g. for robust optical data transfer [1-3] – even on the quantum level [4, 5] – or to make devices more stable and robust [6, 7]. Therefore, the field of topological insulators has spread to optics to create the new and active research field of topological photonics [8-10].
Well-defined and controllable model systems can help to provide deeper insight into the mechanisms of topologically protected transport. These model systems provide a vast control over parameters. For example, arbitrary lattice types without defects can be examined, and single lattice sites can be manipulated. Furthermore, they allow for the observation of effects that usually happen at extremely short time-scales in solids. Model systems based on photonic waveguides are ideal candidates for this.
They consist of optical waveguides arranged on a lattice. Due to evanescent coupling, light that is inserted into one waveguide spreads along the lattice. This coupling of light between waveguides can be seen as an analogue to electrons hopping/tunneling between atomic lattice sites in a solid.
The theoretical basis for this analogy is given by the mathematical equivalence between Schrödinger and paraxial Helmholtz equation. This means that in these waveguide systems, the role of time is assigned to a spatial axis. The field evolution along the waveguides' propagation axis z thus models the temporal evolution of an electron's wave-function in solid states. Electric and magnetic fields acting on electrons in solids need to be incorporated into the photonic platform by introducing artificial fields. These artificial gauge fields need to act on photons in the same way that their electro-magnetic counterparts act on electrons. E.g., to create a photonic analogue of a topological insulator the waveguides are bent helically along their propagation axis to model the effect of a magnetic field [3]. This means that the fabrication of these waveguide arrays needs to be done in 3D.
In this thesis, a new method to 3D micro-print waveguides is introduced. The inverse structure is fabricated via direct laser writing, and subsequently infiltrated with a material with higher refractive index contrast. We will use these model systems of evanescently coupled waveguides to look at different effects in topological systems, in particular at Floquet topological systems.
We will start with a topologically trivial system, consisting of two waveguide arrays with different artificial gauge fields. There, we observe that an interface between these trivial gauge fields has a profound impact on the wave vector of the light traveling across it. We deduce an analog to Snell's law and verify it experimentally.
Then we will move on to Floquet topological systems, consisting of helical waveguides. At the interface between two Floquet topological insulators with opposite helicity of the waveguides, we find additional trivial interface modes that trap the light. This allows to investigate the interaction between trivial and topological modes in the lattice.
Furthermore, we address the question if topological edge states are robust under the influence of time-dependent defects. In a one-dimensional topological model (the Su-Schrieffer-Heeger model [11]) we apply periodic temporal modulations to an edge wave-guide. We find Floquet copies of the edge state, that couple to the bulk in a certain frequency window and thus depopulate the edge state.
In the two-dimensional Floquet topological insulator, we introduce single defects at the edge. When these defects share the temporal periodicity of the helical bulk waveguides, they have no influence on a topological edge mode. Then, the light moves around/through the defect without being scattered into the bulk. Defects with different periodicity, however, can – likewise to the defects in the SSH model – induce scattering of the edge state into the bulk.
In the end we will briefly highlight a newly emerging method for the fabrication of waveguides with low refractive index contrast. Moreover, we will introduce new ways to create artificial gauge fields by the use of orbital angular momentum states in waveguides.
Der Bevölkerungsrückgang in ländlichen Städten und Dörfern stellt die Gemeinden vor erhebliche Herausforderungen im Bereich der Daseinsvorsorge. So ist die Funktionalität leitungsgebundener Infrastrukturen der Abwasserentsorgung im Zuge einer starken, dispersen demographischen Entdichtung der Siedlungen nur mit betrieblichem Mehraufwand bis hin zu baulichen Systemanpassungen zu gewährleisten. Aktuelle Herausforderungen im Zusammenhang mit dem Klimawandel, wie längere Trockenperioden und immer häufiger und stärker auftretende Niederschlagsereignisse, ein gesteigertes Problembewusstsein zur Endlichkeit kostbarer Ressourcen, wie z.B. Wasser oder Phosphor sowie aktuelle energiepolitische Fragestellungen stellen die zentralisierte Systemkonzeption der kommunalen Abwasserentsorgung in dispersen Siedlungsstrukturen zusätzlich zur Disposition.
Die Bereitstellung, Konzeption, Finanzierung und der Betrieb kommunaler Infrastrukturen ist abhängig von den Bedarfsträgern. Im Zuge weitreichender, dynamischer und motivorientierter Migrationsbewegungen sind gerade ländliche Raumstrukturen von starker Abwanderung, insbesondere jüngerer Kohorten und zusätzlich von Überalterung und hohen Sterbeziffern betroffen. In Abhängigkeit der raumstrukturellen Beschaffenheit einzelner Städte und Dörfer und deren Lage im überörtlichen Sinne, können die Nutzungsmischung, Größe der Siedlungen und ebenso die altersstrukturelle Zusammensetzung der Einwohner sowie die Bevölkerungsdichte erheblich schwanken. Aus der Komposition von Bevölkerung, Raumfunktionen und Infrastrukturen ergeben sich ebenso unterschiedliche demographische Entwicklungsperspektiven, die im Rahmen dieser Arbeit szenariobasiert analysiert werden.
Die auf der de facto-Bevölkerung der ländlichen Modellstädte und -dörfer aufbauenden Demographieszenarien bilden die Basis der weiterführenden Untersuchung der kleinräumigen Auswirkungen auf deren Abwasserentsorgungssysteme. Der Untersuchungsansatz stützt sich auf eine umfassende Daten- und Analysebasis aus dem BMBF-Verbundprojekt SinOptiKom (2016). Die Synthese aus der de facto-Bevölkerung, ihrer Entwicklung durch kohortenspezifisches Migrationsverhalten, ihrer natürlichen Entwicklung sowie der SinOptiKom-Analyseergebnisse, zur Transformation der Abwasserentsorgungssysteme in den Modellgemeinden, bilden die Grundlage für die Ableitung und Diskussion möglicher Transformations- und Konsolidierungsstrategien der Gemeinden.
Den methodischen Schwerpunkt der Untersuchung bildet die szenariobasierte Analyse, mit der sich mögliche zukünftige Entwicklungen im betrachteten Themenfeld sowohl quantitativ als auch graphisch abbilden und durch relevante Akteure der örtlichen, überörtlichen und fachlichen Planung diskutieren lassen, um daraus Handlungsstrategien abzuleiten.
Wissenschaftliche Studien belegen, dass die überwiegende Mehrheit der Geflüchteten in Großstädten wohnen will. Hauptgrund ist die Hoffnung, dort leichter Arbeit und Kontakt zu anderen Geflüchteten zu finden.
Aufgrund geringerer Einkommen, mangelnder Sprachkenntnisse und Diskriminierungen bekommen Geflüchtete allerdings nur schwer Zugang zum Wohnungsmarkt. Befürchtungen, dass gerade Metropolen mit der Unterbringung überfordert sind, führen zu Forderungen, Geflüchtete verstärkt in ländlichen Räumen unterzubringen. Ob eine Integration in ländlichen Regionen jedoch gelingen kann, hängt von der Verfügbarkeit von geeignetem Wohnraum, Arbeitsplätzen, ÖPNV, Kapazitäten im Bildungssystem und einer Akzeptanz von Zuwanderung in der Bevölkerung ab. Das Wohnumfeld nimmt dabei eine entscheidende Rolle für die Integration ein.
Im Poster wird anhand dreier Fallbeispiele in Rheinland-Pfalz dargestellt wo und wie Geflüchtete wohnen, in-wiefern sie von Segregation betroffen sind, welche Einbindung sie in ihr Umfeld haben und was ihnen bei der Unterbringung wichtig ist. Methodisch beruht der Beitrag auf der Auswertung der SOEP-Flüchtlingsstudie – differenziert nach siedlungsstrukturellen Merkmalen - sowie amtlichen Daten aus der kleinen Großstadt Kaiserslau-tern, der Schwarmstadt Mainz und dem ländlichen Landkreis Kusel. Des Weiteren haben wir im Jahr 2018 53 leitfadengestützte Interviews mit Geflüchteten, Anwohnern und Anwohnerinnen sowie Expertinnen und Experten aus drei Untersuchungsräumen geführt.
Der Vergleich von städtischen und ländlichen Räumen zeigt, dass die sozialräumlichen Bedingungen für eine gelungene Integration nicht ausschließlich in Städten vorhanden sind. Multiethnische Quartiere in Metropolen können die Vernetzung begünstigen, sie bergen aber auch die Gefahr einer wachsenden unfreiwilligen Segregation. Die Interviews aus Kusel zeigen, dass Geflüchtete, die zentral im ländlichen Raum wohnen, mit dem Leben dort zufrieden sind. Die Ergebnisse verdeutlichen, dass Geflüchtete – ebenso wie andere Migrantengruppen auch – Quartiere mit dichter Bebauung, einer Nutzung, die Erwerbsmöglichkeiten beinhaltet, und in denen zentrale Angebote zu Bildung, Arbeit und kostenfreien Treffpunkten vorhanden sind, bevorzugen. Diese Quartiere kann es in Metropolen, Mittelstädten, aber auch im ländlichen Raum geben.
Infobrief FBK 59/19
(2019)
Infobrief FBK 58/19
(2019)
Infobrief FBK 57/19
(2019)
To exploit the whole potential of Additive Manufacturing (AM), a sound knowledge about the mechanical and especially cyclic properties of AM materials as well as their dependency on the process parameters is indispensable. In the presented work, the influence of chemical composition of the used powder on the fatigue behavior of Selectively Laser Melted (SLM) and Laser Deposition Welded (LDW) specimens made of austenitic stainless steel AISI 316L was investigated. Therefore, in each manufacturing process two variations of chemical composition of the used powder were utilized. For qualitative characterization of the materials cyclic deformation behavior, load increase tests (LITs) were performed and further used for the physically based lifetime calculation method (PhyBaLLIT), enabling an efficient determination of stress (S)–number of cycles to failure (Nf) curves (S–Nf), which show excellent correlation to additionally performed constant amplitude tests (CATs). Moreover, instrumented cyclic indentation tests (PhyBaLCHT) were utilized to characterize the materials’ defect tolerance in a comparably short time. All material variants exhibit a high influence of microstructural defects on the fatigue properties. Consequently, for the SLM process a higher fatigue lifetime at lower stress amplitudes could be observed for the batch with a higher defect tolerance, resulting from a more pronounced deformation induced austenite–α’-martensite transformation. In correspondence to that, the batch of LDW material with an increased defect tolerance exhibit a higher fatigue strength. However, the differences in defect tolerance between the LDW batches is only slightly influenced by phase transformation and seems to be mainly governed by differences in hardening potential of the austenitic microstructure. Furthermore, a significantly higher fatigue strength could be observed for SLM material in relation to LDW specimens, because of a refined microstructure and smaller microstructural defects of SLM specimens.
A measurement technique, i.e. reflectance anisotropy/difference spectroscopy (RAS/RDS), which had originally been developed for in-situ
epitaxial growth control, is employed here for in-situ real-time etch-depth control during reactive ion etching (RIE) of cubic crystalline III/V
semiconductor samples. Temporal optical Fabry-Perot oscillations of the genuine RAS signal (or of the average reflectivity) during etching due
to the ever shrinking layer thicknesses are used to monitor the current etch depth. This way the achievable in-situ etch-depth resolution has
been around 15 nm. To improve etch-depth control even further, i.e. down to below 5 nm, we now use the optical equivalent of a mechanical
vernier scale– by employing Fabry-Perot oscillations at two different wavelengths or photon energies of the RAS measurement light – 5%
apart, which gives a vernier scale resolution of 5%. For the AlGaAs(Sb) material system a 5 nm resolution is an improvement by a factor of 3
and amounts to a precision in in-situ etch-depth control of around 8 lattice constants.
Was in der vorliegenden empirischen Analyse des Einzelfalls mit Blick auf eine umfassende organisationale Transformation als inhärent-emergenter Prozess beschrieben wird, ist gewiss ein Sonderfall: Nach dem Abbruch eines Beratungsprozesses treibt ein System seine Transformation autonom voran, ohne weitere Unterstützung einer Prozessberatung und stellt damit seine Selbstentwicklungsfähigkeit in einem transformativen Prozess der Organisationsentwicklung unter Beweis. Dies ist in der Organisationsentwicklung nicht die Regel und wird sehr wahrscheinlich auch nicht von anderen Organisationen als Modell aufgegriffen, auch nicht von Organisationen desselben Typs (familiengeführte mittelständische Organisationen). Dass ein Eintritt in eine radikale Transformation als autopoietischer Prozess wie hier überhaupt möglich ist, ist den spezifischen Eigenschaften einer Organisation und ihrer zentralen Entscheidungsakteure, besonderen, kontingent geprägten Ereignisketten sowie der aktuellen Konstellation der zweiten Führungsebene zuzuschreiben. Die hier vorgestellte Untersuchung entspricht daher einem „neuen und unbeschriebenen Fall“ (Hering/Jungmann, 2005: 621), einem „per se interessanten Fall“ (ebd.), der sich in keinen Forschungsstand einordnen lässt.
Glycine constitutes the major neurotransmitter at inhibitory synapses of lower brain regions.
A rapid removal of glycine from the synaptic cleft and consequent recycling is crucial for
synaptic transmission in systems with high effort on temporal precision. This is mainly
achieved by glycine translocation via two glycine transporters (GlyTs), namely GlyT1 and
GlyT2. At inhibitory synapses, GlyT2 was found to be specifically expressed by neurons,
supplying the presynapse with glycine needed for vesicle filling. In contrast, GlyT1 is attributed
to astrocytes and primarily mediates the termination of synaptic transmission by glycine
removal from the synaptic cleft. Employing patch-clamp recordings from principal neurons of
the lateral superior olive (LSO) in acute brainstem slices of GlyT1b/c knockout (KO) mice and
wildtype (WT) littermates at postnatal day 20, I analyzed how postsynaptic responses are
changed in a GlyT1-depleted environment. During spontaneous vesicle release I found no
change of postsynaptic responses, contradicting my initial hypothesis of prolonged decay
times. Electrical stimulation of fibers of the medial nucleus of the trapezoid body (MNTB),
which are known to form fast, reliable and highly precise synapses with LSO principal neurons,
revealed that GlyT1 is involved in proper synaptic function during sustained, high frequent
synaptic transmission. Stimulation with 50 Hz led to a stronger decay time and latency
prolongation in GlyT1b/c KO, accelerating to 60% longer decay times and 30% longer latencies.
Additionally, a more pronounced frequency-dependent depression and fidelity decrease was
observed during stimulation with 200 Hz in GlyT1b/c KO, resulting in 67% smaller amplitudes
and only 25% of WT fidelity at the end of the challenge. Basic properties like readily releasable
pool, release probability, and quantal size (q) were not altered in GlyT1b/c KO, but
interestingly q decreased during 50 Hz and 100 Hz challenges to about 84%, which was not
observed in WT. I conclude that stronger accumulation of extracellular glycine due to GlyT1
loss leads to prolonged activation of postsynaptic glycine receptors (GlyRs). As a further
consequence, activation of presynaptic GlyRs in the vicinity of the synaptic cleft might be
enhanced, accompanied by a stronger occurrence of shunting inhibition. Furthermore, I
assume a GlyT1-dependent glycine shuttle, which is absent at GlyT1b/c KO synapses. This
could result in a diminished glycine supply to GlyT2 located at more distant sites, causing a
disturbed replenishment during periods with excess release of glycine. Conclusively, my study
reveals a contribution of astrocytes in fast and reliable synaptic transmission at the MNTB-LSO
synapse, which in turn is crucial for proper sound source localization.
Novel image processing techniques have been in development for decades, but most
of these techniques are barely used in real world applications. This results in a gap
between image processing research and real-world applications; this thesis aims to
close this gap. In an initial study, the quantification, propagation, and communication
of uncertainty were determined to be key features in gaining acceptance for
new image processing techniques in applications.
This thesis presents a holistic approach based on a novel image processing pipeline,
capable of quantifying, propagating, and communicating image uncertainty. This
work provides an improved image data transformation paradigm, extending image
data using a flexible, high-dimensional uncertainty model. Based on this, a completely
redesigned image processing pipeline is presented. In this pipeline, each
step respects and preserves the underlying image uncertainty, allowing image uncertainty
quantification, image pre-processing, image segmentation, and geometry
extraction. This is communicated by utilizing meaningful visualization methodologies
throughout each computational step.
The presented methods are examined qualitatively by comparing to the Stateof-
the-Art, in addition to user evaluation in different domains. To show the applicability
of the presented approach to real world scenarios, this thesis demonstrates
domain-specific problems and the successful implementation of the presented techniques
in these domains.
The objective of current research on internal combustion engines
is to further reduce exhaust emissions while simultaneously
reducing fuel consumption. The resulting measures often mean
an increase in complexity of internal combustion engines, which
on one hand increases production cost and on the other hand
increases the susceptibility of the overall system to defects. It is
therefore necessary to develop technologies which can generate
an advantage for the consumer despite increasing complexity.
Within the scope of the project “High Efficiency Diesel Engine
Concept” (“Hocheffizientes Diesel-Motoren-Konzept” HDMK),
funded by the Federal Ministry of Economic Affairs and Energy
with TÜV Rheinland as project management organization
(funding code: 19U15003A), two engine concepts were
investigated and combined on a John Deere four-cylinder inline
engine.
On the one hand, a new cylinder activation concept ("3/4-
cylinder concept") was implemented with the aim of reducing
fuel consumption. On the other hand, a fully variable valve train
was developed for this engine, which both improves the
functionality of the 3/4-cylinder concept and can have a positive
influence on exhaust emissions through internal exhaust gas
recirculation.
A comparison of this engine concept with its series reference
based on measurement data showed a fuel economy advantage
of up to 5.2% in the low load field cycles of the DLG PowerMix.
The maximum fuel consumption benefit in the low load engine
regime exceeded 15% in some of the operating points.
As a final step, the engine was modified for the integration into
an existing and working tractor, maintaining the available
installation space of the powertrain.
Hardware Contention-Aware Real-Time Scheduling on Multi-Core Platforms in Safety-Critical Systems
(2019)
While the computing industry has shifted from single-core to multi-core processors for performance gain, safety-critical systems (SCSs) still require solutions that enable their transition while guaranteeing safety, requiring no source-code modifications and substantially reducing re-development and re-certification costs, especially for legacy applications that are typically substantial. This dissertation considers the problem of worst-case execution time (WCET) analysis under contentions when deadline-constrained tasks in independent partitioned task set execute on a homogeneous multi-core processor with dynamic time-triggered shared memory bandwidth partitioning in SCSs.
Memory bandwidth in multi-core processors is shared across cores and is a significant cause of performance bottleneck and temporal variability of multiple-orders in task’s execution times due to contentions in memory sub-system. Further, the circular dependency is not only between WCET and CPU scheduling of others cores, but also between WCET and memory bandwidth assignments over time to cores. Thus, there is need of solutions that allow tailoring memory bandwidth assignments to workloads over time and computing safe WCET. It is pragmatically infeasible to obtain WCET estimates from static WCET analysis tools for multi-core processors due to the sheer computational complexity involved.
We use synchronized periodic memory servers on all cores that regulate each core’s maximum memory bandwidth based on allocated bandwidth over time. First, we present a workload schedulability test for known even-memory-bandwidth-assignment-to-active-cores over time, where the number of active cores represents the cores with non-zero memory bandwidth assignment. Its computational complexity is similar to merge-sort. Second, we demonstrate using a real avionics certified safety-critical application how our method’s use can preserve an existing application’s single-core CPU schedule under contentions on a multi-core processor. It enables incremental certification using composability and requires no-source code modification.
Next, we provide a general framework to perform WCET analysis under dynamic memory bandwidth partitioning when changes in memory bandwidth to cores assignment are time-triggered and known. It provides a stall maximization algorithm that has a complexity similar to a concave optimization problem and efficiently implements the WCET analysis. Last, we demonstrate dynamic memory assignments and WCET analysis using our method significantly improves schedulability compared to the stateof-the-art using an Integrated Modular Avionics scenario.
Technische und gesellschaftliche Entwicklungen im Bereich der Digitalisierung und vor allem der künstlichen Systeme werden in der gutachterlichen Stellungnahme dargestellt. Im Mittelpunkt stehen Auswirkungen der digitalen Transformation für Politik und Verwaltung in Rhein-land-Pfalz, verschiedene technische Lösungen, Divergenzen zwischen ländlichem und urbanen Räumen sowie Zukunftsvorstellungen.
Bei künstlicher Intelligenz handelt es sich um einen spezifischen Aspekt der Digitalisierung. Beide – Digitalisierung und Künstliche Intelligenz – gehen mit unterschiedlichen Facetten gesellschaftlichen Wandels einher, die in ihrer orts- und regionalspezifischen Einbettung zu untersuchen sind. Dabei ist es unabdingbar, sowohl die gesellschaftlichen als auch die technischen Innovationen aufeinander zu beziehen und diese in ihren Wechselwirkungen als eine sozio-technische Dynamik aufzufassen.
Auf Grundlage eines umfassenden Literaturreviews wird ein Überblick über die aktuellen technischen Anwendungen bei der Künstlichen Intelligenz und der Digitalisierung gegeben (Maschinenlernen, Robotics, Deep Learning, Data Mining, Blockchain, etc). In den verschiedenen Siedlungsräumen in Rheinland-Pfalz kommen – teilweise in transdisziplinären Forschungsprojekten – die neuen digitalen Möglichkeiten bereits zum Einsatz, z.B. im Projekt Digitale Dörfer, in der Chemieindustrie oder bei Versuchen für autonomes Fahren. Anwendungsfelder in unterschiedlichen Lebensbereichen werden für die verschiedenen Regionen in Rheinland-Pfalz aufgezeigt. Das Verschmelzen von virtuellem und realem Raum sowie die Normalisierung digitaler Lebensstile führt auch zu wachsenden Erwartungen an die Digitalität von Verwaltung und Politik. Vorteile von KI in der Verwaltung können erleichterte Kontakte zu Bürgern, schnellere interne Kommunikationswege, eine Prozessoptimierung und die Vernetzung der Abteilungen und Ressorts sein.
Die Autorinnen und Autoren der TU Kaiserslautern, Fachgebiet Stadtsoziologie, des Deut-schen Forschungszentrums für Künstliche Intelligenz DFKI und des Fraunhofer-Instituts für Experimentelles Software-Engineering IESE erarbeiteten in einem Expertenworkshop verschiedene Szenarien zur Darstellung der zukünftigen Lebenssituationen kommunaler Gemeinschaften unter der An- und Verwendung von Digitalisierungstechnologien und KI im Jahr 2050. Die Chancen und Risiken für die unterschiedlichen Regionen und Lebens-bereiche in Rheinland-Pfalz wurden in zwei extremen Varianten skizziert und einander gegenübergestellt. Während der Dystopie-Zustand eine Zukunft zeichnet, in der die Märkte von wenigen Global-Playern mit enormer Datenhoheit und aggressiven Geschäftsmodellen dominiert wer-den, zeigt der Utopie-Zustand eine von Teilhabe und Mitbestimmung geprägte, digitale Zukunft: Die digitale Transformation wird durch Politik und Gesellschaft gleichermaßen gesteuert, Bürger haben volle Datenhoheit und bestimmen individuell und situationsspezifisch, wann und welche Daten sie veröffentlichen möchten. Neue Möglichkeiten der Arbeitsgestaltung und neue Mobilitätsformen haben zu einer Flexibilisierung und Attraktivitätssteigerung hinsichtlich des Lebens und Arbeitens auf dem Land beigetragen. Ethische Grundprinzipien, gesellschaftliche, wirtschaftliche und politische Anforderungen werden somit mit den technologischen Potenzialen optimal in Einklang gebracht.
Wie diese Stellungnahme anhand der entworfenen Utopie und Dystopie illustriert, ist die technische Entwicklung von gesellschaftlicher Steuerung und Regulierung abhängig. Vor diesem Hintergrund erfordert die digitale Transformation Gestaltungswillen, spezifische Kenntnisse und auch Regulierung. Bei Letzterem gilt es, sowohl die Daten als Rohmaterial für KI, die (digitale und KI-) Technologien selbst – ihre Entwicklung und Verwendung – sowie daraus resultierende Informationen bzw. Wissen zu unterscheiden. Die Empfehlung aus dem Gutachten lautet daher, Informationen über Potenziale und Risiken transparent zugänglich und bekannt zu machen, die Bevölkerung aktiv einzubinden und eine strukturierte Förderung zu leisten, um Insellösungen zu überwinden und stattdessen Standards und offene Infrastrukturen zu schaffen. Es besteht die Gefahr, dass sich beim Einführungsprozess nicht-legitimierte, von Spezialisten und der Privatwirtschaft dominierte Strukturen (Meta-Governance) etablieren.
Insgesamt gilt beim Prozess der digitalen Transformation, dass Lösungen aus der vor-digitalen Ära nicht einfach auf heutige und zukünftige Probleme angewendet werden können. Ferner ist die Diversität der Situationen vor Ort bei der digitalen Transformation zu berücksichtigen. Dies ist insbesondere vor dem Hintergrund des ländlich geprägten Rhein-land-Pfalz von Bedeutung.
Die örtlichen Verwaltungen unterliegen der digitalen Transformation ebenso wie andere Systeme und Lebensbereiche, sie sind in unterschiedlichem Maße in der Lage, die Chancen für lokale und regionale Interessen zu nutzen und ihre Interessen durchzusetzen. Kommunen und Landkreise benötigen Unterstützung, damit sie von anderen, z.B. Leuchtturm-Projekten, lernen und beraten werden können. Ein Gegenstromprinzip von zivilgesellschaftlichen bzw. lokalen Bottom-up-Prozessen und Top-down- Unterstützung durch das Land erscheint zielführend (z.B. im Tourismus).
Bei der Bevölkerung sind bezogen auf KI und Digitalisierung aktuell gegensätzliche Tendenzen zu verzeichnen: Einerseits nehmen die Erwartungen an eine digitalisierte und moderne Verwaltung zu. Andererseits stoßen insbesondere als komplexer wahrgenommene Aspekte wie KI auf Vorbehalte. Bei einem verantwortungsvollen Umgang kann KI ihr Potenzial entfalten, indem die Algorithmen und eingeführte Technologien hinsichtlich der Gesetzeslage sowie ethischer und moralischer Überlegungen überwacht und gesteuert wer-den. Ein verantwortungsvoller Umgang mit Daten basiert auf aufgeklärten Entscheidern, informierten Bürgern und der Unterstützung von „bürgerschützenden Regeln”, die Miss-brauch grundsätzlich erschweren und Verstöße ahnden.
Langfristige Aussagen über die konkrete Entwicklung und Auswirkung von KI und Digitalisierung lassen sich nicht treffen aufgrund der Geschwindigkeit und Sprunghaftigkeit der Entwicklungen. In Bildung und Wissenschaft sollten im Bereich von KI die Interdisziplinarität gestärkt, nachhaltige und langfristige Strukturen geschaffen werden, um die digitale Transformation begleitend und aktivierend zu erforschen.
Green Innovation Areas have been developed in the US context of urban development in order to jump-start innovative solutions in abandoned areas. Prospective types of uses in these areas are not predetermined, but should be experimental and innovative. So far they can comprise vast greenhouse uses to less extensive clover fields, but their potential is not yet fully discovered. Implementing new and innovative economic uses in urban areas is relatively new in research for urban areas, in particular, when development types like bioeconomy are implemented. The joint German–Mexican research presented in this article aims at exploring the use of vacant inner urban spaces as Green Innovation Areas—discussing their potentials for sustainable development of shrinking cities.
Im Rahmen dieser Arbeit wurden im ersten von vier Teilen fünf Brønsted-saure, mesoporöse Organokieselgele synthetisiert, vier auf Basis eines BTEB-PMOs und eines auf der eines SBA-15s. Diese wiesen hohe spezifische Oberflächen zwischen 581 und 710 m2/g auf und geordnete, 2D-hexagonale Strukturen. Drei dieser Materialien wurden näher auf ihre Eigenschaft als Katalysator untersucht. Während sie in Kondensationsreaktionen geringe bis moderate Aktivität zeigten, erbrachte das SO3H-BTEB-PMO in der THP-Schützung von Isoamylalkohol und Phenol bereits nach 10 min mit nur 0.1 mol-% Katalysator einen vollständigen Umsatz. In den entsprechenden Entschützungen war die Aktivität vergleichbar mit der von pTsOH. Der Katalysator konnte mehrmals regeneriert werden, ohne dabei erheblich an Aktivität zu verlieren.
Im zweiten Teil der vorliegenden Arbeit wurde das SO3H-BTEB-PMO dazu genutzt, um vier kationisch funktionalisierte Phenothiazine zu immobilisieren. Die Phenothiazine wurden allesamt in Kooperation im Rahmen des DFG-Projekts TH 550/20-1 von M.Sc. Hilla Khelwati im Arbeitskreis von Prof. Dr. T. J. J. Müller an der HHU Düsseldorf synthetisiert. So konnten neuartige, redoxaktive Hybridmaterialien mit spezifischen Oberflächen zwischen 500 und 688 m2/g, 2D-hexagonaler Struktur und Phenothiazin-Beladungen zwischen 167 und 243 µmol/g erhalten werden. Die Umwandlung in ihre stabilen Radikalkationen gelang durch gezielte Bestrahlung mit Licht, wobei selbst nach zehn Monaten Lagerung im Dunkeln noch radikalische Spezies in nur gering verminderter Intensität detektiert werden konnten. Zwei weitere, kationisch funktionalisierte Phenothiazine wurden nach demselben Prinzip auf BTEB-NP immobilisiert. Dabei besaßen die beiden Organokieselgele spezifische Oberflächen von 335 und 565 m2/g und Phenothiazin-Beladungen von 394 bzw. 137 µmol/g. Die letzten beiden Phenothiazine, diesmal mit Triethoxysilylgruppen versehen, wurden mittels Grafting auf das BTEB-NP-Gerüst aufgebracht, wobei diese chemisch oxidiert werden mussten, um stabile Radikalkationen zu erhalten. Es zeigte sich, dass bei der Bestrahlung mit Licht bei den kationisch funktionalisierten Phenothiazinen die Umgebung innerhalb der Pore für die beobachtete Stabilität der Radikalkationen essentiell ist, welche bei den gegrafteten Phenothiazinen nicht gegeben war. Die Hybridmaterialien mit den gegrafteten Phenothiazinen besaßen Oberflächen von 172 und 920 m2/g und Phenothiazin-Beladungen von 809 bzw. 88.9 µmol/g.
Der dritte Bereich beschäftigte sich mit der Synthese eines epi-Chinin-BTEB-PMOs für die Anwendung in der Katalyse der Mannich-Reaktion von Ketiminen mit dem Nucleophil 2,4-Pentandion. Dabei konnten hohe Umsätze zwischen 73 und 98%, bei Stereoselektivitäten zwischen 69 und 98% ee, erhalten werden. Das mesoporöse Katalysatorsystem besaß eine spezifische Oberfläche von 812 m2/g, eine 2D-hexagonale Struktur und eine Beladung an aktiven Zentren von 151 µmol/g. Der Katalysator konnte mehrmals regeneriert werden, bei leichten Einbußen im Umsatz und gleichbleibender Selektivität.
Im vierten und letzten Abschnitt wurden Möglichkeiten untersucht, Vanadium- und Aluminium-Spezies in das BTEB-PMO-Grundgerüst zu inkorporieren, um somit Katalysatoren für die Epoxidierung von Olefinen zu erhalten. Dabei konnte eine große Anzahl an Materialien erhalten werden, die jedoch keine geordnete Struktur aufwiesen und sich lediglich in der Epoxidierung von (Z)-Cycloocten sehr aktiv zeigten.
Functional Metallic Microcomponents via Liquid-Phase Multiphoton Direct Laser Writing: A Review
(2019)
We present an overview of functional metallic microstructures fabricated via direct laser writing out of the liquid phase. Metallic microstructures often are key components in diverse applications such as, e.g., microelectromechanical systems (MEMS). Since the metallic component’s functionality mostly depends on other components, a technology that enables on-chip fabrication of these metal structures is highly desirable. Direct laser writing via multiphoton absorption is such a fabrication method. In the past, it has mostly been used to fabricate multidimensional polymeric structures. However, during the last few years different groups have put effort into the development of novel photosensitive materials that enable fabrication of metallic—especially gold and silver—microstructures. The results of these efforts are summarized in this review and show that direct laser fabrication of metallic microstructures has reached the level of applicability.
Function of two redox sensing kinases from the methanogenic archaeon Methanosarcina acetivorans
(2019)
MsmS is a heme-based redox sensor kinase in Methanosarcina acetivorans consisting of alternating PAS and GAF domains connected to a C-terminal kinase domain. In addition to MsmS, M. acetivorans possesses a second kinase, MA0863 with high sequence similarity. Interestingly, MA0863 possesses an amber codon in its second GAF domain, encoding for the amino acid pyrrolysine. Thus far, no function of this residue has been resolved. In order to examine the heme iron coordination in both proteins, an improved method for the production of heme proteins was established using the Escherichia coli strain Nissle 1917. This method enables the complete reconstitution of a recombinant hemoprotein during protein production, thereby resulting in a native heme coordination. Analysis of the full-length MsmS and MA0863 confirmed a covalently bound heme cofactor, which is connected to one conserved cysteine residue in each protein. In order to identify the coordinating amino acid residues of the heme iron, UV/vis spectra of different variants were measured. These studies revealed His702 in MsmS and the corresponding His666 in MA0863 as the proximal heme ligands. MsmS has previously been described as a heme-based redox sensor. In order to examine whether the same is true for MA0863, redox dependent kinase assays were performed. MA0863 indeed displays redox dependent autophosphorylation activity, which is independent of heme ligands and only observed under oxidizing conditions. Interestingly, autophosphorylation was shown to be independent of the heme cofactor but rather relies on thiol oxidation. Therefore, MA0863 was renamed in RdmS (redox dependent methyltransferase-associated sensor). In order to identify the phosphorylation site of RdmS, thin layer chromatography was performed identifying a tyrosine as the putative phosphorylation site. This observation is in agreement with the lack of a so-called H-box in typical histidine kinases. Due to their genomic localization, MsmS and RdmS were postulated to form two-component systems (TCS) with vicinal encoded regulator proteins MsrG and MsrF. Therefore, protein-protein interaction studies using the bacterial adenylate two hybrid system were performed suggesting an interaction of RdmS and MsmS with the three regulators MsrG/F/C. Due to these multiple interactions these signal transduction pathways should rather be considered multicomponent system instead of two component systems.
While the design step should be free from computational related constraints and operations due to its artistic aspect, the modeling phase has to prepare the model for the later stages of the pipeline.
This dissertation is concerned with the design and implementation of a framework for local remeshing and optimization. Based on the experience gathered, a full study about mesh quality criteria is also part of this work.
The contributions can be highlighted as: (1) a local meshing technique based on a completely novel approach constrained to the preservation of the mesh of non interesting areas. With this concept, designers can work on the design details of specific regions of the model without introducing more polygons elsewhere; (2) a tool capable of recovering the shape of a refined area to its decimated version, enabling details on optimized meshes of detailed models; (3) the integration of novel techniques into a single framework for meshing and smoothing which is constrained to surface structure; (4) the development of a mesh quality criteria priority structure, being able to classify and prioritize according to the application of the mesh.
Although efficient meshing techniques have been proposed along the years, most of them lack the possibility to mesh smaller regions of the base mesh, preserving the mesh quality and density of outer areas.
Considering this limitation, this dissertation seeks answers to the following research questions:
1. Given that mesh quality is relative to the application it is intended for, is it possible to design a general mesh evaluation plan?
2. How to prioritize specific mesh criteria over others?
3. Given an optimized mesh and its original design, how to improve the representation of single regions of the first, without degrading the mesh quality elsewhere?
Four main achievements came from the respective answers:
1. The Application Driven Mesh Quality Criteria Structure: Due to high variation in mesh standards because of various computer aided operations performed for different applications, e.g. animation or stress simulation, a structure for better visualization of mesh quality criteria is proposed. The criteria can be used to guide the mesh optimization, making the task consistent and reliable. This dissertation also proposes a methodology to optimize the criteria values, which is adaptable to the needs of a specific application.
2. Curvature Driven Meshing Algorithm: A novel approach, a local meshing technique, which works on a desired area of the mesh while preserving its boundaries as well as the rest of the topology. It causes a slow growth in the overall amount of polygons by making only small regions denser. The method can also be used to recover the details of a reference mesh to its decimated version while refining it. Moreover, it employs a geometric fast and easy to implement approach representing surface features as simple circles, being used to guide the meshing. It also generates quad-dominant meshes, with triangle count directly dependent on the size of the boundary.
3. Curvature-based Method for Anisotropic Mesh Smoothing: A geometric-based method is extended to 3D space to be able to produce anisotropic elements where needed. It is made possible by mapping the original space to another which embeds the surface curvature. This methodology is used to enhance the smoothing algorithm by making the nearly regularized elements follow the surface features, preserving the original design. The mesh optimization method also preserves mesh topology, while resizing elements according to the local mesh resolution, effectively enhancing the design aspects intended.
4. Framework for Local Restructure of Meshed Surfaces: The combination of both methods creates a complete tool for recovering surface details through mesh refinement and curvature aware mesh smoothing.
Study 1 (Chapter 2) is an empirical case study that concerns the nature of teaching–learning transactions that facilitate self-directed learning in vocational education and training of young adults in England. It addresses in part the concern that fostering the skills necessary for self-directed learning is an important endeavor of vocational education and training in many contexts internationally. However, there is a distinct lack of studies that investigate the extent to which facilitation of self-directed learning is present within vocational education and training in different contexts. An exploratory thematic qualitative analysis of inspectors’ comments within general Further Education college Ofsted inspection reports was conducted to investigate the balance of control of the learning process between teacher and learner within vocational education and training of young adults in England. A clear difference between outstanding and inadequate provision is reported. Inadequate provision was overwhelmingly teacher-directed. Outstanding provision reflected a collaborative relationship between teacher and learner in directing the learning process, despite the Ofsted framework not explicitly identifying the need for learner involvement in directing the learning process. The chapter offers insight into the understanding of how an effective balance of control of learning between teacher and learner may be realized in vocational education and training settings and highlights the need to consider the modulating role of contextual factors.
Following the further research directions outlined in Chapter 2, study 2 (Chapter 3) is a theoretical chapter that addresses the issue that fostering adult learners’ competence to adapt appropriately to our ever-changing world is a primary concern of adult education. The purpose of the chapter is novel and examines whether the consideration of modes of learning (instruction, performance, and inquiry) could assist in the design of adult education that facilitates self-directed learning and enables learners to think and perform adaptively. The concept of modes of learning originated from the typology of Houle (1980). However, to date, no study has reached beyond this typology, especially concerning the potential of using modes of learning in the design of adult education. Specifically, an apparent oversight in adult learning theory is the foremost importance of the consideration of whether inquiry is included in the learning process: its inclusion potentially differentiates the purpose of instruction, the nature of learners’ performance, and the underlying epistemological positioning. To redress this concern, two models of modes of learning are proposed and contrasted. The reinforcing model of modes of learning (instruction, performance, without inquiry) promotes teacher-directed learning. A key consequence of employing this model in adult education is that learners may become accustomed to habitually reinforcing patterns of perceiving, thinking, judging, feeling, and acting—performance that may be rather inflexible and represented by a distinct lack of a perceived need to adapt to social contextual changes: a lack of motivation for self-directed learning. Rather, the adapting model of modes of learning (instruction, performance, with inquiry) may facilitate learners to be adaptive in their performance—by encouraging an enhanced learner sensitivity toward changing social contextual conditions: potentially enhancing learners’ motivation for self-directed learning.
In line with the further research directions highlighted in Chapter 3, concerning the need to consider the nature and treatment of educational experiences that are conductive to learner growth and development, study 3 (Chapter 4) presents a systematic review of the experiential learning theory; a theory that perhaps cannot be uncoupled from self-directed learning theory, especially in regard to understanding the cognitive aspect of self-directed learning, which represents an important direction for further research on self-directed learning. D. A. Kolb’s (1984) experiential learning cycle is perhaps the most scholarly influential and cited model regarding experiential learning theory. However, a key issue in interpreting Kolb’s model concerns a lack of clarity regarding what constitutes a concrete experience, exactly. A systematic literature review was conducted in order to examine: what constitutes a concrete experience and what is the nature of treatment of a concrete experience in experiential learning? The analysis revealed five themes: learners are involved, active, participants; knowledge is situated in place and time; learners are exposed to novel experiences, which involves risk; learning demands inquiry to specific real-world problems; and critical reflection acts as a mediator of meaningful learning. Accordingly, a revision to Kolb’s model is proposed: experiential learning consists of contextually rich concrete experience, critical reflective observation, contextual-specific abstract conceptualization, and pragmatic active experimentation. Further empirical studies are required to test the model proposed. Finally, in Chapter 5 key findings of the studies are summarized, including that the models proposed in Chapters 3 and 4 (Figures 2 and 4, respectively) may be important considerations for further research on self-directed learning.