Refine
Year of publication
- 2020 (278) (remove)
Document Type
- Article (114)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (160)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (278)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (51)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung des wissenschaftlichen Zertifikatskurses
Interprofessionelle Kommunikation in gemeindenaher Gesundheitsversorgung und
beschreibt die Evaluationsergebnisse. Die Zielgruppe für das bedarfsorientierte Bildungsangebot
waren berufserfahrene Pflegefachpersonen aus der ambulanten Gesundheitsversorgung.
Der Kurs wurde im Wintersemester 2019/20 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt und durch Mitarbeitende des Teilvorhaben E-hoch-B – Pflege und
Gesundheit begleitet und evaluiert. Die Evaluation erfolgte qualitativ durch Fokusgruppeninterviews
und quantitativ durch Fragebögen. Ziel war es, die soziodemografischen Merkmale
sowie bildungs- und berufsbiografischen Kennzeichen der Teilnehmenden des Zertifikatskurses
herauszuarbeiten. Weiterhin sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs
erleben bzw. erlebt haben und welche Handlungsempfehlungen für die Weiterentwicklung
und Verstetigung des Kurses abgeleitet werden können.
Die vorliegende Arbeit nimmt den Rahmen für den Transformationsprozess, in dem sich gegenwärtig die österreichische Schulaufsicht befindet, in den Blick indem sie
- Herausforderungen für die Aufgaben und die Rolle der Schulaufsicht, die durch gesellschaftliche Veränderungsprozesse und veränderte bildungspolitische Vorgaben entstanden sind, skizziert
- aus einem kurzen historischen Überblick heraus schulaufsichtliche Spannungsfelder identifiziert, die durch die gegenwärtige Reform der Schulaufsicht aufgelöst (oder zumindest abgeschwächt) werden sollen
- die aktuellen Rahmenbedingungen für schulaufsichtliche Tätigkeit (Schulautonomie und die Einführung der externen Schulevaluation) darstellt.
Auf dieser Grundlage, werden Perspektiven für die Entwicklung der Schulaufsicht in der Rolle als
- Vermittlerin und Verantwortungsträgerin hinsichtlich der Implementierung von Reformvorhaben,
- professionelle Unterstützerin bzw. Beraterin (im Kontext der Rechenschaftslegung eigenverantwortlicher Schulen und der in Österreich erst neu zu definierenden Arbeitsbeziehungen zur externen Schulevaluation) und
- strategische Führungskraft, die in supervidierender Form Schulleitungen einer Bildungsregion führt, vorgeschlagen.
Diese Perspektiven verstehen sich als ein Beitrag zur Diskussion, wie künftig Schulqualitätsmanager/innen ihre Rolle als Schulaufsichtsorgane entwickeln können. In Zeiten tiefgreifender Veränderungen, die auch eine beträchtliche Unsicherheit im Rollenbild ausgelöst haben, werden damit konkrete Vorschläge zur Entwicklung einer stabilen Rolle von Schulaufsichtspersonen vorgelegt.
Die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit ist nicht unumstritten. Immer wieder wird die Daseinsberechtigung und Bedeutung von Schöffinnen und Schöffen in Strafverfahren hinterfragt.
Die Masterarbeit gibt einen Überblick über das Schöffenamt und anhand einer Befragung von Berufsrichterinnen und -richtern sowie von Schöffinnen und Schöffen wurde die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit untersucht. Dabei wurde auf die Zusammenarbeit beider eingegangen und bestehende Probleme herausgearbeitet. Im Ergebnis wurde schließlich auch der Frage nachgegangen, inwieweit das Schöffenamt noch seine Daseinsberechtigung und die Beteiligung von Schöffinnen und Schöffen Nutzen für die Strafrechtspflege hat.
Vor dem Hintergrund, dass kleine und mittlere Flughäfen strukturell defizitär und zumindest in Bezug auf die Infrastrukturfinanzierung auf öffentliche Fördermittel angewiesen sind , stellen sich unweigerlich die Fragen, inwieweit die jeweiligen staatlichen Unterstützungsmaßnahmen mit den beihilferechtlichen Regelungen kompatibel sind bzw. mit welchen Konsequenzen ein Regionalflughafen im Falle eines erwiesenen Beihilfeverstoßes rechnen muss. Die vorliegende Arbeit hat sich deshalb zum Ziel gesetzt, die Bedeutung des EU-Beihilferechts für Regionalflughäfen in Deutschland aufzuzeigen.
Hierfür ist zunächst zu klären, wann ein Flughafen als Regionalflughafen klassifiziert wird, welche Besonderheiten Regionalflughäfen in Deutschland grundsätzlich aufweisen und mit welchen Herausforderungen sie in der heutigen Zeit konfrontiert sind. Exemplarisch soll sich dabei im Besonderen dem Regionalflughafen Frankfurt-Hahn (Rheinland-Pfalz) angenommen werden, da dieser bereits mehrfach das Zielobjekt beihilferechtlicher Untersuchungen sowie diverser Gerichtsverfahren war.
Im weiteren Verlauf ist der Frage nachzugehen, unter welchen Gegebenheiten der Beihilfetatbestand bei Regionalflughäfen (insb. am Beispiel Frankfurt-Hahn) erfüllt ist und inwiefern solche Beihilfen akzeptiert bzw. für mit dem Binnenmarkt vereinbar erklärt werden können. In diesem Zuge soll auch ein Überblick über die einschlägigen Normen (Primär-/ Sekundärrecht, „soft law“) sowie die relevante Entscheidungspraxis der Kommission bzw. der Unionsgerichte gegeben werden.
Schließlich ist zu untersuchen, welchen Risiken der Regionalflughafen Frankfurt-Hahn momentan aufgrund der beihilferechtlichen Regelungen ausgesetzt ist und welche Folgen mit rechtswidrig gewährten Beihilfen verbunden sein können. Abschließend soll sodann skizziert werden, worauf ein Regionalflughafen in Deutschland zu achten hat, um sich in das Korsett, welches das EU-Beihilferecht diesem Sektor verpasst hat, zu zwängen.
Nach einer Zusammenfassung der gewonnenen Erkenntnis ist zuletzt beabsichtigt, auf offene, noch zu erörternde Fragestellungen hinzuweisen.
Although today’s bipeds are capable of demonstrating impressive locomotion skills, in many aspects, there’s still a big gap compared to the capabilities observed in humans. Partially, this is due to the deployed control paradigms that are mostly based on analytical approaches. The analytical nature of those approaches entails strong model dependencies – regarding the robotic platform as well as the environment – which makes them prone to unknown disturbances. Recently, an increasing number of biologically-inspired control approaches have been presented from which a human-like bipedal gait emerges. Although the control structures only rely on proprioceptive sensory information, the smoothness of the motions and the robustness against external disturbances is impressive. Due to the lack of suitable robotic platforms, until today the controllers have been mostly applied to
simulations.
Therefore, as the first step towards a suitable platform, this thesis presents the Compliant Robotic Leg (CARL) that features mono- as well as biarticular actuation. The design is driven by a set of core-requirements that is primarily derived from the biologically-inspired behavior-based bipedal locomotion control (B4LC) and complemented by further functional aspects from biomechanical research. Throughout the design process, CARL is understood as a unified dynamic system that emerges from the interplay of the mechanics, the electronics, and the control. Thus, having an explicit control approach and the respective gait in mind, the influence of each subsystem on the characteristics of the overall system is considered
carefully.
The result is a planar robotic leg whose three joints are driven by five highly integrated linear SEAs– three mono- and two biarticular actuators – with minimized reflected inertia. The SEAs are encapsulated by FPGA-based embedded nodes that are designed to meet the hard application requirements while enabling the deployment of a full-featured robotic framework. CARL’s foot is implemented using a COTS prosthetic foot; the sensor information is obtained from the deformation of its main structure. Both subsystems are integrated into a leg structure that matches the proportions of a human with a size of 1.7 m.
The functionality of the subsystems, as well as the overall system, is validated experimentally. In particular, the final experiment demonstrates a coordinated walking motion and thereby confirms that CARL can produce the desired behavior – a natural looking, human-like gait is emerging from the interplay of the behavior-based walking control and the mechatronic system. CARL is robust regarding impacts, the redundant actuation system can render the desired joint torques/impedances, and the foot system supports the walking structurally while it provides the necessary sensory information. Considering that there is no movement of the upper trunk, the angle and torque profiles are comparable to the ones found in humans.
Interconnection networks enable fast data communication between components of a digital system. The selection of an appropriate interconnection network and its architecture plays an important role in the development process of the system. The selection of a bad network architecture may significantly delay the communication between components and decrease the overall system performance.
There are various interconnection networks available. Most of them are blocking networks. Blocking means that even though a pair of source and target components may be free, a connection between them might still not be possible due to limited capabilities of the network. Moreover, routing algorithms of blocking networks have to avoid deadlocks and livelocks, which typically does only allow poor real-time guarantees for delivering a message. Nonblocking networks can always manage all requests that are coming from their input components and can therefore deliver all messages in guaranteed time, i.e, with strong real-time guarantees. However, only a few networks are nonblocking and easy to implement. The simplest one is the crossbar network which is a comparably simple circuit with also a simple routing algorithm. However, while its circuit depth of O(log(n)) is optimal, its size increases with O(n^2) and quickly becomes infeasible for large networks. Therefore, the construction of nonblocking networks with a quasipolynomial size O(nlog(n)^a) and polylogarithmic depth O(log(n)^b) turned out as a research problem.
Benes [Clos53; Bene65] networks were the first non blocking networks having an optimal size of O(nlog(n)) and an optimal depth of O(log(n)), but their routing algorithms are quite complicated and require circuits of depth O(log(n)^2) [NaSa82].
Other nonblocking interconnection networks are derived from sorting networks. Essentially, there are merge-based (MBS) and radix-based (RBS) sorting networks. MBS and RBS networks can be both implemented in a pipelined fashion which leads to a big advantage for their circuit implementation. While these networks are nonblocking and can implement all n! permutations, they cannot directly handle partial permutations that frequently occur in practice since not every input component communicates at every point of time with an output component. For merge-based sorting networks, there is a well known general solution called the Batcher-Banyan network. However, for the larger class of radix-based sorting networks this does not work, and there is only one solution known for a particular permutation network.
In this thesis, new nonblocking radix-based interconnection networks are presented. In particular, for a certain permutation network, three routing algorithms are developed and their circuit implementations are evaluated concerning their size, depth, and power consumption. A special extension of these networks allows them to route also partial permutations. Moreover, three general constructions to convert any binary sorter into a ternary split module were presented which is the key to construct a radix-based interconnection network that can cope with partial permutations. The thesis compares also chip designs of these networks with other radix-based sorting networks as well as with the Batcher-Banyan networks as competitors. As a result, it turns out that the proposed radix-based networks are superior and could form the basis of larger manycore architectures.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung und Analyse von Faktoren der haus-ärztlichen Standortfaktoren im ländlichen Raum.
Lebensqualität gerade auch in ländlichen Räumen in Deutschland ist vor allem daran geknüpft, welche Angebote der Daseinsvorsorge vor Ort bestehen. Die ambulante medizinische Versorgung nimmt dabei eine Schlüsselstellung ein, gerade vor dem Hintergrund einer im Zuge des demographischen Wandels immer älter werdenden Gesellschaft, insbesondere auf dem Land.
Niedergelassene Ärzte bilden dabei das Rückgrat einer bedarfsgerechten flächenhaften Versorgung, von denen wiederum die Hausärzte als Generalisten mit bislang sehr kleinräumiger Verteilungsstruktur erster Ansprechpartner für Patienten sind. Allerdings werden in Zukunft viele Hausarztsitze nicht mehr adäquat nachbesetzt werden können, da es zu wenige Nachfolger gibt. Unter dem gegenwärtigen Ungleichgewicht von Angebot und Nachfrage an Hausarztpraxen existiert kein funktionsfähiges Verteilungssystem zur Erreichung einer möglichst homogenen Flächenversorgung. Umso wichtiger ist es, den Prozess der Standortentscheidung von Hausärzten möglichst gut nachvollziehen zu können, um festzustellen anhand welcher Kriterien Hausärzte ihren Standort festlegen. In dieser Arbeit werden darum zunächst auf Expertenaussagen gestützte unternehmerische und private Faktoren ermittelt, die bei der hausärztlichen Standortwahl von Relevanz sein können.
Die Gründe für den bevorstehenden und bereits in manchen Regionen bemerkbaren Hausarztmangel liegen dabei zum einen im Ausbildungssystem, wo im langjährigen Verlauf Schwankungen in der Ausbildungsmenge und Missverhältnisse zur Bedarfsmenge an Ärzten zur einer aktuelle Verknappung beigetragen haben. Ebenso wurde die frühere Dominanz an männlichen Medizinstudenten durch eine Dominanz weiblicher Nachwuchsmediziner abgelöst, mit neuen Standortansprüchen und gewünschten Arbeitsformen. Allerdings nicht nur weibliche Nachwuchsmediziner bevorzugen heute Arbeitsmodelle, in denen sie ein Höchstmaß an Flexibilität haben, was vor allem in immer begehrter werdende Teamarbeit, Teilzeittätigkeiten, Anstellungs- anstelle von freiberuflichen Tätigkeitsformen und damit insgesamt in vor allem präferierte Tätigkeiten im stationären Versorgungsbereich hinausläuft. Die eher unattraktiven Arbeitsbedingungen als Hausarzt mit hoher Arbeitsbelastung mit im Vergleich zu anderen Facharztgruppen wenig attraktivem Gehalt tun ihr Übriges zur zunehmenden Verschmähung der allgemeinmedizinischen Weiterbildung zum Hausarzt bei, stattdessen findet immer häufiger eine Spezialisierung unter Nachwuchsmedizinern statt.
Alle angedachten bzw. in Umsetzung begriffene Maßnahmen zur Attraktivierung des Haus- bzw. Landarztberufs, vor allem finanzielle Anreize und Imagekampagnen, aber auch der Aufbau größerer Versorgungseinrichtungen, telemedizinischer Behandlungsmöglichkeiten und nicht-ärztlicher Delegationsformen, haben bislang nicht den erhofften Effekt einer Stabilisierung der Versorgungssituation. Dies gilt besonders auch im ländlichen Raum, wo die Ausstattung an Einrichtungen der Daseinsvorsorge in aller Regel nicht mit städtischen Qualitätsstandards mithalten kann. Bei einer relativ großen Wahlfreiheit durch nicht besetzbare Stellen und Posten älterer Ärzte bestehen für Nachwuchsmediziner jedoch heute gerade auch in dieser räumlichen Hinsicht größtmögliche Entscheidungsfreiheiten. Dies führt bereits heute zu einer Bevorzugung städtischer Räume als Arbeitsstandort und verschärft so zusätzlich die hausärztliche Versorgungslage im ländlichen Raum.
Im Rahmen einer empirischen Untersuchung an standardisiert befragten Hausärzten der zuvor gebildeten Modellräume Eifel und Unterfranken wurde dazu untersucht, welche unternehmerischen und privaten Faktoren überhaupt Hausärzte in die ländlichen Räume ziehen und ob diese im zeitlichen Verlauf sind. Neben den ökonomisch günstigen Voraussetzungen für Hausärzte mit leicht verfügbarer Kassenzulassung und großer Patientenzahl spricht dabei vor allem der landschaftliche Reiz für eine Niederlassung im ländlichen Raum. Von besonderer Relevanz war bislang auch immer das kinderfreundliche Lebensumfeld mit entsprechend vorgehaltenen Bildungseinrichtungen, allerdings verliert dieser Faktor durch den immer seltener werdenden Kin-der Wunsch langsam an Bedeutung unter den Hausärzten.
Jedoch bestehen zudem eine Reihe von sekundär bedeutsamen Faktoren, die auch vor Ort gestaltbar sein und so von innen heraus die Nachwuchsmediziner in Richtung ländlicher Räume ziehen können. Dazu zählen medizinische Einrichtungen (v.a. Fachärzte und Kliniken), Einkaufsmöglichkeiten, Sportstätten und das kulturelle Angebot.
Diese Faktoren gilt es zu stärken bzw. etwaige Schwächen ländlicher Räume in dieser Hinsicht mit kompensatorischen Maßnahmen inner- und überregional zu begegnen. Insbesondere wird es für eine zukünftig adäquate hausärztliche Versorgung unerlässlich sein, stärker auf die Interessen und Standortanforderungen weiblicher Mediziner mit besseren Betreuungsangeboten für Kinder, beruflichen Entfaltungsmöglichkeiten für Ehepartner, aber auch gewünschten Arbeitsorganisationsformen mit einem Mehr an Teamarbeit und flexiblen Arbeitsmodellen und -zeiten an zentraleren Standorten einzugehen.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Untersuchungen zur Struktur und Spezifität der Phycobiliproteinlyase CPES aus Guillardia theta
(2020)
Cryptophyten verwenden neben Chlorophyll zusätzliche Lichtsammelproteine für die Photo-synthese – die Phycobiliproteine (PBP). In Cyanobakterien, Rotalgen und Glaukophyten sind PBP ebenfalls ubiquitär verbreitet. Für den Zweck der Lichtsammlung tragen die PBP- Untereinheiten kovalent gebundene offenkettige Tetrapyrrol-Chromophore an konservierten Cysteinresten. Diese Phycobiline sind in der Lage, grünes Licht zu absorbieren und es für die Photosynthese zur Verfügung zu stellen. Die Fähigkeit zur Photosynthese erlangten Crypto-phyten bei der sekundären Endosymbiose durch Aufnahme einer früheren Rotalge. Die evolutionäre Entwicklung brachte schließlich modifizierte PBP hervor. In Gegensatz zu ande-ren Organismen liegen die PBP in Cryptophyten in löslicher Form im Thylakoidlumen des Plastiden vor. Cryptophyten besitzen lediglich einen Typ an PBP, Guillardia theta verwendet Phycoerythrin PE545. Die α-Untereinheiten sind jeweils mit einem Molekül 15,16-Dihydrobi-liverdin (DHBV) und die β-Untereinheiten mit drei Molekülen Phycoerythrobilin (PEB) chromophoryliert. Die Chromophorylierung cryptophytischer Apo-PBP ist bisher wenig un-tersucht und verstanden. Aus Cyanobakterien ist jedoch bekannt, dass die Chromophorylie-rung häufig mit Hilfe von Phycobiliproteinlyasen (PBP Lyasen) stattfindet, welche die Phyco-bilinübertragung unterstützen.
In der vorliegenden Arbeit erfolgte die funktionelle Charakterisierung der eukaryotischen S-Typ-PBP Lyase GtCPES aus G. theta. Mittels Fluoreszenzspektroskopie und Zink-induzierter Fluoreszenz konnte gezeigt werden, dass GtCPES den Transfer von 3(Z)-PEB auf Cys82 der PBP-β-Untereinheit aus Prochlorococcus marinus MED4 (PmCpeB) vermittelt. An der PEB-Bindung sowie am -Transfer beteiligte Aminosäuren wurden mit Hilfe Zielgerichteter Muta-genese identifiziert. Anhand spektroskopischer Binde- und Transferstudien mit den Protein-varianten wurden drei Aminosäuren in der Ligandenbindetasche ermittelt, die relevant für die Bindung sind (Trp69, Glu136, Glu168). Diese koordinieren vermutlich PEB in der Bindetasche und stabilisieren somit die Konformation. Zusätzlich konnten zwei im PEB-Transfer involvierte Aminosäuren eindeutig identifiziert werden (Trp75, Ser150). Trp75 kommt dabei eine essenzielle Bedeutung für den Transfer zu. Des Weiteren konnte gezeigt werden, dass Met67 für die auf PEB und DHBV beschränkte Substratspezifität von GtCPES verantwortlich ist. Die Variante GtCPES_M67A bindet sowohl PEB als auch das rigide Phycocyanobilin (PCB) stabil unter Bildung eines farbigen Komplexes in vitro und in vivo in Escherichia coli. GtCPES_M67A scheint zudem in der Lage zu sein, PCB auf geeignete Apo-Proteine zu transfe-rieren. Neben der sterischen und elektrostatischen Umgebung entscheidet damit zusätzlich die Substratspezifität der PBP Lyase über die gebundenen Chromophore am PBP.
In this thesis we study a variant of the quadrature problem for stochastic differential equations (SDEs), namely the approximation of expectations \(\mathrm{E}(f(X))\), where \(X = (X(t))_{t \in [0,1]}\) is the solution of an SDE and \(f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R}\) is a functional, mapping each realization of \(X\) into the real numbers. The distinctive feature in this work is that we consider randomized (Monte Carlo) algorithms with random bits as their only source of randomness, whereas the algorithms commonly studied in the literature are allowed to sample from the uniform distribution on the unit interval, i.e., they do have access to random numbers from \([0,1]\).
By assumption, all further operations like, e.g., arithmetic operations, evaluations of elementary functions, and oracle calls to evaluate \(f\) are considered within the real number model of computation, i.e., they are carried out exactly.
In the following, we provide a detailed description of the quadrature problem, namely we are interested in the approximation of
\begin{align*}
S(f) = \mathrm{E}(f(X))
\end{align*}
for \(X\) being the \(r\)-dimensional solution of an autonomous SDE of the form
\begin{align*}
\mathrm{d}X(t) = a(X(t)) \, \mathrm{d}t + b(X(t)) \, \mathrm{d}W(t), \quad t \in [0,1],
\end{align*}
with deterministic initial value
\begin{align*}
X(0) = x_0 \in \mathbb{R}^r,
\end{align*}
and driven by a \(d\)-dimensional standard Brownian motion \(W\). Furthermore, the drift coefficient \(a \colon \mathbb{R}^r \to \mathbb{R}^r\) and the diffusion coefficient \(b \colon \mathbb{R}^r \to \mathbb{R}^{r \times d}\) are assumed to be globally Lipschitz continuous.
For the function classes
\begin{align*}
F_{\infty} = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{\sup}\bigr\}
\end{align*}
and
\begin{align*}
F_p = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{L_p}\bigr\}, \quad 1 \leq p < \infty.
\end{align*}
we have established the following.
\[\]
\(\textit{Theorem 1.}\)
There exists a random bit multilevel Monte Carlo (MLMC) algorithm \(M\) using
\[
L = L(\varepsilon,F) = \begin{cases}\lceil{\log_2(\varepsilon^{-2}}\rceil, &\text{if} \ F = F_p,\\
\lceil{\log_2(\varepsilon^{-2} + \log_2(\log_2(\varepsilon^{-1}))}\rceil, &\text{if} \ F = F_\infty
\end{cases}
\]
and replication numbers
\[
N_\ell = N_\ell(\varepsilon,F) = \begin{cases}
\lceil{(L+1) \cdot 2^{-\ell} \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F = F_p,\\
\lceil{(L+1) \cdot 2^{-\ell} \cdot \max(\ell,1) \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F=f_\infty
\end{cases}
\]
for \(\ell = 0,\ldots,L\), for which exists a positive constant \(c\) such that
\begin{align*}
\mathrm{error}(M,F) = \sup_{f \in F} \bigl(\mathrm{E}(S(f) - M(f))^2\bigr)^{1/2} \leq c \cdot \varepsilon
\end{align*}
and
\begin{align*}
\mathrm{cost}(M,F) = \sup_{f \in F} \mathrm{E}(\mathrm{cost}(M,f)) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for every \(\varepsilon \in {]0,1/2[}\).
\[\]
Hence, in terms of the \(\varepsilon\)-complexity
\begin{align*}
\mathrm{comp}(\varepsilon,F) = \inf\bigl\{\mathrm{cost}(M,F) \colon M \ \text{is a random bit MC algorithm}, \mathrm{error}(M,F) \leq \varepsilon\bigr\}
\end{align*}
we have established the upper bound
\begin{align*}
\mathrm{comp}(\varepsilon,F) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for some positive constant \(c\). That is, we have shown the same weak asymptotic upper bound as in the case of random numbers from \([0,1]\). Hence, in this sense, random bits are almost as powerful as random numbers for our computational problem.
Moreover, we present numerical results for a non-analyzed adaptive random bit MLMC Euler algorithm, in the particular cases of the Brownian motion, the geometric Brownian motion, the Ornstein-Uhlenbeck SDE and the Cox-Ingersoll-Ross SDE. We also provide a numerical comparison to the corresponding adaptive random number MLMC Euler method.
A key challenge in the analysis of the algorithm in Theorem 1 is the approximation of probability distributions by means of random bits. A problem very closely related to the quantization problem, i.e., the optimal approximation of a given probability measure (on a separable Hilbert space) by means of a probability measure with finite support size.
Though we have shown that the random bit approximation of the standard normal distribution is 'harder' than the corresponding quantization problem (lower weak rate of convergence), we have been able to establish the same weak rate of convergence as for the corresponding quantization problem in the case of the distribution of a Brownian bridge on \(L_2([0,1])\), the distribution of the solution of a scalar SDE on \(L_2([0,1])\), and the distribution of a centered Gaussian random element in a separable Hilbert space.
Activity recognition has continued to be a large field in computer science over the last two decades. Research questions from 15 years ago have led to solutions that today support our daily lives. Specifically, the success of smartphones or more recent developments of other smart devices (e.g., smart-watches) is rooted in applications that leverage on activity analysis and location tracking (fitness applications and maps). Today we can track our physical health and fitness and support our physical needs by merely owning (and using) a smart-phone. Still, the quality of our lives does not solely rely on fitness and physical health but also more increasingly on our mental well-being. Since we have learned how practical and easy it is to have a lot of functions, including health support on just one device, it would be specifically helpful if we could also use the smart-phone to support our mental and cognitive health if need be.
The ultimate goal of this work is to use sensor-assisted location and motion analysis to support various aspects of medically valid cognitive assessments.
In this regard, this thesis builds on Hypothesis 3: Sensors in our ubiquitous environment can collect information about our cognitive state, and it is possible to extract that information. In addition, these data can be used to derive complex cognitive states and to predict possible pathological changes in humans. After all, not only is it possible to determine the cognitive state through sensors but also to assist people in difficult situations through these sensors.
Thus, in the first part, this thesis focuses on the detection of mental state and state changes.
The primary purpose is to evaluate possible starting points for sensor systems in order to enable a clinically accurate assessment of mental states. These assessments must work on the condition that a developed system must be able to function within the given limits of a real clinical environment.
Despite the limitations and challenges of real-life deployments, it was possible to develop methods for determining the cognitive state and well-being of the residents. The analysis of the location data provides a correct classification of cognitive state with an average accuracy of 70% to 90%.
Methods to determine the state of bipolar patients provide an accuracy of 70-80\% for the detection of different cognitive states (total seven classes) using single sensors and 76% for merging data from different sensors. Methods for detecting the occurrence of state changes, a highlight of this work, even achieved a precision and recall of 95%.
The comparison of these results with currently used standard methods in psychiatric care even shows a clear advantage of the sensor-based method. The accuracy of the sensor-based analysis is 60% higher than the accuracy of the currently used methods.
The second part of this thesis introduces methods to support people’s actions in stressful situations on the one hand and analyzes the interaction between people during high-pressure activities on the other.
A simple, acceleration based, smartwatch instant feedback application was used to help laypeople to learn to perform CPR (cardiopulmonary resuscitation) in an emergency on the fly.
The evaluation of this application in a study with 43 laypersons showed an instant improvement in the CPR performance of 50%. An investigation of whether training with such an instant feedback device can support improved learning and lead to more permanent effects for gaining skills was able to confirm this theory.
Last but not least, with the main interest shifting from the individual to a group of people at the end of this work, the question: how can we determine the interaction between individuals within a group of people? was answered by developing a methodology to detect un-voiced collaboration in random ad-hoc groups. An evaluation with data retrieved from video footage provides an accuracy of up to more than 95%, and even with artificially introduced errors rates of 20%, still an accuracy of 70% precision, and 90% recall can be achieved.
All scenarios in this thesis address different practical issues of today’s health care. The methods developed are based on real-life datasets and real-world studies.
Congress Report 2019.12
(2020)
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Die vorliegende Masterarbeit widmet sich der Erforschung metakognitiver Kompetenzen und subjektiver Lernvorstellungen von Lernenden im Bereich der Pflegeausbildung. Hierzu wurde an einer Berufsfachschule für Krankenpflege eine Fragebogenstudie mit 118 Teilnehmenden durchgeführt, die sich den Fragen widmet, über welche metakognitiven Kompetenzen bzw. über welche subjektiven Lernvorstellungen Auszubildende in Pflegeberufen verfügen sowie welchen Einfluss diese jeweils auf die Aufgabenperformanz haben.
Die Ergebnisse zeigen, dass Auszubildende in Pflegeberufen zwar über metakognitives Strategiewissen verfügen, aber Schwierigkeiten haben dieses situationsgerecht abzurufen und einzusetzen. Auch verbinden zu wenige Befragte Lernerfolg mit dem Aspekt der Selbststeuerung und unterschätzen den erfolgsgenerierenden Effekt des Erfahrungsaustauschs.
Auf diese Ergebnisse aufbauend wurde das ausbildungsübergreifende Konzept „SMiLe“ (= „Selbststeuerung durch Metakognition in Lernprozessen“) entwickelt, das Lernende dazu befähigen soll, mittels Einsatz metakognitiver Strategien ihre Selbststeuerungskompetenzen zu verbessern. Lehrenden bietet „SMiLe“ darüber hinaus zahlreiche Vorschläge, wie die Förderung metakognitiver Kompetenzen in Lernarrangements integriert werden kann.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
This work describes the development of a continuum phase field model that can describe static as well as dynamic wetting scenarios on the nano- and microscale.
The model reaches this goal by a direct integration of an equation of state as well as a direct integration of the dissipative properties of a specific fluid, which are both obtained from molecular simulations. The presented approach leads to good agreement between the predictions of the phase field model and the physical properties of the regarded fluid.
The implementation of the model employs a mixed finite element formulation, a newly developed semi-implicit time integration scheme, as well as the concept of hyper-dual numbers. This ensures a straightforward and robust exchangeability of the constitutive equation for the regarded fluid.
The presented simulations show good agreement between the results of the present phase field model and results from molecular dynamics simulations. Furthermore, the results show that the model enables the investigation of wetting scenarios on the microscale. The continuum phase field model of this work bridges the gap between the molecular models on the nanoscale and the phenomenologically motivated continuum models on the macroscale.
Im Rahmen dieser Arbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden dargestellt und die korrespondierenden Rutheniumkomplexe hinsichtlich ihrer Aktivität in homogenkatalytischen Hydrierungs- und Dehydrierungsreaktionen untersucht. Durch Anwendung des Prinzips von Le Chatelier konnte die katalytische Transferhydrierung verschiedener Substrate mit Isopropanol, dem gängigen Lösungsmittel und Wasserstoffdonor dieser Umsetzung, optimiert werden. Zusätzlich gelang die Substitution dieses sekundären Alkohols gegen preiswertes Ethanol, welches aus nachwachsenden Rohstoffen gewonnen werden kann. Dabei nahm die rasche Entfernung des gebildeten Acetaldehyds aus dem Gleichgewicht eine Schlüsselrolle zur Vermeidung unerwünschter Nebenreaktionen und zum Erzielen hoher Produktausbeuten ein. Selektive Funktionalisierungen der Katalysatorstruktur lieferten grundlegende Einblicke in die Struktur-Eigenschafts-Beziehungen des Systems und trugen somit zu dessen Verständnis bei. Unter Berücksichtigung ökonomischer Aspekte wurden darüber hinaus zwei praktische, sehr effiziente Varianten der Ley-Griffith-Oxidation zur Dehydrierung unterschiedlicher Alkohole und Amine erarbeitet. Der zugrundeliegende Reaktionsmechanismus wurde anhand von DFT-Rechnungen eingehend erforscht.
As visualization as a field matures, the discussion about the development of a
theory of the field becomes increasingly vivid. Despite some voices claiming that
visualization applications would be too different from each other to generalize,
there is a significant push towards a better understanding of the principles underlying
visual data analysis. As of today, visualization is primarily data-driven.
Years of experience in the visalization of all kinds of different data accumulated
a vast reservoir of implicit knowledge in the community of how to best represent
data according to its shape, its format, and what it is meant to express.
This knowledge is complemented by knowledge imported to visualization from
a variety of other fields, for example psychology, vision science, color theory,
and information theory. Yet, a theory of visualization is still only nascent. One
major reason for that is the field's too strong focus on the quantitative aspects
of data analysis. Although when designing visualizations major design decisions
also consider perception and other human factors, the overall appearance
of visualizations as of now is determined primarily by the type and format of
the data to be visualized and its quantitative attributes like scale, range, or
density. This is also reflected by the current approaches in theoretical work on
visualization. The models developed in this regard also concentrate primarily
on perceptual and quantitative aspects of visual data analysis. Qualitative considerations
like the interpretations made by viewers and the conclusions drawn
by analysts currently only play a minor role in the literature. This Thesis contributes
to the nascent theory of visualization by investigating approaches to
the explicit integration of qualitative considerations into visual data analysis.
To this end, it promotes qualitative visual analysis, the explicit discussion of
the interpretation of artifacts and structures in the visualization, of efficient
workflows designed to optimally support an analyst's reasoning strategy and
capturing information about insight provenance, and of design methodology
tailoring visualizations towards the insights they are meant to provide rather
than to the data they show. Towards this aim, three central qualitative principles
of visual information encodings are identified during the development of
a model for the visual data analysis process that explicitly includes the anticipated
reasoning structure into the consideration. This model can be applied
throughout the whole life cycle of a visualization application, from the early
design phase to the documentation of insight provenance during analysis using
the developed visualization application. The three principles identified inspire
novel visual data analysis workflows aiming for an insight-driven data analysis
process. Moreover, two case studies prove the benefit of following the qualitative
principles of visual information encodings for the design of visualization
applications. The formalism applied to the development of the presented theoretical
framework is founded in formal logics, mathematical set theory, and the
theory of formal languages and automata. The models discussed in this Thesis
and the findings derived from them are therefore based on a mathematically
well-founded theoretical underpinning. This Thesis establishes a sound theoretical
framework for the design and description of visualization applications and
the prediction of the conclusions an analyst is capable of drawing from working
with the visualization. Thereby, it contributes an important piece to the yet
unsolved puzzle of developing a visualization theory.
This thesis investigates how smart sensors can quantify the process of learning. Traditionally, human beings have obtained various skills by inventing technologies. Those who integrate technologies into daily life and enhance their capabilities are called augmented humans. While most existing augmenting human technologies focus on directly assisting specific skills, the objective of this thesis is to assist learning -- the meta-skill to master new skills -- with the aim of long-term augmentations.
Learning consists of cognitive activities such as reading, writing, and watching. It has been considered that tracking them by motion sensors (in the same way as the recognition of physical activities) is a challenging task because dynamic body movements could not be observed during cognitive activities. I have solved this problem with smart sensors monitoring eye movements and physiological signals.
I propose activity recognition methods using sensors built into eyewear computers. Head movements and eye blinks measured by an infrared proximity sensor on Google Glass could classify five activities including reading with 82% accuracy. Head and eye movements measured by electrooculography on JINS MEME could classify four activities with 70% accuracy. In a wild experiment involving seven participants who wore JINS MEME more than two weeks, deep neural networks could detect natural reading activities with 74% accuracy. I demonstrate Wordometer 2.0, an application to estimate the number of rear words on JINS MEME, which was evaluated in a dataset involving five readers with 11% error rate.
Smart sensors can recognize not only activities but also internal states during the activities. I present an expertise recognition method using an eye tracker which performs 70% classification accuracy into three classes using one minute data of reading a textbook, a positive correlation between interest and pupil diameter (p < 0.01), a negative correlation between mental workload and nose temperature measured by an infrared thermal camera (p < 0.05), an interest detection on newspaper articles, and effective gaze and physiological features to estimate self-confidence while solving multiple choice questions and spelling tests of English vocabulary.
The quantified learning process can be utilized for feedback to each learner on the basis of the context. I present HyperMind, an interactive intelligent digital textbook. It can be developed on HyperMind Builder which may be employed to augment any electronic text by multimedia aspects activated via gaze.
Applications mentioned above have already been deployed at several laboratories including Immersive Quantified Learning Lab (iQL-Lab) at the German Research Center for Artificial Intelligence (DFKI).
Elementare Zahlentheorie
(2020)
Synapses are connections between different nerve cells that form an essential link in neural signal transmission. It is generally distinguished between electrical and chemical synapses, where chemical synapses are more common in the human brain and are also the type we deal with in this work.
In chemical synapses, small container-like objects called vesicles fill with neurotransmitter and expel them from the cell during synaptic transmission. This process is vital for communication between neurons. However, to the best of our knowledge no mathematical models that take different filling states of the vesicles into account have been developed before this thesis was written.
In this thesis we propose a novel mathematical model for modeling synaptic transmission at chemical synapses which includes the description of vesicles of different filling states. The model consists of a transport equation (for the vesicle growth process) plus three ordinary differential equations (ODEs) and focuses on the presynapse and synaptic cleft.
The well-posedness is proved in detail for this partial differential equation (PDE) system. We also propose a few different variations and related models. In particular, an ODE system is derived and a delay differential equation (DDE) system is formulated. We then use nonlinear optimization methods for data fitting to test some of the models on data made available to us by the Animal Physiology group at TU Kaiserslautern.
Einführung in die Algebra
(2020)
Der Leitungsbau hat vor dem Hintergrund der aktuellen ökologischen Herausforderungen und unter dem Aspekt einer umweltgerechten und sicheren Bewirtschaftung des Abwassers nach wie vor einen hohen Stellenwert unter den kommunalen Aufgaben. Nach Erhebungen des Statistischen Bundesamts von 2016 wurden in den letzten Jahren jährlich ca. 4.600 km neue Entwässerungskanäle hergestellt. Dabei sind Baustellen immer ein Eingriff in die Umwelt. Insbesondere der innerstädtische Kanalbau hat erhebliche Auswirkungen auf den Verkehrsfluss. Im urbanen Umfeld und generell bei größeren Tiefenlagen stellt der maschinelle Rohrvortrieb eine Verlegemethode für Abwasserkanäle dar, die gegenüber der offenen Bauweise deutlich reduzierte Einschränkungen für Anwohner und Verkehrsfluss mit sich bringt. Um eine möglichst wirtschaftliche Herstellung von Leitungen zu erreichen, gehen die Bestrebungen hin zu möglichst wenigen Schachtbauwerken. In der Folge werden immer längere Vortriebsstrecken, aber auch immer mehr bogenförmige Trassen mit immer engeren Kurvenradien geplant. Durch eine gekrümmte Trassierung lassen sich insbesondere Schächte vermeiden, die im Wesentlichen dazu dienen, Hindernisse zu umgehen oder nicht geraden Straßenverläufen zu folgen.
Um gekrümmten Trassen folgen zu können, müssen sich die Vortriebsrohre gegeneinander abwinkeln. Die Abwinklung führt zu einer Verkleinerung der Kontaktfläche in der Rohrfuge und zu einer Spannungsumlagerung auf die Kurveninnenseite des Rohrspiegels. Die entstehenden Spannungsspitzen können an dieser Stelle zu einer Überbeanspruchung der Rohrwandung führen.
Die vorliegende Arbeit entwickelt eine alternative Ausführung der Rohrenden. Diese soll durch eine gelenkige Rohrverbindung die Kontaktfläche zwischen zwei Rohren vergrößern und das Abwinkeln in der Rohrfügung verhindern. Die Gelenkigkeit der Verbindung wird durch die Ausrundung der Rohrenden erreicht.
Da die gelenkige Rohrverbindung - aufgrund ihrer Ausrundung - eine grundlegend andere Kinematik aufweist als Rohre mit ebenem Rohrspiegel, werden die Auswirkungen der Ausrundung auf die Geometrie, die Hydraulik und die Statik der neuartigen Rohre untersucht.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
Maschinenbetten und -gestelle werden vorwiegend aus Grauguss und als Stahlschweißkonstruktion gefertigt. Aufgrund technischer und wirtschaftlicher Vorteile haben sich seit den 80er Jahren zusätzlich Mineralguss oder epoxidharzgebundener Polymerbeton etabliert. Seit mehreren Jahren wird Ultra High Performance Concrete – UHPC – erfolgreich bei Werkzeugmaschinen eingesetzt. Auf diesen Grundgestellen aus Beton werden neben Gehäusen, Getrieben, Werkzeughaltern, Trafos usw. vor allem die beweglichen Teile der Maschine befestigt. Gängige Praxis hierfür ist die Verwendung von Linearführungsschienen.
Diese Arbeit untersucht die vorgespannte, geschraubte Befestigung der Linearführung auf geschliffenen Betonoberfläche mit Hilfe von speziellen Gewindehülsen. In rechnerischen Voruntersuchungen mittels der FE-Methode wurde der Kraftfluss von der Linearführung über die Befestigungsschraube zur Gewindehülse bis in den Betonuntergrund untersucht und darauf aufbauend ein Versuchsprogramm festgelegt. Probekörper aus hochfestem Beton des Marktführers wurden hergestellt und experimentell untersucht. Nach der Auswertung der Versuche wurde ein Bemessungskonzept entwickelt und in Form einer schrittweisen Anleitung festgehalten. Mehrere Beispiele zeigen die Anwendung des Verfahrens.
Berechnungen, Versuchskonzeption, Durchführung der Versuche, Versuchsauswertung sowie die Entwicklung des Bemessungskonzeptes erfolgten durch den Verfasser. Die Versuche wurden in seiner Anwesenheit in seinem Betrieb, in spezialisierten Unternehmen mit entsprechender Geräteausstattung und zum größten Teil an der TU Kaiserslautern durchgeführt. Die hier betrachteten Untersuchungen und Bemessungsvorschläge betrachten ausschließlich Maschinenbauteile und dürfen nicht auf Situationen im Bauwesen übertragen werden.
Im Rahmen des laufenden Forschungsprojekts “Medienpädagogische Kom- petenz des beruflichen Weiterbildungspersonals zur Unterstützung des Ein- satzes digitaler Medien in formalen, non-formalen und informellen Lernset- tings – MEKWEP” des Deutschen Institut für Erwachsenenbildung (DIE) in Kooperation mit dem Fachgebiet der Pädagogik der Technischen Universität Kaiserslautern wurde ein medienpädagogisches Kompetenzmodell als Orien- tierung für Lehrende in der Erwachsenenbildung erstellt, um deren persönli- che Professionalisierung zu überprüfen.10
Es stellt sich nun die Frage, wie sich Lehrende in der Erwachsenenbildung die geforderten medienpädagogischen Kompetenzen aneignen können, um eine professionelle Handlungsfähigkeit gewährleisten zu können und der Di- gitalisierung im Gleichschritt zu begegnen.
Die vorliegende Arbeit konzentriert sich auf non-formale Weiterbildungsan- gebote zur E-Trainer-Qualifizierung. Ziel ist es zunächst herauszufinden, welche Weiterbildungsangebote auf dem Markt zu finden sind, um im An- schluss eine Aussage darüber treffen zu können, welche medienpädagogi- schen Inhalte des Kompetenzmodells in solchen Angeboten berücksichtigt werden.
More than ten years ago, ER-ANT1 was shown to act as an ATP/ADP antiporter and to exist in the endoplasmic reticulum (ER) of higher plants. Because structurally different transporters generally mediate energy provision to the ER, the physiological function of ER-ANT1 was not directly evident.
Interestingly, mutant plants lacking ER-ANT1 exhibit a photorespiratory phenotype. Although many research efforts were undertaken, the possible connection between the transporter and photorespiration also remained elusive. Here, a forward genetic approach was used to decipher the role of ER-ANT1 in the plant context and its association to photorespiration.
This strategy identified that additional absence of a putative HAD-type phosphatase partially restored the photorespiratory phenotype. Localisation studies revealed that the corresponding protein is targeted to the chloroplast. Moreover, biochemical analyses demonstrate that the HAD-type phosphatase is specific for pyridoxal phosphate. These observations, together with transcriptional and metabolic data of corresponding single (ER-ANT1) and double (ER-ANT1, phosphatase) loss-of-function mutant plants revealed an unexpected connection of ER-ANT1 to vitamin B6 metabolism.
Finally, a scenario is proposed, which explains how ER-ANT1 may influence B6 vitamer phosphorylation, by this affects photorespiration and causes several other physiological alterations observed in the corresponding loss-of-function mutant plants.
Spin-crossover and valence tautomeric complexes are of tremendous interest in the field of molecular electronics, electronic storage devices and information processing. Herein, synthesis and characterization of the spin-crossover and valence tautomeric cobalt dioxolene complexes are reported. All the synthesized complexes contain N,N'-di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4tBu2) as ancillary ligands. Only various types of co-ligands which are different dioxolene ligands, have been used. The mononuclear cobalt dioxolene complexes have been synthesized by using dideprotonated form of the dioxolene ligand 4,5-dichlorocatechol (H2DCCat) as co-ligands, and the cobalt bis(dioxolene) complexes have been synthesized by using dideprotonated form of the 3,3'-dihydroxy-diphenoquinone-(4,4') (H2(SQ-SQ)) as co-ligands.
Analytically pure samples of the complexes [Co(L-N4tBu2)(DCCat)] (1), [Co(L-N4tBu2)(DCCat)](BPh4) (2b), [Co2(L-N4tBu2)2(SQ-SQ)](BPh4)2.4 DMF (3b), [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d), have been synthesized and characterized by X-ray crystallography, magnetic and electrochemical measurements. The complexes have been investigated by UV/Vis/NIR-, IR-, and NMR spectroscopic measurements.
The complex [Co(L-N4tBu2)(DCCat)] (1) shows temperature invariant high-spin cobalt(II) catecholate state. One-electron oxidation of 1 has yielded the complex [Co(L-N4tBu2)(DCCat)](BPh4) (2b). The solid state properties of 2b are best described by the low-spin cobalt(III) catecholate state, but the solution state properties of the complex 2b are best described by the valence tautomeric transition from the low-spin cobalt(III) catecholate to the low-spin cobalt(II) semiquinonate state.
For the cobalt bis(dioxolene) complexes, it is found that spin-crossover for the two cobalt(II) centers is accompanied by the electronic state changes of the coordinated bis(dioxolene) unit from singlet open-shell biradicaloid to singlet closed-shell quinonoid form in complex 3b. Approaching similar synthetic method to 3b, but performing the metathesis reaction with sodium tetrafluoroborate rather than sodium tetraphenylborate has resulted in the formation of the complex [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d). The solid state properties of the complex are best described by the temperature induced valence tautomeric transition for the low-spin cobalt(III) center which is accompanied by the spin-crossover process for the cobalt(II) center. Thus, the electronic state of the complex 3d changes from LS-CoIII-Cat-SQ-CoII-LS to HS-CoII-(SQ-SQ)CS-CoII-HS state upon change in temperature.
Temperature-induced electronic configuration changes of the (SQ-SQ)CS2- ligands from open-shell biradicaloid to closed-shell quinonoid configurations are not observed for the nickel-, copper- and zinc bis(dioxolene) complexes 4a, 5a and 6b, respectively. For these complexes, the metal ions are bridged by (SQ-SQ)CS2- ligand and the paramagnetic metal ions are very weakly antiferromagnetically coupled.
Die Autorin entfaltet Vorschläge, wie eine Pädagogik der Anerkennung in der Erwachsenenbildung von Pflegekräften gestaltet werden kann, insbesondere vor dem Hintergrund der emotionalen Kompetenz, des Dialoges , der Dekonstruktion und der ästhetischen Signatur. Methodisch liegen der Arbeit eine systematische Literaturrecherche und narrative Interviews zugrunde.Die theoriebasierte Konzeption eines Lehr - Lernarrangements auf Augenhöhe findet ihre Operationalisierung in der Ausbildung Gesundheits-und Krankenpflege mit integrierter Fachweiterbildung Intensivmedizin und Anästhesie.
Nowadays a large part of communication is taking place on social media platforms such as Twitter, Facebook, Instagram, or YouTube, where messages often include multimedia contents (e.g., images, GIFs or videos). Since such messages are in digital form, computers can in principle process them in order to make our lives more convenient and help us overcome arising issues. However, these goals require the ability to capture what these messages mean to us, that is, how we interpret them from our own subjective points of view. Thus, the main goal of this dissertation is to advance a machine's ability to interpret social media contents in a more natural, subjective way.
To this end, three research questions are addressed. The first question aims at answering "How to model human interpretation for machine learning?" We describe a way of modeling interpretation which allows for analyzing single or multiple ways of interpretation of both humans and computer models within the same theoretic framework. In a comprehensive survey we collect various possibilities for such a computational analysis. Particularly interesting are machine learning approaches where a single neural network learns multiple ways of interpretation. For example, a neural network can be trained to predict user-specific movie ratings from movie features and user ID, and can then be analyzed to understand how users rate movies. This is a promising direction, as neural networks are capable of learning complex patterns. However, how analysis results depend on network architecture is a largely unexplored topic. For the example of movie ratings, we show that the way of combining information for prediction can affect both prediction performance and what the network learns about the various ways of interpretation (corresponding to users).
Since some application-specific details for dealing with human interpretation only become visible when going deeper into particular use-cases, the other two research questions of this dissertation are concerned with two selected application domains: Subjective visual interpretation and gang violence prevention. The first application study deals with subjectivity that comes from personal attitudes and aims at answering "How can we predict subjective image interpretation one would expect from the general public on photo-sharing platforms such as Flickr?" The predictions in this case take the form of subjective concepts or phrases. Our study on gang violence prevention is more community-centered and considers the question "How can we automatically detect tweets of gang members which could potentially lead to violence?" There, the psychosocial codes aggression, loss and substance use serve as proxy to estimate the subjective implications of online messages.
In these two distinct application domains, we develop novel machine learning models for predicting subjective interpretations of images or tweets with images, respectively. In the process of building these detection tools, we also create three different datasets which we share with the research community. Furthermore, we see that some domains such as Chicago gangs require special care due to high vulnerability of involved users. This motivated us to establish and describe an in-depth collaboration between social work researchers and computer scientists. As machine learning is incorporating more and more subjective components and gaining societal impact, we have good reason to believe that similar collaborations between the humanities and computer science will become increasingly necessary to advance the field in an ethical way.
Diversification is one of the main pillars of investment strategies. The prominent 1/N portfolio, which puts equal weight on each asset is, apart from its simplicity, a method which is hard to outperform in realistic settings, as many studies have shown. However, depending on the number of considered assets, this method can lead to very large portfolios. On the other hand, optimization methods like the mean-variance portfolio suffer from estimation errors, which often destroy the theoretical benefits. We investigate the performance of the equal weight portfolio when using fewer assets. For this we explore different naive portfolios, from selecting the best Sharpe ratio assets to exploiting knowledge about correlation structures using clustering methods. The clustering techniques separate the possible assets into non-overlapping clusters and the assets within a cluster are ordered by their Sharpe ratio. Then the best asset of each portfolio is chosen to be a member of the new portfolio with equal weights, the cluster portfolio. We show that this portfolio inherits the advantages of the 1/N portfolio and can even outperform it empirically. For this we use real data and several simulation models. We prove these findings from a statistical point of view using the framework by DeMiguel, Garlappi and Uppal (2009). Moreover, we show the superiority regarding the Sharpe ratio in a setting, where in each cluster the assets are comonotonic. In addition, we recommend the consideration of a diversification-risk ratio to evaluate the performance of different portfolios.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Validierung einer Farmer-Kammer für die Dosimetrie von Elektronenstrahlung mit geringer Reichweite
(2020)
In dieser Arbeit wurde die Auswirkung der Bezugspunktverschiebung [19, 20, 21, 22, 30, 31, 32, 36] des DIN-Entwurfes 6800-2 2016 bei Elektronenstrahlung, so-wie die Durchführbarkeit der Elektronen-Absolutdosimetrie mit Farmer-Kammern untersucht. Des Weiteren wurde der kE,R-Faktor für Farmerkammern bestimmt. Verwendet wurden vier Flachkammern unterschiedlicher Bauart (Roos-Kammer, Markus-Kammer, Advanced-Markus-Kammer der Firma PTW; PPC40-Kammer der Firma IBA) und drei Farmer-Kammer gleicher Bauart (PTW). Die Messungen wurden mit Elektronenenergien von 4 MeV bis 15 MeV durchgeführt.
In den aufgenommenen Tiefendosiskurven ist die Bezugspunktverschiebung (Δz) deutlich zu sehen. Die Kurven sind je nach Verschiebung parallel nach links (+Δz) oder rechts (-Δz) versetzt. Entsprechend verkürzt oder verlängert sich das Eintrittsfenster. Die sich dadurch veränderten Werte für die Halbwerttiefen der Ionendosis wirken sich widerrum auf die für die Absolutdosimetrie benötigten Referenztiefen zref aus. Diese Änderung der Messtiefe wird allerdings durch die neuen Formeln zur Berechnung der Halbwerttiefe der Wasser-Energiedosis nahezu egalisiert. Die neuen Berechnungsvorschriften für den Korrektionsfaktor zur Berücksichtigung des Einflusses der Strahlungsqualität der Elektronenstrahlung hin-gegen haben größere Auswirkungen auf die Dosiswerte.
Der kE,R-Faktor der Farmer-Kammern wurde durch einen Dosisvergleich mit der Roos-Kammer ermittelt. Der Mittelwert der Dosis aller drei Farmer-Kammern pro Energie wurde mit der Dosis der Roos-Kammer verglichen, der Unterschied als kE,R-Faktor bestimmt. Zusätzlich wurde das Verhalten der Farmer-Kammer bei der Absolutdosimetrie mit Elektronenstrahlung betrachtet. Hierbei wurde eine hohe Stabilität sowohl in den Tiefendosiskurven als auch in der Absolutdosimetrie deutlich, sodass die Farmer-Kammer der Firma PTW als für die Absolutdosimetrie mit Elektronenstrahlung < 10 MeV geeignet eingestuft wird.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope.
This document is the documentation for version 2020.02.
For more information, see https://www.lintim.net
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Die Masterarbeit unternimmt den Versuch aufzuzeigen, wie der Street Artist Banksy Reflexionsprozesse im und über den Kunstbetrieb auslöst. Dies wird im Sinne der Systemtheorie Luhmanns verstanden, bei der Reflexion als Selbstreferenz sozialer Systeme gilt und dann zutage tritt, wenn das System eine Irritation erfährt.
Banksys Irritationen entstehen durch unterschiedliche Aktionen und Verkaufssettings, beispielsweise durch das eigenmächtige Aufhängen seiner Bilder in einigen der renommiertesten Museen der Welt oder durch das Schreddern des Bildes Girl with Balloon während einer Auktion bei Sotheby’s. Dabei wird betrachtet, wie Banksy die häufig irrationalen Preismechanismen des Kunstmarktes motivisch im Bild und durch seine Beiträge thematisiert, wie z.B. mit einem Verkaufsstand im New Yorker Central Park.
In der Erörterung dieses aktuellen Themas wird deutlich, wie er sich zunehmend vom reinen Graffiti Sprayer/Street Artist zum grenzüberschreitenden Aktionskünstler entwickelt. Dabei nimmt er selbst verschiedene genreübergreifende Rollen, wie z.B. die des Museumskünstlers, Filmregisseurs, Art Handlers, Gutachters, Kurators, Auktionators oder Kunstvermittlers im Kunstsystem ein, die sonst von mehreren vermittelnden Personen besetzt werden.
Es wird sowohl ersichtlich, wie Banksy selbst ein dynamisches Künstlerbild mit den Mitteln der Street Art entwickelt, als auch, wie die Maskierung und die Verwendung eines Pseudonyms, auch für die Beziehung zu den Betrachter*innen, von großer Bedeutung ist und wie die Absenz von Informationen für eine Sogwirkung in der Rezeption sorgt.
Mit der in der Forschung noch wenig beachteten Fragestellung “Wie setzt Banksy Reflexionsprozesse über den Kunstbetrieb in Gang” wird in der Masterarbeit aufgezeigt, wie Reflexionsprozesse durch Irritationen entstehen, die Banksy durch seine originellen künstlerischen Interventionen erzeugt. Aus dem Vergleich seiner künstlerischen Handlungen auf und abseits der Straße, wie z.B. im institutionellen Rahmen von Museen, wird dies deutlich.
Problems, Chances and Limitations of Facilitating Self-Directed Learning at a German Gymnasium
(2020)
Self-directed learning is becoming more important than ever. In a rapidly changing world, learners must be ready to face new obstacles. Self-directed learning gives the learners the chance to adapt to these social contextual changes. But facilitating self-directed learning in formal settings seems to be a risky task and venture. To accomplish its facilitation, many limits must be overcome.
In this thesis, lessons at a German school called a Gymnasium – the type of school where learners can get the highest school level degree – were observed in order to find out in how far elements of self-directed learning can be found in the observed lessons. For the comparison, the process elements of Knowles’ book “Self-Directed Learning: A Guide for Learners and Teachers” from 1975 were adapted to the observations of the lessons.
A central part of the observations and interviews of the teachers was to find out which limitations in the facilitation of self-directed learning can be found in terms of the institutional framework and the attitude of the teachers. The results of the observations highly differentiated. Whereas in many of the observed scientific lessons, many elements of self-directed learning were found, the lessons in social studies were teacher-directed. Also, a different attitude between the teachers was found in terms of the support for self-directed learning.
Importantly, the thesis includes the scientific critic of self-directed learning instead of excluding it and proposes the facilitation of Grow’s “Self-Directed-Learning Model” (1991) where the level of the learner’s self-directed learning is supposed to progress during school. This thesis is relevant for educators, curriculum developers, teachers and policymakers to help them identify the difficulties and chances to facilitate SDL in formal settings.
Die vorliegende Arbeit behandelt die Neuentwicklung der Betriebselektronik für eine Rasterkraftsonde die im Frequenzmodulationsverfahren betrieben wird. Rasterkraftsonden haben das Potenzial zukünftige Messaufgaben der Fertigungsmesstechnik, die durch Tastschnittgeräte und Optische Messgeräte nicht mehr gelöst werden, zu lösen. Als Grundlage für die Entwicklung eines Sensors zum Messen rauer, technischer Oberflächen dient die Akiyama-Sonde: bei dieser handelt es sich um eine Rasterkraftsonde deren Auslenkung sensorlos, ohne zusätzliche Bauteile, detektiert werden kann. Im Rahmen dieser Arbeit wurde zunächst die Eignung der Akiyama-Sonde zum Messen technischer Oberflächen untersucht. Anschließend wurde eine neue Betriebselektronik für die Sonde entwickelt. Die neuentwickelte Elektronik zeichnet sich durch einen sehr einfachen Aufbau aus: in Kern besteht sie nur aus einem FPGA, einem Analog-Digital-Umsetzer und einem Digital-Analog-Umsetzer. Methodisch wurde bei der Entwicklung ein modellbasiertes Vorgehen gewählt: Zunächst wurde die Akiyama-Sonde in ihrem Arbeitspunkt modelliert. Basierend auf dem Modell erfolgte der virtuelle Entwurf der Betriebselektronik. Ein physikalischer Prototyp wurde somit erst spät im Entwicklungsprozess benötigt. Abschließend wurde anhand von Experimenten die Fähigkeit der neuen Betriebselektronik zum Messen von Auslenkungen im Nanometer-Bereich nachgewiesen.
Biological clocks exist across all life forms and serve to coordinate organismal physiology with periodic environmental changes. The underlying mechanism of these clocks is predominantly based on cellular transcription-translation feedback loops in which clock proteins mediate the periodic expression of numerous genes. However, recent studies point to the existence of a conserved timekeeping mechanism independent of cellular transcription and translation, but based on cellular metabolism. These metabolic clocks were concluded based upon the observation of circadian and ultradian oscillations in the level of hyperoxidized peroxiredoxin proteins. Peroxiredoxins are enzymes found almost ubiquitously throughout life. Originally identified as H2O2 scavengers, recent studies show that peroxiredoxins can transfer oxidation to, and thereby regulate, a wide range of cellular proteins. Thus, it is conceivable that peroxiredoxins, using H2O2 as the primary signaling molecule, have the potential to integrate and coordinate much of cellular physiology and behavior with metabolic changes. Nonetheless, it remained unclear if peroxiredoxins are passive reporters of metabolic clock activity or active determinants of cellular timekeeping. Budding yeast possess an ultradian metabolic clock termed the Yeast Metabolic Cycle (YMC). The most obvious feature of the YMC is a high amplitude oscillation in oxygen consumption. Like circadian clocks, the YMC temporally compartmentalizes cellular processes (e.g. metabolism) and coordinates cellular programs such as gene expression and cell division. The YMC also exhibits oscillations in the level of hyperoxidized peroxiredoxin proteins.
In this study, I used the YMC clock model to investigate the role of peroxiredoxins in cellular timekeeping, as well as the coordination of cell division with the metabolic clock. I observed that cytosolic 2-Cys peroxiredoxins are essential for robust metabolic clock function. I provide direct evidence for oscillations in cytosolic H2O2 levels, as well as cyclical changes in oxidation state of a peroxiredoxin and a model peroxiredoxin target protein during the YMC. I noted two distinct metabolic states during the YMC: low oxygen consumption (LOC) and high oxygen consumption (HOC). I demonstrate that thiol-disulfide oxidation and reduction are necessary for switching between LOC and HOC. Specifically, a thiol reductant promotes switching to HOC, whilst a thiol oxidant prevents switching to HOC, forcing cells to remain in LOC. Transient peroxiredoxin inactivation triggered rapid and premature switching from LOC to HOC. Furthermore, I show that cell division is normally synchronized with the YMC and that deletion of typical 2-Cys peroxiredoxins leads to complete uncoupling of cell division from metabolic cycling. Moreover, metabolic oscillations are crucial for regulating cell cycle entry and exit. Intriguingly, switching to HOC is crucial for initiating cell cycle entry whilst switching to LOC is crucial for cell cycle completion and exit. Consequently, forcing cells to remain in HOC by application of a thiol reductant leads to multiple rounds of cell cycle entry despite failure to complete the preceding cell cycle. On the other hand, forcing cells to remain in LOC by treating with a thiol oxidant prevents initiation of cell cycle entry.
In conclusion, I propose that peroxiredoxins – by controlling metabolic cycles, which are in turn crucial for regulating the progression through cell cycle – play a central role in the coordination of cellular metabolism with cell division. This proposition, thus, positions peroxiredoxins as active players in the cellular timekeeping mechanism.
Die Arbeit befasst sich anhand von zwei ausgewählten Beispielen aus der ehemaligen deutschen Kolonie Kamerun mit den Fragen des Umgangs mit Sammlungsgut aus kolonialen Kontexten. Die Arbeit gibt den Stand der Diskussion um den Umgang mit Sammlungsgut aus kolonialen Kontexten wieder und eröffnet zugleich zahlreiche Perspektiven zu deren weiterem Verlauf in der Theorie wie auch in der Praxis. Im Fokus stehen die Ausstellungs- und Vermittlungsarbeit der beiden Museen in Berlin und Braunschweig, sowie die Einbindung der Zivilgesellschaft, der Source Communitites und weiterer Netzwerkpartner.
Intermetallische Verbindungen stellen eine relativ neue Gruppe heterogener Katalysatoren dar. Durch die Bildung von Kristallstrukturen und die damit einhergehende Änderung elektronischer und geometrischer Strukturen handelt es sich nicht einfach um Dotierungen von bestehenden Systemen, man kann viel mehr von "neuen Elementen" für die Katalyse sprechen. Jede Kombination hat ihre eigenen Eigenschaften und damit ungeahntes Potential für katalytische Anwendungen.
Eine Gruppe intermetallischer Verbindungen stellen Heusler-Phasen dar. Diese Untergruppe der intermetallischen Phasen zeigt sich im Feld der Katalyse als unbeschriebenes Blatt, ist in Anwendungen der Physik aber schon ein etabliertes System. Heusler-Verbindungen weisen die Zusammensetzung X2YZ auf, die Elemente X und Y sind in der Regel Übergangsmetalle während das Z Element aus der III. – V. Hauptgruppe stammt. Es handelt sich um ein kubisches Gitter der Raumgruppe Fm3 ̅m (Nr. 225) mit Cu2MnAl als Strukturtyp bestimmende Verbindung und der Strukturberichte Bezeichnung L21.
Ziel dieser Arbeit war es, SiO2 geträgerte Materialien basierend auf einer Heusler-Phase zu synthetisieren und diese auf ihre katalytische Aktivität in Modellreaktionen zu testen. Zunächst wurde eine Reihe von Verbindungen mit der Einsatzstöchiometrie X2YZ über Co Imprägnierung hergestellt. Bei allen Materialen wurde Cu als X-Element gewählt. Die Y-Position wurde mit den Elementen Ce, Co, Fe, La, Mn, Ni und Ti besetzt, während die Z-Position durch die Elemente Al, Ga, In, Sb, Si und Sn besetzt wurde. Aus den gewählten Zusammensetzungen ergaben sich 42 verschiedene Materialien. Über Röntgenbeugung wurden die fünf Kombinationen Cu2CoSn, Cu2FeSn, Cu2LaIn, Cu2NiSn2 und Cu2TiIn (jeweils 30 Gew.% auf SiO2) als aussichtsreichste Materialien bestimmt.
Mit Modellsubstanzen aus dem Bereich der Alkine (2-Hexin), der Aromaten (Benzol), der Aldehyde (Aceton) und der α, β ungesättigten Aldehyde (Citral, Citronellal, Zimtaldehyd und Furfural) wurde die höchste katalytische Aktivität an dem Material 30 Gew. % Cu2NiSn/SiO2 erzielt. Für dieses Material wurde eine Optimierung der Synthese angestrebt. Als wichtigster Parameter zur Ausbildung einer nanopartikulären Heusler-Phase in der nasschemischen Synthese stellte sich der Metallgehalt auf dem Träger heraus. Die drei Charakterisierungsmethoden N2 Physisorption, XRD und TEM zeigten, dass es möglich ist, die Heusler-Phase 10 Gew. % Cu2NiSn/SiO2 über den nasschemischen Weg als nanopartikuläres Material herzustellen.
Die katalytischen Eigenschaften dieses Materials wurden anhand der Modellsubstanz Zimtaldehyd umfassend untersucht sowie vergleichend mono- und bimetallische Materialien basierend auf den drei Metallen Cu, Ni und Sn herangezogen. Mit der Heusler Phase 10 Gew. % Cu2NiSn/SiO2 wurde bei einer Reaktionstemperatur von 150 °C nach 5 h ein Umsatz von 67 % mit einer Selektivität von 49 % zu Zimtalkohol erzielt, während das thermodynamisch begünstige Produkt Hydrozimtaldehyd mit einer Selektivität von lediglich 30 % gebildet wurde. Die Heusler Verbindung weist die höchste Chemoselektivität zu Zimtalkohol aller in dieser Arbeit getesteten Systeme auf. Während die Aktivität des in dieser Arbeit entwickeltem Heusler-Materials Cu2NiSn/SiO2 geringer ist, können mit der Literatur vergleichbare Selektivitäten zu Zimtalkohol erreicht werden. Die Ergebnisse zur chemoselektiven Hydrierung eines nasschemisch hergestellten Materials zeigen somit die Vielseitigkeit und das große Potential von intermetallischen Heusler Verbindungen in der heterogenen Katalyse.
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Die vorliegende Masterarbeit befasst sich mit der kulturellen Partizipation der einwandernden Bewölkerung an kulturellen Entwicklungsprozessen in deutschen Städten. Zum
einen fokussiert sich die Masterarbeit auf die Kulturorganisationen des sogenannten Dritten Sektors und den Nutzen, den diese durch einen besseren Zugang Neuzugewanderter in der Stadt zum Kulturangebot ziehen können. Es wird der Frage nachgegangen, wie die Einbindung der Bevölkerung mit Zuwanderungsgeschichte in die Kulturarbeit optimiert werden kann. Das könnte für lokale Kulturanbieter den Anschluss
an ein neues Publikum bedeuten und sich also positiv auf die Einnahmen auswirken.
Ein weiterer bedeutender Faktor, der damit in Verbindung stehen kann, ist das künstlerische Potenzial, das einzelne der neuen Stadtbürger womöglich mitbringen. Ein besserer
Zugang zu dieser Zielgruppe könnte für Kulturorganisationen auch gleichzeitig ein Durchbruch zu anderen Kunst- und Kulturtraditionen bedeuten. Es könnten andere Themen herausgearbeitet werden und das Programmangebot innovativer ausfallen.
Die kulturelle Einbindung Neuzugewanderter setzt aber eine intensive Auseinandersetzung
mit der soeben skizzierten Thematik voraus, für die Ressourcen wie Zeit notwendig
sind, aber auch die Bereitschaft, neue Wege einzuschlagen. Insofern erscheint es als zwingend notwendig, die kulturellen Bedürfnisse dieser Bevölkerungsgruppe zu erkunden, was als eine zentrale Aufgabe dieser Arbeit angesehen wird.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
The understanding of the many fields of control theory can be supported using demonstrators, as
influencing a system to achieve a desired behaviour is the main purpose of control theory. This
thesis covers the setup, implementation and controlling of an inverse multi-pendulum on a cart.
Construction design and brief dimensioning will be described. In addition, a drive to move the
cart and influence the system will be chosen, which will be controlled using industrial automation
technology components. The state feedback controller introduced requires state measurement that
is made available by a radio sensor designed in this thesis. A web user interface is designed and
in addition the data processing structure involving the industrial automation technology and the
custom radio sensor is implemented. The pendulum is then controlled and stabilized by an optimal
controller. Furthermore, an upswing control approach is pointed out using numerical optimal
control.
Der Ausbruch der Covid-19-Pandemie hatte massive Auswirkungen auf die Weiterbildungsbrache und die Folgen sind bisher noch nicht abzuschätzen. Durch die Absage/Aussetzung aller Präsenzveranstaltungen sowie Kontaktbeschränkungen für Mitarbeitende der Weiterbildungseinrichtungen zur Eindämmung des Virus im März diesen Jahres, mussten ad-hoc neue Grundlagen für die Arbeit geschaffen werden. Im Rahmen der vorliegenden Befragungsergebnisse von 10 Volkshochschulen in Rheinland-Pfalz im Mai/Juni wird beispielhaft nachgezeichnet, wie die Einrichtungen mit den Einschränkungen der Pandemie umgegangen sind. Dabei wird insbesondere auf die Digitalisierung im Bereich der Angebote und der Zusammenarbeit sowie die Folgen der aktuellen Krise eingegangen. Die Ergebnisse zeigen dabei, dass die Einschränkungen sowohl als existenzielle Bedrohung, als auch Chance für eine Weiterentwicklung der Einrichtungen gesehen werden. Dabei hat die Digitalisierung einen deutlichen Schub erfahren. Eine grundlegende Veränderung der Ziele und Strategien der Einrichtungen ist jedoch nicht zu erkennen.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
Die Entdeckung der Einzelschule als Motor der Entwicklung im Jahre 1989 hatte eine veränderte Gesetzeslage zur Folge und damit auch eine veränderte Beziehung von Schule und Schulaufsicht. Die vorliegende Masterarbeit arbeitet die Historie der Beziehung von Schule und Schulaufsicht im Rahmen von Qualitätsentwicklung und -sicherung auf und überprüft das veränderte bzw. das sich verändernde Verhältnis im Spannungsfeld zwischen Kontrolle und Unterstützung. Im empirischen Teil kommen Schulleiter und Schulaufsichtsbeamte zu Wort.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Der Erfolg von Transformationen hängt von sehr vielen Faktoren ab. In der vorliegenden Arbeit wurden einige ausgewählte Faktoren aufgegriffen und validiert. Die vorliegende
Arbeit enthält keine abschließende Beurteilung, der in der Literatur dargestellten Erfolgsfaktoren.
Change-Prozesse beeinflussen im organisationalen Kontext in den meisten Fällen die sozialen Beziehungen, sei es auf individueller, Team- oder gesamtorganisationaler
Ebene. Je grösser, einschneidender, tiefgehender oder radikaler die Veränderung, desto schwieriger sind der Ausgang und insbesondere die Erfolgsaussichten vorhersehbar. Gemäß den Forschungsergebnissen spielen neben den geprüften Erfolgsfaktoren auch die bisherigen Erlebnisse eine wichtige Rolle. Die Organisation kann die bisherigen Erfahrungen zu einem großen Teil selber steuern, reflektieren und daraus lernen. Die individuellen Change-Erfahrungen der Mitarbeitenden hingegen sind schwer zu fassen und können höchstens durch individuelle Begleitung verarbeitet werden.
Grundsätzlich kann bestätigt werden, dass die gewählten und validierten Maßnahmen erfolgsversprechend zur positiven Entwicklung der Organisationskultur eingesetzt werden
können. Neben der Prägung der Organisationskultur sollten Organisationen eine grundsätzliche Change-Affinität entwickeln und fördern. Die Interviews belegen, was in der Literatur postuliert wird: Die Organisationskultur ist die Basis der Zusammenarbeit in Organisationen und darf aus diesem Grund nicht vernachlässigt werden. Die Organisationskultur wird von allen befragten Personen als ein sehr wichtiges (wenn nicht sogar als wichtigstes) Element der Organisation betrachtet.
Die Kulturentwicklung in der Praxis wird als Nebeneffekt anderer Interventionen wahrgenommen. Eine klare Aussage, wie die Kultur in eine bestimmte Richtung entwickelt werden kann, wurde nicht getroffen.
Die Notwendigkeit und das Bestreben Mitarbeiter an ein Unternehmen zu binden, haben sich im Verlauf der Zeit parallel zur Geschichte gewandelt. Die Zielsetzung dieser Masterarbeit besteht darin, ausgewählte theoretische Erkenntnisse und Konzepte der Mitarbeiterbindung darzustellen und deren Bedeutung, auf der Grundlage der gegenwärtigen Rahmenbedingungen, herauszuarbeiten. Im Fokus steht die Fragestellung nach den Chancen, die sich für unterschiedliche Unternehmen einstellen können, wenn diese in die individuelle Gestaltung der Arbeitsfelder ihrer weitergebildeten Mitarbeiter investieren. Begrenzt wird die Thematik einerseits durch die Fokussierung auf den Bereich weitergebildeter Pflegefachkräfte und andererseits durch die Betrachtung der Möglichkeiten im Bereich der Arbeitsfeldgestaltung. Das methodische Vorgehen entspricht einer reinen Theoriearbeit, im Sinne einer breit angelegten Literaturrecherche, die durch eine stichprobenartige Expertenbefragung ergänzend gestützt wird. Basierend auf der angeführten Theorie wird ein exemplarischer Organisationsentwicklungsprozess skizziert, der verschiedene Möglichkeiten der individuellen Gestaltung von Arbeitsfeldern herausarbeitet, welche als Handlungsempfehlungen auf unterschiedliche Unternehmen in der Pflege angepasst und transferiert werden können.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Mehrschichtige Stahlbetonwandtafeln bestehen aus einer Trag- und Vorsatzschale aus Stahlbeton sowie einer innenliegenden Dämmschicht. Die als Fassade fungierende Vorsatzschale ist in der Regel nichttragend und dient als Wetterschutzschicht für die Wärmedämmung sowie zur Gestaltung des Gebäudes. Trotz der nichttragenden Funktion werden diese Fassaden massiv ausgeführt, da die innenliegende Bewehrung vor Korrosion geschützt werden muss. Das widerspricht dem Trend zu immer größeren, filigranen Sichtbetonfassaden, die ein Minimum an Fugen aufweisen. Durch innovative Entwicklungen im Bereich der Betontechnologie sowie in der Verankerungstechnik wird der Bau von filigranen, unbewehrten, energieeffizienten und nachhaltigen Architekturbetonfassaden mit wenigen Zentimetern Bauteildicke als Vorsatzschale von mehrschichtigen Stahlbetonwand-tafeln ermöglicht. Dieses Potential eröffnet sich durch die Verwendung von Ultrahochleistungsbetonen, die sich unteranderem durch ihre hohe Zug- und Biegezugfestigkeit auszeichnen. Durch Verbindungsmittel aus glasfaserverstärktem Kunststoff wird die Fassade mehrfach statisch unbestimmt befestigt. Aufgrund des vergleichsweise geringen Elastizitätsmoduls können die sonst kritischen Belastungen infolge Zwangs reduziert werden.
Gegenstand der vorliegenden Arbeit ist die Entwicklung eines abgesicherten Bemessungskonzeptes um unbewehrte, punktgestützte Fassaden als Vorsatzschicht in mehrschichtigen Stahlbetonwandtafeln bemessen zu können. Dabei liegt der Fokus auf der Berücksichtigung von Zwangseinwirkungen, Expositionen und geometrischen Einflüssen. Es werden umfangreiche, kleinmaßstäbliche Versuche durchgeführt, um den Maßstabseffekt, den Einfluss der Tragrichtung, des verwendeten Gesteins sowie Expositionen infolge Temperatur, Feuchtigkeit und Frost-Tau-Wechseln auf den Materialwiderstand zu untersuchen. In Großversuchen werden ausgewählte Expositionen sowie geometrische Parameter am Gesamtsystem erforscht. Weiterhin wird der Einfluss der lokalen und globalen Steifigkeit der Unterkonstruktion analysiert. In einem nächsten Schritt erfolgen die numerische Simulation des Fassadensystems und die Modellverifizierung anhand der Ergebnisse der Großversuche. Mithilfe einer Parameterstudie wird der Einfluss einer globalen und lokalen Steifigkeitsänderung der Unterkonstruktion untersucht. Ein weiterer Fokus liegt auf der Spannungsverteilung im Bereich einspringender Bauteilecken.
Die Ergebnisse münden in einem Bemessungskonzept und Konstruktionsregeln für die Fassadenplatte, Verbindungsmittel sowie die Verankerung. Für die Fassade wird ein Biege- und Normalkraftnachweis eingeführt. Die Verbindungsmittel werden auf Biegung und Zug, Schub und Stabilität nachgewiesen. Hinsichtlich der Verankerung wird ein Zug-, Querzug- und Drucknachweis geführt. Das Bemessungskonzept basiert auf einer Kombination der Bemessung von Glas- und Betonwerksteinfassaden, beinhaltet Geometriefaktoren wie im Holzbau und berücksichtigt erstmalig und planmäßig auch Zwangseinwirkungen. Die Berechnungsmodelle werden anhand der Versuchsergebnisse plausibilisiert. Ein semiprobabilistisches Teilsicherheitskonzept mit der Bestimmung des Teilsicherheitsbeiwertes für UHPC (engl. Ultra High Performance Concrete) sowie ein Resttragfähigkeitsnachweis runden die Arbeit ab.
This thesis aims to examine various determinants of perceived team diversity on the on hand, and, on the other hand, the individual consequences of perceived team diversity. To ensure a strong theoretical foundation, I integrate and discuss different conceptualizations of and theoretical approaches to team diversity, empirically examined in three independent studies. The first study investigates the relationship between objective team diversity and perceived team diversity, and as moderators individual attitudes toward diversity and perception of one’s own work team’s diversity. The second study answers the questions of why and when dirty-task frequency impairs employees’ work relations and the third study examines how different cognitive mechanisms mediate the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. Taken together, study results provide support for the selection-extraction-application model of people perception and the assumption that individuals can integrate objective team characteristics into their mental representation of teams, using them to judging the team. Moreover, results show that a fit between perceived supervisor support and perceived organizational value of diversity can buffer the effects of dirty-task frequency on perception of identity-based subgroups, as well as perceived relationship conflict and surface acting, through employees’ perceptions of identity-based subgroups. Also, perceived social-identity threat and perceived procedural fairness but not perceived distributive fairness and perceived transactive memory systems serve as cognitive mechanisms of the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. These results contribute to diversity literature, such as the theory of subgroups in work teams and the categorization-elaboration model. In addition, I propose the input-mediator-output-input model of perceived team diversity, based on the study results, and recommend practitioners to develop diversity mindsets in teams.
Mit dem Einsatz stiftförmiger Verbindungsmittel am Stabende werden Holzstäbe durch die notwendigen Bohrlöcher für die Verbindungsmittel und durch die notwendigen Schlitze für etwaige Verbindungsbleche stets geometrisch und damit statisch geschwächt. Das volle Tragpotential des Einzelstabes kann somit - mit konventionellen Verbindungsmitteln, wie Stabdübeln, (Pass)-Bolzen aber auch Dübeln besonderer Bauart – nicht vollständig ausgeschöpft werden.
Im Rahmen dieser Arbeit wird die Verstärkung von Bauteilanschlüssen in auf Normalkraft beanspruchten Stabtragwerken mit Kunstharzpressholz (KP) untersucht, das mittels einer Keilzinkenverbindung an die Enden nativer Stäbe geklebt wird. Es werden sowohl charakteristische Keilzinkenfestigkeiten unterschiedlicher Profilgeometrien an hybriden Verbindungen zwischen nativem Holz und KP ermittelt als auch Lochleibungsfestigkeiten von KP unterschiedlichen Aufbaus an zylindrischen Verbindungsmitteln mit einem Durchmesser von d = 8 mm bis d = 60 mm bestimmt. Die Untersuchungen belegen, dass die Tragfähigkeit des Anschlussbereiches sowie die Tragfähigkeit der Keilzinkenverbindung zwischen nativem Holz und KP größer ist als die Tragfähigkeit des Bruttoquerschnitts eines nativen Stabes bis Festigkeitsklasse C35. Deshalb kann die volle Tragfähigkeit des Bruttoquerschnitts für den statischen Nachweis angesetzt und damit eine Bemessung auf den Spannungsnachweis bei Zugstäben und auf den Stabilitätsnachweis bei Druckstäben vereinfacht werden. Gleichzeitig ist eine Reduktion der für die Verbindung notwendigen zylindrischen Verbindungsmittel auf ein einziges möglich, was die Bauteilmontage als auch die Bauteildemontage erheblich vereinfacht.
Aufgrund seiner hohen Festigkeit, Härte und Formstabilität eignet sich KP bestens um reversible Bauteilanschlüsse auszubilden. Um die Verbindung zerstörungsfrei zu lösen und um die Wiederverwendbarkeit der Bauteile zu ermöglichen, müssen plastisch irreversible Verformungen der Verbindungsmittel als auch der Lochleibung ausgeschlossen werden. Innerhalb dieser Arbeit wird neben den eigentlichen Lochleibungsfestigkeiten daher auch der Einfluss der Verbindungsmittelschlankheit auf das Tragverhalten von Anschlüssen mit zylindrischen Verbindungsmitteln in KP untersucht.
Neben Scher-Lochleibungsanschlüssen werden auch Anschlüsse mit vorgespannten Schrauben im KP-verstärkten Stabende thematisiert. Im Vergleich zu reinen Scher-Lochleibungsverbindungen kann mit gleitfesten Verbindungen die Tragfähigkeit des Bauteilanschlusses signifikant gesteigert werden. Zudem lassen sich unter Einhaltung üblicher Bauteiltoleranzen nach DIN 18203-3 (2008) zugleich hohe Anschlusssteifigkeiten realisieren.
Für Scher-Lochleibungsanschlüsse und für gleitfeste Anschlüsse werden Gleichungssysteme als auch Bemessungstabellen entwickelt. Das Potential KP-verstärkter Stäbe wird am Beispiel modular aufgebauter Fachwerkträger mit Scher-Lochleibungsverbindungen erörtert.
Abschließend werden ringförmige Knotenanschlüsse aus KP vorgestellt. Mit diesen organisch geformten Freiformknoten können Stäbe unterschiedlichen Querschnitts, unterschiedlicher Länge und unter unterschiedlichen Winkeln gestoßen werden.
Mit dieser Arbeit wird die Grundlage zur Bemessung von Holztragwerken mit Knotenverstärkungen aus KP geschaffen.
Die Disproportionierung gesättigter Kohlenwasserstoffe, auch Chevron-Prozess genannt, basiert auf einem Vorschlag von Thomas Hughes aus dem Jahr 1964. Der im Phillipp’s Triolefin Process genutzte Metathesekatalysator wird hierbei durch eine weitere Komponente ergänzt, die zusätzlich Dehydrier- und Hydrierreaktionen katalysiert. Somit wird die Metathesereaktion durch eine vorgelagerte Dehydrier- und eine nachgelagerte Hydrierreaktion zu einem
dreistufigen Reaktionssystem erweitert. 1973 wurde diese Reaktion erstmals von Burnett und
Hughes als Alkandisproportionierung beschrieben. In Analogie zum Phillip’s Triolefin Process werden lineare gesättigte Kohlenwasserstoffe mit gleicher Kettenlänge zu unterschiedlichen Produkten mit höheren und niedrigeren Molekulargewichten umgesetzt. Bei der MA werden entgegengesetzt langkettige und kurzkettige Kohlenwasserstoffe als Edukte genutzt, aus welchen die Moleküle mit den dazwischen liegenden Kettenlängen gebildet werden.
Im Rahmen dieser Arbeit wurde die Disproportionierung von Alkanen (MR) an heterogenen, bifunktionellen Katalysatoren untersucht, um ein besseres Verständnis des Einflusses verschiedener Komponenten auf die Wirkweise und Flexibilität des Gesamtsystems zu erlangen. Zusätzlich wurde ein quantifizierbarer Bezug zwischen den verschiedenen Katalysatorkombinationen hergestellt. Um die in der Literatur beschriebenen Ergebnisse zu
reproduzieren, wurde zunächst eine Strömungsapparatur geplant, ausgelegt und konstruiert. In einer ersten Laufzeitmessung wurde das aus der Literatur bekannte Katalysatorsystem
(Pt/Li/γ-Al2O3 & WOX/SiO2) untersucht. Dadurch konnten die weiteren Laufzeitmessungen mit modifizierten Materialien in Relation zu den ursprünglichen Ergebnissen der Literatur gesetzt werden. Mit dem Ziel die katalytische Aktivität des Pt-basierten Katalysatorsystems zu verbessern, wurde der Li-Promotor der Pt-Teilkomponente variiert und durch Na, K und Sn ersetzt, bzw. ersatzlos entfernt. Bei einem zweiten Ansatz zur Untersuchung des katalytischen Verhaltens des Pt-Systems wurden die Trägermaterialen variiert. Hierzu wurde das γ-Al2O3 durch verschiedene mikroporöse und mesoporöse Materialien ersetzt.
Als Alternative zu dem in der Literatur ausführlich beschriebenen Pt-basierten Katalysatorsystem wurde in dieser Arbeit CrOx untersucht. In einer ersten
Versuchsreihe wurde die katalytische Aktivität des Systems in Abhängigkeit von der Cr-Beladung der Dehydrier-/Hydrierkomponente untersucht. In einer zweiten Versuchsreihe wurde, wie schon bei dem Pt-Katalysator, der Promotor der Dehydrier-/Hydrierkomponente evaluiert. Eine weitere Variation stellte die Untersuchung der mesoporösen Materialien MCM-41 und
SBA-15 als Trägermaterial der Metathesekomponente dar. Da, anders als bei Pt, für das Cr-basierte Katalysatorsystem vor dieser Arbeit keine Informationen zu dem katalytischen Verhalten in Abhängigkeit von den Betriebsparametern vorlagen, wurden in einer letzten Versuchsreihe die Betriebsbedingungen evaluiert.
Die Ergebnisse der durchgeführten Versuchsreihen mit zahlreichen Variationen in der Katalysatorzusammensetzung weisen auf eine hohe Flexibilität des bestehenden Systems im Hinblick auf den Austausch der Katalysatorkomponenten hin. In diesem Rahmen konnte gezeigt werden, dass die in dieser Arbeit untersuchten CrOx-basierten Katalysatoren eine realistische Alternative mit vielseitigen Optimierungsmöglichkeiten zu den bisher bekannten, Pt-basierten Systemen darstellt.
In a recent paper, G. Malle and G. Robinson proposed a modular anologue to Brauer's famous \( k(B) \)-conjecture. If \( B \) is a \( p \)-block of a finite group with defect group \( D \), then they conjecture that \( l(B) \leq p^r \), where \( r \) is the sectional \( p \)-rank of \( D \). Since this conjecture is relatively new, there is obviously still a lot of work to do. This thesis is concerned with proving their conjecture for the finite groups of exceptional Lie type.
In der vorliegenden Arbeit werden die Chancen der Netzwerkbildung von Grundschulen im ländlichen Raum erörtert. Die Ausarbeitung gliedert sich in zwei Bereiche: einen theoretischen Überbau und die anschließende praktische Anwendung der erworbenen Kenntnisse. Das Thema wird also als Theorie-Praxis-Transfer bearbeitet.
3D hand pose and shape estimation from a single depth image is a challenging computer vision and graphics problem with many applications such as
human computer interaction and animation of a personalized hand shape in
augmented reality (AR). This problem is challenging due to several factors
for instance high degrees of freedom, view-point variations and varying hand
shapes. Hybrid approaches based on deep learning followed by model fitting
preserve the structure of hand. However, a pre-calibrated hand model limits
the generalization of these approaches. To address this limitation, we proposed a novel hybrid algorithm for simultaneous estimation of 3D hand pose
and bone-lengths of a hand model which allows training on datasets that contain varying hand shapes. On the other hand, direct joint regression methods
achieve high accuracy but they do not incorporate the structure of hand in
the learning process. Therefore, we introduced a novel structure-aware algorithm which learns to estimate 3D hand pose jointly with new structural constraints. These constraints include fingers lengths, distances of joints along
the kinematic chain and fingers inter-distances. Learning these constraints
help to maintain a structural relation between the estimated joint keypoints.
Previous methods addressed the problem of 3D hand pose estimation. We
open a new research topic and proposed the first deep network which jointly
estimates 3D hand shape and pose from a single depth image. Manually annotating real data for shape is laborious and sub-optimal. Hence, we created a
million-scale synthetic dataset with accurate joint annotations and mesh files
of depth maps. However, the performance of this deep network is restricted by
limited representation capacity of the hand model. Therefore, we proposed a
novel regression-based approach in which the 3D dense hand mesh is recovered
from sparse 3D hand pose, and weak-supervision is provided by a depth image synthesizer. The above mentioned approaches regressed 3D hand meshes
from 2D depth images via 2D convolutional neural networks, which leads to
artefacts in the estimations due to perspective distortions in the images. To
overcome this limitation, we proposed a novel voxel-based deep network with
3D convolutions trained in a weakly-supervised manner. Finally, an interesting
application is presented which is in-air signature acquisition and verification
based on deep hand pose estimation. Experiments showed that depth itself is
an important feature, which is sufficient for verification.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
Der intrinsisch chirale Ligand CpCH besteht aus einem Cyclopentadienkern und zwei benzannelierten Cycloheptatrienringen, deren sterische Abstoßung die beiden „Flügel“ des Ligandenrückgrates zu einer helicalen Anordnung zwingen. Im Rahmen dieser Arbeit wurden Derivate von CpCH mit sauerstofffunktionalisierten Seitenketten ausgehend von der Deprotonierung des Liganden und anschließender Umsetzung mit Epoxiden erhalten. Durch die Reaktion von (CpC)- mit enantiomerenreinem (R)-Propylenoxid gelang die Überführung des Liganden in diastereomere Alkoholderivate mit einem Diastereomerenüberschuss von 10 %. Des Weiteren wurden einfach und zweifach phosphanfunktionalisierte Derivate von CpCH synthetisiert. Die Reaktion dieser Liganden mit unterschiedlichen Vorstufen der späten und damit elektronenreichen Übergangsmetalle führte zu einer Reihe an Rhodium(I)-, Palladium(II)-, Gold(I)- und Ruthenium(II)komplexen mit potentiellem Einsatz in der Katalyse. Die fortsetzenden Arbeiten der direkten Reaktion von CpCH mit den basischen Dimethylamidovorstufen der zweiten Übergangsmetallreihe erlaubte den Abschluss der Arbeiten zu den Titan(IV)-, Zirkonium(IV)- und Hafnium(IV)komplexen der Struktur [(η5-CpC)M(NMe2)3]. Mit Hilfe des Thallium(I)-salzes von CpCH gelang die Übertragung des Liganden auf die späten Übergangsmetalle Ruthenium und Iridium. Der lichtinitiierte Ligandenaustausch der auf diesem Weg erhaltenen kationischen Ruthenium(II)arenkomplexe in Acetonitril führte zum entsprechenden Acetonitril-substituierten Komplex [(η5-CpC)Ru(CH3CN)3]PF6, der im Anschluss erfolgreich auf seine Aktivität in der Redoxisomerisierung allylischer Alkohole und Ligandenaustauschreaktionen mit zweizähnigen Phosphan-liganden untersucht wurde. Ausgehend von [(η5-CpC)Ru(η6-C8H8O2)]PF6 gelang die Synthese eines diastereomeren Amidkomplexes [(η5-CpC)Ru{η6-C6H5-(C=O)-NH-C8H9}]PF6 durch die direkte Aminolyse des koordinierenden Carbonsäureesters mit (R)-Methylbenzylamin. Des Weiteren wurde im Rahmen dieser Arbeit die Übertragung des von J.-Y. Chung erstmals erhaltenen Keton CpCO auf Triruthenium(0)dodekacarbonyl durchgeführt. Ausgehend von der Reaktion des isolierten Ruthenium(0)tricarbonylkomplexes mit 2-Propanol gelang die Isolierung eines neuartigen bimetallischen Hydridkomplexes, der im Anschluss erfolgreich auf eine Aktivität in der Oppenauer-Oxidation von Cholesterol und in der Redoxisomerisierung allylischer Alkohole getestet wurde. Neben des Erhaltens eines durch Autoxidation entstandenen Diepoxidderivates von CpCH, ergab die direkte Reaktion des Liganden mit Luftsauerstoff und Bengalrosa das erste cyclische Endoperoxid. Die Reaktion dieser Verbindung mit Aluminium(III)chlorid führte zu einem Umlagerungsprodukt bei dem, neben der Einführung einer Ketogruppe am zentralen Fünfring, zusätzlich eine [1,2]-Alkylwanderung innerhalb einer der beiden Cycloheptatrienringe des Liganden stattgefunden hat.
The famous Mather-Yau theorem in singularity theory yields a bijection of isomorphy classes of germs of isolated hypersurface singularities and their respective Tjurina algebras.
This result has been generalized by T. Gaffney and H. Hauser to singularities of isolated singularity type. Due to the fact that both results do not have a constructive proof, it is the objective of this thesis to extract explicit information about hypersurface singularities from their Tjurina algebras.
First we generalize the result by Gaffney-Hauser to germs of hypersurface singularities, which are strongly Euler-homogeneous at the origin. Afterwards we investigate the Lie algebra structure of the module of logarithmic derivations of Tjurina algebra while considering the theory of graded analytic algebras by G. Scheja and H. Wiebe. We use the aforementioned theory to show that germs of hypersurface singularities with positively graded Tjurina algebras are strongly Euler-homogeneous at the origin. We deduce the classification of hypersurface singularities with Stanley-Reisner Tjurina ideals.
The notion of freeness and holonomicity play an important role in the investigation of properties of the aforementioned singularities. Both notions have been introduced by K. Saito in 1980. We show that hypersurface singularities with Stanley--Reisner Tjurina ideals are holonomic and have a free singular locus. Furthermore, we present a Las Vegas algorithm, which decides whether a given zero-dimensional \(\mathbb{C}\)-algebra is the Tjurina algebra of a quasi-homogeneous isolated hypersurface singularity. The algorithm is implemented in the computer algebra system OSCAR.
Die Arbeit beschäftigt sich zunächst damit, was Schulentwicklung umfasst, welche Rolle die Teamentwicklung spielt und welche zentrale Stellung die Schulleitung, allen voran die Schulleiterin bzw. der Schulleiter, hierbei innehat. Daran anschließend wird konkret auf die Besonderheiten der Gemeinschaftsschule in Baden-Württemberg eingegangen und die damit verbundenen Herausforderungen für eine positive Schulentwicklung betrachtet. Abschließend wird die Frage beantwortet, wie die Schulleitung Teamentwicklung an einer Gemeinschaftsschule für eine positive Schulentwicklung initiieren, fördern, begleiten und implementieren kann. Die Ergebnisse münden in einer Handreichung für Schulleitungen an Gemeinschaftsschulen.
Die vorliegende Masterarbeit belegt, dass ein Innovationsvorhaben mittels „Bottom-up“-Management
zur Entwicklung einer gesamten Organisation führen kann. Dies wird exemplarisch an
der Curriculumentwicklung an einer Pflegeschule in Baden-Württemberg dargestellt. Hierfür
werden zunächst die Besonderheiten des „Bottom-up“-Managements herausgearbeitet und
anschließend unter Einbeziehung aller Rahmenbedingungen ein eigenes Handlungskonzept
für das Projektvorhaben erstellt. Das „Drei-Wege-Modell der Schulentwicklung“ von Rolff, welches
sich mit dem Zusammenhang zwischen der Unterrichtsentwicklung, der Personalentwicklung
und der Organisationsentwicklung befasst (vgl. Rolff 2016, S. 20), stellt in dieser
Arbeit neben der Qualitätssicherung einen wichtigen Orientierungsrahmen dar. Es wird zudem
gezeigt, dass sowohl das Führungsverhalten der Schulleitung als auch die Möglichkeit
zur partizipativen Mitarbeit aller Teilnehmenden der Schlüssel für das Gelingen des Innovationsvorhabens
ist. Damit die Ergebnisse dieser Arbeit auch gewinnbringend für andere Projektvorhaben
und Organisationen genutzt werden können, werden sie abschließend auf ihre
Übertragbarkeit hin geprüft. So können Teilaspekte diese Masterarbeit auch bei der Weiterentwicklung
weiterer Pflegeschulen oder anderer Organisationen eine Hilfe sein.
Dieser Arbeits- und Forschungsbericht beschreibt die Analyse der Wirkung der durch das Teil- projekt etablierten (Weiter-)Bildungsangebote an der Hochschule Kaiserslautern. Zu diesem Zweck wurden sowohl in der Programmentwicklung beteiligte Unternehmen als auch die Stu- dierenden, welche die entwickelten Angebote derzeit wahrnehmen, befragt. Ziel war es, unter anderem die Zielgruppenerreichung, einen Outcome sowie einen Impact messbar zu machen und zu analysieren. Aus den gewonnen Ergebnissen lassen sich Rückschlüsse auf die anvi- sierte Wirkung der (Weiter-)Bildungsangebote zum einen auf Studierende und zum anderen auf die in der Region ansässigen Unternehmen ziehen. Gleichzeitig wird der Bekanntheitsgrad der Hochschule Kaiserslautern als Bildungsträgerin analysiert und wichtige Erkenntnisse für die nachhaltige Qualitätssicherung der wissenschaftlichen (Weiter-)Bildung gezogen.
Verkehrsflächenbürtige Feststoffe enthalten Schadstoffe wie Schwermetalle, die im Regenereignis abfließen und in Gewässern toxisch wirken können. Da ein großer Teil vieler Schwermetalle partikulär vorliegt, können diese durch eine Behandlung mittels Sedimentation zurückgehalten werden. Zur Optimierung des Feststoff- und damit Schadstoffrückhaltes ist eine Erweiterung des Kenntnisstandes zum Absetzverhalten schadstofftragender Feststoffe nötig. Es ist bekannt, dass das Schadstoffaufkommen standortspezifisch variiert. Bezüglich der für die Sedimentation absetzrelevanten Kenngrößen wie Partikelgröße und Dichte wurde der Einfluss standortspezifischer Randbedingungen auf die Zusammensetzung noch nicht umfassend untersucht. Weiter mangelt es an einer Methode zur Messung des Absetzverhaltens unter kontrollierten Bedingungen. Diese Arbeit liefert hierzu einen Beitrag.
Anhand einer Literaturstudie zu Feststoffdepositionen und -abflüssen von Verkehrsflächen wurde für die absetzrelevanten Kenngrößen Partikelgröße, -form, -dichte und organischer Anteil eine Metadatenauswertung hinsichtlich methoden- und standortspezifischen Randbedingungen durchgeführt. Für organische Anteile in Abflüssen konnte eine gesicherte Datengrundlage und Durchschnittswerte ermittelt werden. Die Datengrundlage für die weiteren Kenngrößen ist bislang gering. Der Mangel an Befunden zu absetzrelevanten Kenngrößen unterstreicht die Notwendigkeit vertiefter Untersuchungen zur Charakterisierung verkehrsflächenbürtiger Feststoffe.
In einem umfangreichen Messprogramm wurden an zehn Standorten in Frankfurt am Main von 2016 bis 2018 Feststoffe in der Trockenperiode auf der Verkehrsfläche gewonnen und hinsichtlich der genannten absetzrelevanten Kenngrößen untersucht. Standortspezifische Einflüsse wurden statistisch nachgewiesen. Feststoffaufkommen und deren Partikelgröße liegen unabhängig vom Standort nur mit geringer Variabilität vor. Es besteht ein positiver Zusammenhang zwischen der Verkehrsstärke und dem Feststoffaufkommen. Organische Anteile sind eine Funktion der vorherrschenden Vegetation am Standort. Sie variieren saisonal. Es konnte ein negativ linearer Zusammenhang zwischen der Dichte und den organischen Anteilen nachgewiesen werden. Diese Arbeit liefert damit eine neue Datengrundlage für die Modellierung von Transportprozessen von Feststoffen und ihren absetzrelevanten Kenngrößen von unterschiedlichen Verkehrsflächen.
Weiter wurde ein Laborverfahren zur Bestimmung des Absetzverhaltens verkehrsflächenbürtiger Feststoffe in konstanter Zusammensetzung (Partikelgrößenverteilung und Feststoffkonzentration) entwickelt und mit der geschaffenen Datengrundlage validiert. Es wurden erste Erkenntnisse zum Absetzverhalten von Feststoffen, organischen Anteilen und Schwermetallen gewonnen. Im untersuchten Szenario sedimentieren die Partikel diskret bedingt durch die Partikelgröße und organischen Anteile. Das Absetzverhalten der Schwermetalle korreliert mit den Feststoffen. Überproportional hohe Schwermetallkonzentrationen in feinen Partikelanteilen bedeuten jedoch eine verringerte Absetzbarkeit der jeweiligen Schwermetallanteile.
Für die Behandlung von Abflüssen aus Verkehrsflächen mit viel Vegetation am Standort legen diese Ergebnisse nahe, dass mit reduzierten Feststoffwirkungsgraden aufgrund verminderter Absetzbarkeit leichterer Bestandteile mit geringer Dichte zu rechnen ist. Mit den Laborergebnissen konnte ein starker positiver Zusammenhang zwischen dem Feststoff- und Schadstoffwirkungsgrad bestätigt werden. Die Verteilung der Schwermetalle in Partikelgrößenklassen einer Feststoffprobe ist neben den organischen Anteilen und der Dichte ein wichtiger Parameter zur Einschätzung der Absetzbarkeit bei diskretem Absetzverhalten.
Strength training in youth soccer has both a preventive and a
sports-specific component. Whole-body electromyostimulation
(WB-EMS) could represent an interesting time-saving add-on to
classical strength exercises in performance-oriented soccer. The
objective of this study was to find out whether a 10-week superimposed
WB-EMS training might have a more positive impact on
strength parameters in male youth elite soccer players than regular
athletic strength exercises alone. A total of 30 male youth soccer
players from a youth academy aged 15 to 17 years participated
in the study. Before and after the intervention, the isometric extension
and flexion forces of trunk and knee, and the hip abduction
and adduction forces were tested. Twelve players (control
group) absolved a conventional 20-minute strength training once
a week for a period of ten weeks. Eighteen players absolved the
same exercises but with superimposed WB-EMS. Blood creatine
kinase concentration was measured for training control. ANOVAs,
Friedman tests and post hoc t-tests were calculated (p =
0.05) to examine the strength development during the training period
between the groups. While we could not find significant
strength increases in the leg, hip and trunk muscles in the control
group (<4%), the strength of the WB-EMS group improved significantly
in 4 of the 6 muscle groups tested. In this group, the
strength of knee flexors increased significantly by 20.68 ±
21.55%, knee extensors by 31.43 ± 37.02%, hip adductors by
21.70 ± 12.86% and trunk flexors by 33.72 ± 27.43%. The rates
of strength increase are partly in line with other studies, partly
clearly higher, which might be explained by the athletically active
target group. A 10-week superimposed WB-EMS training improves
the strength of certain leg, hip and trunk muscles in male
adolescent elite soccer players to a greater extent than a pure athletic
strength training of the same duration.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
Ziel der Masterarbeit ist es zu zeigen, wie Social Media Marketing im Hochschulsport eingesetzt wird und welche Entwicklungspotenziale darüber hinaus bestehen. Um eine Grundlage für die weiteren Untersuchungen zu schaffen wird die Struktur von Nonprofit- Organisationen und die Zuordnung des Hochschulsports dazu erklärt, sowie wichtige Faktoren zu Social Media Marketing. Bezogen darauf wird anhand von Experteninter-views eine Verknüpfung zwischen der Praxis vor Ort und der Fachliteratur geschaffen. Im Anschluss wird eine Analyse des Instagram-Kanals des Hochschulsports der TU Kai-serslautern durchgeführt. Dazu werden mittels einer Messreihe die Daten zu Kennzahlen aus Instagram gefiltert und dokumentiert. Aufgrund dessen können Key Performance In-dicators für den Hochschulsport der TU Kaiserslautern gebildet und der beste und schlechteste Post identifiziert werden. Diese beiden Posts werden analysiert und mitei-nander verglichen, um Gründe für ihre unterschiedliche Außenwirkung zu finden.
Die Masterarbeit ist interessant für Studierende die ihren Schwerpunkt in Social Media, Marketing oder Sozialwissenschaften haben, als auch für alle Mitarbeiter rund um den Hochschulsport.
The number of sequenced genomes increases rapidly due to the development of faster, better and new technologies. Thus, there is a great interest in automation, and standardization of the subsequent processing and analysis stages of the generated enormous amount of data. In the current work, genomes of clones, strains and species of Streptococcus were compared, which were sequenced, annotated and analysed with several technologies and methods. For sequencing, the 454- and Illumina-technology were used. The assembly of the genomes mainly was performed by the gsAssembler (Newbler) of Roche, the annotation was performed by the annotation pipeline RAST, the transfer tool RATT or manually. Concerning analysis, sets of deduced proteins of several genomes were compared to each other and common components, the so-called core-genome, of the used genomes of one or closely related species determined. Detailed comparative analysis was performed for the genomes of isolates of two clones to gather single nucleotide variants (SNV) within genes.
This work focusses on the pathogenic organism Streptococcus pneumoniae. This species is a paradigm for transformability, virulence and pathogenicity as well as resistance mechanisms against antibiotics. Its close relatives S. mitis, S. pseudopneumoniae and S. oralis have no pathogenicity potential as high as S. pneumoniae available and are thus of high interest to understand the evolution of S. pneumoniae. Strains of two S. pneumoniae clones were chosen. One is the ST10523 clone, which is associated with patients with cystic fibrosis and is characterized by long-term persistence. This clone is lacking an active hyaluronidase, which is one of the main virulence factors. The lack of two phage clusters possibly contributed to the long persistence in the human host. The clone ST226 shows a high penicillin resistance but interestingly one strain is sensitive against penicillin. Here it could be seen that the penicillin resistance mainly arose from the presence of mosaic-PBPs, while special alleles of MurM and CiaH - both genes are associated with penicillin-resistance – were present in resistant and sensitive strains as well. Penicillin resistance of S. pneumoniae is the result of horizontal gene transfer, where DNA of closely related species, mainly S. mitis or S. oralis, served as donor. The transfer of DNA from the high-level penicillin-resistant strain S. oralis Uo5 to the sensitive strain S. pneumoniae R6 was intentioned to reveal the amount of transferred DNA and whether it is possible to reach the high resistance level of S. oralis Uo5. Altogether, about 19kb of S. oralis DNA were transferred after three successive transformation steps, about 10-fold less than during transfer from S. mitis, which is more closely related to S. pneumoniae, as donor. MurE was identified as new resistance determinant. Since the resistance level of the donor strain could not be reached, it is assumed, that further unknown factors are present which contribute to penicillin resistance. The comparison of S. pneumoniae and its close relatives was performed using deduced protein sequences. 1.041 homologous proteins are common to the four complete genomes of S. pneumoniae R6, S. pseudopneumoniae IS7493, S. mitis B6 and S. oralis Uo5. Most of the virulence and pathogenicity factors described for S. pneumoniae could also be found in commensal species. These observations were confirmed by further investigations by Kilian et al. (Kilian, et al., 2019). After adding 26 complete S. pneumoniae genomes to the analysis, only 104 gene products could be identified as specific for this species. Investigations of a larger number of related streptococci, which were isolated from human and several primates, confirmed the presence of most of the virulence factors of human pneumococci in S. oralis and S. mitis strains from primates. While NanBC is common among S. pneumoniae and is missing in all S. oralis, all S. oralis contain a ß-N-acetyl-hexosaminidase which vice versa is missing in S. pneumoniae. The occurrence of S. oralis also in free-living chimpanzees suggests the assumption, that this species is part of the commensal flora of these Old-World monkeys unlike S. pneumoniae which has evolved with its human host. Compared to S. pneumoniae, S. oralis shows an amazing variability in factors important for biosynthesis of peptidoglycan and teichoic acid (PBP, MurMN, lic-cluster). Some streptococci contain a second PGP3 homologue. Additional analyses with further isolates, especially of wild animals, are necessary to determine host-specific components.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
Congress Report 2020.6-8
(2020)
Am 1. Januar 2014 trat das Notfallsanitätergesetz in Kraft, das die Berufsausbildung im Rettungsdienst auf eine völlig neue Basis stellen sollte. Anstatt der gewohnten Vermittlung von nach Unterrichtsfächern gegliederten Inhalten sollte nun eine kompetenzorientierte, nach Lernfeldern geordnete Ausbildung eingeführt werden.
Anders als in allen anderen Bundesländern tat man sich in Bayern schwer mit dem Ansatz, die gewohnte Fächerstruktur aufzugeben, weshalb hier ein Hybridlehrplan entstand, der sowohl nach Unterrichtsfächern als auch nach Lernfeldern gegliedert ist. Die vorliegende Arbeit untersucht, ob es geglückt ist, diesen beiden unterschiedlichen didaktischen Ansätzen gerecht zu werden. Dabei werden zunächst aus der wissenschaftlichen Literatur die grundsätzlichen Unterschiede zwischen Fächer- und Lernfeldkonzept erarbeitet und die wesentlichen Elemente des kompetenzorientierten Unterrichts dargestellt. Anschließend wird anhand einer unter Lehrkräften und Lernenden durchgeführten Befragung untersucht, inwieweit die kompetenzorientierte Ausbildung an bayerischen Notfallsanitäterschulen bereits umgesetzt wird.
Es zeigt sich, dass in der Wahrnehmung der Lernenden nach wie vor die Orientierung nach Fachinhalten und Unterrichtsfächern das Denken der Schüler bestimmt, obwohl deutliche Bemühungen seitens des Lehrpersonals bestehen, sich stärker an Kompetenzzielen zu orientieren. Dabei wird insbesondere deutlich, dass der Bedarf an fachübergreifenden Absprachen an den Schulen noch nicht ausreichend befriedigt oder von Lehrkräften noch nicht im erforderlichen Maß verfolgt wird.
In today’s world, mobile communication has become one of the most widely used technologies corroborated by growing number of mobile subscriptions and extensive usage of mobile multimedia services. It is a key challenge for the network operators to accommodate such large number of users and high traffic volume. Further, several day-to-day scenarios such as public transportation, public events etc., are now characterized with high mobile data
usage. A large number of users avail cellular services in such situations posing
high load to the respective base stations. This results in increased number of dropped connections, blocking of new access attempts and blocking of handovers (HO). The users in such system will thus be subjected to poor
Quality of Experience (QoE). Beforehand knowledge of the changing data traffic dynamics associated with such practical situations will assist in designing
radio resource management schemes aiming to ease the forthcoming congestion situations. The key hypothesis of this thesis is that consideration and utilization of additional context information regarding user, network and his environment is valuable in designing such smart Radio Resource Management(RRM) schemes. Methods are developed to predict the user cell transitions, considering the fact that mobility of the users is not purely random but rather direction oriented. This is particularly used in case of traffic dense moving network or group of users moving jointly in the same vehicle (e.g., bus, train, etc.) to
predict the propagation of high load situation among cells well in advance.
This enables a proactive triggering of load balancing (LB) in cells anticipating
the arrival of high load situation and accommodating the incoming user group or moving network. The evaluated KPIs such as blocked access
attempts, dropped connections and blocked HO are reduced.
Further, everyday scenario of dynamic crowd formation is considered as another potential case of high load situation. In real world scenarios such as open air festivals, shopping malls, stadiums or public events, several mobile users gather to form a crowd. This poses high load situation to the respective serving base station at the site of crowd formation, thereby leading to congestion. As a consequence, mobile users are subjected to poor QoE due to high dropping and blocking rates. A framework to predict crowd formation in a cell is developed based on coalition of user cell transition prediction, cluster detection and trajectory prediction. This framework is suitably used to prompt context aware load balancing mechanism and activate a small cell at the probable site of crowd formation. Simulations show that proactive LB
reduces the dropping of users (23%), blocking of users (10%) and blocked
HO (15%). In addition, activation of a Small Cell (SC) at the site of frequent
crowd formation leads to further reductions in dropping of users (60%),
blocking of users (56%) and blocked HO (59%).
Similar to the framework for crowd formation prediction, a concept is developed for predicting vehicular traffic jams. Many vehicular users avail broadband cellular services on a daily basis while traveling. The density of such vehicular users change dynamically in a cell and at certain sites (e.g.
signal lights), traffic jams arise frequently leading to a high load situation at
respective serving base station. A traffic prediction algorithm is developed
from cellular network perspective as a coalition strategy consisting of schemes to predict user cell transition, vehicular cluster/moving network detection, user velocity monitoring etc. The traffic status indication provided by the algorithm is then used to trigger LB and activate/deactivate a small cell suitably. The evaluated KPIs such as blocked access attempts, dropped connections
and blocked HO are reduced by approximately 10%, 18% and 18%, respectively due to LB. In addition, switching ON of SC reduces blocked access attempts, dropped connections and blocked HO by circa 42%, 82% and 81%, respectively.
Amidst increasing number of connected devices and traffic volume, another key issue for today’s network is to provide uniform service quality
despite high mobility. Further, urban scenarios are often characterized by
coverage holes which hinder service continuity. A context aware resource allocation scheme is proposed which uses enhanced mobility prediction to facilitate service continuity. Mobility prediction takes into account additional information about the user’s origin and possible destination to predict next road segment. If a coverage hole is anticipated in upcoming road, then additional
resources are allocated to respective user and data is buffered suitably.
The buffered data is used when the user is in a coverage hole to improve service continuity. Simulation shows improvement in throughput (in coverage
hole) by circa 80% and service interruption is reduced by around 90%, for a
non-real-time streaming service. Additionally, investigation of context aware procedures is carried out with a focus on user mobility, to find commonalities among different procedures and a general framework is proposed to support mobility context awareness. The new information and interfaces which are required from various entities
(e.g., vehicular infrastructure) are discussed as well.
Device-to-Device (D2D) communications commonly refer to the technology
that enables direct communication between devices, hence relieving the
base station from traffic routing. Thus, D2D communication is a feasible
solution in crowded situations, where users in proximity requesting to communicate with one another could be granted D2D links for communication, thereby easing the traffic load to serving base station. D2D links can potentially
reuse the radio resources from cellular users (known as D2D underlay) leading to better spectral utilization. However, the mutual interference can hinder system performance. For instance, if D2D links are reusing cellular uplink resources then D2D transmissions cause interference to cellular uplink at base station. Whereas, cellular transmissions cause interference to
D2D receivers. To cope up with such issues, location aware resource allocation
schemes are proposed for D2D communication. The key aim of such RA scheme is to reuse resources with minimal interference. The RA scheme based on virtual sectoring of a cell leads to approximately 15% more established
links and 25% more capacity with respect to a random resource allocation. D2D transmissions cause significant interference to cellular links with
which they reuse physical resource blocks, thereby hindering cellular performance. Regulating D2D transmissions to mitigate the aforementioned problem would mean sub-optimal exploitation of D2D communications. As
a solution, post-resource allocation power control at cellular users is proposed.
Three schemes namely interference aware power control, blind power
control and threshold based power control are discussed. Simulation results
show reductions in dropping of cellular users due to interference from D2D
transmissions, improvement in throughput at base station (uplink) while not hindering the D2D performance.
Acrylamid ist eine Lebensmittelkontaminante, welche durch die sogenannte Maillard-Reaktion im Lebensmittel gebildet wird. Acrylamid entsteht insbesondere bei der Zubereitung kohlenhydratreicher hocherhitzer Lebensmittel, wie z.B. Pommes frites, Chips, Cerealien und ähnlichen Produkten. Die mittlere tägliche Exposition, durch den Verzehr von Lebensmittel liegt bei ca. 0,4–1,9 µg/kg Körpergewicht und Tag. Darüber hinaus entsteht Acrylamid in Folge von Pyrolyseprozessen, weshalb Tabakrauchen einen weiteren Expositionsweg darstellt. Die Menge des dabei entstehenden Acrylamids im Hauptstrom von Zigarettenrauch liegt bei 1,1–2,3 µg/Zigarette. In Studien erwies sich die Substanz als reproduktions- und gentoxisch, sowie kanzerogen beim Nager und zudem als neurotoxisch sowohl im Nager als auch beim Menschen. Bereits 1994 wurde Acrylamid von der International Agency for Research on Cancer (IARC) als wahrscheinlich krebserzeugend für den Menschen (Gruppe 2A) eingestuft. Im Zuge des Fremdstoffmetabolismus wird Acrylamid in der Leber zu Glycidamid umgesetzt. Katalysiert wird die Reaktion durch das Enzym CYP2E1 ist. Als reaktives Epoxid kann Glycidamid an die DNA binden, wodurch das in vorliegender Arbeit behandelte N7-(2-Carbamoyl-2-Hydroxyethyl)-guanin (N7-GA-Gua), gebildet wird. Dieses DNA-Addukt bildet das Hauptaddukt der Reaktion aus GA und DNA-Bausteinen.
Ziel der vorliegenden Arbeit war es, eine hochsensitive UHPLC-ESIpos-MS/MS-Methode zu entwickeln, um damit anschließend eine mögliche Hintergrundbelastung mit Acrylamid anhand des N7-GA-Gua-Addukts sowohl im Tier als auch im Menschen nachzuweisen und damit eine bessere Datenlage über die Substanz zu erhalten.
Zu Beginn dieser Arbeit wurden Synthesen der für die chromatographische Analytik benötigten Verbindungen durchgeführt. Hierbei konnten erstmals Glycidamid Kristalle erhalten und untersucht werden. In nachfolgenden in-vitro-Experimenten wurden die Zytotoxizität von Acrylamid und dessen Metaboliten mittels Resazurin-Reduktionstest, sowie die Bildung von N7-GA-Gua in primären Rattenhepatozyten (pRH) nach Inkubation mit Acrylamid, untersucht. Im Resazurin Test erwies sich Acrylamid in Konzentrationen bis zu 2500 µM als nicht zytotoxisch und konnte daher zur Inkubation der Zellen mit Konzentrationen bis zu 2000 µM Acrylamid eingesetzt werden. Im anschließend durchgeführten Inkubationsversuch, bei dem die Zellen mit 2–2000 µM Acrylamid über 1, 16 oder 24 h inkubiert wurden, konnten in allen Testkonzentrationen N7-GA-Gua-Addukte bestimmt werden. Dank der im Rahmen dieser Arbeit entwickelten sensitiven analytischen Methode, konnten N7-GA-Gua-Addukte auch in den Organen (Lunge, Niere und teilweise Leber) vom Nager (C57BL/6jRj- und BKS(D) Leprdb/JOrLR Maus und Wistar-Ratte) bestimmt werden. Geschlechts- oder organabhängige Effekte konnten nicht festgestellt werden. Einzig die Anzahl an N7-GA-Gua lag in den C57BL/6jRj-Mäusen signifikant über denen der Wistar-Ratten. In der durchgeführten Humanstudie konnten im Blut von 48 der 60 Probanden Addukte nachgewiesen werden. Signifikante Einflüsse der Lebensführung, des Alters und der Ernährung der Probanden auf den Hintergrund-Adduktgehalte wurden nicht festgestellt; es ergab sich lediglich eine schwache Korrelation zwischen der Anzahl an N7-GA-Gua und dem Gewicht bzw. dem BMI der Studienteilnehmer.
Insgesamt liefert die vorliegende Arbeit wichtige Erkenntnisse über die Gehalte an N7-GA-Gua in vitro in primären Rattenhepatozyten, als auch in vivo in Organen von Ratte und Maus, sowie im Blut des Menschen. Die Ergebnisse tragen zur Verbesserung der Datenlage über Acrylamid bei. Insbesondere die Ergebnisse der durchgeführten Humanstudie liefern Einblicke in die Hintergrundbelastung an N7 GA-Gua im Querschnitt der Bevölkerung und können daher auch für die Risikobetrachtung von Acrylamid sowie zur Ableitung weiterer Forschungsarbeiten und Studien von Interesse sein.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Verbundkonstruktionen aus Stahl und Beton haben sich in den letzten Jahrzehnten
zu einer wirtschaftlichen und konkurrenzfähigen Bauweise im Hoch- und Brückenbau
entwickelt. Eine wesentliche Rolle im Verbundbau nehmen dabei die Verbundmittel
ein, an die hohe Anforderungen hinsichtlich der Tragfähigkeit und der Verformbarkeit
gestellt werden. Am Fachgebiet Stahlbau der TU Kaiserslautern wurden Versuche
zur Trag- und Verformungsfähigkeit randnaher Betondübel in Abscher- und
Ausziehversuchen durchgeführt.
Der Einsatz der Betondübel in innovativen Verbundkonstruktionen ist trotz noch
fehlender normativer Regelwerke von weiter steigendem Interesse. Betondübel
können in neuartigen Verbundkonzepten auch in einer randnahen Lage eingesetzt
werden. Dadurch lassen sich Querschnitte materialgerecht und kostengünstig in
optimierter Verbundbauweise herstellen und verbauen. Eine geringere seitliche
Betondeckung der Betondübel kommt neben den Plattenbalkenquerschnitten in
Konstruktionen vor, in welchen die Verbundleiste liegend eingebaut wird. Solche
parallel zur Betongurtebene positionierte Betondübelleisten sind z. B. in Slim-Floor-
oder modernen Klimadecken in Sandwichverbundbauweise denkbar. Das Trag- und
Verformungsverhalten einer Betondübelleiste, welche in Verbundkonstruktionen in
Kombination mit einer schlanken Betonplatte liegend integriert wird, wurde aufgrund
ihrer randnahen Lage genauer betrachtet. Die ersten Untersuchungen hierzu zeigen,
dass die Verbunddübelleisten, nach dem die Spalt- und Rückhängerisse entstehen,
mit Kantenbruch versagen. Wenn ausreichend Bewehrung vorhanden ist, führen die
primären Spalt- und Rückhängerisse nicht zum Versagen. Der Einsatz einer
Wendelbewehrung in den Verbundübelleisten steigert das Trag- und
Verformungsvermögen deutlich.
Es existiert zwar noch keine einheitliche normative Regelung zur Anwendung und
Bemessung der Verbunddübel, häufig als Puzzleleiste bezeichnet, jedoch wurde
aktuell eine Zulassung Z-26.4-56 2013 erarbeitet, welche die Anwendung der
Verbunddübelleisten, kurz VDL, möglich macht. Die Anwendungsgrenzen sind dabei
zu beachten. Darüber hinaus wird derzeit in mehreren Forschungsarbeiten daran
gearbeitet, die Verwendung der puzzleartigen Verbundmittel zu erleichtern, indem
einheitliche Anwendungs- und Bemessungsregeln dieser in die Eurocodes
eingepflegt werden sollen. Diese Arbeit soll ebenfalls dazu beitragen, die
Versagensmechanismen der am Rand eingebauten Puzzleleisten zu erforschen und
ein für die Anwender handhabbares Bemessungskonzept zu erarbeiten. Die ersten
Erkenntnisse sollen eine Grundlage für ein in der Zukunft gültiges Bemessungs-
konzept bilden.
Anhand der Abscherversuche wurde der Einfluss der Randnähe untersucht. Darüber
hinaus wurden numerische Untersuchungen vorgenommen. Die FE-Modelle wurden
insbesondere zur Analyse des Lastabtrags der randnahen Betondübel verwendet.
Darüber hinaus wurde eine Parameterstudie durchgeführt, welche die Variation der
Materialien und geometrischen Größen der FE-Modelle beinhaltete.
Aufbauend auf den experimentellen und numerischen Beobachtungen und
theoretischen Überlegungen wurde ein Ingenieurmodell für Verbunddübelleisten mit
und ohne Wendelbewehrung entwickelt. Das Modell wird abschließend auf das
Bemessungsniveau überführt.
Die Gefährdungsbeurteilung der psychischen Belastung (Psych GB) birgt auf den Ebenen Organisation, Team und Individuum ein bisher wenig genutztes Potenzial für Organisationen. Nicht nur die gesetzlichen Vorgaben werden erfüllt, sondern zusätzliches Entwicklungspotenzial zur gesunden und agilen Organisationsentwicklung erschlossen. Es werden u.a. Rückkopplungseffekte für die Kommunikation und Führung im Zusammenhang mit VUCA sowie eine resiliente Organisationskultur behandelt.
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope. This document is the documentation for version 2020.12. For more information, see https://www.lintim.net
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
Das Ziel der vorliegenden Arbeit war es, eine lokale Version des Programmpakets Turbomole um eine Methode zu erweitern, die die Berechnung elektronischer Anregungsenergien und Übergangsmomente unter Berücksichtigung der Spin-Bahn-Wechselwirkung mit Hilfe quasirelativistischer zeitabhängiger Dichtefunktionaltheorie (TD-DFT) ermöglicht. Dazu wurde ein bereits existierender zweikomponentiger TD-DFT-Ansatz verwendet und so erweitert, dass auch offenschalige Systeme mit gradientenkorrigier ten Funktionalen berechnet werden können.
Die gewählte Implementierung ist unabhängig von der zweikomponentigen Methode, die Tatsache, dass die Molekülorbitale in einem quasirelativistischen Formalismus durch zweikomponentige, komplexe Spinoren dargestellt werden, erforderte jedoch die weitestgehende Verwendung komplexer Arithmetik.
Des Weiteren wurde das Verhalten des implementierten Austausch-Korrelations-Kernels (XC-Kernel), die Schlüsselgröße der TD-DFT, für kleine Spindichten untersucht. Dabei konnte gezeigt werden, dass die numerische Berechnung der Matrixelemente des XC-Kernels an Punkten des Integrationsgitters, für die die Spindichte gegen null geht, ihr Gradient hingegen nicht, durchaus problematisch ist und eine Regularisierung des XC-Kernels erfordert. Alternativen zur Regularisierung, wie beispielsweise die Verwendung eines Kernels ohne Gradiententerme oder Modifikationen am Funktional selbst, sind in der Literatur bekannt, im Rahmen dieser Arbeit konnte jedoch ein Ansatz entwickelt werden, der keine Veränderungen am Funktional erfordert und die Verwendung eines Kernels mit Gradientenkorrektur ermöglicht. Dazu wurde das Integrationsgitter in zwei Bereiche, abhängig von der Spindichte und ihrem Gradienten, eingeteilt. In den jeweiligen Bereichen wird nun zur Berechnung der Matrixelemente entweder der XC-Kernel für offen- oder geschlossenschalige Systeme verwendet. Für einen möglichst „glatten“ Übergang zwischen den beiden Bereichen wurde ein weiterer Bereich definiert, in dem ein mit einer Umschaltfunktion gewichteter Mittelwert beider Grenzfälle verwendet wird.
Mit dem im Rahmen dieser Arbeit entwickelten Programm ist es nun möglich, basierend auf einer zweikomponentigen Rechnung am offen- oder geschlossenschaligen Grundzustand, TD-DFT-Rechnungen mit gängigen Standarddichtefunktionalen durchzuführen. Da sowohl spinerhaltende als auch spin flip Anregungen berücksichtigt werden, erhält man mit einem Eindeterminantenansatz Informationen, die sonst nur mit Hilfe von deutlich aufwendigeren Mehrdeterminantenansätzen zugänglich sind.
One of the ongoing tasks in space structure testing is the vibration test, in which a given structure is mounted onto a shaker and excited by a certain input load on a given frequency range, in order to reproduce the rigor of launch. These vibration tests need to be conducted in order to ensure that the devised structure meets the expected loads of its future application. However, the structure must not be overtested to avoid any risk of damage. For this, the system’s response to the testing loads, i.e., stresses and forces in the structure, must be monitored and predicted live during the test. In order to solve the issues associated with existing methods of live monitoring of the structure’s response, this paper investigated the use of artificial neural networks (ANNs) to predict the system’s responses during the test. Hence, a framework was developed with different use cases to compare various kinds of artificial neural networks and eventually identify the most promising one. Thus, the conducted research accounts for a novel method for live prediction of stresses, allowing failure to be evaluated for different types of material via yield criteria
Industry 4.0 defines the organization of production and manufacturing processes based on technological advanced solutions and devices autonomously communicating with each other.
Within the context of this industrial revolution, the smart reconfigurable manufacturing systems are introduced. These systems shall be able to provide a dynamic level of reconfigurability based on the production demand and system availability. The introduction of the manufacturing reconfigurability constitutes a particularly important and expensive decision for the organizations and therefore scoping methods are becoming constantly essential.
The present work covers a first approach to defining reconfigurability methods and drivers for the manufacturing systems within the context of Industry 4.0. The thesis introduces five main reconfigurability use case scenarios for manufacturing systems and the description of a two – dimensional model of scoping parameters.
The first dimension is based on the potential business targets and reconfigurability drivers, while the second dimension focuses on the system functions and technologies, which are
required for the successful realization of the reconfigurability use case scenarios. Finally, the thesis concludes with a brief comparison between the traditional software product line scoping approach and purposed scoping method for the reconfigurability of manufacturing systems.
The difference in the efficacy of altered stimulation parameters in whole-body-electromyostimulation (WB-EMS) training remains largely unexplored. However, higher impulse frequencies (>50 Hz) might be most adequate for strength gain. The aim of this study was to analyze potential differences in sports-related performance parameters after a 10-week WB-EMS training with different frequencies. A total of 51 untrained participants (24.9 ± 3.9 years, 174 ± 9 cm, 72.4 ± 16.4 kg, BMI 23.8 ± 4.1, body fat 24.7 ± 8.1 %) was randomly divided into three groups: one inactive control group (CON) and two training groups. They completed a 10-week WB-EMS program of 1.5 sessions/week, equal content but different stimulation frequencies (training with 20 Hz (T20) vs. training with 85 Hz (T85)). Before and after intervention, all participants completed jumping (Counter Movement Jump (CMJ), Squat Jump (SJ), Drop Jump (DJ)), sprinting (5m, 10m, 30m), and strength tests (isometric trunk flexion/extension). One-way ANOVA was applied to calculate parameter changes. Post-hoc least significant difference tests were performed to identify group differences. Significant differences were identified for CMJ (p = 0.007), SJ (p = 0.022), trunk flexion (p = 0.020) and extension (p=.013) with significant group differences between both training groups and CON (not between the two training groups T20 and T85). A 10-week WB-EMS training leads to significant improvements of jump and strength parameters in untrained participants. No differences could be detected between the frequencies. Therefore, both stimulation frequencies can be regarded as adequate for increasing specific sport performance parameters. Further aspects as regeneration or long term effects by the use of different frequencies still need to be clarified.
Fucoidans are multifunctional marine macromolecules that are subjected to numerous and various downstream processes during their production. These processes were considered the most important abiotic factors affecting fucoidan chemical skeletons, quality, physicochemical properties, biological properties and industrial applications. Since a universal protocol for fucoidans production has not been established yet, all the currently used processes were presented and justified. The current article complements our previous articles in the fucoidans field, provides an updated overview regarding the different downstream processes, including pre-treatment, extraction, purification and enzymatic modification processes, and shows the recent non-traditional applications of fucoidans in relation to their characters.