Refine
Year of publication
- 2020 (277) (remove)
Document Type
- Article (113)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (159)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (277)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (50)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Laser-based powder bed fusion (L-PBF) is a promising technology for the production of near net–shaped metallic components. The high surface roughness and the comparatively low-dimensional accuracy of such components, however, usually require a finishing by a subtractive process such as milling or grinding in order to meet the requirements of the application. Materials manufactured via L-PBF are characterized by a unique microstructure and anisotropic material properties. These specific properties could also affect the subtractive processes themselves. In this paper, the effect of L-PBF on the machinability of the aluminum alloy AlSi10Mg is explored when milling. The chips, the process forces, the surface morphology, the microhardness, and the burr formation are analyzed in dependence on the manufacturing parameter settings used for L-PBF and the direction of feed motion of the end mill relative to the build-up direction of the parts. The results are compared with a conventionally cast AlSi10Mg. The analysis shows that L-PBF influences the machinability. Differences between the reference and the L-PBF AlSi10Mg were observed in the chip form, the process forces, the surface morphology, and the burr formation. The initial manufacturing method of the part thus needs to be considered during the design of the finishing process to achieve suitable results.
Riesling wird neben seiner mannigfaltigen Variabilität im Aromaprofil, das unter anderem durch die unterschiedliche Bodenbeschaffenheit entsteht, vor allem in Deutschland auch wegen seiner Kältetoleranz und Anpassungsfähigkeit geschätzt. Er gilt zudem auch als alterungsfähiger Wein, allerdings kommt es bei zu starker Sonnenexposition der Rebe und langer bzw. warmer Lagerung vermehrt zur Bildung von 1,1,6-Trimethyl-1,2-dihydronaphthalin (TDN). Dieser von Carotinoiden abstammende Aromastoff verursacht die sogenannte „Petrolnote“, die vor allem in wärmeren Anbauregionen zum sortentypischen Bukett des Rieslings gehört. Deutsche Rieslingweine zeichnen sich dagegen überwiegend durch einen säurebetonten, fruchtigen Charakter aus, bei dem das Auftreten einer Petrolnote vor allem im Fall von Jungweinen als unpassende Fehlnote empfunden wird.
Das Ziel der vorliegenden Arbeit war deswegen, die sensorische Relevanz von TDN zu evaluieren und Maßnahmen zu realisieren, die geeignet sind, die Konzentrationen an freiem und gebundenem TDN zu verringern und dadurch das Auftreten der Petrolnote zu vermeiden.
Dafür wurde zunächst in Kapitel 6.1 die Empfindlichkeit von Verbrauchern und geschulten Prüfern gegenüber TDN sowie die Konzentration bestimmt, ab der die Petrolnote zu einer Ablehnung des Weins durch Verbraucher führt. Während geschulte Prüfer Rieslingweine bereits ab einem TDN-Gehalt von 2,3 µg/L unterscheiden konnten, lag die Wahrnehmungsschwelle von 156 Verbrauchern mit 14,7 µg/L um ein Mehrfaches darüber, und wurde außerdem durch das Geschlecht der Probanden beeinflusst. Die Petrolnote führte ab TDN-Gehalten von 60 µg/L bei einjährigem und 91 µg/L bei achtjährigem Riesling zur Ablehnung des Weins. Die Konzentration an freiem TDN in 261 Rieslingweinen aus drei verschiedenen Weinwettbewerben überstieg bei rund der Hälfte der Weine die Wahrnehmungsschwelle von geschulten Prüfern, während die Wahrnehmungsschwelle von Verbrauchern nur von 15% der Weine überschritten wurde. Gleichzeitig lag bei keinem der Weine der TDN-Gehalt über der Ablehnungsschwelle.
Durch die Evaluierung der instrumentellen Analyseparameter in Kapitel 6.2 wurde für die Untersuchung von freiem TDN und weiteren Aromastoffen eine Methode entwickelt, die es ermöglicht, nicht nur die TDN-Konzentrationen zu erfassen, sondern auch eine umfassende Qualitätsbewertung der Versuchsweine durchzuführen. Parallel dazu wurde eine Schnellmethode zur Erfassung der Gehalte an gebundenem TDN und Vitispiran implementiert, um auch die Effektivität der in dieser Arbeit durchgeführten weinbaulichen und oenologischen Praktiken im Hinblick auf das TDN-Potential zu beurteilen.
Kapitel 6.3 und 6.4 beschreiben weinbauliche Maßnahmen, die in mehrjährigen Studien auf ihre Eignung zur Reduzierung der TDN-Konzentration untersucht wurden. Während bei den Weinen, die aus Beeren unterschiedlicher Größe hergestellt wurden, keine signifikanten Unterschiede über die Jahrgänge hinweg beobachtet wurden, konnte durch die Variation der Rebunterlagen der Gehalt an gebundenem TDN um rund 30% reduziert werden. Ausgangspunkt einer weiteren Versuchsreihe waren acht verschiedene Rieslingklone auf derselben Unterlage, welche anschließend auf ihren TDN Gehalt untersucht wurden. Dabei wurden deutliche Differenzen in der Disposition einiger Klone zu höheren Gehalten an gebundenem TDN festgestellt. Hier ergab sich eine positive Korrelation zwischen der Lockerbeerigkeit der Trauben und der Menge an gebundenem TDN in den produzierten Weinen – je kompakter die Traube, desto weniger gebundenes TDN und gebundenes Vitispiran wurde gebildet. Die höhere Sonnenexposition der Beeren, die diesen Effekt hervorruft, beeinflusste auch die Gehalte an gebundenem TDN und Vitispiran in Weinen, die von Reben geerntet wurden, welche zu unterschiedlichen Zeitpunkten und in variierender Intensität entblättert wurden. Dabei führt sowohl eine maximale Entblätterung in der Traubenzone wie auch die Laubentfernung einen Monat nach der Blüte zu einer Erhöhung der Konzentration an gebundenem TDN und Vitispiran von rund 50%. Entblätterungsmaßnahmen zur Blüte oder zur Véraison, die der Regulierung der Erntemenge und der Traubengesundheit dienen, führten dagegen zu keinem Anstieg im Vergleich zur nicht-entblätterten Kontrolle.
Wie in Kapitel 6.5 ausgeführt wird, resultiert ein hoher Pressdruck beim Keltern sowie ein niedriger Stickstoffgehalt des Mosts in einer Zunahme des gebundenen TDN von 50 100%. Höhere Säuregehalte während der Lagerung verursachten in mehreren Versuchsreihen nicht nur eine höhere Freisetzungsrate von TDN, sondern auch einen verstärkten Abbau anderer Aromastoffe wie Ester, β-Damascenon oder Linalool. Dagegen hatte ein niedriger pH-Wert während der Gärung kaum Einfluss auf den Hefemetabolismus und die dadurch gebildeten Aromastoffe. Die Erhöhung der Gärtemperatur von 12 auf 24 °C hatte jedoch eine Zunahme von honig- oder petrolartigen Noten in den Rieslingweinen zur Folge. Die Verwendung unterschiedlicher Hefestämme führte zu einer Variation der Konzentrationen an gebundenem TDN zwischen 70 und 147 µg/L, abhängig vom Hefestamm und dem Jahrgang. Zwei der untersuchten neun Hefen brachten Weine mit bis zu 40% geringeren Gehalten an gebundenem TDN in Mosten mit hohem Stickstoffgehalt hervor, während drei weitere Hefen besser für den Einsatz in nährstoffarmen Most geeignet waren. Bei der Lagerung der Weine spielte die Lagertemperatur eine entscheidende Rolle in Bezug auf den Gehalt an freiem TDN, gefolgt vom Material des Flaschenverschlusses und der Flaschenorientierung.
Mittels geeigneter Filtermaterialien, die in Kapitel 7 beschrieben sind, wurde der Gehalt an freiem Wein um bis zu 80% reduziert, ohne die meisten der anderen Aromastoffe signifikant zu beeinflussen.
Somit wurde durch diese Arbeit ein vielfältiger Maßnahmenkatalog für die Weinwirtschaft entwickelt, der geeignet ist, den Anforderungen des fortschreitenden Klimawandels entgegenzutreten und die herausragende Position des Rieslings in Deutschland zu sichern.
Die Branche der Abwasser-, Abfall- und Entsorgungswirtschaft steht vor diversen neuen Herausforderungen, die insbesondere im Zuge der Digitalisierung und strengerer Anforderungen an die Recyclingquoten zu erwarten sind. Diese Erkenntnisse gehen aus der Analyse diverser Branchenreporte und Expertengespräche hervor. Um diese Entwicklungen näher zu beleuchten und daraus einen potenziellen Weiterbildungsbedarf zu erschließen, hat das Teilprojektteam der Hochschule Kaiserslautern zusätzlich eine Online-Branchenbefragung durchgeführt. Diese fokussiert neben dem aktuellen und prospektiven Personalbedarf auch die Notwendigkeit der Weiterbildung in spezifischen Sektoren sowie (zukünftige) Herausforderungen. Der vorliegende Arbeits- und Forschungsbericht umfasst die methodische Vorgehensweise der qualitativen und quantitativen Analysen sowie die Darstellung der jeweiligen Ergebnisse. Um den akuten Bedarfen nachzukommen und Herausforderungen entgegenzuwirken, wird eine Handlungsempfehlung für ein wissenschaftliches Weiterbildungsangebot an der Hochschule Kaiserslautern formuliert.
Um die Chancengleichheit und Bildungspartizipation in der Region Westpfalz zu erhöhen, ist eine nachhaltige Verankerung des Konzepts der aufsuchenden Bildungsberatung in die Strukturen der Hochschule Kaiserslautern durch das E-hoch-B-Teilprojektteam vorgesehen. Ziel des Vorhabens ist es, Personen, die bisher keine (Weiter-)Bildungsberatung in Anspruch nahmen, über das hochschulische Angebotsportfolio und die neuen Zugänge zur wissenschaftlichen Weiterbildung transparent zu informieren. Durch das Aufsuchen potenzieller Studieninteressierter in ihrem alltäglichen Umfeld sollen die Themen Bildung und Beratung unter positiven Sentiments in die Bevölkerung transferiert werden.
Fucoidans are multifunctional marine macromolecules that are subjected to numerous and various downstream processes during their production. These processes were considered the most important abiotic factors affecting fucoidan chemical skeletons, quality, physicochemical properties, biological properties and industrial applications. Since a universal protocol for fucoidans production has not been established yet, all the currently used processes were presented and justified. The current article complements our previous articles in the fucoidans field, provides an updated overview regarding the different downstream processes, including pre-treatment, extraction, purification and enzymatic modification processes, and shows the recent non-traditional applications of fucoidans in relation to their characters.
Forschungsrelevanter Hintergrund: Mitunter die häufigsten Verletzungen im Sport
sind am Kniegelenk zu lokalisieren. Neben der hohen Prävalenzrate sind vor allem
ligamentäre Schädigungen wie eine Ruptur des vorderen Kreuzbandes besonders
schwerwiegend. Es sind lange Ausfallzeiten von durchschnittlich 7,5 Monaten zu verzeichnen,
wobei eine vollständige Rückkehr zum ursprünglichen Leistungsniveau
ungewiss ist. Auch die Wahrscheinlichkeit einer Reruptur ist deutlich erhöht und häufig
bedeutet eine schwere Knieverletzung das frühzeitige sportliche Karriereende.
Auch müssen betroffene Sportler oftmals mit schweren Folgeerscheinungen wie einer
Gelenksarthrose rechnen. Als Risikosportarten für diese Art von Verletzungen
gelten Ballsportspiele wie Fußball, Handball oder Basketball. Charakteristisch für das
Auftreten einer Knieverletzung in diesen von hoher Dynamik und Schnelligkeit geprägten
Mannschaftsspielen ist die Tatsache, dass sich diese mehrheitlich ohne direkten
Gegnerkontakt als „non-contact“ Trauma ereignen. In der Regel findet eine
Verletzung bei sportspieltypischen Manövern wie Landungen nach Sprüngen, spontanen
Richtungsänderungen oder plötzlichen Drehbewegungen statt. Als Verletzungsmechanismus
bei diesen Bewegungsformen ist in den meisten Fällen der sog.
„Dynamische Knievalgus“ verantwortlich. Dieser ist gekennzeichnet durch ein Abknicken
des Kniegelenks nach innen (Knieabduktion/Valgisierung) in Verbindung mit
einer Rotation der Tibia bei geringem Flexionsgrad des Kniegelenks. Die maximale
Kraftleistungsfähigkeit sowie das neuromuskuläre Aktivierungsverhalten der knieumschließenden
Muskelgruppen und der Hüftmuskulatur können den Verletzungsmechanismus
beeinflussen. Insbesondere die Hüftmuskulatur kann durch ihre Eigenschaften
korrigierend auf die Beinachse und damit auf die Kontrolle des Kniegelenks
einwirken. Die Forschungslage über die Zusammenhänge der Hüfte und deren muskulärer
Strukturen hinsichtlich ihrer protektiven Wirkungsweise bildet sich jedoch defizitär
und teilweise unspezifisch ab. Daher ist die Zielsetzung der vorliegenden Arbeit,
Kontrollmechanismen ausgehend vom Hüftgelenk in Bezug auf eine verbesserte
dynamische Kniegelenksstabilität mittels eines ganzheitlichen Ansatzes zu
evaluieren. Des Weiteren wird in der vorliegenden Arbeit die Wirkungsweise eines
apparativen Krafttrainings gegenüber eines koordinativen Sprungtrainings mit jeweiliger
Fokussierung des Hüftgelenks analysiert.
Methodik: Anhand relevanter Belastungsformen (uni- und bilaterale Drop Jumps,
einbeinige Landemanöver und reaktive laterale Sprungbewegungen) unter Belastungsstufen
wurden bei Ballspielsportlern Situationen simuliert, in denen der beschriebene
Verletzungsmechanismus auftreten kann. Dabei wurden im Sinne eines
ganzheitlichen, multimodularen Screening-Verfahrens die Knie- und Hüftgelenksbewegungen
mittels 3-D Kinematik erfasst. Die kinetische Analyse umfasst die Berechnung
der Gelenksmomente, Bodenreaktionskräfte und die Ermittlung der maximalen
Kraftfähigkeit der relevanten Hüftmuskulatur sowie der Oberschenkelstreckerkette.
Der Einfluss des neuromuskulären Aktivierungsverhaltens auf die dynamische Kniegelenkskontrolle
wurde über elektromyographische Verfahren abgebildet. Der Studienteil
1 untersuchte in einem Querschnittdesign die Auswirkungen der unterschiedlichen
Belastungsformen hinsichtlich der Determinanten der dynamischen Kniegelenksstabilität,
der Studienteil 2 diesbezügliche Zusammenhänge mit Hüftgelenksexkursionen
und deren (neuro-) muskulären Strukturen. Im Rahmen des Studienteils 3
wurden in einem Längsschnittdesign zwei Interventionsgruppen (apparatives Krafttraining
vs. koordinatives Sprungtraining) im Pre- zu-Posttest-Vergleich auf Unterschiede
der kniestabilisierenden Parameter sowie Indikatoren für eine Verletzungsexposition
hin untersucht.
Zentrale Ergebnisse: In der vorliegenden Studie kann gezeigt werden, dass laterale
Sprungmanöver im Vergleich zu vertikalen Sprung- oder Landemanövern größere
Knie- und Hüftgelenksexkursionen aufweisen und damit eine erhöhte Belastung für
diese spieltypischen Situationen einhergeht. Im Vergleich der Belastungsformen
scheinen Belastungssteigerungen innerhalb einer Belastungsform einen untergeordneten
Einfluss auf eine Verletzungsexposition zu haben. Vielmehr entscheidend ist
die verhältnismäßige Risikoeinordnung der Belastungsformen zueinander. Für alle
Bewegungen wird ein starker Zusammenhang der Hüftstellung in der Rotation mit
der dynamischen Kniegelenkskontrolle festgestellt. Um die Komplexität der Kniegelenkskontrolle
über die gesamte Belastungsphase abbilden zu können, wurde als
neue Messmethodik die „medio-laterale Knieschlackerbewegung“ erarbeitet und mit
den maximalen kinematischen Knieparametern als Indikator für die (In-)Stabilität des
Kniegelenks eingesetzt. Die (neuro-) muskulären Eigenschaften der Hüftmuskulatur
können insbesondere durch ihre außenrotatorische und abduzierende Wirkung Einfluss
auf die Ausrichtung der Gelenkachse und damit auf die Kniegelenkskontrolle
nehmen. Dabei scheinen Elemente eines koordinativen Sprungtrainings effektiver
als ein apparatives Krafttraining zu sein.
Fazit: Die Arbeit liefert einen Beitrag, um die komplexen Zusammenhänge der dynamischen
Kniegelenkskontrolle im Kontext verletzungsrelevanter Szenarien im Sport
zu evaluieren. Durch eine ganzheitliche Analyse der Knie- und Hüftgelenksbewegungen
sowie der dazugehörigen kinetischen sowie (neuro-)muskulären Parameter können
die gewonnenen Erkenntnisse helfen, Verletzungsmechanismen des Kniegelenks
besser zu kontrollieren. Diagnostische Verfahren und Trainingsprogramme
können auf dieser Basis weiterentwickelt werden, woraus durch ein tieferes Verständnis
die Möglichkeiten der Verletzungsprävention zukünftig optimiert gestaltet
werden können.
This article proposes a new clock-dependent gain-scheduled dynamic output feedback controller for delayed linear parameter varying systems with piecewise constant parameters. The proposed controller guarantees ℒ2-performance. By employing a clock-dependent Lyapunov–Krasovskii functional, a sufficient condition for the existence of the controller is provided in terms of clock- and parameter-dependent linear matrix inequalities. A case study on output feedback control of delayed switched systems is also provided. To illustrate the efficacy of the result, it is applied to a practical VTOL helicopter model.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Machining is very common in industry, e.g. automotive industry and aerospace industry, which is a nonlinear dynamic problem including large deformations, large strain, large strain rates and high temperatures, that implies some difficulties for numerical methods such as Finite element method. One way to simulate such kind of problems is the Particle Finite Element Method (PFEM) which combines the advantages of continuum mechanics and discrete modeling techniques. In this work we introduce an improved PFEM called the Adaptive Particle Finite Element Method (A-PFEM). The A-PFEM introduces particles and removes wrong elements along the numerical simulation to improve accuracy, precision, decrease computing time and resolve the phenomena that take place in machining in multiple scales. At the end of this paper, some examples are present to show the performance of the A-PFEM.
Phospho-regulation of the Shugoshin - Condensin interaction at the centromere in budding yeast
(2020)
Correct bioriented attachment of sister chromatids to the mitotic spindle is essential for chromosome segregation. In budding yeast, the conserved protein shugoshin (Sgo1) contributes to biorientation by recruiting the protein phosphatase PP2A-Rts1 and the condensin complex to centromeres. Using peptide prints, we identified a Serine-Rich Motif (SRM) of Sgo1 that mediates the interaction with condensin and is essential for centromeric condensin recruitment and the establishment of biorientation. We show that the interaction is regulated via phosphorylation within the SRM and we determined the phospho-sites using mass spectrometry. Analysis of the phosphomimic and phosphoresistant mutants revealed that SRM phosphorylation disrupts the shugoshin–condensin interaction. We present evidence that Mps1, a central kinase in the spindle assembly checkpoint, directly phosphorylates Sgo1 within the SRM to regulate the interaction with condensin and thereby condensin localization to centromeres. Our findings identify novel mechanisms that control shugoshin activity at the centromere in budding yeast.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
In response priming experiments, a participant has to respond as quickly and as accurately as possible to a target stimulus preceded by a prime. The prime and the target can either be mapped to the same response (consistent trial) or to different responses (inconsistent trial). Here, we investigate the effects of two sequential primes (each one either consistent or inconsistent) followed by one target in a response priming experiment. We employ discrete-time hazard functions of response occurrence and conditional accuracy functions to explore the temporal dynamics of sequential motor activation. In two experiments (small-N design, 12 participants, 100 trials per cell and subject), we find that (1) the earliest responses are controlled exclusively by the first prime if primes are presented in quick succession, (2) intermediate responses reflect competition between primes, with the second prime increasingly dominating the response as its time of onset is moved forward, and (3) only the slowest responses are clearly controlled by the target. The current study provides evidence that sequential primes meet strict criteria for sequential response activation. Moreover, it suggests that primes can influence responses out of a memory buffer when they are presented so early that participants are forced to delay their responses.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
A novel shadowgraphic inline probe to measure crystal size distributions (CSD),
based on acquired greyscale images, is evaluated in terms of elevated temperatures and fragile
crystals, and compared to well-established, alternative online and offline measurement techniques,
i.e., sieving analysis and online microscopy. Additionally, the operation limits, with respect to
temperature, supersaturation, suspension, and optical density, are investigated. Two different
substance systems, potassium dihydrogen phosphate (prisms) and thiamine hydrochloride (needles),
are crystallized for this purpose at 25 L scale. Crystal phases of the well-known KH2PO4/H2O system
are measured continuously by the inline probe and in a bypass by the online microscope during
cooling crystallizations. Both measurement techniques show similar results with respect to the crystal
size distribution, except for higher temperatures, where the bypass variant tends to fail due to
blockage. Thiamine hydrochloride, a substance forming long and fragile needles in aqueous solutions,
is solidified with an anti-solvent crystallization with ethanol. The novel inline probe could identify
a new field of application for image-based crystal size distribution measurements, with respect
to difficult particle shapes (needles) and elevated temperatures, which cannot be evaluated with
common techniques.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung und Analyse von Faktoren der haus-ärztlichen Standortfaktoren im ländlichen Raum.
Lebensqualität gerade auch in ländlichen Räumen in Deutschland ist vor allem daran geknüpft, welche Angebote der Daseinsvorsorge vor Ort bestehen. Die ambulante medizinische Versorgung nimmt dabei eine Schlüsselstellung ein, gerade vor dem Hintergrund einer im Zuge des demographischen Wandels immer älter werdenden Gesellschaft, insbesondere auf dem Land.
Niedergelassene Ärzte bilden dabei das Rückgrat einer bedarfsgerechten flächenhaften Versorgung, von denen wiederum die Hausärzte als Generalisten mit bislang sehr kleinräumiger Verteilungsstruktur erster Ansprechpartner für Patienten sind. Allerdings werden in Zukunft viele Hausarztsitze nicht mehr adäquat nachbesetzt werden können, da es zu wenige Nachfolger gibt. Unter dem gegenwärtigen Ungleichgewicht von Angebot und Nachfrage an Hausarztpraxen existiert kein funktionsfähiges Verteilungssystem zur Erreichung einer möglichst homogenen Flächenversorgung. Umso wichtiger ist es, den Prozess der Standortentscheidung von Hausärzten möglichst gut nachvollziehen zu können, um festzustellen anhand welcher Kriterien Hausärzte ihren Standort festlegen. In dieser Arbeit werden darum zunächst auf Expertenaussagen gestützte unternehmerische und private Faktoren ermittelt, die bei der hausärztlichen Standortwahl von Relevanz sein können.
Die Gründe für den bevorstehenden und bereits in manchen Regionen bemerkbaren Hausarztmangel liegen dabei zum einen im Ausbildungssystem, wo im langjährigen Verlauf Schwankungen in der Ausbildungsmenge und Missverhältnisse zur Bedarfsmenge an Ärzten zur einer aktuelle Verknappung beigetragen haben. Ebenso wurde die frühere Dominanz an männlichen Medizinstudenten durch eine Dominanz weiblicher Nachwuchsmediziner abgelöst, mit neuen Standortansprüchen und gewünschten Arbeitsformen. Allerdings nicht nur weibliche Nachwuchsmediziner bevorzugen heute Arbeitsmodelle, in denen sie ein Höchstmaß an Flexibilität haben, was vor allem in immer begehrter werdende Teamarbeit, Teilzeittätigkeiten, Anstellungs- anstelle von freiberuflichen Tätigkeitsformen und damit insgesamt in vor allem präferierte Tätigkeiten im stationären Versorgungsbereich hinausläuft. Die eher unattraktiven Arbeitsbedingungen als Hausarzt mit hoher Arbeitsbelastung mit im Vergleich zu anderen Facharztgruppen wenig attraktivem Gehalt tun ihr Übriges zur zunehmenden Verschmähung der allgemeinmedizinischen Weiterbildung zum Hausarzt bei, stattdessen findet immer häufiger eine Spezialisierung unter Nachwuchsmedizinern statt.
Alle angedachten bzw. in Umsetzung begriffene Maßnahmen zur Attraktivierung des Haus- bzw. Landarztberufs, vor allem finanzielle Anreize und Imagekampagnen, aber auch der Aufbau größerer Versorgungseinrichtungen, telemedizinischer Behandlungsmöglichkeiten und nicht-ärztlicher Delegationsformen, haben bislang nicht den erhofften Effekt einer Stabilisierung der Versorgungssituation. Dies gilt besonders auch im ländlichen Raum, wo die Ausstattung an Einrichtungen der Daseinsvorsorge in aller Regel nicht mit städtischen Qualitätsstandards mithalten kann. Bei einer relativ großen Wahlfreiheit durch nicht besetzbare Stellen und Posten älterer Ärzte bestehen für Nachwuchsmediziner jedoch heute gerade auch in dieser räumlichen Hinsicht größtmögliche Entscheidungsfreiheiten. Dies führt bereits heute zu einer Bevorzugung städtischer Räume als Arbeitsstandort und verschärft so zusätzlich die hausärztliche Versorgungslage im ländlichen Raum.
Im Rahmen einer empirischen Untersuchung an standardisiert befragten Hausärzten der zuvor gebildeten Modellräume Eifel und Unterfranken wurde dazu untersucht, welche unternehmerischen und privaten Faktoren überhaupt Hausärzte in die ländlichen Räume ziehen und ob diese im zeitlichen Verlauf sind. Neben den ökonomisch günstigen Voraussetzungen für Hausärzte mit leicht verfügbarer Kassenzulassung und großer Patientenzahl spricht dabei vor allem der landschaftliche Reiz für eine Niederlassung im ländlichen Raum. Von besonderer Relevanz war bislang auch immer das kinderfreundliche Lebensumfeld mit entsprechend vorgehaltenen Bildungseinrichtungen, allerdings verliert dieser Faktor durch den immer seltener werdenden Kin-der Wunsch langsam an Bedeutung unter den Hausärzten.
Jedoch bestehen zudem eine Reihe von sekundär bedeutsamen Faktoren, die auch vor Ort gestaltbar sein und so von innen heraus die Nachwuchsmediziner in Richtung ländlicher Räume ziehen können. Dazu zählen medizinische Einrichtungen (v.a. Fachärzte und Kliniken), Einkaufsmöglichkeiten, Sportstätten und das kulturelle Angebot.
Diese Faktoren gilt es zu stärken bzw. etwaige Schwächen ländlicher Räume in dieser Hinsicht mit kompensatorischen Maßnahmen inner- und überregional zu begegnen. Insbesondere wird es für eine zukünftig adäquate hausärztliche Versorgung unerlässlich sein, stärker auf die Interessen und Standortanforderungen weiblicher Mediziner mit besseren Betreuungsangeboten für Kinder, beruflichen Entfaltungsmöglichkeiten für Ehepartner, aber auch gewünschten Arbeitsorganisationsformen mit einem Mehr an Teamarbeit und flexiblen Arbeitsmodellen und -zeiten an zentraleren Standorten einzugehen.
One of the ongoing tasks in space structure testing is the vibration test, in which a given structure is mounted onto a shaker and excited by a certain input load on a given frequency range, in order to reproduce the rigor of launch. These vibration tests need to be conducted in order to ensure that the devised structure meets the expected loads of its future application. However, the structure must not be overtested to avoid any risk of damage. For this, the system’s response to the testing loads, i.e., stresses and forces in the structure, must be monitored and predicted live during the test. In order to solve the issues associated with existing methods of live monitoring of the structure’s response, this paper investigated the use of artificial neural networks (ANNs) to predict the system’s responses during the test. Hence, a framework was developed with different use cases to compare various kinds of artificial neural networks and eventually identify the most promising one. Thus, the conducted research accounts for a novel method for live prediction of stresses, allowing failure to be evaluated for different types of material via yield criteria
Die Digitalisierung ist ein Megathema unserer Zeit. In allen gesellschaftlichen Bereichen,
in privaten wie auch beruflichen Kontexten finden derzeit Veränderungen statt, die vielfältige Gesichter und weitreichenden Einfluss sowohl auf die Menschen als auch die Organisationen haben und die auf die Digitalisierung zurückgeführt werden.
Auch auf die Organisation Kommunalverwaltung wirken sich diese Veränderungen zunehmend aus. Häufig wird jedoch in diesem Zusammenhang `Digitalisierung´ verkürzt lediglich mit dem Breitbandausbau gleichgesetzt. Diese Arbeit nimmt sich dieses Themas an und beleuchtet dabei insbesondere die Erfolgsfaktoren und Potenziale der Digitalisierung in ländlichen Kommunalverwaltungen unter dem Aspekt von Digital Leadership. Dabei stellt sich die Frage nach dem Einfluss von Führungskräften, namentlich den Bürgermeistern, auf die Einführung und die Umsetzung der Digitalisierung in kleinen Kommunen und ihre Auswirkungen auf die Organisation Kommunalverwaltung, die Prozesse und das Personal. Ausgewählte Beispiele verdeutlichen diesen Zusammenhang.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
Die politikwissenschaftliche Literatur zum deutschen Föderalismus ist überaus vielfältig. Neben Analysen der institutionellen Arrangements, ihrer Veränderungen sowie der Dynamiken des deutschen Verbundföderalismus, finden sich auch zahlreiche Untersuchungen zu einzelnen Politikfeldern, die sowohl die Interaktionen zwischen Bund und Ländern als auch die Varianz zwischen den Policies der Länder samt ihrer Bestimmungsfaktoren untersuchen. Darüber hinaus haben sich in den vergangenen Jahrzehnten eigene Forschungszweige zu Parteien im Bundesstaat und zur Parlamentsforschung auf Länderebene etabliert. Trotz dieser großen Forschungsaktivität sind jedoch einige zentrale Fragen der Politikwissenschaft zum Zusammenspiel zwischen Wählern, Parteien, Parlamenten und Regierungen sowie deren Wirkung auf politischen Outputs und Outcomes weiterhin unbeantwortet. Dies ist, so das Argument dieses Beitrags, insbesondere der fehlenden Zusammenführung einzelner Literaturstränge und der noch unzureichenden empirischen Datenbasis geschuldet. Mittels einer Systematisierung des gegenwärtigen Literaturstands entwirft der Aufsatz ein Forschungsprogramm, das auf eine umfassende Analyse des politischen Willensbildungs- und Entscheidungsfindungsprozesses in den deutschen Bundesländern abstellt und Fragen der Responsivität und Rückkopplung systematisch in den Blick nimmt.
The Griffith-Ley oxidation of alcohols to aldehydes and ketones is performed with either RuCl3 ⋅ (H2O)x or a highly stable, well-defined ruthenium catalyst and with cheap trimethylamine N-oxide (TMAO) as the oxygen source. The use of n-heptane as the solvent, which forms a second phase with TMAO and a part of the alcohol, allows the reactions to be performed with a minimum amount of catalyst. This results in high local concentrations and thus to very rapid conversions. Detailed quantum chemical calculations suggest, that the Griffith-Ley oxidation not necessarily requires high oxidation states of ruthenium but can also proceed with RuII/RuIV species.
Im Rahmen dieser Arbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden dargestellt und die korrespondierenden Rutheniumkomplexe hinsichtlich ihrer Aktivität in homogenkatalytischen Hydrierungs- und Dehydrierungsreaktionen untersucht. Durch Anwendung des Prinzips von Le Chatelier konnte die katalytische Transferhydrierung verschiedener Substrate mit Isopropanol, dem gängigen Lösungsmittel und Wasserstoffdonor dieser Umsetzung, optimiert werden. Zusätzlich gelang die Substitution dieses sekundären Alkohols gegen preiswertes Ethanol, welches aus nachwachsenden Rohstoffen gewonnen werden kann. Dabei nahm die rasche Entfernung des gebildeten Acetaldehyds aus dem Gleichgewicht eine Schlüsselrolle zur Vermeidung unerwünschter Nebenreaktionen und zum Erzielen hoher Produktausbeuten ein. Selektive Funktionalisierungen der Katalysatorstruktur lieferten grundlegende Einblicke in die Struktur-Eigenschafts-Beziehungen des Systems und trugen somit zu dessen Verständnis bei. Unter Berücksichtigung ökonomischer Aspekte wurden darüber hinaus zwei praktische, sehr effiziente Varianten der Ley-Griffith-Oxidation zur Dehydrierung unterschiedlicher Alkohole und Amine erarbeitet. Der zugrundeliegende Reaktionsmechanismus wurde anhand von DFT-Rechnungen eingehend erforscht.
Kinetic models of human motion rely on boundary conditions which are defined by the interaction of the body with its environment. In the simplest case, this interaction is limited to the foot contact with the ground and is given by the so called ground reaction force (GRF). A major challenge in the reconstruction of GRF from kinematic data is the double support phase, referring to the state with multiple ground contacts. In this case, the GRF prediction is not well defined. In this work we present an approach to reconstruct and distribute vertical GRF (vGRF) to each foot separately, using only kinematic data. We propose the biomechanically inspired force shadow method (FSM) to obtain a unique solution for any contact phase, including double support, of an arbitrary motion. We create a kinematic based function, model an anatomical foot shape and mimic the effect of hip muscle activations. We compare our estimations with the measurements of a Zebris pressure plate and obtain correlations of 0.39≤r≤0.94 for double support motions and 0.83≤r≤0.87 for a walking motion. The presented data is based on inertial human motion capture, showing the applicability for scenarios outside the laboratory. The proposed approach has low computational complexity and allows for online vGRF estimation.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
Die vorliegende Masterarbeit widmet sich der Erforschung metakognitiver Kompetenzen und subjektiver Lernvorstellungen von Lernenden im Bereich der Pflegeausbildung. Hierzu wurde an einer Berufsfachschule für Krankenpflege eine Fragebogenstudie mit 118 Teilnehmenden durchgeführt, die sich den Fragen widmet, über welche metakognitiven Kompetenzen bzw. über welche subjektiven Lernvorstellungen Auszubildende in Pflegeberufen verfügen sowie welchen Einfluss diese jeweils auf die Aufgabenperformanz haben.
Die Ergebnisse zeigen, dass Auszubildende in Pflegeberufen zwar über metakognitives Strategiewissen verfügen, aber Schwierigkeiten haben dieses situationsgerecht abzurufen und einzusetzen. Auch verbinden zu wenige Befragte Lernerfolg mit dem Aspekt der Selbststeuerung und unterschätzen den erfolgsgenerierenden Effekt des Erfahrungsaustauschs.
Auf diese Ergebnisse aufbauend wurde das ausbildungsübergreifende Konzept „SMiLe“ (= „Selbststeuerung durch Metakognition in Lernprozessen“) entwickelt, das Lernende dazu befähigen soll, mittels Einsatz metakognitiver Strategien ihre Selbststeuerungskompetenzen zu verbessern. Lehrenden bietet „SMiLe“ darüber hinaus zahlreiche Vorschläge, wie die Förderung metakognitiver Kompetenzen in Lernarrangements integriert werden kann.
Financing measures and incentive schemes for (existing and new) building owners can promote the sustainable settlement development of rural regions or municipalities and, in a wider sense, entire countries or cross-border regions. In order to be used on a broad scale, the concept of revolving funds must continue to be further developed. In this research, the concept of an advanced revolving housing fund (ARF) for building owners to support the sustainable development of rural regions and potential mechanisms are introduced. The ARF is designed to reflect impacts and challenges with regard to rural regions in Germany, Europe and beyond. Based on New Institutional Economics, the Theory of Spatial Organisms, an expert workshop, interviews and discussions and further literature research, the fundamentals for incentive schemes and the essential mechanisms and design aspects of the ARF are derived. This includes the principal structure and governance of a holding fund and several regional funds. Based on this, input parameters for the financial modelling of an ARF are presented as well as guiding elements for empirical testing to promote more research in this area. It is found that the ARF should have a regional focus and must be a comprehensive instrument of settlement development with additional informal and formal measures. The developed concept promises new impulses, in particular, for rural regions. It is proposed to test the concept by means of case studies in pioneer regions of different countries
The cultivation of cyanobacteria with the addition of an organic carbon source (meaning as heterotrophic or mixotrophic cultivation) is a promising technique to increase their slow growth rate. However, most cyanobacteria cultures are infected by non-separable heterotrophic bacteria. While their contribution to the biomass is rather insignificant in a phototrophic cultivation, problems may arise in heterotrophic and mixotrophic mode. Heterotrophic bacteria can potentially utilize carbohydrates quickly, thus preventing any benefit for the cyanobacteria. In order to estimate the advantage of the supplementation of a carbon source, it is essential to quantify the proportion of cyanobacteria and heterotrophic bacteria in the resulting biomass. In this work, the use of quantitative polymerase chain reaction (qPCR) is proposed. To prepare the samples, a DNA extraction method for cyanobacteria was improved to provide reproducible and robust results for the group of terrestrial cyanobacteria. Two pairs of primers were used, which bind either to the 16S rRNA gene of all cyanobacteria or all bacteria including cyanobacteria. This allows a determination of the proportion of cyanobacteria in the biomass. The method was established with the two terrestrial cyanobacteria Trichocoleus sociatus SAG 26.92 and Nostoc muscorum SAG B-1453-12a. As proof of concept, a heterotrophic cultivation with T. sociatus with glucose was performed. After 2 days of cultivation, a reduction of the biomass partition of the cyanobacterium to 90% was detected. Afterwards, the proportion increased again.
Using the molecular dynamics simulation, we study the cutting of Al/Si bilayer systems. While the plasticity of metals is dominated by dislocation activity, the deformation behavior of Si crystals is governed by phase transformations—here to the amorphous phase. We find that twinning adds as a major deformation mechanism in the cutting of Al crystals. Cutting of Si crystals requires thrust forces that are larger than the cutting forces in order to induce amorphization; in metals, the thrust forces are relatively smaller than the cutting forces. When putting an Al top layer on a Si substrate, the thrust force is reduced; the opposite effect is observed if a Si top layer is put on an Al substrate. Covering an Al substrate with a thin Si top layer has the detrimental effect that the hard Si requires high pressures for cutting; as a consequence, twinning planes with intersecting directions are generated that ultimately lead to cracks in the ductile Al substrate. The crystallinity of the Si chip is strongly changed if an Al substrate is put under the Si top layer: With decreasing thickness of the Si top layer, the Si chip retains a higher degree of crystallinity.
Nanoindentation simulations are performed for a Ni(111) bi-crystal, in which the grain boundary is coated by a graphene layer. We study both a weak and a strong interface, realized by a 30∘ and a 60∘ twist boundary, respectively, and compare our results for the composite also with those of an elemental Ni bi-crystal. We find hardening of the elemental Ni when a strong, i.e., low-energy, grain boundary is introduced, and softening for a weak grain boundary. For the strong grain boundary, the interface barrier strength felt by dislocations upon passing the interface is responsible for the hardening; for the weak grain boundary, confinement of the dislocations results in the weakening. For the Ni-graphene composite, we find in all cases a weakening influence that is caused by the graphene blocking the passage of dislocations and absorbing them. In addition, interface failure occurs when the indenter reaches the graphene, again weakening the composite structure.
A highly water-dispersible heterogeneous Brønsted acid surfactant was prepared by synthesis of a bi-functional anisotropic Janus-type material. The catalyst comprises ionic functionalities on one side and propyl-SO3H groups on the other. The novel material was investigated as a green substitute of a homogeneous acidic phase transfer catalyst (PTC). The activity of the catalyst was investigated for the aqueous-phase oxidation of cyclohexene to adipic acid with 30 % hydrogen peroxide even in a decagram-scale. It can also be used for the synthesis of some other carboxylic acid derivatives as well as diethyl phthalate.
Das Kyoto-Protokoll, welches die letzten anderthalb Dekaden für Industrieländer erstmalig völkerrechtlich bindende Emissionsreduktionsziele für Treibhausgase festschrieb, läuft in diesem Jahr aus. Die im internationalen Abkommen entwickelten Klimaschutzin-strumente in Form eines Handels mit Emissionszertifikaten, sowie in Form von Emissi-onsreduktionen mittels Klimaschutzprojekten in Drittländern (Joint Implementation und Clean Development Mechanismus), konnten in der Vergangenheit nicht zum angestrebten Rückgang des weltweiten Treibhausgasausstoßes führen.
Das 2015 beschlossene Klimaabkommen von Paris soll die Regelungen des Kyoto-Protokolls nun ablösen und neue ambitionierte Standards im Klimaschutz setzen, um die Klimaerwärmung langfristig auf maximal 2 °C gegenüber des vorindustriellen Ni-veaus zu beschränken. Die grundlegend veränderten Rahmenbedingungen des Pariser Vertrags, sowie die Erfahrungen mit bisherigen flexiblen Instrumenten der Klimarah-menkonvention der Vereinten Nationen, erschweren aufgrund der hohen Komplexität und teils divergierender Interessenlagen der beteiligten Akteure seit 2015 sowohl die Entwicklung als auch die internationale Einigung auf einen neuen Marktmechanismus.
Die vorliegende Arbeit untersucht auf verschiedenen Ebenen, welche Vor- und Nachteile sich aus dem CDM ergeben haben und wie diese in die Ausgestaltung von Artikel 6 des Pariser Klimaschutzabkommens miteinfließen können. Dabei werden auch die Themen Klimakompensation und Klimaneutralität behandelt, welche zuletzt einen enormen Bedeutungszuwachs verzeichnen konnten und im Privatsektor inzwischen ein eminentes Nachfragepotential bergen. Im Zusammenhang mit den Attraktivitätsfaktoren einer Investition in Projekte, die nachhaltige Entwicklung fördern, werden hierzu auch die möglichen Hintergründe des verstärkten Engagements seitens der Unternehmen diskutiert.
Das theoretische Konzept der Arbeit basiert auf dem Free Rider Problem und den öko-logischen Managementregeln. Der Fokus liegt auf ökologischen Aspekten der Nachhaltigkeit, wobei ebenso ökonomische Komponenten ausschlaggebend sind.
Als ergänzendes Klimaschutzinstrument wird der Handel mit Emissionszertifikaten aufgegriffen, da er in der EU bereits etabliert ist.
Eine der größten Herausforderungen scheint es, wirtschaftliches Wachstum und Klimaschutz zu vereinen und Entwicklungsländern den Weg für eine Industrialisierung bzw. anziehende wirtschaftliche Entwicklung zu ebnen, welche keine nachholenden Ansprüche auf Emissionen stellt, sondern sich innovativ und inklusiv gestaltet. Für die Überwindung dieser derzeit bestehenden Kontroverse, die in engem Zu-sammenhang mit der Diskussion um einen neuen umfassenden Klimaschutzmechanismus steht, werden schließlich Empfehlungen ausgesprochen und ein abschließender Ausblick – auch unter Berücksichtigung der aktuellen Klimaschutzentwicklungen in Fol-ge der weltweiten COVID-19-Pandemie gewährt.
Compared to canonical model organisms, the genetic toolbox of Kinetoplastid parasites have a considerable gap in the transgenic techniques available. The implementation of the CRISPR/Cas9 technology is poised to transform the way we perform genetic manipulations and offers a new and exciting horizon for molecular parasitology. In this study, we use the Kinetoplastid parasite Leishmania tarentolae as a model organism. This unicellular eukaryote is an attractive model for both basic and applied research. Understanding Leishmania’s basic biology is valuable to underpin differences to the host that might help to treat infectious diseases. Furthermore, it also provides new examples of non-conserved mechanisms that will help to understand the fundamental principles of the biology of eukaryotes and their evolution. In this work, the CRISPR/Cas9 system was used to study mitochondrial protein import.
Here I show the efficacy of CRISPR/Cas9 to generate knockout and knockin mutants. Proof- of- concept gene PF16 was used to generate knockout immotile parasites and knockin fluorescent mutants fused with mCherry. The APRT gene was also knocked out showing resistance to APP.
In addition, I generated endogenous mutants of a constituent of the mitochondrial import machineries, the sulfhydryl oxidoreductase Erv. I showed that the KISS domain and cysteine 17 are dispensable for survival dismissing that their functions correlate with the essential operation/s of Erv. I report that the ERV gene and the intervening sequences of its shuttle pair cysteines are refractory to ablation and modification, respectively, indicating that they are essential for survival. I also generated Erv interactomes using full-length and mutant (ErvΔKISS) baits showing candidates with hitherto unknown functions that might be related to Erv function.
I also tested the glmS riboswitch and generate endogenous mutants with CRISPR/Cas9. We asked if it was possible in Leishmania to obtain knockdown mutants with this technique. The evidence of this study indicates that the system is inefficient in provoking a knockdown phenotype for the genes characterized.
An alternative negative marker was also developed in this work. I propose the APRT gene as a novel and efficient counter-selectable marker as compared to the current yFCU and TK genes. The implementation of this system could lead to first shuffling experiments that are not feasible in Leishmania further highlighting the value of this model organism.
Durch die Zielsetzung des Projekts, in einem ganzheitlichen Ansatz Bleibefaktoren für Zuwanderer in ländlichen
Räumen zu untersuchen und geeignete Lösungsansätze für deren Integration zu entwickeln, wird eine bisher in
dieser Form kaum betrachtete Forschungslücke adressiert. Diese Nische zeichnet sich dadurch aus, dass im
Vorhaben miteinander verbundene, jedoch bisher meist disziplinär bearbeitete Fragestellungen der
Integrationsforschung, der Stadtplanung und der zukunftsfähigen Kommunalentwicklung bzw. kommunalen
Nachhaltigkeit unter besonderer Berücksichtigung von demografischen Herausforderungen vereint werden.
Diese inhaltliche Verschränkung spiegelt sich zudem auch in der interdisziplinären Vorgehensweise im Projekt
wider. So werden die Fragestellungen des Vorhabens aus der Perspektive von und mit
methodischen Zugängen aus den Sozial-, Wirtschafts- und Planungswissenschaften bearbeitet.
Der von Beginn an starke und unmittelbare Einbezug der Kommunalpartner und weiterer praxisnaher Akteure
stellt sicher, dass von Anfang an unterschiedliche wissenschaftliche und nicht-wissenschaftliche Perspektiven
sowie Praxiswissen in den Forschungsprozess integriert werden, um ein gemeinsames Problemverständnis und
eine hohe Relevanz der Ergebnisse für die kommunale Praxis sicherzustellen.
Zuwanderung an sich ist kein neues Phänomen in der Geschichte der Bundesrepublik, was sich in einer Vielfalt
von Studien und Publikationen zu den Einflussfaktoren auf die Integration von verschiedenen Migrantengruppen
(z.B. von „Gastarbeitern“ und ihren Familien, Aussiedlern und Spätaussiedlern aus Osteuropa, humanitären
Migranten bzw. Flüchtlingen, Migranten in erster und zweiter Generation) widerspiegelt. Darüber hinaus
existieren Studien zu einzelnen Aspekten der Integration wie der Teilhabe am Arbeitsmarkt, dem Schulsystem,
der Integration in den Wohnungsmarkt oder auch standortbezogene Fallstudien. Diese Untersuchungen
betrachten jedoch die allgemeine Integration von Zuwanderern, ohne auf die Besonderheiten von kleinstädtisch
und ländlich geprägten Kommunen einzugehen. Diese Thematik wird in einer Studie der Schader Stiftung
aufgegriffen, in der neben den Herausforderungen und Rahmenbedingungen in den Kommunen einige Aspekte
bzw. Handlungsoptionen der Integration aufgezeigt werden.
Die besonderen Herausforderungen des demografischen Wandels für Kommunen sind ebenfalls Gegenstand
zahlreicher Publikationen. Kleinstädtische und ländlich geprägte Kommunen sind besonders stark von diesem
Megatrend betroffen, so dass in vielen Fällen auch deren Zukunftsfähigkeit bedroht sein kann. Durch die
Integration von Zuwanderern im ländlichen Raum können sich für die Kommunen Potenziale ergeben, die
negativen Auswirkungen des Trends zum Teil aufzufangen.
Aus einer stadtplanerischen Perspektive sind in Kommunen mit demografischen Herausforderungen im Sinne
einer (stark) schrumpfenden Bevölkerung signifikante Anlässe zur baulichen Wiedernutzung von Brachflächen,
zum Schließen von Baulücken oder zur Nachverdichtung im Bestand gegeben: Potentielle volkswirtschaftlichen
Folgen sind zu erwarten, wenn sozialräumlich homogene Wohnungsbestände durch den Attraktivitäts- und
Imageverlust von benachbarten Teilräumen mit hohen Wohnungsleerständen betroffen sind. Zudem gilt es, den
betriebswirtschaftlichen (Kostenfaktoren) und städtebaulichen Auswirkungen entgegenzusteuern, um den
potentiellen baulichen Verfall sowie stadtstrukturelle, funktionale und soziale Missstände zu verhindern.
Eine effiziente Nutzung innerörtlicher Flächenressourcen, sowohl durch die Wiedernutzung von Brachflächen
als auch durch die Reaktivierung von Wohnungsleerständen, ermöglicht es den Kommunen, die
Neuinanspruchnahme von Siedlungs- und Verkehrsflächen zu reduzieren. Hierdurch kann den im Rahmen der
Nationalen Nachhaltigkeitsstrategie formulierten Zielvorgaben der Reduzierung zusätzlicher
Flächeninanspruchnahme Rechnung getragen werden. Ein sparsamer Umgang mit Grund und Boden und die
Begrenzung der Bodenversiegelung ist als städtebauliche Aufgabe durch die Bodenschutzklausel gemäß §1a
Abs. 2 BauGB bestimmt. In Anpassung an die örtlichen und städtebaulichen Gegebenheiten sind anstelle der
Neuausweisung von Bauflächen Möglichkeiten der innerörtlichen Entwicklung zu nutzen. Bei der
Inanspruchnahme unbebauter Flächen ist darüber hinaus eine flächensparende Bauweise zu bevorzugen. Durch
entsprechende Darstellungen und Festsetzungen in den Bauleitplänen kann dies erreicht werden, indem
beispielsweise auf Darstellungen von (Neu-) Bauflächen in Flächennutzungsplänen verzichtet oder indem
Höchstmaße der baulichen Nutzung für Wohnbaugrundstücke in Bebauungsplänen festgesetzt werden (§ 9
Abs. 1 Nr. 3 BauGB).
Anstelle der Neuausweisung von Wohngebieten in siedlungsstrukturellen Randlagen stellt die Innenentwicklung
für den Erhalt lebendiger Zentren und zur Begrenzung der Flächenneuinanspruchnahme einen wichtigen Beitrag
zur nachhaltigen städtebaulichen Entwicklung im Sinne des §1 Abs. 5 BauGB dar. Als Voraussetzungen für die
erfolgreiche Wiedernutzung innerörtlicher Flächen und baulicher Potentiale sind Kenntnisse der vorhandenen
Innenentwicklungspotenziale und ihre Verfügbarkeit erforderlich.
In einem geografischen Informationssystem (GIS) lassen sich nach dem gegenwärtigen Stand von Wissenschaft
und Technik Brachflächen, Baulücken und Leerstände zentral erfassen. Zur Erhebung und Verwaltung von
Wohnungsleerständen in einem kommunalen Leerstandskataster lassen sich im Wesentlichen folgende
Methoden und Datenquellen nutzen: Die Analyse von Ver- und Entsorgerdaten (Strom/Wasser) stellen neben
der Erhebung durch Ortsbegehungen (Inaugenscheinnahme von außen durch geschultes Personal), den
Befragungen von Eigentümern, den statistischen Schätzverfahren (Wohnungsfortschreibung und Melderegister)
bzw. den Befragungen kommunaler Funktionsträger (Ortsvorsteher, Bürgermeister) methodische Zugänge dar.
Zur Verifizierung der Daten erfolgt eine Kombination der genannten Methoden. Dabei werden die ermittelten
Leerstände mittels der Stromzählermethode durch zusätzliche Befragung von
Wohnungsunternehmen/Eigentümern oder Ortsvorstehern ergänzt und plausibilisiert, quantitative Daten
(zählerbasierte Methoden) werden durch qualitative Erhebungen (Befragungen) ergänzt. Da der Zugang
zu diesen kommunalen Datenbeständen erschwert war, bediente sich die Forschungsgruppe der SeniorForschungsprofessur Stadtplanung an zugänglichen öffentlichen Daten (Zensus-Erhebungen zu den
Wohnungsleerständen aus dem Jahr 2011) sowie kommerziell erwerbbaren Daten aus der Marktforschung
(microm Geo-Milieus®), da diese empirisch abgesichert sind und im Kontext der Kommunalentwicklung vielfältig
eingesetzt werden (z.B. Beteiligungsverfahren, Wohnbaulandentwicklung).
Untersuchungen zur Struktur und Spezifität der Phycobiliproteinlyase CPES aus Guillardia theta
(2020)
Cryptophyten verwenden neben Chlorophyll zusätzliche Lichtsammelproteine für die Photo-synthese – die Phycobiliproteine (PBP). In Cyanobakterien, Rotalgen und Glaukophyten sind PBP ebenfalls ubiquitär verbreitet. Für den Zweck der Lichtsammlung tragen die PBP- Untereinheiten kovalent gebundene offenkettige Tetrapyrrol-Chromophore an konservierten Cysteinresten. Diese Phycobiline sind in der Lage, grünes Licht zu absorbieren und es für die Photosynthese zur Verfügung zu stellen. Die Fähigkeit zur Photosynthese erlangten Crypto-phyten bei der sekundären Endosymbiose durch Aufnahme einer früheren Rotalge. Die evolutionäre Entwicklung brachte schließlich modifizierte PBP hervor. In Gegensatz zu ande-ren Organismen liegen die PBP in Cryptophyten in löslicher Form im Thylakoidlumen des Plastiden vor. Cryptophyten besitzen lediglich einen Typ an PBP, Guillardia theta verwendet Phycoerythrin PE545. Die α-Untereinheiten sind jeweils mit einem Molekül 15,16-Dihydrobi-liverdin (DHBV) und die β-Untereinheiten mit drei Molekülen Phycoerythrobilin (PEB) chromophoryliert. Die Chromophorylierung cryptophytischer Apo-PBP ist bisher wenig un-tersucht und verstanden. Aus Cyanobakterien ist jedoch bekannt, dass die Chromophorylie-rung häufig mit Hilfe von Phycobiliproteinlyasen (PBP Lyasen) stattfindet, welche die Phyco-bilinübertragung unterstützen.
In der vorliegenden Arbeit erfolgte die funktionelle Charakterisierung der eukaryotischen S-Typ-PBP Lyase GtCPES aus G. theta. Mittels Fluoreszenzspektroskopie und Zink-induzierter Fluoreszenz konnte gezeigt werden, dass GtCPES den Transfer von 3(Z)-PEB auf Cys82 der PBP-β-Untereinheit aus Prochlorococcus marinus MED4 (PmCpeB) vermittelt. An der PEB-Bindung sowie am -Transfer beteiligte Aminosäuren wurden mit Hilfe Zielgerichteter Muta-genese identifiziert. Anhand spektroskopischer Binde- und Transferstudien mit den Protein-varianten wurden drei Aminosäuren in der Ligandenbindetasche ermittelt, die relevant für die Bindung sind (Trp69, Glu136, Glu168). Diese koordinieren vermutlich PEB in der Bindetasche und stabilisieren somit die Konformation. Zusätzlich konnten zwei im PEB-Transfer involvierte Aminosäuren eindeutig identifiziert werden (Trp75, Ser150). Trp75 kommt dabei eine essenzielle Bedeutung für den Transfer zu. Des Weiteren konnte gezeigt werden, dass Met67 für die auf PEB und DHBV beschränkte Substratspezifität von GtCPES verantwortlich ist. Die Variante GtCPES_M67A bindet sowohl PEB als auch das rigide Phycocyanobilin (PCB) stabil unter Bildung eines farbigen Komplexes in vitro und in vivo in Escherichia coli. GtCPES_M67A scheint zudem in der Lage zu sein, PCB auf geeignete Apo-Proteine zu transfe-rieren. Neben der sterischen und elektrostatischen Umgebung entscheidet damit zusätzlich die Substratspezifität der PBP Lyase über die gebundenen Chromophore am PBP.
Diversification is one of the main pillars of investment strategies. The prominent 1/N portfolio, which puts equal weight on each asset is, apart from its simplicity, a method which is hard to outperform in realistic settings, as many studies have shown. However, depending on the number of considered assets, this method can lead to very large portfolios. On the other hand, optimization methods like the mean-variance portfolio suffer from estimation errors, which often destroy the theoretical benefits. We investigate the performance of the equal weight portfolio when using fewer assets. For this we explore different naive portfolios, from selecting the best Sharpe ratio assets to exploiting knowledge about correlation structures using clustering methods. The clustering techniques separate the possible assets into non-overlapping clusters and the assets within a cluster are ordered by their Sharpe ratio. Then the best asset of each portfolio is chosen to be a member of the new portfolio with equal weights, the cluster portfolio. We show that this portfolio inherits the advantages of the 1/N portfolio and can even outperform it empirically. For this we use real data and several simulation models. We prove these findings from a statistical point of view using the framework by DeMiguel, Garlappi and Uppal (2009). Moreover, we show the superiority regarding the Sharpe ratio in a setting, where in each cluster the assets are comonotonic. In addition, we recommend the consideration of a diversification-risk ratio to evaluate the performance of different portfolios.
Im Nachwuchsleistungssport erfahren psychologische, speziell leistungsmotivationale Merkmale zunehmende Beachtung. Nach Ansicht von Praktikern und Wissenschaftlern sollen diese verstärkt zur Talentauswahl genutzt werden. Die insgesamt inkonsistente empirische Forschungs- und Befundlage aus explorativen und korrelativen Studien – im Vergleich zum angestrebten Vorhersagezeitraum oft über relativ kurze Beobachtungszeiträume – lässt an einer verlässlichen praktischen Anwendung aber zweifeln.
Die Voraussetzungen für eine Anwendung in systematischen Identifikations- und Auswahlprozessen sind (1) verlässliches Diagnostizieren anhand leistungsmotivationaler Erhebungsinstrumente mit ausreichender Testgüte, (2) hohe differenzielle Entwicklungsstabilität sowie Effekte der Leistungsmotivation auf (3) aktuelle und (4) künftige Leistungen bzw. Erfolge und deren Entwicklung. Die Prüfung dieser Annahmen ist Gegenstand der vorliegenden Arbeit. Anhand von zwei Studien wurden leistungsmotivationale Merkmale mit AMS-S (Wenhold et al., 2009), SMS-28 (Burtscher et al., 2011) und TEOSQ-D (Rethorst & Wehrmann, 1998) sowie Erfolgs- bzw. Leistungsindikatoren bei Nachwuchssportlern erfasst. 83 bis 144 Sportler einer Eliteschule des Sports (Alter 14,89 < MW < 15,35 Jahre; 1,46 < SD < 1,57) wurden hierbei über ein Jahr, 51 Fußballspieler aus fünf Vereinen (11,02 < 0,7 Jahre) über vier Jahre beobachtet.
Die Untersuchungen erbrachten vier zentrale Ergebnisse. 1. Die psychometrischen Ergebnisse deuten auf eine überwiegende Konstruktabdeckung durch die Instrumente hin, wobei die Reliabilitäten teilweise beeinträchtigt waren (0,60 < rtt < 0,82). 2. Hinsichtlich der differenziellen Stabilität waren Veränderungen der leistungsmotivationalen Merkmale über die Zeit meist durch beträchtliche interindividuelle Heterogenität gekennzeichnet (0,20 < rtt < 0,77). 3. Die leistungsmotivationalen Merkmale wiesen keine signifikanten Effekte auf aktuelle und künftige Leistungen bzw. Erfolge auf. Auch bei multivariater linearer und non-linearer Analyse mehrerer leistungsmotivationaler Merkmale zeigten sich im Quer- und Längsschnitt keine bedeutsame Erklärungskraft für Leistungs- oder Erfolgsunterschiede. 4. Es zeigten sich ebenfalls keine signifikanten Effekte der ein- bzw. zweijährigen Erfolgs- und Leistungsentwicklung mit den zuvor erhobenen Merkmalen der Leistungsmotivation. Bei wenigen Analysen schienen extrinsische Motivation und Egoorientierung allerdings signifikante Prädiktoren zu sein.
Die Ergebnisse dieser mehrjährigen prospektiven Analysen sprechen gegen die Einbindung leistungsmotivationaler Merkmale in Talentauswahlprozesse. Die Ergebnisse anderer Untersuchungen mit teilweise inkonsistenten Ergebnissen werden vor dem Hintergrund dieser Arbeit eingeordnet und die vorliegenden Ergebnisse hinsichtlich unterschiedlicher Tendenzen diskutiert. Daraus ergeben sich neue Perspektiven für die zukünftige Forschung.
VIPP proteins aid thylakoid biogenesis and membrane maintenance in cyanobacteria, algae, and plants. Some members of the Chlorophyceae contain two VIPP paralogs termed VIPP1 and VIPP2, which originate from an early gene duplication event during the evolution of green algae. VIPP2 is barely expressed under nonstress conditions but accumulates in cells exposed to high light intensities or H2O2, during recovery from heat stress, and in mutants with defective integration (alb3.1) or translocation (secA) of thylakoid membrane proteins. Recombinant VIPP2 forms rod-like structures in vitro and shows a strong affinity for phosphatidylinositol phosphate. Under stress conditions, >70% of VIPP2 is present in membrane fractions and localizes to chloroplast membranes. A vipp2 knock-out mutant displays no growth phenotypes and no defects in the biogenesis or repair of photosystem II. However, after exposure to high light intensities, the vipp2 mutant accumulates less HSP22E/F and more LHCSR3 protein and transcript. This suggests that VIPP2 modulates a retrograde signal for the expression of nuclear genes HSP22E/F and LHCSR3. Immunoprecipitation of VIPP2 from solubilized cells and membrane-enriched fractions revealed major interactions with VIPP1 and minor interactions with HSP22E/F. Our data support a distinct role of VIPP2 in sensing and coping with chloroplast membrane stress.
The neural networks have been extensively used for tasks based on image sensors. These models have, in the past decade, consistently performed better than other machine learning methods on tasks of computer vision. It is understood that methods for transfer learning from neural networks trained on large datasets can reduce the total data requirement while training new neural network models. These methods tend not to perform well when the data recording sensor or the recording environment is unique from the existing large datasets. The machine learning literature provides various methods for prior-information inclusion in a learning model. Such methods employ methods like designing biases into the data representation vectors, enforcing priors or physical constraints on the models. Including such information into neural networks for the image frames and image-sequence classification is hard because of the very high dimensional neural network mapping function and little information about the relation between the neural network parameters. In this thesis, we introduce methods for evaluating the statistically learned data representation and combining these information descriptors. We have introduced methods for including information into neural networks. In a series of experiments, we have demonstrated methods for adding the existing model or task information to neural networks. This is done by 1) Adding architectural constraints based on the physical shape information of the input data, 2) including weight priors on neural networks by training them to mimic statistical and physical properties of the data (hand shapes), and 3) by including the knowledge about the classes involved in the classification tasks to modify the neural network outputs. These methods are demonstrated, and their positive influence on the hand shape and hand gesture classification tasks are reported. This thesis also proposes methods for combination of statistical and physical models with parametrized learning models and show improved performances with constant data size. Eventually, these proposals are tied together to develop an in-car hand-shape and hand-gesture classifier based on a Time of Flight sensor.
Die vorliegende Arbeit behandelt die Neuentwicklung der Betriebselektronik für eine Rasterkraftsonde die im Frequenzmodulationsverfahren betrieben wird. Rasterkraftsonden haben das Potenzial zukünftige Messaufgaben der Fertigungsmesstechnik, die durch Tastschnittgeräte und Optische Messgeräte nicht mehr gelöst werden, zu lösen. Als Grundlage für die Entwicklung eines Sensors zum Messen rauer, technischer Oberflächen dient die Akiyama-Sonde: bei dieser handelt es sich um eine Rasterkraftsonde deren Auslenkung sensorlos, ohne zusätzliche Bauteile, detektiert werden kann. Im Rahmen dieser Arbeit wurde zunächst die Eignung der Akiyama-Sonde zum Messen technischer Oberflächen untersucht. Anschließend wurde eine neue Betriebselektronik für die Sonde entwickelt. Die neuentwickelte Elektronik zeichnet sich durch einen sehr einfachen Aufbau aus: in Kern besteht sie nur aus einem FPGA, einem Analog-Digital-Umsetzer und einem Digital-Analog-Umsetzer. Methodisch wurde bei der Entwicklung ein modellbasiertes Vorgehen gewählt: Zunächst wurde die Akiyama-Sonde in ihrem Arbeitspunkt modelliert. Basierend auf dem Modell erfolgte der virtuelle Entwurf der Betriebselektronik. Ein physikalischer Prototyp wurde somit erst spät im Entwicklungsprozess benötigt. Abschließend wurde anhand von Experimenten die Fähigkeit der neuen Betriebselektronik zum Messen von Auslenkungen im Nanometer-Bereich nachgewiesen.
Equations of state based on intermolecular potentials are often developed about the Lennard-Jones (LJ) potential. Many of such EOS have been proposed in the past. In this work, 20 LJ EOS were examined regarding their performance on Brown’s characteristic curves and characteristic state points. Brown’s characteristic curves are directly related to the virial coefficients at specific state points, which can be computed exactly from the intermolecular potential. Therefore, also the second and third virial coefficient of the LJ fluid were investigated. This approach allows a comparison of available LJ EOS at extreme conditions. Physically based, empirical, and semi-theoretical LJ EOS were examined. Most investigated LJ EOS exhibit some unphysical artifacts.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
We have investigated urine samples after coffee consumption using targeted and untargeted
approaches to identify furan and 2-methylfuran metabolites in urine samples by UPLC-qToF.
The aim was to establish a fast, robust, and time-saving method involving ultra-performance
liquid chromatography-quantitative time-of-flight tandem mass spectrometry (UPLC-qToF-MS/MS).
The developed method detected previously reported metabolites, such as Lys-BDA, and others that
had not been previously identified, or only detected in animal or in vitro studies. The developed
UPLC-qToF method detected previously reported metabolites, such as lysine-cis-2-butene-1,4-dial
(Lys-BDA) adducts, and others that had not been previously identified, or only detected in animal
and in vitro studies. In sum, the UPLC-qToF approach provides additional information that may be
valuable in future human or animal intervention studies.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
This thesis aims to examine various determinants of perceived team diversity on the on hand, and, on the other hand, the individual consequences of perceived team diversity. To ensure a strong theoretical foundation, I integrate and discuss different conceptualizations of and theoretical approaches to team diversity, empirically examined in three independent studies. The first study investigates the relationship between objective team diversity and perceived team diversity, and as moderators individual attitudes toward diversity and perception of one’s own work team’s diversity. The second study answers the questions of why and when dirty-task frequency impairs employees’ work relations and the third study examines how different cognitive mechanisms mediate the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. Taken together, study results provide support for the selection-extraction-application model of people perception and the assumption that individuals can integrate objective team characteristics into their mental representation of teams, using them to judging the team. Moreover, results show that a fit between perceived supervisor support and perceived organizational value of diversity can buffer the effects of dirty-task frequency on perception of identity-based subgroups, as well as perceived relationship conflict and surface acting, through employees’ perceptions of identity-based subgroups. Also, perceived social-identity threat and perceived procedural fairness but not perceived distributive fairness and perceived transactive memory systems serve as cognitive mechanisms of the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. These results contribute to diversity literature, such as the theory of subgroups in work teams and the categorization-elaboration model. In addition, I propose the input-mediator-output-input model of perceived team diversity, based on the study results, and recommend practitioners to develop diversity mindsets in teams.
In grinding, the crystal grain size of the workpiece material is relatively same range compared to the removal depth. This raises a question if an anisotropic material model, which considers the effect of the crystal grain size and orientations, would better predict the process forces when compared to an isotropic material model. Initially, a simple micro-indentation process is chosen to compare the two models. In this work, a crystal plasticity model and an isotropic Johnson-Cooke plasticity model are employed to simulate micro-identation of a twinning induced plasticity (TWIP) steel. The results of the two models are compared using the force-displacement curves from the micro-indentation experiments. In the future, the study will be extended to describe the material removal process during a single grit scratch test.
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Innovative Hochschulen in Deutschland widmen sich neben qualifizierter Lehre und Forschung zunehmend der Wirkung ihres Handelns in die(Stadt-)Gesellschaft und der Persönlichkeitsbildung ihrer Studierenden. Service Learning bietet dabei Studierenden neue Zugänge zu fachlich qualifiziertem Lernen. In diesem Buchkapitel vom Manuskript wird Service Learning an der Technischen Universität Kaiserslautern und dessen Beitrag zur Agenda 2030 thematisiert.
On the complexity and approximability of optimization problems with Minimum Quantity Constraints
(2020)
During the last couple of years, there has been a variety of publications on the topic of
minimum quantity constraints. In general, a minimum quantity constraint is a lower bound
constraint on an entity of an optimization problem that only has to be fulfilled if the entity is
“used” in the respective solution. For example, if a minimum quantity \(q_e\) is defined on an
edge \(e\) of a flow network, the edge flow on \(e\) may either be \(0\) or at least \(q_e\) units of flow.
Minimum quantity constraints have already been applied to problem classes such as flow, bin
packing, assignment, scheduling and matching problems. A result that is common to all these
problem classes is that in the majority of cases problems with minimum quantity constraints
are NP-hard, even if the problem without minimum quantity constraints but with fixed lower
bounds can be solved in polynomial time. For instance, the maximum flow problem is known
to be solvable in polynomial time, but becomes NP-hard once minimum quantity constraints
are added.
In this thesis we consider flow, bin packing, scheduling and matching problems with minimum
quantity constraints. For each of these problem classes we provide a summary of the
definitions and results that exist to date. In addition, we define new problems by applying
minimum quantity constraints to the maximum-weight b-matching problem and to open
shop scheduling problems. We contribute results to each of the four problem classes: We
show NP-hardness for a variety of problems with minimum quantity constraints that have
not been considered so far. If possible, we restrict NP-hard problems to special cases that
can be solved in polynomial time. In addition, we consider approximability of the problems:
For most problems it turns out that, unless P=NP, there cannot be any polynomial-time
approximation algorithm. Hence, we consider bicriteria approximation algorithms that allow
the constraints of the problem to be violated up to a certain degree. This approach proves to
be very helpful and we provide a polynomial-time bicriteria approximation algorithm for at
least one problem of each of the four problem classes we consider. For problems defined on
graphs, the class of series parallel graphs supports this approach very well.
We end the thesis with a summary of the results and several suggestions for future research
on minimum quantity constraints.
An important ingredient of any moving-mesh method for fluid-structure interaction (FSI) problems is the mesh moving technique (MMT) used to adapt the computational mesh in the moving fluid domain. An ideal MMT is computationally inexpensive, can handle large mesh motions without inverting mesh elements and can sustain an FSI simulation for extensive periods of time without irreversibly distorting the mesh. Here we compare several commonly used MMTs which are based on the solution of elliptic partial differential equations, including harmonic extension, bi-harmonic extension and techniques based on the equations of linear elasticity. Moreover, we propose a novel MMT which utilizes ideas from continuation methods to efficiently solve the equations of nonlinear elasticity and proves to be robust even when the mesh undergoes extreme motions. In addition to that, we study how each MMT behaves when combined with the mesh-Jacobian-based stiffening. Finally, we evaluate the performance of different MMTs on a popular two-dimensional FSI benchmark reproduced by using an isogeometric partitioned solver with strong coupling.
This thesis introduces a novel deformation method for computational meshes. It is based on the numerical path following for the equations of nonlinear elasticity. By employing a logarithmic variation of the neo-Hookean hyperelastic material law, the method guarantees that the mesh elements do not become inverted and remain well-shaped. In order to demonstrate the performance of the method, this thesis addresses two areas of active research in isogeometric analysis: volumetric domain parametrization and fluid-structure interaction. The former concerns itself with the construction of a parametrization for a given computational domain provided only a parametrization of the domain’s boundary. The proposed mesh deformation method gives rise to a novel solution approach to this problem. Within it, the domain parametrization is constructed as a deformed configuration of a simplified domain. In order to obtain the simplified domain, the boundary of the target domain is projected in the \(L^2\)-sense onto a coarse NURBS basis. Then, the Coons patch is applied to parametrize the simplified domain. As a range of 2D and 3D examples demonstrates, the mesh deformation approach is able to produce high-quality parametrizations for complex domains where many state-of-the-art methods either fail or become unstable and inefficient. In the context of fluid-structure interaction, the proposed mesh deformation method is applied to robustly update the computational mesh in situations when the fluid domain undergoes large deformations. In comparison to the state-of-the-art mesh update methods, it is able to handle larger deformations and does not result in an eventual reduction of mesh quality. The performance of the method is demonstrated on a classic 2D fluid-structure interaction benchmark reproduced by using an isogeometric partitioned solver with strong coupling.
The consumption of red meat is probably carcinogenic to humans and is associated with an increased risk to develop colorectal cancer (CRC). Red meat contains high amounts of heme iron, which is thought to play a causal role in tumor formation. In this study, we investigated the genotoxic and cytotoxic effects of heme iron (i.e., hemin) versus inorganic iron in human colonic epithelial cells (HCEC), human CRC cell lines and murine intestinal organoids. Hemin catalyzed the formation of reactive oxygen species (ROS) and induced oxidative DNA damage as well as DNA strand breaks in both HCEC and CRC cells. In contrast, inorganic iron hardly affected ROS levels and only slightly increased DNA damage. Hemin, but not inorganic iron, caused cell death and reduced cell viability. This occurred preferentially in
non-malignant HCEC, which was corroborated in intestinal organoids. Both hemin and inorganic iron were taken up into HCEC and CRC cells, however with differential kinetics and efficiency. Hemin caused stabilization and nuclear translocation of Nrf2, which induced heme oxygenase-1 (HO-1) and ferritin heavy chain (FtH). This was not observed after inorganic iron treatment. Chemical inhibition or genetic knockdown of HO-1 potentiated hemin-triggered ROS
generation and oxidative DNA damage preferentially in HCEC. Furthermore, HO-1 abrogation strongly augmented the cytotoxic effects of hemin in HCEC, revealing its pivotal function in colonocytes and highlighting the toxicity of free intracellular heme iron. Taken together, this study demonstrated that hemin, but not inorganic iron, induces ROS and DNA damage, resulting in a preferential cytotoxicity in non-malignant intestinal epithelial cells. Importantly, HO-1
conferred protection against the detrimental effects of hemin.
Dickdarmkrebs (kolorektales Karzinom, KRK) ist die dritthäufigste Krebserkrankung weltweit. Der Lebenswandel, insbesondere die Ernährungsgewohnheiten, zählen zu den bedeutendsten Risikofaktoren für KRK. Dabei steht Häm-Eisen, welches hauptsächlich durch den Verzehr von rotem Fleisch aufgenommen wird, im Verdacht, das KRK-Risiko zu erhöhen. Es wird vermutet, dass Häm-Eisen durch die Bildung endogener N-Nitrosoverbindungen (NOCs) und reaktiver Sauerstoffspezies sowie durch eine gesteigerte Proliferation des Kolonepithels die Entstehung des KRK fördert. NOC-induzierte Alkylierungsschäden der DNA, insbesondere mutagene O6-Methylguanin-Läsionen (O6-MeG), die durch die O6-MeG-DNA-Methyltransferase (MGMT) repariert werden, könnten in der Ätiologie von KRK von Bedeutung sein. Die zugrundeliegenden molekularen Mechanismen der Häm-Eisen-vermittelten kolorektalen Kanzerogenese sind jedoch wenig verstanden und wurden in der vorliegenden Arbeit näher untersucht.
Der Fokus dieser Arbeit lag einerseits auf der Untersuchung der Wirkung von Häm-Eisen auf das intestinale Mikrobiom und auf intestinale Entzündungsprozesse. Andererseits wurde die Bildung kanzerogener NOCs, sowie die durch sie verursachten DNA-Schäden und die DNA-Schadensantwort bzw. -reparatur näher analysiert. Zu diesem Zweck wurden wildtypische (WT), DNA-reparaturkompetente Mäuse mit einer Häm-Eisen-haltigen Diät gefüttert, wohingegen die Kontrollgruppe eine eisenbalancierte Diät mit Zusatz von Eisencitrat erhielt. Die Rolle der DNA-Reparatur wurde durch Verwendung transgener Mäuse, die einen Knockout des MGMT Gens (MGMT-/-) besitzen, untersucht. Zunächst konnte beobachtet werden, dass Häm-Eisen die endogene Bildung fäkaler NOCs steigerte, was mit einer erhöhten Fäkalwasser-Zytotoxizität in vitro in humanen Darmepithelzellen verbunden war. Weiterhin reduzierte Häm-Eisen die Zellviabilität intestinaler Kryptorganoide ex vivo. In vivo induzierte diätisches Häm-Eisen DNA-Doppelstrangbrüche (γH2AX) in intestinalen Epithelzellen, welche mit der Stabilisierung von p53 einhergingen. Zudem wurde in peripheren Blutzellen aus MGMT-/- Mäusen ein Anstieg von γH2AX in T-Zellen nach Häm-Eisen beobachtet. Eine Hyperproliferation des Kolonepithels durch Häm-Eisen zeigte sich als Zunahme PCNA-positiver Zellen sowie mitotischer Figuren, die zusammen mit der beobachteten reduzierten Apoptoserate einen kompensatorischen Mechanismus gegenüber den Häm-Eisen-vermittelten Schäden im Kolonepithel darstellen könnte. Die Analyse des intestinalen Mikrobioms mittels 16S rRNA-Sequenzierung ergab eine Häm-Eisen-abhängige Reduktion der α-Diversität sowie eine frühe intestinale Dysbiose, die über 162 Tage persistierte. Diese korrelierte mit einem Anstieg gramnegativer Bakterien, während die Abundanz der grampositiven Arten abnahm. Weiterhin wurde das intestinale Entzündungsmuster mittels nicht-invasiver Mini-Endoskopie mit anschließender Bestimmung des Inflammationsgrades (murine endoscopic index of colits severity, MEICS) analysiert. Diese Untersuchungen ergaben eine chronische Kolitis nach der Häm-Eisendiät, die zudem mit einer Aktivierung des intestinalen Immunsystems, einer Infiltration von B- und T-Zellen und einem Anstieg inflammatorischer Marker (pSTAT-3, COX-2) im Dickdarmgewebe einherging. Zur Analyse der tumorpromovierenden Eigenschaften von Häm-Eisen wurde WT Mäusen der kolonotrope Tumorinitiator Azoxymethan (AOM) verabreicht und diese in einer Langzeitstudie mit Häm-Eisen- oder Eisencitrat-haltiger Diät gefüttert. Durch die Anwendung einer Mini-Endoskopie wurde gezeigt, dass Häm-Eisen tumorpromovierend wirkt und die Anzahl sowie die Größe der AOM-induzierten Tumore erhöht. Interessanterweise wurden sogar tumorinitiierende Eigenschaften von diätischem Häm-Eisen in MGMT-/- Tieren festgestellt, wohingegen keine Initiation in WT Tieren beobachtet wurde.
Zusammengefasst wurde in dieser Arbeit demonstriert, dass diätisches Häm-Eisen eine chronische Kolitis auslöst, die mit einer Aktivierung des intestinalen Immunsystems und einer persistierenden Dysbiose des Darmmikrobioms verbunden ist. Zusätzlich förderte Häm-Eisen kolorektale Tumore durch die beobachteten tumorpromovierenden Eigenschaften. In MGMT-/- Mäusen, nicht aber in WT Mäusen, führte diätisches Häm-Eisen sogar ohne initiale AOM-Injektion zur signifikant vermehrten Entstehung kolorektaler Tumore. Diese Ergebnisse legen nahe, dass Häm-Eisen bei einer Inaktivierung von MGMT, was in 40 % der sporadischen kolorektalen Karzinome beim Menschen der Fall ist, KRK sowohl initiieren als auch promovieren kann.
Although today’s bipeds are capable of demonstrating impressive locomotion skills, in many aspects, there’s still a big gap compared to the capabilities observed in humans. Partially, this is due to the deployed control paradigms that are mostly based on analytical approaches. The analytical nature of those approaches entails strong model dependencies – regarding the robotic platform as well as the environment – which makes them prone to unknown disturbances. Recently, an increasing number of biologically-inspired control approaches have been presented from which a human-like bipedal gait emerges. Although the control structures only rely on proprioceptive sensory information, the smoothness of the motions and the robustness against external disturbances is impressive. Due to the lack of suitable robotic platforms, until today the controllers have been mostly applied to
simulations.
Therefore, as the first step towards a suitable platform, this thesis presents the Compliant Robotic Leg (CARL) that features mono- as well as biarticular actuation. The design is driven by a set of core-requirements that is primarily derived from the biologically-inspired behavior-based bipedal locomotion control (B4LC) and complemented by further functional aspects from biomechanical research. Throughout the design process, CARL is understood as a unified dynamic system that emerges from the interplay of the mechanics, the electronics, and the control. Thus, having an explicit control approach and the respective gait in mind, the influence of each subsystem on the characteristics of the overall system is considered
carefully.
The result is a planar robotic leg whose three joints are driven by five highly integrated linear SEAs– three mono- and two biarticular actuators – with minimized reflected inertia. The SEAs are encapsulated by FPGA-based embedded nodes that are designed to meet the hard application requirements while enabling the deployment of a full-featured robotic framework. CARL’s foot is implemented using a COTS prosthetic foot; the sensor information is obtained from the deformation of its main structure. Both subsystems are integrated into a leg structure that matches the proportions of a human with a size of 1.7 m.
The functionality of the subsystems, as well as the overall system, is validated experimentally. In particular, the final experiment demonstrates a coordinated walking motion and thereby confirms that CARL can produce the desired behavior – a natural looking, human-like gait is emerging from the interplay of the behavior-based walking control and the mechatronic system. CARL is robust regarding impacts, the redundant actuation system can render the desired joint torques/impedances, and the foot system supports the walking structurally while it provides the necessary sensory information. Considering that there is no movement of the upper trunk, the angle and torque profiles are comparable to the ones found in humans.
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
The development of a power system based on high shares of renewable energy sources puts high demands on power grids and the remaining controllable power generation plants, load management and the storage of energy. To reach climate protection goals and a significant reduction of CO2, surplus energies from fluctuating renewables have to be used to defossilize not only the power production sector but the mobility, heat and industry sectors as well, which is called sector coupling. In this article, the role of wastewater treatment plants by means of sector coupling is pictured, discussed and evaluated. The results show significant synergies—for example, using electrical surplus energy to produce hydrogen and oxygen with an electrolyzer to use them for long-term storage and enhancing purification processes on the wastewater treatment plant (WWTP). Furthermore, biofuels and storable methane gas can be produced or integrate the WWTP into a local heating network. An interconnection in many fields of different research sectors are given and show that a practical utilization is possible and reasonable for WWTPs to contribute with sustainable energy concepts to defossilization.
The fundamental differences in hydrodynamics of the froth and spray regime account for the ongoing interest in search for the point of phase inversion. This short communication presents a new approach for identification of phase inversion on sieve trays in terms of an image-based measurement technique. Image analysis of entrained droplets reveals a distinct increase in Sauter mean diameter and droplet frequency during phase inversion. Further measurement methods like pressure drop, gravimetric analysis of entrained liquid, froth height assessment and photographic observation of the flow regime serve as a reference value and complement the discussion. A flow map based on the experimental data comprises each regime and shows a good agreement with phase inversion correlations from literature.
Mehrschichtige Stahlbetonwandtafeln bestehen aus einer Trag- und Vorsatzschale aus Stahlbeton sowie einer innenliegenden Dämmschicht. Die als Fassade fungierende Vorsatzschale ist in der Regel nichttragend und dient als Wetterschutzschicht für die Wärmedämmung sowie zur Gestaltung des Gebäudes. Trotz der nichttragenden Funktion werden diese Fassaden massiv ausgeführt, da die innenliegende Bewehrung vor Korrosion geschützt werden muss. Das widerspricht dem Trend zu immer größeren, filigranen Sichtbetonfassaden, die ein Minimum an Fugen aufweisen. Durch innovative Entwicklungen im Bereich der Betontechnologie sowie in der Verankerungstechnik wird der Bau von filigranen, unbewehrten, energieeffizienten und nachhaltigen Architekturbetonfassaden mit wenigen Zentimetern Bauteildicke als Vorsatzschale von mehrschichtigen Stahlbetonwand-tafeln ermöglicht. Dieses Potential eröffnet sich durch die Verwendung von Ultrahochleistungsbetonen, die sich unteranderem durch ihre hohe Zug- und Biegezugfestigkeit auszeichnen. Durch Verbindungsmittel aus glasfaserverstärktem Kunststoff wird die Fassade mehrfach statisch unbestimmt befestigt. Aufgrund des vergleichsweise geringen Elastizitätsmoduls können die sonst kritischen Belastungen infolge Zwangs reduziert werden.
Gegenstand der vorliegenden Arbeit ist die Entwicklung eines abgesicherten Bemessungskonzeptes um unbewehrte, punktgestützte Fassaden als Vorsatzschicht in mehrschichtigen Stahlbetonwandtafeln bemessen zu können. Dabei liegt der Fokus auf der Berücksichtigung von Zwangseinwirkungen, Expositionen und geometrischen Einflüssen. Es werden umfangreiche, kleinmaßstäbliche Versuche durchgeführt, um den Maßstabseffekt, den Einfluss der Tragrichtung, des verwendeten Gesteins sowie Expositionen infolge Temperatur, Feuchtigkeit und Frost-Tau-Wechseln auf den Materialwiderstand zu untersuchen. In Großversuchen werden ausgewählte Expositionen sowie geometrische Parameter am Gesamtsystem erforscht. Weiterhin wird der Einfluss der lokalen und globalen Steifigkeit der Unterkonstruktion analysiert. In einem nächsten Schritt erfolgen die numerische Simulation des Fassadensystems und die Modellverifizierung anhand der Ergebnisse der Großversuche. Mithilfe einer Parameterstudie wird der Einfluss einer globalen und lokalen Steifigkeitsänderung der Unterkonstruktion untersucht. Ein weiterer Fokus liegt auf der Spannungsverteilung im Bereich einspringender Bauteilecken.
Die Ergebnisse münden in einem Bemessungskonzept und Konstruktionsregeln für die Fassadenplatte, Verbindungsmittel sowie die Verankerung. Für die Fassade wird ein Biege- und Normalkraftnachweis eingeführt. Die Verbindungsmittel werden auf Biegung und Zug, Schub und Stabilität nachgewiesen. Hinsichtlich der Verankerung wird ein Zug-, Querzug- und Drucknachweis geführt. Das Bemessungskonzept basiert auf einer Kombination der Bemessung von Glas- und Betonwerksteinfassaden, beinhaltet Geometriefaktoren wie im Holzbau und berücksichtigt erstmalig und planmäßig auch Zwangseinwirkungen. Die Berechnungsmodelle werden anhand der Versuchsergebnisse plausibilisiert. Ein semiprobabilistisches Teilsicherheitskonzept mit der Bestimmung des Teilsicherheitsbeiwertes für UHPC (engl. Ultra High Performance Concrete) sowie ein Resttragfähigkeitsnachweis runden die Arbeit ab.
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
Within this work, we utilize the framework of phase field modeling for fracture in order to handle a very crucial issue in terms of designing technical structures, namely the phenomenon of fatigue crack growth. So far, phase field fracture models were applied to a number of problems in the field of fracture mechanics and were proven to yield reliable results even for complex crack problems. For crack growth due to cyclic fatigue, our basic approach considers an additional energy contribution entering the regularized energy density function accounting for crack driving forces associated with fatigue damage. With other words, the crack surface energy is not solely in competition with the time-dependent elastic strain energy but also with a contribution consisting of accumulated energies, which enables crack extension even for small maximum loads. The load time function applied to a certain structure has an essential effect on its fatigue life. Besides the pure magnitude of a certain load cycle, it is highly decisive at which point of the fatigue life a certain load cycle is applied. Furthermore, the level of the mean load has a significant effect. We show that the model developed within this study is able to predict realistic fatigue crack growth behavior in terms of accurate growth rates and also to account for mean stress effects and different stress ratios. These are important properties that must be treated accurately in order to yield an accurate model for arbitrary load sequences, where various amplitude loading occurs.
Phase field modeling of fracture has been in the focus of research for over a decade now. The field has gained attention properly due to its benefiting features for the numerical simulations even for complex crack problems. The framework was so far applied to quasi static and dynamic fracture for brittle as well as for ductile materials with isotropic and also with anisotropic fracture resistance. However, fracture due to cyclic mechanical fatigue, which is a very important phenomenon regarding a safe, durable and also economical design of structures, is considered only recently in terms of phase field modeling. While in first phase field models the material’s fracture toughness becomes degraded to simulate fatigue crack growth, we present an alternative method within this work, where the driving force for the fatigue mechanism increases due to cyclic loading. This new contribution is governed by the evolution of fatigue damage, which can be approximated by a linear law, namely the Miner’s rule, for damage accumulation. The proposed model is able to predict nucleation as well as growth of a fatigue crack. Furthermore, by an assessment of crack growth rates obtained from several numerical simulations by a conventional approach for the description of fatigue crack growth, it is shown that the presented model is able to predict realistic behavior.
In dieser Arbeit wird ein formales Modell zur Beschreibung von hardwarenaher Software
vorgestellt: Die Programmnetzliste.
Die Programmnetzliste (PN) besteht aus Instruktionszellen
die in einem gerichteten azyklischen Graph verbunden sind und dabei
alle Ausführungspfade des betrachteten Programms beinhaltet. Die einzelnen Instruktionszellen
repräsentieren eine Instruktion oder eine Instruktionssequenz. Die PN verfügt
über eine explizite Darstellung des Programmablaufs und eine implizite Modellierung des
Datenpfads und ist als Modell für die Verifikation von Software nutzbar. Die Software
wird dabei auf Maschinencode-Level betrachtet.
Die Modellgenerierung besteht aus wenigen und gut automatisierbaren Schritten. Als
Grundlage dient ein – ggf. unvollständiger – Kontrollfluss Graph (CFG), der aus der Software
generiert werden kann. Die Modellgenerierung besteht aus zwei Schritten.
Der erste Schritt ist die Erzeugung des expliziten Programmablaufs, indem der CFG
abgerollt wird. Dabei wird ein sogenannter Execution-Graph (EXG) erzeugt, der alle
möglichen Ausführungspfade des betrachteten Programms beinhaltet. Um dieses Modell
so kompakt wie möglich zu halten, werden unterschiedliche Techniken verwendet – wie
das Zusammenführen gemeinsamer Pfade und das Erkennen von “toten” Verzweigungen
im Programm, die an der entsprechenden Stelle niemals ausgeführt werden.
Im Anschluss wird im zweiten Schritt der Execution-Graph in die Programmnetzliste
(PN) übersetzt. Dabei werden alle Knoten im EXG durch eine entsprechende Instruktionszelle
ersetzt. Die Kanten des Graphen entsprechen dabei dem Programmzustand. Der
Programmzustand setzt sich aus den Variablen im Speicher wie auch dem Architekturzustand
des unterliegenden Prozessors zusammen.
Ergänzt wird der Programmzustand in der Programmnetzliste um ein sogenanntes
Active-Bit, welches es ermöglicht den aktiven Pfad in der Netzliste zu markieren. Das
ist notwendig, da die Software immer nur einen Pfad gleichzeitig ausführen kann, aber
die PN alle möglichen Pfade beinhaltet. Auf der Programmnetzliste können dann mit Hilfe
von Hardware Property Checkern basierend auf BMC oder IPC diverse Eigenschaften
bewiesen werden.
Zusätzlich wird die Programmnetzliste um die Fähigkeit zur Interruptmodellierung
erweitert.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope. This document is the documentation for version 2020.12. For more information, see https://www.lintim.net
Erstmalig wurde Synchrotron-basierte nukleare inelastische Streuung (NIS) unter Nutzung des Mößbauer-Isotops 161Dy für die Untersuchung der vibronischen Eigenschaften eines DyIII-basierten Einzelmolekülmagneten, [Dy(Cy3PO)2(H2O)5]Br3⋅2 (Cy3PO)⋅2 H2O⋅2 EtOH, eingesetzt. Die experimentelle partielle Phononen-Zustandsdichte, die alle Schwingungen mit einer Auslenkung des DyIII-Ions enthält, wurde mit Hilfe von auf Dichtefunktionaltheorie (DFT) basierenden Simulationen reproduziert, was die Zuordnung aller intramolekularen Schwingungsmoden des Moleküls ermöglicht. Diese Studie zeigt, dass 161Dy-NIS als eine experimentelle Methode ein hohes Potential besitzt, um zur Klärung der Rolle von Phononen in Einzelmolekülmagneten beizutragen.
Synchrotron-based nuclear resonance vibrational spectroscopy (NRVS) using the Mössbauer isotope 161Dy has been employed for the first time to study the vibrational properties of a single-molecule magnet (SMM) incorporating DyIII, namely [Dy(Cy3PO)2(H2O)5]Br3⋅2 (Cy3PO)⋅2 H2O ⋅2 EtOH. The experimental partial phonon density of states (pDOS), which includes all vibrational modes involving a displacement of the DyIII ion, was reproduced by means of simulations using density functional theory (DFT), enabling the assignment of all intramolecular vibrational modes. This study proves that 161Dy NRVS is a powerful experimental tool with significant potential to help to clarify the role of phonons in SMMs.
A branch-and-cut approach and alternative formulations for thetraveling salesman problem with drone
(2020)
In this paper, we are interested in studying thetraveling salesman problem withdrone(TSP-D). Given a set of customers and a truck that is equipped with a singledrone, the TSP-D asks that all customers are served exactly once and minimal deliv-ery time is achieved. We provide two compact mixed integer linear programmingformulations that can be used to address instances with up to 10 customer within afew seconds. Notably, we introduce a third formulation for the TSP-D with an expo-nential number of constraints. The latter formulation is suitable to be solved by abranch-and-cut algorithm. Indeed, this approach can be used to find optimal solu-tions for several instances with up to 20 customers within 1 hour, thus challenging thecurrent state-of-the-art in solving the TSP-D. A detailed numerical study providesan in-depth comparison on the effectiveness of the proposed formulations. More-over, we reveal further details on the operational characteristics of a drone-assisteddelivery system. By using three different sets of benchmark instances, considera-tion is given to various assumptions that affect, for example, technological droneparameters and the impact of distance metrics.
In der vorliegenden Dissertation wurde untersucht, wie die Wasseraufnahme von rezyklierter Gesteinskörnung in der Betonzusammensetzung so zu berücksichtigen ist, dass der Wassergehalt im Zementleim gegenüber dem Sollwert nicht durch Wassersaugen der Gesteinskörnung verändert wird. Aufbauend auf der zu entwi-ckelnden Methode zur zielsicheren Einstellung des vorgesehenen Wassergehalts im Zementleim wurde im Rahmen dieser Arbeit die Frage diskutiert, wie rezyklierte Gesteinskörnung bei gleichem Wasserzementwert die Festigkeit und das Elastizi-tätsmodul des Gesamtsystems im Vergleich zu Normalbeton beeinflusst und wel-che Faktoren dafür in welchem Maß relevant sind.
Die Untersuchungen zeigten, dass die Steuerung der Aufbereitungstechnik für rezyklierte Gesteinskörnungen es ermöglicht, vergleichbare Streuungen in den Eigenschaften bei Lieferungen aus einem Herstellwerk einzuhalten, wie sie auch für natürliche Gesteinskörnungen gegeben sind.
Des Weiteren zeigten die Untersuchungen, dass es ausreicht, die rezyklierte Ge-steinskörnung anhand der Kornrohdichten und der Wasseraufnahme zu charakte-risieren, die im Pyknometerverfahren nach zehn Minuten ermittelt werden. Aus den so gewonnenen Kennwerten kann auf die jeweilige Kornrohdichte in allen weiteren Feuchtezuständen extrapoliert werden. Die Zugabewassermenge einer Referenz-mischung aus natürlicher Gesteinskörnung sollte nach den Ergebnissen der Unter-suchungen um diejenige Menge an Zusatzwasser erhöht werden, die die rezyklier-te Gesteinskörnung innerhalb von zehn Minuten im Pyknometerversuch aufneh-men kann. Es ist nicht notwendig rezyklierte Gesteinskörnung wasserzusättigen oder vollständig zu trocknen. Maximale Festbetoneigenschaften werden erreicht, wenn die Gesteinskörnung Kernfeuchte aufweist ohne vollständig gesättigt zu sein. Die Eigenfeuchte sollte ermittelt und auf das nötige Gesamtwasser angerechnet werden.
Rezyklierte Gesteinskörnungen, unabhängig vom verwendeten zugelassenen Typ, verminderten in den Untersuchungen zu dieser Arbeit bei gleicher Zusammenset-zung der Zementsteinmatrix weder die Druckfestigkeit noch die Spaltzugfestigkeit. Das Elastizitätsmodul kann geringer ausfallen als bei Betonen mit natürlicher Ge-steinskörnung.
Die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit ist nicht unumstritten. Immer wieder wird die Daseinsberechtigung und Bedeutung von Schöffinnen und Schöffen in Strafverfahren hinterfragt.
Die Masterarbeit gibt einen Überblick über das Schöffenamt und anhand einer Befragung von Berufsrichterinnen und -richtern sowie von Schöffinnen und Schöffen wurde die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit untersucht. Dabei wurde auf die Zusammenarbeit beider eingegangen und bestehende Probleme herausgearbeitet. Im Ergebnis wurde schließlich auch der Frage nachgegangen, inwieweit das Schöffenamt noch seine Daseinsberechtigung und die Beteiligung von Schöffinnen und Schöffen Nutzen für die Strafrechtspflege hat.
Editorial
(2020)
Editorial
(2020)
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Maschinenbetten und -gestelle werden vorwiegend aus Grauguss und als Stahlschweißkonstruktion gefertigt. Aufgrund technischer und wirtschaftlicher Vorteile haben sich seit den 80er Jahren zusätzlich Mineralguss oder epoxidharzgebundener Polymerbeton etabliert. Seit mehreren Jahren wird Ultra High Performance Concrete – UHPC – erfolgreich bei Werkzeugmaschinen eingesetzt. Auf diesen Grundgestellen aus Beton werden neben Gehäusen, Getrieben, Werkzeughaltern, Trafos usw. vor allem die beweglichen Teile der Maschine befestigt. Gängige Praxis hierfür ist die Verwendung von Linearführungsschienen.
Diese Arbeit untersucht die vorgespannte, geschraubte Befestigung der Linearführung auf geschliffenen Betonoberfläche mit Hilfe von speziellen Gewindehülsen. In rechnerischen Voruntersuchungen mittels der FE-Methode wurde der Kraftfluss von der Linearführung über die Befestigungsschraube zur Gewindehülse bis in den Betonuntergrund untersucht und darauf aufbauend ein Versuchsprogramm festgelegt. Probekörper aus hochfestem Beton des Marktführers wurden hergestellt und experimentell untersucht. Nach der Auswertung der Versuche wurde ein Bemessungskonzept entwickelt und in Form einer schrittweisen Anleitung festgehalten. Mehrere Beispiele zeigen die Anwendung des Verfahrens.
Berechnungen, Versuchskonzeption, Durchführung der Versuche, Versuchsauswertung sowie die Entwicklung des Bemessungskonzeptes erfolgten durch den Verfasser. Die Versuche wurden in seiner Anwesenheit in seinem Betrieb, in spezialisierten Unternehmen mit entsprechender Geräteausstattung und zum größten Teil an der TU Kaiserslautern durchgeführt. Die hier betrachteten Untersuchungen und Bemessungsvorschläge betrachten ausschließlich Maschinenbauteile und dürfen nicht auf Situationen im Bauwesen übertragen werden.
Mit dem Einsatz stiftförmiger Verbindungsmittel am Stabende werden Holzstäbe durch die notwendigen Bohrlöcher für die Verbindungsmittel und durch die notwendigen Schlitze für etwaige Verbindungsbleche stets geometrisch und damit statisch geschwächt. Das volle Tragpotential des Einzelstabes kann somit - mit konventionellen Verbindungsmitteln, wie Stabdübeln, (Pass)-Bolzen aber auch Dübeln besonderer Bauart – nicht vollständig ausgeschöpft werden.
Im Rahmen dieser Arbeit wird die Verstärkung von Bauteilanschlüssen in auf Normalkraft beanspruchten Stabtragwerken mit Kunstharzpressholz (KP) untersucht, das mittels einer Keilzinkenverbindung an die Enden nativer Stäbe geklebt wird. Es werden sowohl charakteristische Keilzinkenfestigkeiten unterschiedlicher Profilgeometrien an hybriden Verbindungen zwischen nativem Holz und KP ermittelt als auch Lochleibungsfestigkeiten von KP unterschiedlichen Aufbaus an zylindrischen Verbindungsmitteln mit einem Durchmesser von d = 8 mm bis d = 60 mm bestimmt. Die Untersuchungen belegen, dass die Tragfähigkeit des Anschlussbereiches sowie die Tragfähigkeit der Keilzinkenverbindung zwischen nativem Holz und KP größer ist als die Tragfähigkeit des Bruttoquerschnitts eines nativen Stabes bis Festigkeitsklasse C35. Deshalb kann die volle Tragfähigkeit des Bruttoquerschnitts für den statischen Nachweis angesetzt und damit eine Bemessung auf den Spannungsnachweis bei Zugstäben und auf den Stabilitätsnachweis bei Druckstäben vereinfacht werden. Gleichzeitig ist eine Reduktion der für die Verbindung notwendigen zylindrischen Verbindungsmittel auf ein einziges möglich, was die Bauteilmontage als auch die Bauteildemontage erheblich vereinfacht.
Aufgrund seiner hohen Festigkeit, Härte und Formstabilität eignet sich KP bestens um reversible Bauteilanschlüsse auszubilden. Um die Verbindung zerstörungsfrei zu lösen und um die Wiederverwendbarkeit der Bauteile zu ermöglichen, müssen plastisch irreversible Verformungen der Verbindungsmittel als auch der Lochleibung ausgeschlossen werden. Innerhalb dieser Arbeit wird neben den eigentlichen Lochleibungsfestigkeiten daher auch der Einfluss der Verbindungsmittelschlankheit auf das Tragverhalten von Anschlüssen mit zylindrischen Verbindungsmitteln in KP untersucht.
Neben Scher-Lochleibungsanschlüssen werden auch Anschlüsse mit vorgespannten Schrauben im KP-verstärkten Stabende thematisiert. Im Vergleich zu reinen Scher-Lochleibungsverbindungen kann mit gleitfesten Verbindungen die Tragfähigkeit des Bauteilanschlusses signifikant gesteigert werden. Zudem lassen sich unter Einhaltung üblicher Bauteiltoleranzen nach DIN 18203-3 (2008) zugleich hohe Anschlusssteifigkeiten realisieren.
Für Scher-Lochleibungsanschlüsse und für gleitfeste Anschlüsse werden Gleichungssysteme als auch Bemessungstabellen entwickelt. Das Potential KP-verstärkter Stäbe wird am Beispiel modular aufgebauter Fachwerkträger mit Scher-Lochleibungsverbindungen erörtert.
Abschließend werden ringförmige Knotenanschlüsse aus KP vorgestellt. Mit diesen organisch geformten Freiformknoten können Stäbe unterschiedlichen Querschnitts, unterschiedlicher Länge und unter unterschiedlichen Winkeln gestoßen werden.
Mit dieser Arbeit wird die Grundlage zur Bemessung von Holztragwerken mit Knotenverstärkungen aus KP geschaffen.
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung des wissenschaftlichen Zertifikatskurses
Interprofessionelle Kommunikation in gemeindenaher Gesundheitsversorgung und
beschreibt die Evaluationsergebnisse. Die Zielgruppe für das bedarfsorientierte Bildungsangebot
waren berufserfahrene Pflegefachpersonen aus der ambulanten Gesundheitsversorgung.
Der Kurs wurde im Wintersemester 2019/20 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt und durch Mitarbeitende des Teilvorhaben E-hoch-B – Pflege und
Gesundheit begleitet und evaluiert. Die Evaluation erfolgte qualitativ durch Fokusgruppeninterviews
und quantitativ durch Fragebögen. Ziel war es, die soziodemografischen Merkmale
sowie bildungs- und berufsbiografischen Kennzeichen der Teilnehmenden des Zertifikatskurses
herauszuarbeiten. Weiterhin sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs
erleben bzw. erlebt haben und welche Handlungsempfehlungen für die Weiterentwicklung
und Verstetigung des Kurses abgeleitet werden können.
Recurrent Neural Networks, in particular One-dimensional and Multidimensional Long Short-Term Memory (1D-LSTM and MD-LSTM) have achieved state-of-the-art classification accuracy in many applications such as machine translation, image caption generation, handwritten text recognition, medical imaging and many more. However, high classification accuracy comes at high compute, storage, and memory bandwidth requirements, which make their deployment challenging, especially for energy-constrained platforms such as portable devices. In comparison to CNNs, not so many investigations exist on efficient hardware implementations for 1D-LSTM especially under energy constraints, and there is no research publication on hardware architecture for MD-LSTM. In this article, we present two novel architectures for LSTM inference: a hardware architecture for MD-LSTM, and a DRAM-based Processing-in-Memory (DRAM-PIM) hardware architecture for 1D-LSTM. We present for the first time a hardware architecture for MD-LSTM, and show a trade-off analysis for accuracy and hardware cost for various precisions. We implement the new architecture as an FPGA-based accelerator that outperforms NVIDIA K80 GPU implementation in terms of runtime by up to 84× and energy efficiency by up to 1238× for a challenging dataset for historical document image binarization from DIBCO 2017 contest, and a well known MNIST dataset for handwritten digits recognition. Our accelerator demonstrates highest accuracy and comparable throughput in comparison to state-of-the-art FPGA-based implementations of multilayer perceptron for MNIST dataset. Furthermore, we present a new DRAM-PIM architecture for 1D-LSTM targeting energy efficient compute platforms such as portable devices. The DRAM-PIM architecture integrates the computation units in a close proximity to the DRAM cells in order to maximize the data parallelism and energy efficiency. The proposed DRAM-PIM design is 16.19 × more energy efficient as compared to FPGA implementation. The total chip area overhead of this design is 18 % compared to a commodity 8 Gb DRAM chip. Our experiments show that the DRAM-PIM implementation delivers a throughput of 1309.16 GOp/s for an optical character recognition application.
1,2-unsaturated pyrrolizidine alkaloids (PAs) are natural plant constituents comprising more than 600 different structures. A major source of human exposure is thought to be cross-contamination of food, feed and phytomedicines with PA plants. In humans, laboratory and farm animals, certain PAs exert pronounced liver toxicity and can induce malignant liver tumors in rodents. Here, we investigated the cytotoxicity and genotoxicity of eleven PAs belonging to different structural classes. Although all PAs were negative in the fluctuation Ames test in Salmonella, they were cytotoxic and induced micronuclei in human HepG2 hepatoblastoma cells over-expressing human cytochrome P450 3A4. Lasiocarpine and cyclic diesters except monocrotaline were the most potent congeners both in cytotoxicity and micronucleus assays with concentrations below 3 μM inducing a doubling in micronuclei counts. Other open di-esters and all monoesters exhibited weaker or much weaker geno- and cytotoxicity. The findings were in agreement with recently suggested interim Relative Potency (iREP) factors with the exceptions of europine and monocrotaline. A more detailed micronuclei analysis at low concentrations of lasiocarpine, retrorsine or senecionine indicated that pronounced hypolinearity of the concentration–response curves was evident for retrorsine and senecionine but not for lasiocarpine. Our findings show that the genotoxic and cytotoxic potencies of PAs in a human hepatic cell line vary in a structure-dependent manner. Both the low potency of monoesters and the shape of prototype concentration–response relationships warrant a substance- and structure-specific approach in the risk assessment of PAs.
Since plants lack specialized immune cells, each cell has to defend itself independently against a plethora of different pathogens. Therefore, successful plant defense strongly relies on precise and efficient regulation of intracellular processes in every single cell. Smooth trafficking within the plant endomembrane is a prerequisite for a diverse set of immune responses. Pathogen recognition, signaling into the nucleus, cell wall enforcement, secretion of antimicrobial proteins and compounds, as well as generation of reactive oxygen species, all heavily depend on vesicle transport. In contrast, pathogens have developed a variety of different means to manipulate vesicle trafficking to prevent detection or to inhibit specific plant responses. Intriguingly, the plant endomembrane system exhibits remarkable plasticity upon pathogen attack. Unconventional trafficking pathways such as the formation of endoplasmic reticulum (ER) bodies or fusion of the vacuole with the plasma membrane are initiated and enforced as the counteraction. Here, we review the recent findings on unconventional and defense-induced trafficking pathways as the plant´s measures in response to pathogen attack. In addition, we describe the endomembrane system manipulations by different pathogens, with a focus on tethering and fusion events during vesicle trafficking.
Zeolithe sind poröse, kristalline Katalysatoren, deren Poren in der Größenordnung von Reaktandmolekülen liegen. Es gibt die Möglichkeit, verschiedene Kristallgitter von Zeolithen miteinander zu kombinieren, woraus Mischtopologien, sog. Intergrowths, entstehen. Mischtopologien, wie z. B. Zeolith ZSM-20, haben die Besonderheit, dass diese durch die Kombination zweier Gittertypen andere (katalytische) Eigenschaften aufweisen können, als die einzelnen Zeolithgittertypen, aus denen sie bestehen. Somit stellen Intergrowths eine interessante Erweiterung der ohnehin großen Vielfalt an Zeolithen dar. Im Fokus dieser Arbeit stehen die Synthese und die Modifikation, in Form der Dealuminierung, von Zeolithen mit Faujasit-Topologie in der Flüssigphase. Mittels Dealuminierung, welche eine der wichtigsten post-synthetischen Modifikationsmethoden darstellt, lassen sich unter anderem die sauren Eigenschaften der Zeolithe verändern. Die katalytischen Untersuchungen der Zeolithe wurden mittels einer Testreaktion (Disproportionierung von Ethylbenzol) durchgeführt. Die unterschiedlichen Dealuminierungsparameter wurden an den verschiedenen Zeolithen mit Faujasit-Topologie systematisch untersucht und für Zeolith ZSM-20 optimiert. Es konnten erfolgreich verschiedene Modifikationen der Zeolithen mit Faujasitstruktur mit unterschiedlichen Dealuminierungsgraden hergestellt werden. Diese wurden im Anschluss mittels der Ethylbenzoldisproportionierung katalytisch getestet und die Auswirkungen der Modifikationen in der Katalyse untersucht.
Glasfaserverstärktes Sheet Molding Compound (G-SMC) wird seit mehreren Jahrzehnten vorrangig in der Automobilindustrie zur Herstellung von Außenhaut- und Verkleidungsbauteilen verwendet.
Es handelt sich dabei hauptsächlich um ebene und großflächige Bauteile mit niedrigen oder semistrukturellen Anforderungen. Aufgrund der hohen Designfreiheit von Bauteilen dieser Werkstoff-klasse wird seit einigen Jahren versucht diese durch die Steigerung der mechanischen Kennwerte
als strukturelle Komponenten zu befähigen und in Fahrzeugstrukturen zu integrieren. Die beiden wichtigsten Stellgrößenen sind hierbei die Verwendung von Kohlenstofffasern (C-Fasern) zusammen
mit einem hohen Faservolumengehalt (über 40 Vol-%). Mit dem Einsatz teurer C-Fasern und dem Wunsch nach effzientem Materialeinsatz steigt der Bedarf nach Simulationswerkzeugen, um die Formfüllung bzw. Bauteilherstellung zu beschreiben. Für G-SMC wurden bisher DProzesssimulationen entwickelt und validiert. Trotz allem ist der Einsatz in der industriellen Praxis bisher kaum verbreitet. Insbesondere lassen sie sich auf den Einsatz von Kohlenstofffaserverstärkten Sheet Molding Compounds (C-SMC) nicht anwenden, da hierbei komplexe, teilweise verripte 3D-Bauteile vorliegen. Um die Material- und Produktkosten bei C-SMC zu senken, werden mittlerweile auch rezyklierte Halbzeuge angeboten und industriell eingesetzt. Diese Halbzeuge weisen in ihrem Umform- und Fließverhalten deutliche Unterschiede zu Neufasermaterialien auf.
Hier setzt die vorliegende Arbeit an. Sie leistet einen Beitrag zur Charakterisierung und phänomenologischen Beschreibung von C-SMC mit neuen und rezyklierten C-Fasern. Dabei stehen Methoden zur Erzeugung von Eingangs- und Validierungsdaten für die 3D-Prozesssimulation im
Vordergrund. Zur Bestimmung der Faserorientierungen als wichtigste Kenngröße wird das Wirbelstromverfahren in Transmission verwendet. Dabei wird erstmalig eine Methode zur Messung von komplexeren 3D-Bauteilen gezeigt und eine Übertragung auf Finite-Elemente-Netze (FE-Netze) entwickelt. Auf Basis der Materialcharakterisierung wird eine durchgängige, virtuelle 3D-Prozesskette (VPK) für den Pressvorgang bereitgestellt. Für die 3D-Simulation des Pressvorgangs wird der gekoppelte Euler-Lagrange-Ansatz (CEL) verwendet. Ein wichtiges Unterscheidungsmerkmal gegenüber der bisherigen Modellierung von G-SMC ist der festkörpermechanische Betrachtungsansatz des C-SMC beim Pressen. Insbesondere für rezykliertes C-SMC mit einer Wirrfaserstruktur und starken Kompaktierung kommen die bisher verwendeten uidmechanischen Anäatze an die Grenzen ihrer Gültigkeit. Für die Simulation der Bauteilabkühlung nach dem Pressvorgang wird eine linearelastische, orthotrope 3D-Verzugssimulation entwickelt.
Für die Verknüpfung der Presssimulation mit der anschließenden Verzugssimulation wird eine modulare Schnittstellenlösung bereitgestellt. Ein Fokus der Entwicklung ist die industrielle Einsetzbarkeit der VPK, weshalb Werkzeuge und Methoden bereitgestellt werden, um komplexere Modelle zu erstellen und diese zu verknüpfen. Die Anwendbarkeit und Prognosegüte der entwickelten VPK wird abschließend an einem Vorserienbauteil einer PKW-Stütze C-Säule ausführlich untersucht.
Der Ausbruch der Covid-19-Pandemie hatte massive Auswirkungen auf die Weiterbildungsbrache und die Folgen sind bisher noch nicht abzuschätzen. Durch die Absage/Aussetzung aller Präsenzveranstaltungen sowie Kontaktbeschränkungen für Mitarbeitende der Weiterbildungseinrichtungen zur Eindämmung des Virus im März diesen Jahres, mussten ad-hoc neue Grundlagen für die Arbeit geschaffen werden. Im Rahmen der vorliegenden Befragungsergebnisse von 10 Volkshochschulen in Rheinland-Pfalz im Mai/Juni wird beispielhaft nachgezeichnet, wie die Einrichtungen mit den Einschränkungen der Pandemie umgegangen sind. Dabei wird insbesondere auf die Digitalisierung im Bereich der Angebote und der Zusammenarbeit sowie die Folgen der aktuellen Krise eingegangen. Die Ergebnisse zeigen dabei, dass die Einschränkungen sowohl als existenzielle Bedrohung, als auch Chance für eine Weiterentwicklung der Einrichtungen gesehen werden. Dabei hat die Digitalisierung einen deutlichen Schub erfahren. Eine grundlegende Veränderung der Ziele und Strategien der Einrichtungen ist jedoch nicht zu erkennen.
Photokatalytische Reaktionen laufen vergleichsweise schnell ab, wenn der verwendete Katalysator im Reaktionsmedium dispergiert ist. Verwendet man, wie es in der Praxis
häufig wünschenswert ist, immobilisierte Katalysatoren, nimmt die Reaktionsgeschwindigkeit deutlich ab. In Lichtwellenleiterreaktoren gelingt es, den Katalysator gleichmäßig zu bestrahlen und dadurch die Quantenausbeute der Photoreaktion zu erhöhen.
Im Rahmen dieser Arbeit wurde ein Strahlungsmodell entwickelt, das die Abstrahlcharakteristik einer LED in Form eines Lambertstrahlers detaillierter abbildet, als es bisher
der Fall war. Zudem wurde bei der Einkopplung der Lichtstrahlen in die optische Faser auch die Fresnel Reflektion berücksichtigt.
Bei der Strahlungsauskopplung bzw. bei der Katalysatoranregung wurden ideal glatte Beschichtungen und ideal matte Beschichtungen als Grenzfälle approximiert. Verwendet
man ideal matte Beschichtungen, kommt es zu schneller Auskopplung der Strahlen auf einem kurzen Abschnitt des Lichtleiters. Ein Teil der Strahlung geht dabei verloren. Ein anderer Teil kann nicht genutzt werden, da die gebildeten Radikale schnell rekombinieren. Durch Verringerung des Filmdiffusionswiderstandes können hier höhere Reaktionsgeschwindigkeiten erzielt werden.
Verwendet man ideal glatte Beschichtungen geht kaum Strahlung verloren und man erhält niedrige Bestrahlungsstärken auf der Katalysatoroberfläche, sodass man sich der intrisischen Reaktionsgeschwindigkeit annähert.
Flüssigimprägnierverfahren erlauben die effiziente Herstellung von Faser-Kunststoff-
Verbund-Bauteilen in hohen Stückzahlen. Das Dry Fiber Placement ist ein Verfahren,
um hierzu bei geringen Verschnittraten textile Vorformlinge (Preforms) herzustellen,
die eine optimale Faserausrichtung und –platzierung ermöglichen. Hinsichtlich der
Imprägniereigenschaften sind die so hergestellten Preforms jedoch herausfordernd,
da sie im Vergleich zu konventionell verwendeten Textilien (Gewebe oder Gelege)
über eine wesentlich geringere Permeabilität verfügen. Daher wurde im Rahmen dieser
Arbeit das Imprägnierverhalten dieser Preforms grundlegend experimentell und
simulativ untersucht. Hierbei wurden Strukturvariationen auf Mikroebene (zwischen
einzelnen Fasern) und auf Mesoebene (zwischen Fasersträngen) betrachtet. Aus
den gewonnenen Erkenntnissen wurden Gestaltungsempfehlungen abgeleitet, die
zukünftig eine Optimierung der Preforms hinsichtlich ihrer Imprägniereigenschaften
ermöglichen.
Liquid composite moulding processes allow the efficient production of fiber reinforced
polymer composite components in larger batch production. Dry Fiber Placement is a
process used to produce textile preforms at low scrap rates allowing optimum fiber
alignment and positioning. Yet, their impregnation properties are challenging compared
to conventional textile materials as their permeability is significantly lower.
Hence, this work deals with fundamental examination of their impregnation behaviour
using experimental and simulative approaches. For this purpose, structural variations
on micro scale (in between single fibers) and on meso scale (in between fiber
strands) are considered. Using the gained knowledge, design recommendations
have been developed to enable optimization of preforms regarding their impregnation
behaviour.
Cells depend on the continuous renewal of their proteome composition during the cell cycle and in order to replace aberrant proteins or to react to changing environmental conditions. In higher eukaryotes, protein synthesis is achieved by up to five million ribosomes per cell. With the fast kinetics of translation, the large number of newly made proteins generates a substantial burden for protein homeostasis and requires a highly orchestrated cascade of factors promoting folding, sorting and final maturation. Several of the involved factors directly bind to translating ribosomes for the early processing of emerging nascent polypeptides and the translocation of ribosome nascent chain complexes to target membranes. In plant cells, protein synthesis also occurs in chloroplasts serving the expression of a relatively small set of 60–100 protein-coding genes. However, most of these proteins, together with nucleus-derived subunits, form central complexes majorly involved in the essential processes of photosynthetic light reaction, carbon fixation, metabolism and gene expression. Biogenesis of these heterogenic complexes adds an additional level of complexity for protein biogenesis. In this review, we summarize the current knowledge about co-translationally binding factors in chloroplasts and discuss their role in protein folding and ribosome translocation to thylakoid membranes.
The number of sequenced genomes increases rapidly due to the development of faster, better and new technologies. Thus, there is a great interest in automation, and standardization of the subsequent processing and analysis stages of the generated enormous amount of data. In the current work, genomes of clones, strains and species of Streptococcus were compared, which were sequenced, annotated and analysed with several technologies and methods. For sequencing, the 454- and Illumina-technology were used. The assembly of the genomes mainly was performed by the gsAssembler (Newbler) of Roche, the annotation was performed by the annotation pipeline RAST, the transfer tool RATT or manually. Concerning analysis, sets of deduced proteins of several genomes were compared to each other and common components, the so-called core-genome, of the used genomes of one or closely related species determined. Detailed comparative analysis was performed for the genomes of isolates of two clones to gather single nucleotide variants (SNV) within genes.
This work focusses on the pathogenic organism Streptococcus pneumoniae. This species is a paradigm for transformability, virulence and pathogenicity as well as resistance mechanisms against antibiotics. Its close relatives S. mitis, S. pseudopneumoniae and S. oralis have no pathogenicity potential as high as S. pneumoniae available and are thus of high interest to understand the evolution of S. pneumoniae. Strains of two S. pneumoniae clones were chosen. One is the ST10523 clone, which is associated with patients with cystic fibrosis and is characterized by long-term persistence. This clone is lacking an active hyaluronidase, which is one of the main virulence factors. The lack of two phage clusters possibly contributed to the long persistence in the human host. The clone ST226 shows a high penicillin resistance but interestingly one strain is sensitive against penicillin. Here it could be seen that the penicillin resistance mainly arose from the presence of mosaic-PBPs, while special alleles of MurM and CiaH - both genes are associated with penicillin-resistance – were present in resistant and sensitive strains as well. Penicillin resistance of S. pneumoniae is the result of horizontal gene transfer, where DNA of closely related species, mainly S. mitis or S. oralis, served as donor. The transfer of DNA from the high-level penicillin-resistant strain S. oralis Uo5 to the sensitive strain S. pneumoniae R6 was intentioned to reveal the amount of transferred DNA and whether it is possible to reach the high resistance level of S. oralis Uo5. Altogether, about 19kb of S. oralis DNA were transferred after three successive transformation steps, about 10-fold less than during transfer from S. mitis, which is more closely related to S. pneumoniae, as donor. MurE was identified as new resistance determinant. Since the resistance level of the donor strain could not be reached, it is assumed, that further unknown factors are present which contribute to penicillin resistance. The comparison of S. pneumoniae and its close relatives was performed using deduced protein sequences. 1.041 homologous proteins are common to the four complete genomes of S. pneumoniae R6, S. pseudopneumoniae IS7493, S. mitis B6 and S. oralis Uo5. Most of the virulence and pathogenicity factors described for S. pneumoniae could also be found in commensal species. These observations were confirmed by further investigations by Kilian et al. (Kilian, et al., 2019). After adding 26 complete S. pneumoniae genomes to the analysis, only 104 gene products could be identified as specific for this species. Investigations of a larger number of related streptococci, which were isolated from human and several primates, confirmed the presence of most of the virulence factors of human pneumococci in S. oralis and S. mitis strains from primates. While NanBC is common among S. pneumoniae and is missing in all S. oralis, all S. oralis contain a ß-N-acetyl-hexosaminidase which vice versa is missing in S. pneumoniae. The occurrence of S. oralis also in free-living chimpanzees suggests the assumption, that this species is part of the commensal flora of these Old-World monkeys unlike S. pneumoniae which has evolved with its human host. Compared to S. pneumoniae, S. oralis shows an amazing variability in factors important for biosynthesis of peptidoglycan and teichoic acid (PBP, MurMN, lic-cluster). Some streptococci contain a second PGP3 homologue. Additional analyses with further isolates, especially of wild animals, are necessary to determine host-specific components.
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Im Rahmen des laufenden Forschungsprojekts “Medienpädagogische Kom- petenz des beruflichen Weiterbildungspersonals zur Unterstützung des Ein- satzes digitaler Medien in formalen, non-formalen und informellen Lernset- tings – MEKWEP” des Deutschen Institut für Erwachsenenbildung (DIE) in Kooperation mit dem Fachgebiet der Pädagogik der Technischen Universität Kaiserslautern wurde ein medienpädagogisches Kompetenzmodell als Orien- tierung für Lehrende in der Erwachsenenbildung erstellt, um deren persönli- che Professionalisierung zu überprüfen.10
Es stellt sich nun die Frage, wie sich Lehrende in der Erwachsenenbildung die geforderten medienpädagogischen Kompetenzen aneignen können, um eine professionelle Handlungsfähigkeit gewährleisten zu können und der Di- gitalisierung im Gleichschritt zu begegnen.
Die vorliegende Arbeit konzentriert sich auf non-formale Weiterbildungsan- gebote zur E-Trainer-Qualifizierung. Ziel ist es zunächst herauszufinden, welche Weiterbildungsangebote auf dem Markt zu finden sind, um im An- schluss eine Aussage darüber treffen zu können, welche medienpädagogi- schen Inhalte des Kompetenzmodells in solchen Angeboten berücksichtigt werden.
Personalized dynamic pricing (PDP) involves dynamically setting individual-consumer prices for the same product or service according to consumer-identifying information. Despite its profitability, this pricing provokes strong negative fairness perceptions, explaining why managers are reluctant to implement it. This research provides important insights into the effect of two PDP dimensions (price individualization level and segmentation base) on fairness perceptions and the moderating role of privacy concerns. The results of two experimental studies indicate that consumers perceive individual prices as less fair than segment prices. They also evaluate location-based pricing as less fair than purchase history-based pricing. Consumer privacy concerns moderate these effects.
Die vorliegende Masterarbeit belegt, dass ein Innovationsvorhaben mittels „Bottom-up“-Management
zur Entwicklung einer gesamten Organisation führen kann. Dies wird exemplarisch an
der Curriculumentwicklung an einer Pflegeschule in Baden-Württemberg dargestellt. Hierfür
werden zunächst die Besonderheiten des „Bottom-up“-Managements herausgearbeitet und
anschließend unter Einbeziehung aller Rahmenbedingungen ein eigenes Handlungskonzept
für das Projektvorhaben erstellt. Das „Drei-Wege-Modell der Schulentwicklung“ von Rolff, welches
sich mit dem Zusammenhang zwischen der Unterrichtsentwicklung, der Personalentwicklung
und der Organisationsentwicklung befasst (vgl. Rolff 2016, S. 20), stellt in dieser
Arbeit neben der Qualitätssicherung einen wichtigen Orientierungsrahmen dar. Es wird zudem
gezeigt, dass sowohl das Führungsverhalten der Schulleitung als auch die Möglichkeit
zur partizipativen Mitarbeit aller Teilnehmenden der Schlüssel für das Gelingen des Innovationsvorhabens
ist. Damit die Ergebnisse dieser Arbeit auch gewinnbringend für andere Projektvorhaben
und Organisationen genutzt werden können, werden sie abschließend auf ihre
Übertragbarkeit hin geprüft. So können Teilaspekte diese Masterarbeit auch bei der Weiterentwicklung
weiterer Pflegeschulen oder anderer Organisationen eine Hilfe sein.
Die Arbeit beschäftigt sich zunächst damit, was Schulentwicklung umfasst, welche Rolle die Teamentwicklung spielt und welche zentrale Stellung die Schulleitung, allen voran die Schulleiterin bzw. der Schulleiter, hierbei innehat. Daran anschließend wird konkret auf die Besonderheiten der Gemeinschaftsschule in Baden-Württemberg eingegangen und die damit verbundenen Herausforderungen für eine positive Schulentwicklung betrachtet. Abschließend wird die Frage beantwortet, wie die Schulleitung Teamentwicklung an einer Gemeinschaftsschule für eine positive Schulentwicklung initiieren, fördern, begleiten und implementieren kann. Die Ergebnisse münden in einer Handreichung für Schulleitungen an Gemeinschaftsschulen.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
A novel core–shell species for the adsorption-based separation of carbon dioxide (
CO2) from methane (
CH4) is introduced
by hydrothermal synthesis of Ni-MOF-74 on mesoporous spherical Al2O3
carrier substrate. The material was characterized
and the shell thickness determined by means of optical and scanning electron microscopy as well as volumetric
adsorption and fluid displacement experiments. Kinetic experiments with Ni-MOF-74@Al2O3 core–shell composites carried
out at 303.15 K and at pressures up to 10 bar expose remarkably dominating uptake rates for CO2
over CH4.
In the
contrary Ni-MOF-74@Al2O3 appears to be unselective according to equilibrium data at the same conditions. Dynamic
breakthrough experiments of binary CH4/
CO2-mixtures (at 303.15 K and 5 bar) prove the prevailing effect of adsorption
kinetics and the storage function of the mesoporous core. This statement is supported by a considerable boost in
CO2-
selectivity and capacity compared to adsorption equilibria measured on pure Ni-MOF-74 by the factor of 55.02 and
up to 2.42, respectively.
One technique to describe the failure of mechanical structures is a phase field model for fracture. Phase field models for fracture consider an independent scalar field variable in addition to the mechanical displacement [1]. The phase field ansatz approximates crack surfaces as a continuous transition zone in which the phase field variable varies from a value that indicates intact material to another value that represents cracks. For a good approximation of cracks, these transition zones are required to be narrow, which leads to steep gradients in the fracture field. As a consequence, the required mesh density in a finite element simulation and thus the computational effort increases. In order to circumvent this efficiency problem, exponential shape functions were introduced in the discretization of the phase field variable, see [2]. Compared to the bilinear shape functions these special shape functions allow for a better approximation of the steep transition with less elements. Unfortunately, the exponential shape functions are not symmetric, which requires a certain orientation of elements relative to the crack surfaces. This adaptation is not uniquely determined and needs to be set up in the correct way in order to improve the approximation of smooth cracks. The issue is solved in this work by reorientating the exponential shape functions according to the nodal value of phase field gradient in a particular element. To be precise, this work discusses an adaptive algorithm that implements such a reorientation for 2d and 3d situations.
Auf dem Weg von der Lehrkraft in die Führungsebene an Bildungsinstitutionen wird ein Rollenwechsel durchlebt. Dieser Rollenwechsel bietet Chancen, fordert Veränderungen und stellt vor Herausforderungen. Welche dies im Detail sind und wie diese einzuordnen sind, ist Thema der Arbeit. Dabei wird aufgrund einer wissenschaftlichen Analyse systematisiert und soll den Leser*innen die Möglichkeit bieten sich mit den Anforderungen des Rollenwechsels vertraut zu machen sowie mögliche Hilfestellungen zu holen.
To assess ergonomic aspects of a (future) workplace already in the design phase where no physical prototypes exist, the use of digital human models (DHMs) becomes essential. Thereby, the prediction of human motions is a key aspect when simulating human work tasks. For ergonomic assessment e.g. the resulting postures, joint angles, the duration of the motion and muscle loads are important quantities. From a physical point of view, there is an infinite number of possible ways for a human to fulfill a given goal (trajectories, velocities...), which makes human motions and behavior hard to predict. A common approach used in state of the art commercial DHMs is the manual definition of joint angles by the user, which requires expert knowledge and is limited to postural assessments. Another way is to make use of pre-recorded motions from a real human that operates on a physical prototype, which limits assessments to scenarios which have been measured before. Both approaches need further post processing and inverse dynamics calculations with other software tools to get information about inner loads and muscle data, which leads to further uncertainties concerning validity of the simulated data.
In this thesis work a DHM control and validation framework is developed, which allows to investigate in how far the implemented human like actuation and control principles directly lead to human like motions and muscle actuations. From experiments performed in the motion laboratory, motion data is captured and muscle activations are measured using surface electromyography measurements (EMG). From the EMG data, time invariant muscle synergies are extracted by the use of a non-negative Matrix Factorization algorithm (NMF). Muscle synergies are one hypothesis from neuroscience to explain how the human central nervous system might reduce control complexity: instead of activating each muscle separately, muscles are grouped into functional units, whereas each muscle is present in each unit with a fixed amplitude. The measured experiment is then simulated in an optimal control framework. The used framework allows to build up DHMs as multibody system (MBS): bones are modeled as rigid bodies connected via joints, actuated by joint torques or by Hill type muscle models (1D string elements transferring fundamental characteristics of muscle force generation in humans). The OC code calculates the actuation signals for the modeled DHM in a way that a certain goal is fulfilled (e.g. reach for an object) while minimizing some cost function (e.g. minimizing time) and considering the side constraints that the equations of motion of the MBS are fulfilled. Therefore, three different Actuation Modes (AM) can be used (joint torques (AM-T), direct muscle actuation (AM-M) and muscle synergy actuation (AM-S), using the before extracted synergies as control parameters)). Simulation results are then compared with measured data, to investigate the influence of the different Actuation Modes and the solved OC cost function. The approach is applied to three different experiments, the basic reaching test, the weight lift test and a box lifting task, where a human arm model actuated by 29 Hill muscles is used for simulation. It is shown that, in contrast to a joint torque actuation (AM-T), using muscles as actuators (AM-M & AM-S) leads to very human like motion trajectories. Muscle synergies as control parameters, resulted in smoother velocity profiles, which were closer to those measured and appeared to be more robust, concerning the underlying muscle activation signals (compared to AM-M). In combination with a developed biomechanical cost function (a mix of different OC cost functions), the approach showed promising results, concerning the simulation of valid, human like motions, in a predictive manner.
Der intrinsisch chirale Ligand CpCH besteht aus einem Cyclopentadienkern und zwei benzannelierten Cycloheptatrienringen, deren sterische Abstoßung die beiden „Flügel“ des Ligandenrückgrates zu einer helicalen Anordnung zwingen. Im Rahmen dieser Arbeit wurden Derivate von CpCH mit sauerstofffunktionalisierten Seitenketten ausgehend von der Deprotonierung des Liganden und anschließender Umsetzung mit Epoxiden erhalten. Durch die Reaktion von (CpC)- mit enantiomerenreinem (R)-Propylenoxid gelang die Überführung des Liganden in diastereomere Alkoholderivate mit einem Diastereomerenüberschuss von 10 %. Des Weiteren wurden einfach und zweifach phosphanfunktionalisierte Derivate von CpCH synthetisiert. Die Reaktion dieser Liganden mit unterschiedlichen Vorstufen der späten und damit elektronenreichen Übergangsmetalle führte zu einer Reihe an Rhodium(I)-, Palladium(II)-, Gold(I)- und Ruthenium(II)komplexen mit potentiellem Einsatz in der Katalyse. Die fortsetzenden Arbeiten der direkten Reaktion von CpCH mit den basischen Dimethylamidovorstufen der zweiten Übergangsmetallreihe erlaubte den Abschluss der Arbeiten zu den Titan(IV)-, Zirkonium(IV)- und Hafnium(IV)komplexen der Struktur [(η5-CpC)M(NMe2)3]. Mit Hilfe des Thallium(I)-salzes von CpCH gelang die Übertragung des Liganden auf die späten Übergangsmetalle Ruthenium und Iridium. Der lichtinitiierte Ligandenaustausch der auf diesem Weg erhaltenen kationischen Ruthenium(II)arenkomplexe in Acetonitril führte zum entsprechenden Acetonitril-substituierten Komplex [(η5-CpC)Ru(CH3CN)3]PF6, der im Anschluss erfolgreich auf seine Aktivität in der Redoxisomerisierung allylischer Alkohole und Ligandenaustauschreaktionen mit zweizähnigen Phosphan-liganden untersucht wurde. Ausgehend von [(η5-CpC)Ru(η6-C8H8O2)]PF6 gelang die Synthese eines diastereomeren Amidkomplexes [(η5-CpC)Ru{η6-C6H5-(C=O)-NH-C8H9}]PF6 durch die direkte Aminolyse des koordinierenden Carbonsäureesters mit (R)-Methylbenzylamin. Des Weiteren wurde im Rahmen dieser Arbeit die Übertragung des von J.-Y. Chung erstmals erhaltenen Keton CpCO auf Triruthenium(0)dodekacarbonyl durchgeführt. Ausgehend von der Reaktion des isolierten Ruthenium(0)tricarbonylkomplexes mit 2-Propanol gelang die Isolierung eines neuartigen bimetallischen Hydridkomplexes, der im Anschluss erfolgreich auf eine Aktivität in der Oppenauer-Oxidation von Cholesterol und in der Redoxisomerisierung allylischer Alkohole getestet wurde. Neben des Erhaltens eines durch Autoxidation entstandenen Diepoxidderivates von CpCH, ergab die direkte Reaktion des Liganden mit Luftsauerstoff und Bengalrosa das erste cyclische Endoperoxid. Die Reaktion dieser Verbindung mit Aluminium(III)chlorid führte zu einem Umlagerungsprodukt bei dem, neben der Einführung einer Ketogruppe am zentralen Fünfring, zusätzlich eine [1,2]-Alkylwanderung innerhalb einer der beiden Cycloheptatrienringe des Liganden stattgefunden hat.
Ethernet has become an established communication technology in industrial automation. This was possible thanks to the tremendous technological advances and enhancements of Ethernet such as increasing the link-speed, integrating the full-duplex transmission and the use of switches. However these enhancements were still not enough for certain high deterministic industrial applications such as motion control, which requires cycle time below one millisecond and jitter or delay deviation below one microsecond. To meet these high timing requirements, machine and plant manufacturers had to extend the standard Ethernet with real-time capability. As a result, vendor-specific and non-IEEE standard-compliant "Industrial Ethernet" (IE) solutions have emerged.
The IEEE Time-Sensitive Networking (TSN) Task Group specifies new IEEE-conformant functionalities and mechanisms to enable the determinism missing from Ethernet. Standard-compliant systems are very attractive to the industry because they guarantee investment security and sustainable solutions. TSN is considered therefore to be an opportunity to increase the performance of established Industrial-Ethernet systems and to move forward to Industry 4.0, which require standard mechanisms.
The challenge remains, however, for the Industrial Ethernet organizations to combine their protocols with the TSN standards without running the risk of creating incompatible technologies. TSN specifies 9 standards and enhancements that handle multiple communication aspects. In this thesis, the evaluation of the use of TSN in industrial real-time communication is restricted to four deterministic standards: IEEE802.1AS-Rev, IEEE802.1Qbu IEEE802.3br and IEEE802.1Qbv. The specification of these TSN sub-standards was finished at an early research stage of the thesis and hardware prototypes were available.
Integrating TSN into the Industrial-Ethernet protocols is considered a substantial strategical challenge for the industry. The benefits, limits and risks are too complex to estimate without a thorough investigation. The large number of Standard enhancements makes it hard to select the required/appropriate functionalities.
In order to cover all real-time classes in the automation [9], four established Industrial-Ethernet protocols have been selected for evaluation and combination with TSN as well as other performance relevant communication features.
The objectives of this thesis are to
(1) Provide theoretical, simulation and experimental evaluation-methodologies for the timing performance analysis of the deterministic TSN-standards mentioned above. Multiple test-plans are specified to evaluate the performance and compatibility of early version TSN-prototypes from different providers.
(2) Investigate multiple approaches and deduce migration strategies to integrate these features into the established Industrial-Ethernet protocols: Sercos III, Profinet IRT, Profinet RT and Ethernet/IP. A scenario of coexistence of time-critical traffic with other traffic in a TSN-network proves that the timing performance for highly deterministic applications, e.g. motion-control, can only be guaranteed by the TSN scheduling algorithm IEEE802.1Qbv.
Based on a requirements survey of highly deterministic industrial applications, multiple network scenarios and experiments are presented. The results are summarized into two case studies. The first case study shows that TSN alone is not enough to meet these requirements. The second case study investigates the benefits of additional mechanisms (Gigabit link-speed, minimum cycle time modeling, frame forwarding mechanisms, frame structure, topology migration, etc.) in combination with the TSN features. An implementation prototype of the proposed system and a simulation case study are used for the evaluation of the approach. The prototype is used for the evaluation and validation of the simulation model. Due to given scalability constraints of the prototype (no cut-through functionalities, limited number of TSN-prototypes, etc…), a realistic simulation model, using the network simulation tool OMNEST / OMNeT++, is conducted.
The obtained evaluation results show that a minimum cycle time ≤1 ms and a maximum jitter ≤1 μs can be achieved with the presented approaches.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Clean silica surfaces have a high surface energy. In consequence, colliding silica nanoparticles will stick rather than bounce over a wide range of collision velocities. Often, however, silica surfaces are passivated by adsorbates, in particular water, which considerably reduce the surface energy. We study the effect of surface hydroxylation on silica nanoparticle collisions by atomistic simulation, using the REAX potential that allows for bond breaking and formation. We find that the bouncing velocity is reduced by more than an order of magnitude compared to clean nanoparticle collisions
Fibre reinforced polymers(FRPs) are one the newest and modern materials. In FRPs a light polymer matrix holds but weak polymer matrix is strengthened by glass or carbon fibres. The result is a material that is light and compared to its weight, very strong.\par
The stiffness of the resulting material is governed by the direction and the length of the fibres. To better understand the behaviour of FRPs we need to know the fibre length distribution in the resulting material. The classic method for this is ashing, where a sample of the material is burned and destroyed. We look at CT images of the material. In the first part we assumed that we have a full fibre segmentation, we can fit an a cylinder to each individual fibre. In this setting we identified two problems, sampling bias and censoring.\par
Sampling bias occurs since a longer fibre has a higher probability to be visible in the observation window. To solve this problem we used a reweighed fibre length distribution. The weight depends on the used sampling rule.\par
For the censoring we used an EM algorithm. The EM algorithm is used to get a Maximum Likelihood estimator in cases of missing or censored data.\par
For this setting we deduced conditions such that the EM algorithm converges to at least a stationary point of the underlying likelihood function. We further found conditions such that if the EM converges to the correct ML estimator, the estimator is consistent and asymptotically normally distributed.\par
Since obtaining a full fibre segmentation is hard we further looked in the fibre endpoint process. The fibre end point process can be modelled as a Neymann-Scott cluster process. Using this model we can find a formula for the reduced second moment measure for this process. We use this formula to get an estimator for the fibre length distribution.\par
We investigated all estimators using simulation studies. We especially investigated their performance in the case of non overlapping fibres.