Refine
Year of publication
- 2020 (277) (remove)
Document Type
- Article (113)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (159)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (277) (remove)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (50)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Die Regelung der Unternehmensnachfolge stellt die mittelständische Wirtschaft aktuell und zukünftig vor eine große Herausforderung. Neben Fragen der Finanzierung stellen dabei insbesondere Qualifikationsdefizite häufig Gründe für das Scheitern einer Unternehmensnachfolge dar. Vor diesem Hintergrund wurde zum Zwecke der genaueren Einschätzung der Potenziale und Anforderungen an ein mögliches Weiterbildungsangebot eine Bedarfsanalyse durchgeführt. Der vorliegende Arbeits- und Forschungsbericht dokumentiert dabei die verschiedenen Schritte: von dem Hintergrund und der Ausgangslage zur Idee, über die verschiedenen Bedarfserhebungen und -analysen zu den zentralen Ergebnissen und den daraus abzuleitenden Handlungsempfehlungen, welche die Grundlage zur weiteren Konzeptualisierung des Studienangebots bilden.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
In dieser Masterarbeit wird der Frage nachgegangen, wie Schulleiter und Schulleiterinnen an sonderpädagogischen Bildungs- und Beratungszentren ihre Führungsrolle im Kontext inklusiver Schulentwicklung verstehen. Artikel 24 der UN-Behindertenrechtskonvention (UN-BRK), die die Rechte von Menschen mit Behinderung stärkt und sich für die Entwicklung einer inklusiven Gesellschaft einsetzt, schreibt das Recht auf Bildung aller Menschen vor. D.h., dass Menschen mit Behinderung zukünftig nicht mehr vom allgemeinen Bildungssystem ausgeschlossen werden dürfen. Daraus ergibt sich für alle Schulen die Aufgabe, sich zu entwickeln: Für allgemeine Schulen bedeutet die Umsetzung der UN-BRK eine Entwicklung hin zu inklusiven Schulen. Für sonderpädagogische Bildungs- und Beratungszentren (SBBZen), früher Sonderschulen, bedeutet inklusive Schulentwicklung nicht nur eine Veränderung der Organisation, sondern ggf. auch die Auflösung bzw. Schließung einer Schule. Sonderpädagogische Expertise wird zukünftig vermehrt in den allgemeinen Schulen benötigt, was zur Folge hat, dass Lehrkräfte von SBBZen an allgemeine Schulen abgeordnet oder versetzt werden. Dies wiederum bedeutet eine immense Veränderung der SBBZen und ihrer Strukturen und damit auch eine immense Veränderung der Anforderungen an Führungspersonen, sprich Schulleitungen von SBBZen. Schulleiterinnen und Schulleiter nehmen bei solchen Veränderungsprozessen eine besondere und zentrale Rolle ein. Ihr Verständnis von und ihre innere Haltung zu Inklusion sind im Kontext von inklusiven Schulentwicklungsprozessen nach Auffassung der Autorin von zentraler Bedeutung und richtungsweisend für eine erfolgreiche oder auch erfolglose Entwicklung der Organisation Schule. Der Hypothese, dass das Verständnis von und die Haltung zu Inklusion das Führungsverständnis und auch die Art und Weise, wie geführt wird, beeinflussen, wird mittels der Methode leitfadengestützter Interviews nachgegangen. Im Theorieteil werden die Themen Schule, Schulentwicklung, Führung und Inklusion ausgeführt. Darüber hinaus wird der bisherige Forschungsstand dargelegt. Im empirischen Teil der Arbeit werden die Ergebnisse der Befragung dargestellt und hinsichtlich der zentralen Fragestellung diskutiert.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
Without actors, there is no action: How interpersonal interactions help to explain routine dynamics
(2020)
In this paper, we argue that it is important to gain a better understanding on how people interact with each other to explain routine dynamics. Thus, we propose to focus on the interpersonal interactions of actors which is not only the fact that actors interact with each other but that the manner and quality of these interactions is important to understand routine dynamics. By drawing on social exchange theory, we propose a framework that seeks to explain routine dynamics based on different relationships between actors. Building on this framework, we provide different process models indicating how routine performing and patterning is enacted due to the respective relationship of actors. Our insights contribute to research on routine dynamics by arguing (1) that actions of patterning are dependent on the relationship of actors; (2) that trust works as an enabler for creating new patterns of actions; (3) that distrust functions as an enhancer for interrupting and dissolving patterns of actions.
Dieser Arbeits- und Forschungsbericht beschreibt die Analyse der Wirkung der durch das Teil- projekt etablierten (Weiter-)Bildungsangebote an der Hochschule Kaiserslautern. Zu diesem Zweck wurden sowohl in der Programmentwicklung beteiligte Unternehmen als auch die Stu- dierenden, welche die entwickelten Angebote derzeit wahrnehmen, befragt. Ziel war es, unter anderem die Zielgruppenerreichung, einen Outcome sowie einen Impact messbar zu machen und zu analysieren. Aus den gewonnen Ergebnissen lassen sich Rückschlüsse auf die anvi- sierte Wirkung der (Weiter-)Bildungsangebote zum einen auf Studierende und zum anderen auf die in der Region ansässigen Unternehmen ziehen. Gleichzeitig wird der Bekanntheitsgrad der Hochschule Kaiserslautern als Bildungsträgerin analysiert und wichtige Erkenntnisse für die nachhaltige Qualitätssicherung der wissenschaftlichen (Weiter-)Bildung gezogen.
Whole-body electromyostimulation (WB-EMS) is an extension of the EMS application known in physical therapy. In WB-EMS, body composition and skinfold thickness seem to play a decisive role in influencing the Ohmic resistance and therefore the maximum intensity tolerance. That is why the therapeutic success of (WB-)EMS may depend on individual anatomical parameters. The aim of the study was to find out whether gender, skinfold thickness and parameters of body composition have an influence on the maximum intensity tolerance in WB-EMS. [Participants and Methods] Fifty-two participants were included in the study. Body composition (body impedance, body fat, fat mass, fat-free mass) and skinfold thicknesses were measured and set into relation to the maximum intensity tolerance. [Results] No relationship between the different anthropometric parameters and the maximum intensity tolerance was detected for both genders. Considering the individual muscle groups, no similarities were found in the results. [Conclusion] Body composition or skinfold thickness do not seem to have any influence on the maximum intensity tolerance in WB-EMS training. For the application in physiotherapy this means that a dosage of the electrical voltage within the scope of a (WB-) EMS application is only possible via the subjective feedback (BORG Scale).
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Die vorliegende Arbeit nimmt den Rahmen für den Transformationsprozess, in dem sich gegenwärtig die österreichische Schulaufsicht befindet, in den Blick indem sie
- Herausforderungen für die Aufgaben und die Rolle der Schulaufsicht, die durch gesellschaftliche Veränderungsprozesse und veränderte bildungspolitische Vorgaben entstanden sind, skizziert
- aus einem kurzen historischen Überblick heraus schulaufsichtliche Spannungsfelder identifiziert, die durch die gegenwärtige Reform der Schulaufsicht aufgelöst (oder zumindest abgeschwächt) werden sollen
- die aktuellen Rahmenbedingungen für schulaufsichtliche Tätigkeit (Schulautonomie und die Einführung der externen Schulevaluation) darstellt.
Auf dieser Grundlage, werden Perspektiven für die Entwicklung der Schulaufsicht in der Rolle als
- Vermittlerin und Verantwortungsträgerin hinsichtlich der Implementierung von Reformvorhaben,
- professionelle Unterstützerin bzw. Beraterin (im Kontext der Rechenschaftslegung eigenverantwortlicher Schulen und der in Österreich erst neu zu definierenden Arbeitsbeziehungen zur externen Schulevaluation) und
- strategische Führungskraft, die in supervidierender Form Schulleitungen einer Bildungsregion führt, vorgeschlagen.
Diese Perspektiven verstehen sich als ein Beitrag zur Diskussion, wie künftig Schulqualitätsmanager/innen ihre Rolle als Schulaufsichtsorgane entwickeln können. In Zeiten tiefgreifender Veränderungen, die auch eine beträchtliche Unsicherheit im Rollenbild ausgelöst haben, werden damit konkrete Vorschläge zur Entwicklung einer stabilen Rolle von Schulaufsichtspersonen vorgelegt.
Auf dem Weg von der Lehrkraft in die Führungsebene an Bildungsinstitutionen wird ein Rollenwechsel durchlebt. Dieser Rollenwechsel bietet Chancen, fordert Veränderungen und stellt vor Herausforderungen. Welche dies im Detail sind und wie diese einzuordnen sind, ist Thema der Arbeit. Dabei wird aufgrund einer wissenschaftlichen Analyse systematisiert und soll den Leser*innen die Möglichkeit bieten sich mit den Anforderungen des Rollenwechsels vertraut zu machen sowie mögliche Hilfestellungen zu holen.
VIPP proteins aid thylakoid biogenesis and membrane maintenance in cyanobacteria, algae, and plants. Some members of the Chlorophyceae contain two VIPP paralogs termed VIPP1 and VIPP2, which originate from an early gene duplication event during the evolution of green algae. VIPP2 is barely expressed under nonstress conditions but accumulates in cells exposed to high light intensities or H2O2, during recovery from heat stress, and in mutants with defective integration (alb3.1) or translocation (secA) of thylakoid membrane proteins. Recombinant VIPP2 forms rod-like structures in vitro and shows a strong affinity for phosphatidylinositol phosphate. Under stress conditions, >70% of VIPP2 is present in membrane fractions and localizes to chloroplast membranes. A vipp2 knock-out mutant displays no growth phenotypes and no defects in the biogenesis or repair of photosystem II. However, after exposure to high light intensities, the vipp2 mutant accumulates less HSP22E/F and more LHCSR3 protein and transcript. This suggests that VIPP2 modulates a retrograde signal for the expression of nuclear genes HSP22E/F and LHCSR3. Immunoprecipitation of VIPP2 from solubilized cells and membrane-enriched fractions revealed major interactions with VIPP1 and minor interactions with HSP22E/F. Our data support a distinct role of VIPP2 in sensing and coping with chloroplast membrane stress.
Defects change the phonon spectrum and also the magnetic properties of bcc-Fe. Using molecular dynamics simulation, the influence of defects – vacancies, dislocations, and grain boundaries – on the phonon spectra and magnetic properties of bcc-Fe is determined. It is found that the main influence of defects consists in a decrease of the amplitude of the longitudinal peak, PL, at around 37 meV. While the change in phonon spectra shows only little dependence on the defect type, the quantitative decrease of PL is proportional to the defect concentration. Local magnetic moments can be determined from the local atomic volumes. Again, the changes in the magnetic moments of a defective crystal are linear in the defect concentrations. In addition, the change of the phonon density of states and the magnetic moments under homogeneous uniaxial strain are investigated.
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
Validierung einer Farmer-Kammer für die Dosimetrie von Elektronenstrahlung mit geringer Reichweite
(2020)
In dieser Arbeit wurde die Auswirkung der Bezugspunktverschiebung [19, 20, 21, 22, 30, 31, 32, 36] des DIN-Entwurfes 6800-2 2016 bei Elektronenstrahlung, so-wie die Durchführbarkeit der Elektronen-Absolutdosimetrie mit Farmer-Kammern untersucht. Des Weiteren wurde der kE,R-Faktor für Farmerkammern bestimmt. Verwendet wurden vier Flachkammern unterschiedlicher Bauart (Roos-Kammer, Markus-Kammer, Advanced-Markus-Kammer der Firma PTW; PPC40-Kammer der Firma IBA) und drei Farmer-Kammer gleicher Bauart (PTW). Die Messungen wurden mit Elektronenenergien von 4 MeV bis 15 MeV durchgeführt.
In den aufgenommenen Tiefendosiskurven ist die Bezugspunktverschiebung (Δz) deutlich zu sehen. Die Kurven sind je nach Verschiebung parallel nach links (+Δz) oder rechts (-Δz) versetzt. Entsprechend verkürzt oder verlängert sich das Eintrittsfenster. Die sich dadurch veränderten Werte für die Halbwerttiefen der Ionendosis wirken sich widerrum auf die für die Absolutdosimetrie benötigten Referenztiefen zref aus. Diese Änderung der Messtiefe wird allerdings durch die neuen Formeln zur Berechnung der Halbwerttiefe der Wasser-Energiedosis nahezu egalisiert. Die neuen Berechnungsvorschriften für den Korrektionsfaktor zur Berücksichtigung des Einflusses der Strahlungsqualität der Elektronenstrahlung hin-gegen haben größere Auswirkungen auf die Dosiswerte.
Der kE,R-Faktor der Farmer-Kammern wurde durch einen Dosisvergleich mit der Roos-Kammer ermittelt. Der Mittelwert der Dosis aller drei Farmer-Kammern pro Energie wurde mit der Dosis der Roos-Kammer verglichen, der Unterschied als kE,R-Faktor bestimmt. Zusätzlich wurde das Verhalten der Farmer-Kammer bei der Absolutdosimetrie mit Elektronenstrahlung betrachtet. Hierbei wurde eine hohe Stabilität sowohl in den Tiefendosiskurven als auch in der Absolutdosimetrie deutlich, sodass die Farmer-Kammer der Firma PTW als für die Absolutdosimetrie mit Elektronenstrahlung < 10 MeV geeignet eingestuft wird.
Mobile devices (smartphones or tablets) as experimental tools (METs) offer inspiring possibilities for science education, but until now, there has been little research studying this approach. Previous research indicated that METs have positive effects on students’ interest and curiosity. The present investigation focuses on potential cognitive effects of METs using video analyses on tablets to investigate pendulum movements and an instruction that has been used before to study effects of smartphones’ acceleration sensors. In a quasi-experimental repeated-measurement design, a treatment group uses METs (TG, NTG = 23) and a control group works with traditional experimental tools (CG, NCG = 28) to study the effects on interest, curiosity, and learning achievement. Moreover, various control variables were taken into account. We suppose that pupils in the TG have a lower extraneous cognitive load and higher learning achievement than those in the CG working with traditional experimental tools. ANCOVAs showed significantly higher levels of learning achievement in the TG (medium effect size). No differences were found for interest, curiosity, or cognitive load. This might be due to a smaller material context provided by tablets, in comparison to smartphones, as more pupils possess and are familiar with smartphones than with tablets. Another reason for the unchanged interest might be the composition of the sample: While previous research showed that especially originally less-interested students profited most from using METs, the current sample contained only specialized courses, i.e., students with a high original interest, for whom the effect of METs on their interest is presumably smaller.
Untersuchungen zur Struktur und Spezifität der Phycobiliproteinlyase CPES aus Guillardia theta
(2020)
Cryptophyten verwenden neben Chlorophyll zusätzliche Lichtsammelproteine für die Photo-synthese – die Phycobiliproteine (PBP). In Cyanobakterien, Rotalgen und Glaukophyten sind PBP ebenfalls ubiquitär verbreitet. Für den Zweck der Lichtsammlung tragen die PBP- Untereinheiten kovalent gebundene offenkettige Tetrapyrrol-Chromophore an konservierten Cysteinresten. Diese Phycobiline sind in der Lage, grünes Licht zu absorbieren und es für die Photosynthese zur Verfügung zu stellen. Die Fähigkeit zur Photosynthese erlangten Crypto-phyten bei der sekundären Endosymbiose durch Aufnahme einer früheren Rotalge. Die evolutionäre Entwicklung brachte schließlich modifizierte PBP hervor. In Gegensatz zu ande-ren Organismen liegen die PBP in Cryptophyten in löslicher Form im Thylakoidlumen des Plastiden vor. Cryptophyten besitzen lediglich einen Typ an PBP, Guillardia theta verwendet Phycoerythrin PE545. Die α-Untereinheiten sind jeweils mit einem Molekül 15,16-Dihydrobi-liverdin (DHBV) und die β-Untereinheiten mit drei Molekülen Phycoerythrobilin (PEB) chromophoryliert. Die Chromophorylierung cryptophytischer Apo-PBP ist bisher wenig un-tersucht und verstanden. Aus Cyanobakterien ist jedoch bekannt, dass die Chromophorylie-rung häufig mit Hilfe von Phycobiliproteinlyasen (PBP Lyasen) stattfindet, welche die Phyco-bilinübertragung unterstützen.
In der vorliegenden Arbeit erfolgte die funktionelle Charakterisierung der eukaryotischen S-Typ-PBP Lyase GtCPES aus G. theta. Mittels Fluoreszenzspektroskopie und Zink-induzierter Fluoreszenz konnte gezeigt werden, dass GtCPES den Transfer von 3(Z)-PEB auf Cys82 der PBP-β-Untereinheit aus Prochlorococcus marinus MED4 (PmCpeB) vermittelt. An der PEB-Bindung sowie am -Transfer beteiligte Aminosäuren wurden mit Hilfe Zielgerichteter Muta-genese identifiziert. Anhand spektroskopischer Binde- und Transferstudien mit den Protein-varianten wurden drei Aminosäuren in der Ligandenbindetasche ermittelt, die relevant für die Bindung sind (Trp69, Glu136, Glu168). Diese koordinieren vermutlich PEB in der Bindetasche und stabilisieren somit die Konformation. Zusätzlich konnten zwei im PEB-Transfer involvierte Aminosäuren eindeutig identifiziert werden (Trp75, Ser150). Trp75 kommt dabei eine essenzielle Bedeutung für den Transfer zu. Des Weiteren konnte gezeigt werden, dass Met67 für die auf PEB und DHBV beschränkte Substratspezifität von GtCPES verantwortlich ist. Die Variante GtCPES_M67A bindet sowohl PEB als auch das rigide Phycocyanobilin (PCB) stabil unter Bildung eines farbigen Komplexes in vitro und in vivo in Escherichia coli. GtCPES_M67A scheint zudem in der Lage zu sein, PCB auf geeignete Apo-Proteine zu transfe-rieren. Neben der sterischen und elektrostatischen Umgebung entscheidet damit zusätzlich die Substratspezifität der PBP Lyase über die gebundenen Chromophore am PBP.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
Erstmalig wurde Synchrotron-basierte nukleare inelastische Streuung (NIS) unter Nutzung des Mößbauer-Isotops 161Dy für die Untersuchung der vibronischen Eigenschaften eines DyIII-basierten Einzelmolekülmagneten, [Dy(Cy3PO)2(H2O)5]Br3⋅2 (Cy3PO)⋅2 H2O⋅2 EtOH, eingesetzt. Die experimentelle partielle Phononen-Zustandsdichte, die alle Schwingungen mit einer Auslenkung des DyIII-Ions enthält, wurde mit Hilfe von auf Dichtefunktionaltheorie (DFT) basierenden Simulationen reproduziert, was die Zuordnung aller intramolekularen Schwingungsmoden des Moleküls ermöglicht. Diese Studie zeigt, dass 161Dy-NIS als eine experimentelle Methode ein hohes Potential besitzt, um zur Klärung der Rolle von Phononen in Einzelmolekülmagneten beizutragen.
Zur Reduktion von Kavitation am Eintritt des Laufrades einer Strömungsmaschine
finden häufig Inducer Anwendung. Hierbei handelt es sich um ein axiales Laufrad,
bei dem nur ein minimaler Druckaufbau stattfindet. Inducer sind Gegenstand der
hier vorliegenden Forschungsfragen. Basierend auf der zurzeit verfügbaren Literatur
sind zwei Arbeitshypothesen aufgestellt und untersucht. Die Hypothesen lauten
wie folgt:
1) Die Strömung im Bereich der Nabe ist abgelöst.
2) Die axiale Länge der Inducer kann verringert werden.
Die detaillierte Untersuchung der Hypothesen erfolgt durch instationäre Simulationen,
durchgeführt mit Ansys CFX in der Version 17.2. Gelöst werden hier
die Reynolds-gemittelten Navier-Stokes-Gleichungen. Um relevante Sekundärströmungseffekte
erfassen zu können, wird für die Modellierung des Reynolds-Spannungs-
Tensors der RANS Gleichungen ein Reynolds-Spannungs-Modell verwendet.
Hiermit ist eine detailliertere Modellierung physikalischer Effekte möglich. Um die
wandnahen Effekte der Strömungsablösung durch eine Strömungssimulation geeignet
abbilden zu können, wird auf eine passende Auflösung des Bereichs der
Grenzschicht geachtet. Zur Reduzierung der Fehler die sich aus der numerischen
Abbildung der realen Strömungszustände ergeben sind Voruntersuchungen bei den
Simulationen durchgeführt. Validiert werden die so generierten numerischen Ergebnisse
mittels instationärer und stationärer Messungen des statischen Drucks,
des Totaldrucks und des Strömungswinkels. Anstrichbilder basierend auf Ölfarbe
ermöglichen es die Stromlinien auf der Wand zu validieren und somit Ablösung
an der Nabe numerisch plausibel darzustellen. Somit ist sichergestellt, dass die
numerischen Ergebnisse die realen Strömungszustände bestmöglich abbilden. Alle
Untersuchungen erfolgen ohne den Einfluss von Kavitation und für Inducer mit unterschiedlich
gestalteten Vorderkanten der Schaufeln. Grundlagenwissen über die
Strömung an der Nabe, die entstehenden Verluste und den Einfluss auf die Strömungszustände
in der Auslaufstrecke liegt somit vor.
Basierend auf diesen Ergebnissen können weitere Untersuchungen erfolgen, um die
Verluste zu reduzieren und die Verteilung von Druck, Geschwindigkeit und Winkel
entlang der radialen Position in der Auslaufstrecke des Inducers homogener zu
gestalten. Die axiale Baulänge und deren mögliche Reduktion sind unmittelbar
mit einer Einsparung von Bauraum und Kosten verbunden. Basierend auf den hier
generierten Grundlagen ist ein Ansatz zur korrekten Dimensionierung der axialen
Länge bzw. des Umschlingungswinkels gegeben.
The Griffith-Ley oxidation of alcohols to aldehydes and ketones is performed with either RuCl3 ⋅ (H2O)x or a highly stable, well-defined ruthenium catalyst and with cheap trimethylamine N-oxide (TMAO) as the oxygen source. The use of n-heptane as the solvent, which forms a second phase with TMAO and a part of the alcohol, allows the reactions to be performed with a minimum amount of catalyst. This results in high local concentrations and thus to very rapid conversions. Detailed quantum chemical calculations suggest, that the Griffith-Ley oxidation not necessarily requires high oxidation states of ruthenium but can also proceed with RuII/RuIV species.
Existentialist philosophy offers an understanding of how trying to eliminate ambiguities that inevitably mark the human condition only seemingly leads to freedom. This existentialist outlook can also serve to shed light on how democratic politics may similarly show tendencies which aim at overcoming immanent tensions. Such tendencies in democratic politics can be clarified using Sartre’s notion of ignorance – and truth as its counterpart. His concept of ignorance goes beyond merely facts or knowledge and refers to a mode of being. It expresses a subject’s desire to avoid, rather than confront, resistances stemming from the world. Based on a distinction of different forms in which this orientation can manifest itself, this article shows how democratic politics, too, can be threatened by ignorance as a way of doing politics. This ignorance comes in different guises which all express a desire to eliminate tensions that democratic politics cannot overcome without undermining itself.
To assess ergonomic aspects of a (future) workplace already in the design phase where no physical prototypes exist, the use of digital human models (DHMs) becomes essential. Thereby, the prediction of human motions is a key aspect when simulating human work tasks. For ergonomic assessment e.g. the resulting postures, joint angles, the duration of the motion and muscle loads are important quantities. From a physical point of view, there is an infinite number of possible ways for a human to fulfill a given goal (trajectories, velocities...), which makes human motions and behavior hard to predict. A common approach used in state of the art commercial DHMs is the manual definition of joint angles by the user, which requires expert knowledge and is limited to postural assessments. Another way is to make use of pre-recorded motions from a real human that operates on a physical prototype, which limits assessments to scenarios which have been measured before. Both approaches need further post processing and inverse dynamics calculations with other software tools to get information about inner loads and muscle data, which leads to further uncertainties concerning validity of the simulated data.
In this thesis work a DHM control and validation framework is developed, which allows to investigate in how far the implemented human like actuation and control principles directly lead to human like motions and muscle actuations. From experiments performed in the motion laboratory, motion data is captured and muscle activations are measured using surface electromyography measurements (EMG). From the EMG data, time invariant muscle synergies are extracted by the use of a non-negative Matrix Factorization algorithm (NMF). Muscle synergies are one hypothesis from neuroscience to explain how the human central nervous system might reduce control complexity: instead of activating each muscle separately, muscles are grouped into functional units, whereas each muscle is present in each unit with a fixed amplitude. The measured experiment is then simulated in an optimal control framework. The used framework allows to build up DHMs as multibody system (MBS): bones are modeled as rigid bodies connected via joints, actuated by joint torques or by Hill type muscle models (1D string elements transferring fundamental characteristics of muscle force generation in humans). The OC code calculates the actuation signals for the modeled DHM in a way that a certain goal is fulfilled (e.g. reach for an object) while minimizing some cost function (e.g. minimizing time) and considering the side constraints that the equations of motion of the MBS are fulfilled. Therefore, three different Actuation Modes (AM) can be used (joint torques (AM-T), direct muscle actuation (AM-M) and muscle synergy actuation (AM-S), using the before extracted synergies as control parameters)). Simulation results are then compared with measured data, to investigate the influence of the different Actuation Modes and the solved OC cost function. The approach is applied to three different experiments, the basic reaching test, the weight lift test and a box lifting task, where a human arm model actuated by 29 Hill muscles is used for simulation. It is shown that, in contrast to a joint torque actuation (AM-T), using muscles as actuators (AM-M & AM-S) leads to very human like motion trajectories. Muscle synergies as control parameters, resulted in smoother velocity profiles, which were closer to those measured and appeared to be more robust, concerning the underlying muscle activation signals (compared to AM-M). In combination with a developed biomechanical cost function (a mix of different OC cost functions), the approach showed promising results, concerning the simulation of valid, human like motions, in a predictive manner.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Introducing parallelism and exploring its use is still a fundamental challenge for the computer algebra community. In high-performance numerical simulation, on the other hand, transparent environments for distributed computing which follow the principle of separating coordination and computation have been a success story for many years. In this paper, we explore the potential of using this principle in the context of computer algebra. More precisely, we combine two well-established systems: The mathematics we are interested in is implemented in the computer algebra system SINGULAR, whose focus is on polynomial computations, while the coordination is left to the workflow management system GPI-Space, which relies on Petri nets as its mathematical modeling language and has been successfully used for coordinating the parallel execution (autoparallelization) of academic codes as well as for commercial software in application areas such as seismic data processing. The result of our efforts is a major step towards a framework for massively parallel computations in the application areas of SINGULAR, specifically in commutative algebra and algebraic geometry. As a first test case for this framework, we have modeled and implemented a hybrid smoothness test for algebraic varieties which combines ideas from Hironaka’s celebrated desingularization proof with the classical Jacobian criterion. Applying our implementation to two examples originating from current research in algebraic geometry, one of which cannot be handled by other means, we illustrate the behavior of the smoothness test within our framework and investigate how the computations scale up to 256 cores.
Background: The use of health apps to support the treatment of chronic pain is gaining importance. Most available pain management apps are still lacking in content quality and quantity as their developers neither involve health experts to ensure target group suitability nor use gamification to engage and motivate the user. To close this gap, we aimed to develop a gamified pain management app, Pain-Mentor.
Objective: To determine whether medical professionals would approve of Pain-Mentor’s concept and content, this study aimed to evaluate the quality of the app’s first prototype with experts from the field of chronic pain management and to discover necessary improvements.
Methods: A total of 11 health professionals with a background in chronic pain treatment and 2 mobile health experts participated in this study. Each expert first received a detailed presentation of the app. Afterward, they tested Pain-Mentor and then rated its quality using the mobile application rating scale (MARS) in a semistructured interview.
Results: The experts found the app to be of excellent general (mean 4.54, SD 0.55) and subjective quality (mean 4.57, SD 0.43). The app-specific section was rated as good (mean 4.38, SD 0.75). Overall, the experts approved of the app’s content, namely, pain and stress management techniques, behavior change techniques, and gamification. They believed that the use of gamification in Pain-Mentor positively influences the patients’ motivation and engagement and thus has the potential to promote the learning of pain management techniques. Moreover, applying the MARS in a semistructured interview provided in-depth insight into the ratings and concrete suggestions for improvement.
Conclusions: The experts rated Pain-Mentor to be of excellent quality. It can be concluded that experts perceived the use of gamification in this pain management app in a positive manner. This showed that combining pain management with gamification did not negatively affect the app’s integrity. This study was therefore a promising first step in the development of Pain-Mentor.
Cell division and cell elongation are fundamental processes for growth. In contrast to animal cells, plant cells are surrounded by rigid walls and therefore loosening of the wall is required during elongation. On the other hand, vacuole size has been shown to correlate with cell size and inhibition of vacuolar expansion limits cell growth. However, the specific role of the vacuole during cell elongation is still not fully resolved. Especially the question whether the vacuole is the leading unit during cellular growth or just passively expands upon water uptake remains to be answered. Here, we review recent findings about the contribution of the vacuole to cell elongation. In addition, we also discuss the connection between cell wall status and vacuolar morphology. In particular, we focus on the question whether vacuolar size is dictated by cell size or vice versa and share our personnel view about the sequential steps during cell elongation.
Ethernet has become an established communication technology in industrial automation. This was possible thanks to the tremendous technological advances and enhancements of Ethernet such as increasing the link-speed, integrating the full-duplex transmission and the use of switches. However these enhancements were still not enough for certain high deterministic industrial applications such as motion control, which requires cycle time below one millisecond and jitter or delay deviation below one microsecond. To meet these high timing requirements, machine and plant manufacturers had to extend the standard Ethernet with real-time capability. As a result, vendor-specific and non-IEEE standard-compliant "Industrial Ethernet" (IE) solutions have emerged.
The IEEE Time-Sensitive Networking (TSN) Task Group specifies new IEEE-conformant functionalities and mechanisms to enable the determinism missing from Ethernet. Standard-compliant systems are very attractive to the industry because they guarantee investment security and sustainable solutions. TSN is considered therefore to be an opportunity to increase the performance of established Industrial-Ethernet systems and to move forward to Industry 4.0, which require standard mechanisms.
The challenge remains, however, for the Industrial Ethernet organizations to combine their protocols with the TSN standards without running the risk of creating incompatible technologies. TSN specifies 9 standards and enhancements that handle multiple communication aspects. In this thesis, the evaluation of the use of TSN in industrial real-time communication is restricted to four deterministic standards: IEEE802.1AS-Rev, IEEE802.1Qbu IEEE802.3br and IEEE802.1Qbv. The specification of these TSN sub-standards was finished at an early research stage of the thesis and hardware prototypes were available.
Integrating TSN into the Industrial-Ethernet protocols is considered a substantial strategical challenge for the industry. The benefits, limits and risks are too complex to estimate without a thorough investigation. The large number of Standard enhancements makes it hard to select the required/appropriate functionalities.
In order to cover all real-time classes in the automation [9], four established Industrial-Ethernet protocols have been selected for evaluation and combination with TSN as well as other performance relevant communication features.
The objectives of this thesis are to
(1) Provide theoretical, simulation and experimental evaluation-methodologies for the timing performance analysis of the deterministic TSN-standards mentioned above. Multiple test-plans are specified to evaluate the performance and compatibility of early version TSN-prototypes from different providers.
(2) Investigate multiple approaches and deduce migration strategies to integrate these features into the established Industrial-Ethernet protocols: Sercos III, Profinet IRT, Profinet RT and Ethernet/IP. A scenario of coexistence of time-critical traffic with other traffic in a TSN-network proves that the timing performance for highly deterministic applications, e.g. motion-control, can only be guaranteed by the TSN scheduling algorithm IEEE802.1Qbv.
Based on a requirements survey of highly deterministic industrial applications, multiple network scenarios and experiments are presented. The results are summarized into two case studies. The first case study shows that TSN alone is not enough to meet these requirements. The second case study investigates the benefits of additional mechanisms (Gigabit link-speed, minimum cycle time modeling, frame forwarding mechanisms, frame structure, topology migration, etc.) in combination with the TSN features. An implementation prototype of the proposed system and a simulation case study are used for the evaluation of the approach. The prototype is used for the evaluation and validation of the simulation model. Due to given scalability constraints of the prototype (no cut-through functionalities, limited number of TSN-prototypes, etc…), a realistic simulation model, using the network simulation tool OMNEST / OMNeT++, is conducted.
The obtained evaluation results show that a minimum cycle time ≤1 ms and a maximum jitter ≤1 μs can be achieved with the presented approaches.
Endocytosis of the amyloid precursor protein (APP) is critical for generation of β-amyloid, aggregating in Alzheimer's disease. APP endocytosis depending on the intracellular NPTY motif is well investigated, whereas involvement of the YTSI (also termed BaSS) motif remains controversial. Here, we show that APP lacking the YTSI motif (ΔYTSI) displays reduced localization to early endosomes and decreased internalization rates, similar to APP ΔNPTY. Additionally, we show that the YTSI-binding protein, PAT1a interacts with the Rab5 activator RME-6, as shown by several independent assays. Interestingly, knockdown of RME-6 decreased APP endocytosis, whereas overexpression increased the same. Similarly, APP ΔNPTY endocytosis was affected by PAT1a and RME-6 overexpression, whereas APP ΔYTSI internalization remained unchanged. Moreover, we could show that RME-6 mediated increase of APP endocytosis can be diminished upon knocking down PAT1a. Together, our data identify RME-6 as a novel player in APP endocytosis, involving the YTSI-binding protein PAT1a.
The development of a power system based on high shares of renewable energy sources puts high demands on power grids and the remaining controllable power generation plants, load management and the storage of energy. To reach climate protection goals and a significant reduction of CO2, surplus energies from fluctuating renewables have to be used to defossilize not only the power production sector but the mobility, heat and industry sectors as well, which is called sector coupling. In this article, the role of wastewater treatment plants by means of sector coupling is pictured, discussed and evaluated. The results show significant synergies—for example, using electrical surplus energy to produce hydrogen and oxygen with an electrolyzer to use them for long-term storage and enhancing purification processes on the wastewater treatment plant (WWTP). Furthermore, biofuels and storable methane gas can be produced or integrate the WWTP into a local heating network. An interconnection in many fields of different research sectors are given and show that a practical utilization is possible and reasonable for WWTPs to contribute with sustainable energy concepts to defossilization.
Employing site-directed spin labeling (SDSL), the structure of maltose-binding protein (MBP) had previously been studied in the native state by electron paramagnetic resonance (EPR) spectroscopy. Several spin-labeled double cysteine mutants were distributed all over the structure of this cysteine-free protein and revealed distance information between the nitroxide residues from double electron–electron resonance (DEER). The results were in good agreement with the known X-ray structure. We have now extended these studies to the molten globule (MG) state, a folding intermediate, which can be stabilized around pH 3 and that is characterized by secondary but hardly any tertiary structure. Instead of clearly defined distance features as found in the native state, several additional characteristics indicate that the MG structure of MBP contains different polypeptide chain and domain orientations. MBP is also known to bind its substrate maltose even in MG state although with lower affinity. Additionally, we have now created new mutants allowing for spin labeling at or near the active site. Our data confirm an already preformed ligand site structure in the MG explaining its substrate binding capability and thus most probably serving as a nucleation center for the final native structure.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Much reading research has found that informative parafoveal masks lead to a reading benefit for native speakers (see, Schotter et al., 2012). However, little reading research has tested the impact of uninformative parafoveal masks during reading. Additionally, parafoveal processing research is primarily restricted to native speakers. In the current study we manipulated the type of uninformative preview using a gaze contingent boundary paradigm with a group of L1 English speakers and a group of late L2 English speakers (L1 German). We were interested in how different types of uninformative masks impact on parafoveal processing, whether L1 and L2 speakers are similarly impacted, and whether they are sensitive to parafoveally viewed language-specific sub-lexical orthographic information. We manipulated six types of uninformative masks to test these objectives: an Identical, English pseudo-word, German pseudo-word, illegal string of letters, series of X’s, and a blank mask. We found that X masks affect reading the most with slight graded differences across the other masks, L1 and L2 speakers are impacted similarly, and neither group is sensitive to sub-lexical orthographic information. Overall these data show that not all previews are equal, and research should be aware of the way uninformative masks affect reading behavior. Additionally, we hope that future research starts to approach models of eye-movement behavior during reading from not only a monolingual but also from a multilingual perspective.
Intermetallische Verbindungen stellen eine relativ neue Gruppe heterogener Katalysatoren dar. Durch die Bildung von Kristallstrukturen und die damit einhergehende Änderung elektronischer und geometrischer Strukturen handelt es sich nicht einfach um Dotierungen von bestehenden Systemen, man kann viel mehr von "neuen Elementen" für die Katalyse sprechen. Jede Kombination hat ihre eigenen Eigenschaften und damit ungeahntes Potential für katalytische Anwendungen.
Eine Gruppe intermetallischer Verbindungen stellen Heusler-Phasen dar. Diese Untergruppe der intermetallischen Phasen zeigt sich im Feld der Katalyse als unbeschriebenes Blatt, ist in Anwendungen der Physik aber schon ein etabliertes System. Heusler-Verbindungen weisen die Zusammensetzung X2YZ auf, die Elemente X und Y sind in der Regel Übergangsmetalle während das Z Element aus der III. – V. Hauptgruppe stammt. Es handelt sich um ein kubisches Gitter der Raumgruppe Fm3 ̅m (Nr. 225) mit Cu2MnAl als Strukturtyp bestimmende Verbindung und der Strukturberichte Bezeichnung L21.
Ziel dieser Arbeit war es, SiO2 geträgerte Materialien basierend auf einer Heusler-Phase zu synthetisieren und diese auf ihre katalytische Aktivität in Modellreaktionen zu testen. Zunächst wurde eine Reihe von Verbindungen mit der Einsatzstöchiometrie X2YZ über Co Imprägnierung hergestellt. Bei allen Materialen wurde Cu als X-Element gewählt. Die Y-Position wurde mit den Elementen Ce, Co, Fe, La, Mn, Ni und Ti besetzt, während die Z-Position durch die Elemente Al, Ga, In, Sb, Si und Sn besetzt wurde. Aus den gewählten Zusammensetzungen ergaben sich 42 verschiedene Materialien. Über Röntgenbeugung wurden die fünf Kombinationen Cu2CoSn, Cu2FeSn, Cu2LaIn, Cu2NiSn2 und Cu2TiIn (jeweils 30 Gew.% auf SiO2) als aussichtsreichste Materialien bestimmt.
Mit Modellsubstanzen aus dem Bereich der Alkine (2-Hexin), der Aromaten (Benzol), der Aldehyde (Aceton) und der α, β ungesättigten Aldehyde (Citral, Citronellal, Zimtaldehyd und Furfural) wurde die höchste katalytische Aktivität an dem Material 30 Gew. % Cu2NiSn/SiO2 erzielt. Für dieses Material wurde eine Optimierung der Synthese angestrebt. Als wichtigster Parameter zur Ausbildung einer nanopartikulären Heusler-Phase in der nasschemischen Synthese stellte sich der Metallgehalt auf dem Träger heraus. Die drei Charakterisierungsmethoden N2 Physisorption, XRD und TEM zeigten, dass es möglich ist, die Heusler-Phase 10 Gew. % Cu2NiSn/SiO2 über den nasschemischen Weg als nanopartikuläres Material herzustellen.
Die katalytischen Eigenschaften dieses Materials wurden anhand der Modellsubstanz Zimtaldehyd umfassend untersucht sowie vergleichend mono- und bimetallische Materialien basierend auf den drei Metallen Cu, Ni und Sn herangezogen. Mit der Heusler Phase 10 Gew. % Cu2NiSn/SiO2 wurde bei einer Reaktionstemperatur von 150 °C nach 5 h ein Umsatz von 67 % mit einer Selektivität von 49 % zu Zimtalkohol erzielt, während das thermodynamisch begünstige Produkt Hydrozimtaldehyd mit einer Selektivität von lediglich 30 % gebildet wurde. Die Heusler Verbindung weist die höchste Chemoselektivität zu Zimtalkohol aller in dieser Arbeit getesteten Systeme auf. Während die Aktivität des in dieser Arbeit entwickeltem Heusler-Materials Cu2NiSn/SiO2 geringer ist, können mit der Literatur vergleichbare Selektivitäten zu Zimtalkohol erreicht werden. Die Ergebnisse zur chemoselektiven Hydrierung eines nasschemisch hergestellten Materials zeigen somit die Vielseitigkeit und das große Potential von intermetallischen Heusler Verbindungen in der heterogenen Katalyse.
In response priming experiments, a participant has to respond as quickly and as accurately as possible to a target stimulus preceded by a prime. The prime and the target can either be mapped to the same response (consistent trial) or to different responses (inconsistent trial). Here, we investigate the effects of two sequential primes (each one either consistent or inconsistent) followed by one target in a response priming experiment. We employ discrete-time hazard functions of response occurrence and conditional accuracy functions to explore the temporal dynamics of sequential motor activation. In two experiments (small-N design, 12 participants, 100 trials per cell and subject), we find that (1) the earliest responses are controlled exclusively by the first prime if primes are presented in quick succession, (2) intermediate responses reflect competition between primes, with the second prime increasingly dominating the response as its time of onset is moved forward, and (3) only the slowest responses are clearly controlled by the target. The current study provides evidence that sequential primes meet strict criteria for sequential response activation. Moreover, it suggests that primes can influence responses out of a memory buffer when they are presented so early that participants are forced to delay their responses.
Die Arbeit beschäftigt sich zunächst damit, was Schulentwicklung umfasst, welche Rolle die Teamentwicklung spielt und welche zentrale Stellung die Schulleitung, allen voran die Schulleiterin bzw. der Schulleiter, hierbei innehat. Daran anschließend wird konkret auf die Besonderheiten der Gemeinschaftsschule in Baden-Württemberg eingegangen und die damit verbundenen Herausforderungen für eine positive Schulentwicklung betrachtet. Abschließend wird die Frage beantwortet, wie die Schulleitung Teamentwicklung an einer Gemeinschaftsschule für eine positive Schulentwicklung initiieren, fördern, begleiten und implementieren kann. Die Ergebnisse münden in einer Handreichung für Schulleitungen an Gemeinschaftsschulen.
Colorectal cancer (CRC) is among the most frequent cancer entities worldwide. Multiple factors are causally associated with CRC development, such as genetic and epigenetic alterations,
inflammatory bowel disease, lifestyle and dietary factors. During malignant transformation,the cellular energy metabolism is reprogrammed in order to promote cancer cell growth and
proliferation. In this review, we first describe the main alterations of the energy metabolism found in CRC, revealing the critical impact of oncogenic signaling and driver mutations in key metabolic
enzymes. Then, the central role of mitochondria and the tricarboxylic acid (TCA) cycle in this process is highlighted, also considering the metabolic crosstalk between tumor and stromal cells in the
tumor microenvironment. The identified cancer-specific metabolic transformations provided new therapeutic targets for the development of small molecule inhibitors. Promising agents are in clinical
trials and are directed against enzymes of the TCA cycle, including isocitrate dehydrogenase, pyruvate dehydrogenase kinase, pyruvate dehydrogenase complex (PDC) and α-ketoglutarate dehydrogenase
(KGDH). Finally, we focus on the α-lipoic acid derivative CPI-613, an inhibitor of both PDC and KGDH, and delineate its anti-tumor effects for targeted therapy.
Die Gefährdungsbeurteilung der psychischen Belastung (Psych GB) birgt auf den Ebenen Organisation, Team und Individuum ein bisher wenig genutztes Potenzial für Organisationen. Nicht nur die gesetzlichen Vorgaben werden erfüllt, sondern zusätzliches Entwicklungspotenzial zur gesunden und agilen Organisationsentwicklung erschlossen. Es werden u.a. Rückkopplungseffekte für die Kommunikation und Führung im Zusammenhang mit VUCA sowie eine resiliente Organisationskultur behandelt.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
Spin-crossover and valence tautomeric complexes are of tremendous interest in the field of molecular electronics, electronic storage devices and information processing. Herein, synthesis and characterization of the spin-crossover and valence tautomeric cobalt dioxolene complexes are reported. All the synthesized complexes contain N,N'-di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4tBu2) as ancillary ligands. Only various types of co-ligands which are different dioxolene ligands, have been used. The mononuclear cobalt dioxolene complexes have been synthesized by using dideprotonated form of the dioxolene ligand 4,5-dichlorocatechol (H2DCCat) as co-ligands, and the cobalt bis(dioxolene) complexes have been synthesized by using dideprotonated form of the 3,3'-dihydroxy-diphenoquinone-(4,4') (H2(SQ-SQ)) as co-ligands.
Analytically pure samples of the complexes [Co(L-N4tBu2)(DCCat)] (1), [Co(L-N4tBu2)(DCCat)](BPh4) (2b), [Co2(L-N4tBu2)2(SQ-SQ)](BPh4)2.4 DMF (3b), [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d), have been synthesized and characterized by X-ray crystallography, magnetic and electrochemical measurements. The complexes have been investigated by UV/Vis/NIR-, IR-, and NMR spectroscopic measurements.
The complex [Co(L-N4tBu2)(DCCat)] (1) shows temperature invariant high-spin cobalt(II) catecholate state. One-electron oxidation of 1 has yielded the complex [Co(L-N4tBu2)(DCCat)](BPh4) (2b). The solid state properties of 2b are best described by the low-spin cobalt(III) catecholate state, but the solution state properties of the complex 2b are best described by the valence tautomeric transition from the low-spin cobalt(III) catecholate to the low-spin cobalt(II) semiquinonate state.
For the cobalt bis(dioxolene) complexes, it is found that spin-crossover for the two cobalt(II) centers is accompanied by the electronic state changes of the coordinated bis(dioxolene) unit from singlet open-shell biradicaloid to singlet closed-shell quinonoid form in complex 3b. Approaching similar synthetic method to 3b, but performing the metathesis reaction with sodium tetrafluoroborate rather than sodium tetraphenylborate has resulted in the formation of the complex [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d). The solid state properties of the complex are best described by the temperature induced valence tautomeric transition for the low-spin cobalt(III) center which is accompanied by the spin-crossover process for the cobalt(II) center. Thus, the electronic state of the complex 3d changes from LS-CoIII-Cat-SQ-CoII-LS to HS-CoII-(SQ-SQ)CS-CoII-HS state upon change in temperature.
Temperature-induced electronic configuration changes of the (SQ-SQ)CS2- ligands from open-shell biradicaloid to closed-shell quinonoid configurations are not observed for the nickel-, copper- and zinc bis(dioxolene) complexes 4a, 5a and 6b, respectively. For these complexes, the metal ions are bridged by (SQ-SQ)CS2- ligand and the paramagnetic metal ions are very weakly antiferromagnetically coupled.
In this paper, the effect of shot peening and cryogenic turning on the surface morphologyof the metastable austenitic stainless steel AISI 347 was investigated. In the shot peeningprocess, the coverage and the Almen intensity, which is related to the kinetic energy of thebeads, were varied. During cryogenic turning, the feed rate and the cutting edge radiuswere varied. The manufactured workpieces were characterized by X-ray diffractionregarding the phase fractions, the residual stresses and the full width at half maximum.The microhardness in the hardened surface layer was measured to compare the hardeningeffect of the processes. Furthermore, the surface topography was also characterized. Thenovelty of the research is the direct comparison of the two methods with identical work-pieces (same batch) and identical analytics. It was found that shot peening generally leadsto a more pronounced surface layer hardening, while cryogenic turning allows the hard-ening to be realized in a shorter process chain and also leads to a better surface topog-raphy. For both hardening processes it was demonstrated how the surface morphology canbe modified by adjusting the process parameter.
Micro machining with micro pencil grinding tools (MPGTs) is an emerging technology that can be used to manufacture closed microchannel structures in hard and brittle materials as well as hardened steels like 16MnCr5. At their current operating conditions, these tools have a comparatively short tool life. In previous works, MPGTs in combination with a minimum quantity lubrication (MQL) system were used to manufacture microchannels in 16MnCr5 hardened steel. The study has shown that steel adhesions clog the abrasive layer of MPGTs, most likely resulting from insufficient lubrication. In this paper, a metalworking fluid (MWF) supply method was developed to improve the process: a submerged micro grinding process, in which machining takes place inside a pool of MWF. In this study, the effect of seven types of MWFs on material adhesions at the bottom surface of the tool is evaluated. Equivalent good MWFs are then compared in a micro pendulum grinding experiment till failure.
1,2-unsaturated pyrrolizidine alkaloids (PAs) are natural plant constituents comprising more than 600 different structures. A major source of human exposure is thought to be cross-contamination of food, feed and phytomedicines with PA plants. In humans, laboratory and farm animals, certain PAs exert pronounced liver toxicity and can induce malignant liver tumors in rodents. Here, we investigated the cytotoxicity and genotoxicity of eleven PAs belonging to different structural classes. Although all PAs were negative in the fluctuation Ames test in Salmonella, they were cytotoxic and induced micronuclei in human HepG2 hepatoblastoma cells over-expressing human cytochrome P450 3A4. Lasiocarpine and cyclic diesters except monocrotaline were the most potent congeners both in cytotoxicity and micronucleus assays with concentrations below 3 μM inducing a doubling in micronuclei counts. Other open di-esters and all monoesters exhibited weaker or much weaker geno- and cytotoxicity. The findings were in agreement with recently suggested interim Relative Potency (iREP) factors with the exceptions of europine and monocrotaline. A more detailed micronuclei analysis at low concentrations of lasiocarpine, retrorsine or senecionine indicated that pronounced hypolinearity of the concentration–response curves was evident for retrorsine and senecionine but not for lasiocarpine. Our findings show that the genotoxic and cytotoxic potencies of PAs in a human hepatic cell line vary in a structure-dependent manner. Both the low potency of monoesters and the shape of prototype concentration–response relationships warrant a substance- and structure-specific approach in the risk assessment of PAs.
One of the ongoing tasks in space structure testing is the vibration test, in which a given structure is mounted onto a shaker and excited by a certain input load on a given frequency range, in order to reproduce the rigor of launch. These vibration tests need to be conducted in order to ensure that the devised structure meets the expected loads of its future application. However, the structure must not be overtested to avoid any risk of damage. For this, the system’s response to the testing loads, i.e., stresses and forces in the structure, must be monitored and predicted live during the test. In order to solve the issues associated with existing methods of live monitoring of the structure’s response, this paper investigated the use of artificial neural networks (ANNs) to predict the system’s responses during the test. Hence, a framework was developed with different use cases to compare various kinds of artificial neural networks and eventually identify the most promising one. Thus, the conducted research accounts for a novel method for live prediction of stresses, allowing failure to be evaluated for different types of material via yield criteria
Nanoindentation simulations are performed for a Ni(111) bi-crystal, in which the grain boundary is coated by a graphene layer. We study both a weak and a strong interface, realized by a 30∘ and a 60∘ twist boundary, respectively, and compare our results for the composite also with those of an elemental Ni bi-crystal. We find hardening of the elemental Ni when a strong, i.e., low-energy, grain boundary is introduced, and softening for a weak grain boundary. For the strong grain boundary, the interface barrier strength felt by dislocations upon passing the interface is responsible for the hardening; for the weak grain boundary, confinement of the dislocations results in the weakening. For the Ni-graphene composite, we find in all cases a weakening influence that is caused by the graphene blocking the passage of dislocations and absorbing them. In addition, interface failure occurs when the indenter reaches the graphene, again weakening the composite structure.
Ziel der Masterarbeit ist es zu zeigen, wie Social Media Marketing im Hochschulsport eingesetzt wird und welche Entwicklungspotenziale darüber hinaus bestehen. Um eine Grundlage für die weiteren Untersuchungen zu schaffen wird die Struktur von Nonprofit- Organisationen und die Zuordnung des Hochschulsports dazu erklärt, sowie wichtige Faktoren zu Social Media Marketing. Bezogen darauf wird anhand von Experteninter-views eine Verknüpfung zwischen der Praxis vor Ort und der Fachliteratur geschaffen. Im Anschluss wird eine Analyse des Instagram-Kanals des Hochschulsports der TU Kai-serslautern durchgeführt. Dazu werden mittels einer Messreihe die Daten zu Kennzahlen aus Instagram gefiltert und dokumentiert. Aufgrund dessen können Key Performance In-dicators für den Hochschulsport der TU Kaiserslautern gebildet und der beste und schlechteste Post identifiziert werden. Diese beiden Posts werden analysiert und mitei-nander verglichen, um Gründe für ihre unterschiedliche Außenwirkung zu finden.
Die Masterarbeit ist interessant für Studierende die ihren Schwerpunkt in Social Media, Marketing oder Sozialwissenschaften haben, als auch für alle Mitarbeiter rund um den Hochschulsport.
In this paper we present the comparison of experiments and numerical simulations for bubble cutting by a wire. The air bubble is surrounded by water. In the experimental setup an air bubble is injected on the bottom of a water column. When the bubble rises and contacts the wire, it is separated into two daughter bubbles. The flow is modeled by the incompressible Navier–Stokes equations. A meshfree method is used to simulate the bubble cutting. We have observed that the experimental and numerical results are in very good agreement. Moreover, we have further presented simulation results for liquid with higher viscosity. In this case the numerical results are close to previously published results.
The understanding of the many fields of control theory can be supported using demonstrators, as
influencing a system to achieve a desired behaviour is the main purpose of control theory. This
thesis covers the setup, implementation and controlling of an inverse multi-pendulum on a cart.
Construction design and brief dimensioning will be described. In addition, a drive to move the
cart and influence the system will be chosen, which will be controlled using industrial automation
technology components. The state feedback controller introduced requires state measurement that
is made available by a radio sensor designed in this thesis. A web user interface is designed and
in addition the data processing structure involving the industrial automation technology and the
custom radio sensor is implemented. The pendulum is then controlled and stabilized by an optimal
controller. Furthermore, an upswing control approach is pointed out using numerical optimal
control.
Die automatisierte Faserablage bietet ein hohes Potenzial zur individuellen Herstellung
belastungsgerechter, kontinuierlich faserverstärkter Verbundwerkstoffe, wodurch
diese Fertigungstechnologie zur Herstellung thermoplastischer
Hochleistungsverbundbauteile immer mehr in den Fokus aktueller Entwicklungen
rückt. Hierbei beschränkt sich diese Technologie derzeit hauptsächlich auf die
Verarbeitung von vollimprägnierten und -konsolidierten Halbzeugen (Tapes). Im
Rahmen dieser Arbeit wurde eine neu konzeptionierte Prozesskette, basierend auf der
Kombination trockener Rovings (GF) und Polymerpulver (PC/PBT) zu
thermoplastischen Pulver-Towpregs, deren anschließender, automatisierter
Faserablage zu vorimprägnierten Preforms und der Direktimprägnierung im
variothermen Pressprozess, durchlaufen. Mit Hilfe der statistischen Versuchsplanung
wurden die Prozessschritte der Faserablage und des variothermen Pressprozesses
methodisch untersucht. Die daraus resultierenden Ergebnisse liefern ein
grundlegendes Prozessverständnis der einzelnen Prozessschritte hinsichtlich der
Imprägniermechanismen und -fortschritte. Es konnte gezeigt werden, dass im
Tapelegeprozess maßgeblich eine Makroimprägnierung der Faserstruktur erreicht
wird, welche auch den nachfolgenden Pressprozess signifikant beeinflusst. Die
Ergebnisse dieser Arbeit bilden somit die Grundlage zu Verständnis und Anwendung
der neuen Prozesskette, sowie der Einstellung und Bewertung der Prozessparameter
zur Herstellung kontinuierlich, lastgerecht faserverstärkter Thermoplaste mit
individuellen Matrix- und Faserwerkstoffen.
In selective laser melting (SLM) the variation of process parameters significantly impacts the resulting workpiece characteristics. In this study, AISI 316L was manufactured by SLM with varying laser power, layer thickness, and hatch spacing. Contrary to most studies, the input energy density was kept constant for all variations by adjusting the scanning speed. The varied parameters were evaluated at two different input energy densities. The investigations reveal that a constant energy density with varying laser parameters results into considerable differences of the workpieces’ roughness, density, and microhardness. The density and the microhardness of the manufactured components can be improved by selecting appropriate parameters of the laser power, the layer thickness, and the hatch spacing. For this reason, the input energy density alone is no indicator for the resulting workpiece characteristics, but rather the ratio of scanning speed, layer thickness, or hatch spacing to laser power. Furthermore, it was found that the microhardness of an additively manufactured material correlates with its relative density. In the parameter study presented in this paper, relative densities of the additively manufactured workpieces of up to 99.9% were achieved.
„Wie gelernt wird, wissen wir nicht – nur, dass wir lernen und wann wir lernen.“ Mit diesem Wissen um das ‚Wann‘ und wissenschaftlichen Grundlagen aus den Bereichen Anatomie/Physiologie (des Gehirns), der Systemtheorie, der fraktalen Geometrie, des Konstruktivismus, der Psychologie und weiteren Fachdisziplinen lassen sich Lernumgebungen gestalten, in die Teilnehmende beruflicher (Aus-)Bildung in Situationen manövriert werden, in denen erfolgreiches, selbstorganisiertes Lernen (SOL) leicht fällt und somit nachhaltig stattfindet. Lernumgebungen, hier als Didaktisches Design bezeichnet, umfassen aber nicht nur die theoretischen Konstrukte, sondern auch das pädagogische Personal und die jeweilige Haltung gegenüber den Lernenden. Ebenso wichtig für das Gelingen von Lernen ist die Einbeziehung der Lebenseinstellungen der Teilnehmenden. Der biographisch relevante Anteil für das selbstorganisierte Lernen aus dieser inneren Haltung wird in der vorliegenden Forschungsarbeit mittels empirischer Fragebögen dargestellt.
Industry 4.0 defines the organization of production and manufacturing processes based on technological advanced solutions and devices autonomously communicating with each other.
Within the context of this industrial revolution, the smart reconfigurable manufacturing systems are introduced. These systems shall be able to provide a dynamic level of reconfigurability based on the production demand and system availability. The introduction of the manufacturing reconfigurability constitutes a particularly important and expensive decision for the organizations and therefore scoping methods are becoming constantly essential.
The present work covers a first approach to defining reconfigurability methods and drivers for the manufacturing systems within the context of Industry 4.0. The thesis introduces five main reconfigurability use case scenarios for manufacturing systems and the description of a two – dimensional model of scoping parameters.
The first dimension is based on the potential business targets and reconfigurability drivers, while the second dimension focuses on the system functions and technologies, which are
required for the successful realization of the reconfigurability use case scenarios. Finally, the thesis concludes with a brief comparison between the traditional software product line scoping approach and purposed scoping method for the reconfigurability of manufacturing systems.
Die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit ist nicht unumstritten. Immer wieder wird die Daseinsberechtigung und Bedeutung von Schöffinnen und Schöffen in Strafverfahren hinterfragt.
Die Masterarbeit gibt einen Überblick über das Schöffenamt und anhand einer Befragung von Berufsrichterinnen und -richtern sowie von Schöffinnen und Schöffen wurde die Beteiligung von Schöffinnen und Schöffen in der Strafgerichtsbarkeit untersucht. Dabei wurde auf die Zusammenarbeit beider eingegangen und bestehende Probleme herausgearbeitet. Im Ergebnis wurde schließlich auch der Frage nachgegangen, inwieweit das Schöffenamt noch seine Daseinsberechtigung und die Beteiligung von Schöffinnen und Schöffen Nutzen für die Strafrechtspflege hat.
Die Entdeckung der Einzelschule als Motor der Entwicklung im Jahre 1989 hatte eine veränderte Gesetzeslage zur Folge und damit auch eine veränderte Beziehung von Schule und Schulaufsicht. Die vorliegende Masterarbeit arbeitet die Historie der Beziehung von Schule und Schulaufsicht im Rahmen von Qualitätsentwicklung und -sicherung auf und überprüft das veränderte bzw. das sich verändernde Verhältnis im Spannungsfeld zwischen Kontrolle und Unterstützung. Im empirischen Teil kommen Schulleiter und Schulaufsichtsbeamte zu Wort.
The advent of heterogeneous many-core systems has increased the spectrum
of achievable performance from multi-threaded programming. As the processor components become more distributed, the cost of synchronization and
communication needed to access the shared resources increases. Concurrent
linearizable access to shared objects can be prohibitively expensive in a high
contention workload. Though there are various mechanisms (e.g., lock-free
data structures) to circumvent the synchronization overhead in linearizable
objects, it still incurs performance overhead for many concurrent data types.
Moreover, many applications do not require linearizable objects and apply
ad-hoc techniques to eliminate synchronous atomic updates.
In this thesis, we propose the Global-Local View Model. This programming model exploits the heterogeneous access latencies in many-core systems.
In this model, each thread maintains different views on the shared object: a
thread-local view and a global view. As the thread-local view is not shared,
it can be updated without incurring synchronization costs. The local updates
become visible to other threads only after the thread-local view is merged
with the global view. This scheme improves the performance at the expense
of linearizability.
Besides the weak operations on the local view, the model also allows strong
operations on the global view. Combining operations on the global and the
local views, we can build data types with customizable consistency semantics
on the spectrum between sequential and purely mergeable data types. Thus
the model provides a framework that captures the semantics of Multi-View
Data Types. We discuss a formal operational semantics of the model. We
also introduce a verification method to verify the correctness of the implementation of several multi-view data types.
Frequently, applications require updating shared objects in an “all-or-nothing” manner. Therefore, the mechanisms to synchronize access to individual objects are not sufficient. Software Transactional Memory (STM)
is a mechanism that helps the programmer to correctly synchronize access to
multiple mutable shared data by serializing the transactional reads and writes.
But under high contention, serializable transactions incur frequent aborts and
limit parallelism, which can lead to severe performance degradation.
Mergeable Transactional Memory (MTM), proposed in this thesis, allows accessing multi-view data types within a transaction. Instead of aborting
and re-executing the transaction, MTM merges its changes using the data-type
specific merge semantics. Thus it provides a consistency semantics that allows
for more scalability even under contention. The evaluation of our prototype
implementation in Haskell shows that mergeable transactions outperform serializable transactions even under low contention while providing a structured
and type-safe interface.
In search of new technologies for optimizing the performance and space requirements of electronic and optical micro-circuits, the concept of spoof surface plasmon polaritons (SSPPs) has come to the fore of research in recent years. Due to the ability of SSPPs to confine and guide the energy of electromagnetic waves in a subwavelength space below the diffraction limit, SSPPs deliver all the tools to implement integrated circuits with a high integration rate. However, in order to guide SSPPs in the terahertz frequency range, it is necessary to carefully design metasurfaces that allow one to manipulate the spatio-temporal and spectral properties of the SSPPs at will. Here, we propose a specifically designed cut-wire metasurface that sustains strongly confined SSPP modes at terahertz frequencies. As we show by numerical simulations and also prove in experimental measurements, the proposed metasurface can tightly guide SSPPs on straight and curved pathways while maintaining their subwavelength field confinement perpendicular to the surface. Furthermore, we investigate the dependence of the spatio-temporal and spectral properties of the SSPP modes on the width of the metasurface lanes that can be composed of one, two or three cut-wires in the transverse direction. Our investigations deliver new insights into downsizing effects of guiding structures for SSPPs.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
A significant step to engineering design is to take into account uncertainties and to
develop optimal designs that are robust with respect to perturbations. Furthermore, it
is often of interest to optimize for different conflicting objective functions describing the
quality of a design, leading to a multi-objective optimization problem. In this context,
generating methods for solving multi-objective optimization problems seek to find a
representative set of solutions fulfilling the concept of Pareto optimality. When multiple
uncertain objective functions are involved, it is essential to define suitable measures for
robustness that account for a combined effect of uncertainties in objective space. Many
tasks in engineering design include the solution of an underlying partial differential
equation that can be computationally expensive. Thus, it is of interest to use efficient
strategies for finding optimal designs. This research aims to present suitable measures
for robustness in a multi-objective context, as well as optimization strategies for multi-
objective robust design.
This work introduces new ideas for robustness measures in the context of multi-
objective robust design. Losses and expected losses based on distances in objective space
are used to describe robustness. A direct formulation and a two-phase formulation based
on expected losses are proposed for finding a set of robust optimal solutions.
Furthermore, suitable optimization strategies for solving the resulting multi-objective
robust design problem are formulated and analyzed. The multi-objective optimization
problem is solved with a constraint-based approach that is based on solving several
constrained single-objective optimization problems with a hybrid optimization strategy.
The hybrid method combines a global search method on a surrogate model with adjoint-
based optimization methods. In the context of optimization with an underlying partial
differential equation, a one-shot approach is extended to handle additional constraints.
The developed concepts for multi-objective robust design and the proposed optimiza-
tion strategies are applied to an aerodynamic shape optimization problem. The drag
coefficient and the lift coefficient are optimized under the consideration of uncertain-
ties in the operational conditions and geometrical uncertainties. The uncertainties are
propagated with the help of a non-intrusive polynomial chaos approach. For increasing
the efficiency when considering a higher-dimensional random space, it is made use of a
Karhunen-Loève expansion and a dimension-adaptive sparse grid quadrature.
Die vorliegende Arbeit beschreibt ein Verfahren zur Ermittlung der Orientierung und
Menge von Stahlfasern in Beton, welches auf einer bildanalytischen Auswertung von
Computer-Tomografie-Aufnahmen basiert.
Darauf aufbauend wird die Weiterentwicklung des Verfahrens in Hinblick auf die Charakterisierung
von einzelnen Fasern beschrieben. Diese Methode erlaubt mittels der
Analyse von für die Faserwirkung spezifischen Parametern eine detaillierte Untersuchung
des Stahlfaserbetons nach Überschreiten der Betonzugfestigkeit. Solche, das
Nachrissverhalten maßgeblich beeinflussende Parameter, konnten mit bisherigen Untersuchungsmethoden
größtenteils nicht oder nur zerstörend z. B. durch das Aufbrechen
der Probekörper und somit verfälscht ermittelt werden.
The weight of evidence pro/contra classifying the process-related food contaminant (PRC) acrylamide (AA) as a genotoxic carcinogen is reviewed. Current dietary AA exposure estimates reflect margins of exposure (MOEs) < 500. Several arguments support the view that AA may not act as a genotoxic carcinogen, especially not at consumer-relevant exposure levels: Biotransformation of AA into genotoxic glycidamide (GA) in primary rat hepatocytes is markedly slower than detoxifying coupling to glutathione (GS). Repeated feeding of rats with AA containing foods, bringing about uptake of 100 µg/kg/day of AA, resulted in dose x time-related buildup of AA-hemoglobin (Hb) adducts, whereas GA-Hb adducts remained within the background. Since hepatic oxidative biotransformation of AA into GA was proven by simultaneous urinary mercapturic acid monitoring it can be concluded that at this nutritional intake level any GA formed in the liver from AA is quantitatively coupled to GS to be excreted as mercapturic acid in urine. In an oral single dose–response study in rats, AA induced DNA N7-GA-Gua adducts dose-dependently in the high dose range (> 100 µg/kg b w). At variance, in the dose range below 100 µg/kg b.w. down to levels of average consumers exposure, DNA N7 -Gua lesions were found only sporadically, without dose dependence, and at levels close to the lower bound of similar human background DNA N7-Gua lesions. No DNA damage was detected by the comet assay within this low dose range. GA is a very weak mutagen, known to predominantly induce DNA N7-GA-Gua adducts, especially in the lower dose range. There is consensus that DNA N7-GA-Gua adducts exhibit rather low mutagenic potency. The low mutagenic potential of GA has further been evidenced by comparison to preactivated forms of other process-related contaminants, such as N-Nitroso compounds or polycyclic aromatic hydrocarbons, potent food borne mutagens/carcinogens. Toxicogenomic studies provide no evidence supporting a genotoxic mode of action (MOA), rather indicate effects on calcium signalling and cytoskeletal functions in rodent target organs. Rodent carcinogenicity studies show induction of strain- and species-specific neoplasms, with MOAs not considered likely predictive for human cancer risk. In summary, the overall evidence clearly argues for a nongenotoxic/nonmutagenic MOA underlying the neoplastic effects of AA in rodents. In consequence, a tolerable intake level (TDI) may be defined, guided by mechanistic elucidation of key adverse effects and supported by biomarker-based dosimetry in experimental systems and humans.
Die politikwissenschaftliche Literatur zum deutschen Föderalismus ist überaus vielfältig. Neben Analysen der institutionellen Arrangements, ihrer Veränderungen sowie der Dynamiken des deutschen Verbundföderalismus, finden sich auch zahlreiche Untersuchungen zu einzelnen Politikfeldern, die sowohl die Interaktionen zwischen Bund und Ländern als auch die Varianz zwischen den Policies der Länder samt ihrer Bestimmungsfaktoren untersuchen. Darüber hinaus haben sich in den vergangenen Jahrzehnten eigene Forschungszweige zu Parteien im Bundesstaat und zur Parlamentsforschung auf Länderebene etabliert. Trotz dieser großen Forschungsaktivität sind jedoch einige zentrale Fragen der Politikwissenschaft zum Zusammenspiel zwischen Wählern, Parteien, Parlamenten und Regierungen sowie deren Wirkung auf politischen Outputs und Outcomes weiterhin unbeantwortet. Dies ist, so das Argument dieses Beitrags, insbesondere der fehlenden Zusammenführung einzelner Literaturstränge und der noch unzureichenden empirischen Datenbasis geschuldet. Mittels einer Systematisierung des gegenwärtigen Literaturstands entwirft der Aufsatz ein Forschungsprogramm, das auf eine umfassende Analyse des politischen Willensbildungs- und Entscheidungsfindungsprozesses in den deutschen Bundesländern abstellt und Fragen der Responsivität und Rückkopplung systematisch in den Blick nimmt.
In der vorliegenden Arbeit werden die Chancen der Netzwerkbildung von Grundschulen im ländlichen Raum erörtert. Die Ausarbeitung gliedert sich in zwei Bereiche: einen theoretischen Überbau und die anschließende praktische Anwendung der erworbenen Kenntnisse. Das Thema wird also als Theorie-Praxis-Transfer bearbeitet.
Sulfinate salts have attracted considerable attentions due to their versatile reactivity. They have emerged as highly useful building blocks for the construction of all kinds of sulfonyl-group containing molecules, such as sulfones or sulfonamides, and for the construction of various carbon–carbon- and carbon–heteroatom-bonds via sulfur dioxide (SO2) extrusion. Herein, we want to summarize the latest developments in the synthesis of sulfinate salts. Both improvement of classical methods and the development of various novel protocols will be discussed. Also selected one-pot methods directly utilizing in situ generated sulfinate salts as intermediates will be covered in this review article.
In this thesis we study a variant of the quadrature problem for stochastic differential equations (SDEs), namely the approximation of expectations \(\mathrm{E}(f(X))\), where \(X = (X(t))_{t \in [0,1]}\) is the solution of an SDE and \(f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R}\) is a functional, mapping each realization of \(X\) into the real numbers. The distinctive feature in this work is that we consider randomized (Monte Carlo) algorithms with random bits as their only source of randomness, whereas the algorithms commonly studied in the literature are allowed to sample from the uniform distribution on the unit interval, i.e., they do have access to random numbers from \([0,1]\).
By assumption, all further operations like, e.g., arithmetic operations, evaluations of elementary functions, and oracle calls to evaluate \(f\) are considered within the real number model of computation, i.e., they are carried out exactly.
In the following, we provide a detailed description of the quadrature problem, namely we are interested in the approximation of
\begin{align*}
S(f) = \mathrm{E}(f(X))
\end{align*}
for \(X\) being the \(r\)-dimensional solution of an autonomous SDE of the form
\begin{align*}
\mathrm{d}X(t) = a(X(t)) \, \mathrm{d}t + b(X(t)) \, \mathrm{d}W(t), \quad t \in [0,1],
\end{align*}
with deterministic initial value
\begin{align*}
X(0) = x_0 \in \mathbb{R}^r,
\end{align*}
and driven by a \(d\)-dimensional standard Brownian motion \(W\). Furthermore, the drift coefficient \(a \colon \mathbb{R}^r \to \mathbb{R}^r\) and the diffusion coefficient \(b \colon \mathbb{R}^r \to \mathbb{R}^{r \times d}\) are assumed to be globally Lipschitz continuous.
For the function classes
\begin{align*}
F_{\infty} = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{\sup}\bigr\}
\end{align*}
and
\begin{align*}
F_p = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{L_p}\bigr\}, \quad 1 \leq p < \infty.
\end{align*}
we have established the following.
\[\]
\(\textit{Theorem 1.}\)
There exists a random bit multilevel Monte Carlo (MLMC) algorithm \(M\) using
\[
L = L(\varepsilon,F) = \begin{cases}\lceil{\log_2(\varepsilon^{-2}}\rceil, &\text{if} \ F = F_p,\\
\lceil{\log_2(\varepsilon^{-2} + \log_2(\log_2(\varepsilon^{-1}))}\rceil, &\text{if} \ F = F_\infty
\end{cases}
\]
and replication numbers
\[
N_\ell = N_\ell(\varepsilon,F) = \begin{cases}
\lceil{(L+1) \cdot 2^{-\ell} \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F = F_p,\\
\lceil{(L+1) \cdot 2^{-\ell} \cdot \max(\ell,1) \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F=f_\infty
\end{cases}
\]
for \(\ell = 0,\ldots,L\), for which exists a positive constant \(c\) such that
\begin{align*}
\mathrm{error}(M,F) = \sup_{f \in F} \bigl(\mathrm{E}(S(f) - M(f))^2\bigr)^{1/2} \leq c \cdot \varepsilon
\end{align*}
and
\begin{align*}
\mathrm{cost}(M,F) = \sup_{f \in F} \mathrm{E}(\mathrm{cost}(M,f)) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for every \(\varepsilon \in {]0,1/2[}\).
\[\]
Hence, in terms of the \(\varepsilon\)-complexity
\begin{align*}
\mathrm{comp}(\varepsilon,F) = \inf\bigl\{\mathrm{cost}(M,F) \colon M \ \text{is a random bit MC algorithm}, \mathrm{error}(M,F) \leq \varepsilon\bigr\}
\end{align*}
we have established the upper bound
\begin{align*}
\mathrm{comp}(\varepsilon,F) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for some positive constant \(c\). That is, we have shown the same weak asymptotic upper bound as in the case of random numbers from \([0,1]\). Hence, in this sense, random bits are almost as powerful as random numbers for our computational problem.
Moreover, we present numerical results for a non-analyzed adaptive random bit MLMC Euler algorithm, in the particular cases of the Brownian motion, the geometric Brownian motion, the Ornstein-Uhlenbeck SDE and the Cox-Ingersoll-Ross SDE. We also provide a numerical comparison to the corresponding adaptive random number MLMC Euler method.
A key challenge in the analysis of the algorithm in Theorem 1 is the approximation of probability distributions by means of random bits. A problem very closely related to the quantization problem, i.e., the optimal approximation of a given probability measure (on a separable Hilbert space) by means of a probability measure with finite support size.
Though we have shown that the random bit approximation of the standard normal distribution is 'harder' than the corresponding quantization problem (lower weak rate of convergence), we have been able to establish the same weak rate of convergence as for the corresponding quantization problem in the case of the distribution of a Brownian bridge on \(L_2([0,1])\), the distribution of the solution of a scalar SDE on \(L_2([0,1])\), and the distribution of a centered Gaussian random element in a separable Hilbert space.
Das Ziel der vorliegenden Arbeit war es, eine lokale Version des Programmpakets Turbomole um eine Methode zu erweitern, die die Berechnung elektronischer Anregungsenergien und Übergangsmomente unter Berücksichtigung der Spin-Bahn-Wechselwirkung mit Hilfe quasirelativistischer zeitabhängiger Dichtefunktionaltheorie (TD-DFT) ermöglicht. Dazu wurde ein bereits existierender zweikomponentiger TD-DFT-Ansatz verwendet und so erweitert, dass auch offenschalige Systeme mit gradientenkorrigier ten Funktionalen berechnet werden können.
Die gewählte Implementierung ist unabhängig von der zweikomponentigen Methode, die Tatsache, dass die Molekülorbitale in einem quasirelativistischen Formalismus durch zweikomponentige, komplexe Spinoren dargestellt werden, erforderte jedoch die weitestgehende Verwendung komplexer Arithmetik.
Des Weiteren wurde das Verhalten des implementierten Austausch-Korrelations-Kernels (XC-Kernel), die Schlüsselgröße der TD-DFT, für kleine Spindichten untersucht. Dabei konnte gezeigt werden, dass die numerische Berechnung der Matrixelemente des XC-Kernels an Punkten des Integrationsgitters, für die die Spindichte gegen null geht, ihr Gradient hingegen nicht, durchaus problematisch ist und eine Regularisierung des XC-Kernels erfordert. Alternativen zur Regularisierung, wie beispielsweise die Verwendung eines Kernels ohne Gradiententerme oder Modifikationen am Funktional selbst, sind in der Literatur bekannt, im Rahmen dieser Arbeit konnte jedoch ein Ansatz entwickelt werden, der keine Veränderungen am Funktional erfordert und die Verwendung eines Kernels mit Gradientenkorrektur ermöglicht. Dazu wurde das Integrationsgitter in zwei Bereiche, abhängig von der Spindichte und ihrem Gradienten, eingeteilt. In den jeweiligen Bereichen wird nun zur Berechnung der Matrixelemente entweder der XC-Kernel für offen- oder geschlossenschalige Systeme verwendet. Für einen möglichst „glatten“ Übergang zwischen den beiden Bereichen wurde ein weiterer Bereich definiert, in dem ein mit einer Umschaltfunktion gewichteter Mittelwert beider Grenzfälle verwendet wird.
Mit dem im Rahmen dieser Arbeit entwickelten Programm ist es nun möglich, basierend auf einer zweikomponentigen Rechnung am offen- oder geschlossenschaligen Grundzustand, TD-DFT-Rechnungen mit gängigen Standarddichtefunktionalen durchzuführen. Da sowohl spinerhaltende als auch spin flip Anregungen berücksichtigt werden, erhält man mit einem Eindeterminantenansatz Informationen, die sonst nur mit Hilfe von deutlich aufwendigeren Mehrdeterminantenansätzen zugänglich sind.
Quasiplastisches Verformungsverhalten von Organoblechen aus recyceltem Kohlenstoff-Stapelfasergarnen
(2020)
Für die Serienfertigung von Faser-Kunststoff-Verbund-Bauteilen in hohen Stückzahlen eignen sich Organobleche. Ein Nachteil dieser Halbzeugart ist das limitierte Spektrum herstellbarer Bauteile. Gleichzeitig existieren für Organobleche wie auch für andere Faser-Kunststoff-Verbunde noch keine Recyclingkonzepte, die die Materialeigenschaften erhalten. In dieser Arbeit werden Stapelfaserorganobleche aus recycelten Kohlenstoffstapelfasern und Polyamid 6 als Matrix hergestellt und hinsichtlich ihrer mechanischen Leistungsfähigkeit sowie ihrer Umformbarkeit untersucht. Die Erhaltung der Materialeigenschaften wurde dabei anhand von Zugversuchen untersucht, wobei der Einfluss der Garnondulation auf die Zugeigenschaften analysiert wurde. Die quasiplastische Verformung von Stapelfaserorganoblechen wurde grundlegend in Zugversuchen im Bereich und über der Schmelztemperatur der Matrix untersucht. Ein angepasster Thermoformprozess wurde entwickelt, der neue Freiheitsgrade zur Bauteilherstellung ermöglicht. Das Verformungsverhalten wurde untersucht und ein Kriterium zur Bewertung der Homogenität der Verformung entwickelt.
Organic sheets are suitable for the series production of fiber reinforced polymer composite components in large quantities. One disadvantage of this type of semi-finished products is the limited range of components that can be produced. Also, organic sheets, like other fiber reinforced polymer composites, are faced with the challenge of not yet having any true recycling concepts. In this work, staple fiber organic sheets made of recycled carbon staple fibers and polyamide 6 as matrix are manufactured and examined with regard to their mechanical performance and formability. The preservation of the material properties was investigated by means of tensile tests, whereby the influence of yarn undulation on tensile properties was analyzed. The quasiplastic deformation of staple fiber organic sheets was fundamentally investigated in tensile tests in the range of and above the matrix melting temperature. An adapted thermoforming process was developed which allows new degrees of freedom for component manufacturing. The local deformation behavior was investigated and a criterion for the evaluation of the homogeneity of the deformation was developed.
In a recent paper, G. Malle and G. Robinson proposed a modular anologue to Brauer's famous \( k(B) \)-conjecture. If \( B \) is a \( p \)-block of a finite group with defect group \( D \), then they conjecture that \( l(B) \leq p^r \), where \( r \) is the sectional \( p \)-rank of \( D \). Since this conjecture is relatively new, there is obviously still a lot of work to do. This thesis is concerned with proving their conjecture for the finite groups of exceptional Lie type.
Since the h-index has been invented, it is the most frequently discussed bibliometric value and one of the most commonly used metrics to quantify a researcher’s scientific output. The more it is increasingly gaining popularity to use the metric as an indication of the quality of a job applicant or an employee the more important it is to assure its correctitude. Many platforms offer the h-index of a scientist as a service, sometimes without the explicit knowledge of the respective person. In this article we show that looking up the h-index for a researcher on the five most commonly used platforms, namely AMiner, Google Scholar, ResearchGate, Scopus and Web of Science, results in a variance that is in many cases as large as the average value. This is due to the varying definitions of what a scientific article is, the underlying data basis, and different qualities of the entity recognition problem. To perform our study, we crawled the h-index of the worlds top researchers according to two different rankings, all the Nobel Prize laureates except Literature and Peace, and the teaching staff of the computer science department of the TU Kaiserslautern Germany with whom we additionally computed their h-index manually. Thus we showed that the individual h-indices differ to an alarming extent between the platforms. We observed that researchers with an extraordinary high h-index and researchers with an index appropriate to the scientific career path and the respective scientific field are affected alike by these problems.
As visualization as a field matures, the discussion about the development of a
theory of the field becomes increasingly vivid. Despite some voices claiming that
visualization applications would be too different from each other to generalize,
there is a significant push towards a better understanding of the principles underlying
visual data analysis. As of today, visualization is primarily data-driven.
Years of experience in the visalization of all kinds of different data accumulated
a vast reservoir of implicit knowledge in the community of how to best represent
data according to its shape, its format, and what it is meant to express.
This knowledge is complemented by knowledge imported to visualization from
a variety of other fields, for example psychology, vision science, color theory,
and information theory. Yet, a theory of visualization is still only nascent. One
major reason for that is the field's too strong focus on the quantitative aspects
of data analysis. Although when designing visualizations major design decisions
also consider perception and other human factors, the overall appearance
of visualizations as of now is determined primarily by the type and format of
the data to be visualized and its quantitative attributes like scale, range, or
density. This is also reflected by the current approaches in theoretical work on
visualization. The models developed in this regard also concentrate primarily
on perceptual and quantitative aspects of visual data analysis. Qualitative considerations
like the interpretations made by viewers and the conclusions drawn
by analysts currently only play a minor role in the literature. This Thesis contributes
to the nascent theory of visualization by investigating approaches to
the explicit integration of qualitative considerations into visual data analysis.
To this end, it promotes qualitative visual analysis, the explicit discussion of
the interpretation of artifacts and structures in the visualization, of efficient
workflows designed to optimally support an analyst's reasoning strategy and
capturing information about insight provenance, and of design methodology
tailoring visualizations towards the insights they are meant to provide rather
than to the data they show. Towards this aim, three central qualitative principles
of visual information encodings are identified during the development of
a model for the visual data analysis process that explicitly includes the anticipated
reasoning structure into the consideration. This model can be applied
throughout the whole life cycle of a visualization application, from the early
design phase to the documentation of insight provenance during analysis using
the developed visualization application. The three principles identified inspire
novel visual data analysis workflows aiming for an insight-driven data analysis
process. Moreover, two case studies prove the benefit of following the qualitative
principles of visual information encodings for the design of visualization
applications. The formalism applied to the development of the presented theoretical
framework is founded in formal logics, mathematical set theory, and the
theory of formal languages and automata. The models discussed in this Thesis
and the findings derived from them are therefore based on a mathematically
well-founded theoretical underpinning. This Thesis establishes a sound theoretical
framework for the design and description of visualization applications and
the prediction of the conclusions an analyst is capable of drawing from working
with the visualization. Thereby, it contributes an important piece to the yet
unsolved puzzle of developing a visualization theory.
Im Nachwuchsleistungssport erfahren psychologische, speziell leistungsmotivationale Merkmale zunehmende Beachtung. Nach Ansicht von Praktikern und Wissenschaftlern sollen diese verstärkt zur Talentauswahl genutzt werden. Die insgesamt inkonsistente empirische Forschungs- und Befundlage aus explorativen und korrelativen Studien – im Vergleich zum angestrebten Vorhersagezeitraum oft über relativ kurze Beobachtungszeiträume – lässt an einer verlässlichen praktischen Anwendung aber zweifeln.
Die Voraussetzungen für eine Anwendung in systematischen Identifikations- und Auswahlprozessen sind (1) verlässliches Diagnostizieren anhand leistungsmotivationaler Erhebungsinstrumente mit ausreichender Testgüte, (2) hohe differenzielle Entwicklungsstabilität sowie Effekte der Leistungsmotivation auf (3) aktuelle und (4) künftige Leistungen bzw. Erfolge und deren Entwicklung. Die Prüfung dieser Annahmen ist Gegenstand der vorliegenden Arbeit. Anhand von zwei Studien wurden leistungsmotivationale Merkmale mit AMS-S (Wenhold et al., 2009), SMS-28 (Burtscher et al., 2011) und TEOSQ-D (Rethorst & Wehrmann, 1998) sowie Erfolgs- bzw. Leistungsindikatoren bei Nachwuchssportlern erfasst. 83 bis 144 Sportler einer Eliteschule des Sports (Alter 14,89 < MW < 15,35 Jahre; 1,46 < SD < 1,57) wurden hierbei über ein Jahr, 51 Fußballspieler aus fünf Vereinen (11,02 < 0,7 Jahre) über vier Jahre beobachtet.
Die Untersuchungen erbrachten vier zentrale Ergebnisse. 1. Die psychometrischen Ergebnisse deuten auf eine überwiegende Konstruktabdeckung durch die Instrumente hin, wobei die Reliabilitäten teilweise beeinträchtigt waren (0,60 < rtt < 0,82). 2. Hinsichtlich der differenziellen Stabilität waren Veränderungen der leistungsmotivationalen Merkmale über die Zeit meist durch beträchtliche interindividuelle Heterogenität gekennzeichnet (0,20 < rtt < 0,77). 3. Die leistungsmotivationalen Merkmale wiesen keine signifikanten Effekte auf aktuelle und künftige Leistungen bzw. Erfolge auf. Auch bei multivariater linearer und non-linearer Analyse mehrerer leistungsmotivationaler Merkmale zeigten sich im Quer- und Längsschnitt keine bedeutsame Erklärungskraft für Leistungs- oder Erfolgsunterschiede. 4. Es zeigten sich ebenfalls keine signifikanten Effekte der ein- bzw. zweijährigen Erfolgs- und Leistungsentwicklung mit den zuvor erhobenen Merkmalen der Leistungsmotivation. Bei wenigen Analysen schienen extrinsische Motivation und Egoorientierung allerdings signifikante Prädiktoren zu sein.
Die Ergebnisse dieser mehrjährigen prospektiven Analysen sprechen gegen die Einbindung leistungsmotivationaler Merkmale in Talentauswahlprozesse. Die Ergebnisse anderer Untersuchungen mit teilweise inkonsistenten Ergebnissen werden vor dem Hintergrund dieser Arbeit eingeordnet und die vorliegenden Ergebnisse hinsichtlich unterschiedlicher Tendenzen diskutiert. Daraus ergeben sich neue Perspektiven für die zukünftige Forschung.
In dieser Arbeit wird ein formales Modell zur Beschreibung von hardwarenaher Software
vorgestellt: Die Programmnetzliste.
Die Programmnetzliste (PN) besteht aus Instruktionszellen
die in einem gerichteten azyklischen Graph verbunden sind und dabei
alle Ausführungspfade des betrachteten Programms beinhaltet. Die einzelnen Instruktionszellen
repräsentieren eine Instruktion oder eine Instruktionssequenz. Die PN verfügt
über eine explizite Darstellung des Programmablaufs und eine implizite Modellierung des
Datenpfads und ist als Modell für die Verifikation von Software nutzbar. Die Software
wird dabei auf Maschinencode-Level betrachtet.
Die Modellgenerierung besteht aus wenigen und gut automatisierbaren Schritten. Als
Grundlage dient ein – ggf. unvollständiger – Kontrollfluss Graph (CFG), der aus der Software
generiert werden kann. Die Modellgenerierung besteht aus zwei Schritten.
Der erste Schritt ist die Erzeugung des expliziten Programmablaufs, indem der CFG
abgerollt wird. Dabei wird ein sogenannter Execution-Graph (EXG) erzeugt, der alle
möglichen Ausführungspfade des betrachteten Programms beinhaltet. Um dieses Modell
so kompakt wie möglich zu halten, werden unterschiedliche Techniken verwendet – wie
das Zusammenführen gemeinsamer Pfade und das Erkennen von “toten” Verzweigungen
im Programm, die an der entsprechenden Stelle niemals ausgeführt werden.
Im Anschluss wird im zweiten Schritt der Execution-Graph in die Programmnetzliste
(PN) übersetzt. Dabei werden alle Knoten im EXG durch eine entsprechende Instruktionszelle
ersetzt. Die Kanten des Graphen entsprechen dabei dem Programmzustand. Der
Programmzustand setzt sich aus den Variablen im Speicher wie auch dem Architekturzustand
des unterliegenden Prozessors zusammen.
Ergänzt wird der Programmzustand in der Programmnetzliste um ein sogenanntes
Active-Bit, welches es ermöglicht den aktiven Pfad in der Netzliste zu markieren. Das
ist notwendig, da die Software immer nur einen Pfad gleichzeitig ausführen kann, aber
die PN alle möglichen Pfade beinhaltet. Auf der Programmnetzliste können dann mit Hilfe
von Hardware Property Checkern basierend auf BMC oder IPC diverse Eigenschaften
bewiesen werden.
Zusätzlich wird die Programmnetzliste um die Fähigkeit zur Interruptmodellierung
erweitert.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
Problems, Chances and Limitations of Facilitating Self-Directed Learning at a German Gymnasium
(2020)
Self-directed learning is becoming more important than ever. In a rapidly changing world, learners must be ready to face new obstacles. Self-directed learning gives the learners the chance to adapt to these social contextual changes. But facilitating self-directed learning in formal settings seems to be a risky task and venture. To accomplish its facilitation, many limits must be overcome.
In this thesis, lessons at a German school called a Gymnasium – the type of school where learners can get the highest school level degree – were observed in order to find out in how far elements of self-directed learning can be found in the observed lessons. For the comparison, the process elements of Knowles’ book “Self-Directed Learning: A Guide for Learners and Teachers” from 1975 were adapted to the observations of the lessons.
A central part of the observations and interviews of the teachers was to find out which limitations in the facilitation of self-directed learning can be found in terms of the institutional framework and the attitude of the teachers. The results of the observations highly differentiated. Whereas in many of the observed scientific lessons, many elements of self-directed learning were found, the lessons in social studies were teacher-directed. Also, a different attitude between the teachers was found in terms of the support for self-directed learning.
Importantly, the thesis includes the scientific critic of self-directed learning instead of excluding it and proposes the facilitation of Grow’s “Self-Directed-Learning Model” (1991) where the level of the learner’s self-directed learning is supposed to progress during school. This thesis is relevant for educators, curriculum developers, teachers and policymakers to help them identify the difficulties and chances to facilitate SDL in formal settings.
The neural networks have been extensively used for tasks based on image sensors. These models have, in the past decade, consistently performed better than other machine learning methods on tasks of computer vision. It is understood that methods for transfer learning from neural networks trained on large datasets can reduce the total data requirement while training new neural network models. These methods tend not to perform well when the data recording sensor or the recording environment is unique from the existing large datasets. The machine learning literature provides various methods for prior-information inclusion in a learning model. Such methods employ methods like designing biases into the data representation vectors, enforcing priors or physical constraints on the models. Including such information into neural networks for the image frames and image-sequence classification is hard because of the very high dimensional neural network mapping function and little information about the relation between the neural network parameters. In this thesis, we introduce methods for evaluating the statistically learned data representation and combining these information descriptors. We have introduced methods for including information into neural networks. In a series of experiments, we have demonstrated methods for adding the existing model or task information to neural networks. This is done by 1) Adding architectural constraints based on the physical shape information of the input data, 2) including weight priors on neural networks by training them to mimic statistical and physical properties of the data (hand shapes), and 3) by including the knowledge about the classes involved in the classification tasks to modify the neural network outputs. These methods are demonstrated, and their positive influence on the hand shape and hand gesture classification tasks are reported. This thesis also proposes methods for combination of statistical and physical models with parametrized learning models and show improved performances with constant data size. Eventually, these proposals are tied together to develop an in-car hand-shape and hand-gesture classifier based on a Time of Flight sensor.
During cryogenic turning of metastable austenitic stainless steels, a deformation-induced phase transformation from γ-austenite to α’-martensite can be realized in the workpiece subsurface, which results in a higher microhardness as well as in improved fatigue strength and wear resistance. The α’-martensite content and resulting workpiece properties strongly depend on the process parameters and the resulting thermomechanical load during cryogenic turning. In order to achieve specific workpiece properties, extensive knowledge about this correlation is required. Parametric models, based on physical correlations, are only partly able to predict the resulting properties due to limited knowledge on the complex interactions between stress, strain, temperature, and the resulting kinematics of deformation-induced phase transformation. Machine learning algorithms can be used to detect this kind of knowledge in data sets. Therefore, the goal of this paper is to evaluate and compare the applicability of three machine learning methods (support vector regression, random forest regression, and artificial neural network) to derive models that support the prediction of workpiece properties based on thermomechanical loads. For this purpose, workpiece property data and respective process forces and temperatures are used as training and testing data. After training the models with 55 data samples, the support vector regression model showed the highest prediction accuracy.
Potassium (K) is essential for the processes critical for plant performance, including photosynthesis, carbon assimilation, and response to stress. K also influences translocation of sugars in the phloem and regulates sucrose metabolism. Several plant species synthesize polyols and transport these sugar alcohols from source to sink tissues. Limited knowledge exists about the involvement of K in the above processes in polyol-translocating plants. We, therefore, studied K effects in Plantago major, a species that accumulates the polyol sorbitol to high concentrations. We grew P. major plants on soil substrate adjusted to low-, medium-, or high-potassium conditions. We found that biomass, seed yield, and leaf tissue K contents increased in a soil K-dependent manner. K gradually increased the photosynthetic efficiency and decreased the non-photochemical quenching. Concomitantly, sorbitol levels and sorbitol to sucrose ratio in leaves and phloem sap increased in a K-dependent manner. K supply also fostered plant cold acclimation. High soil K levels mitigated loss of water from leaves in the cold and supported cold-dependent sugar and sorbitol accumulation. We hypothesize that with increased K nutrition, P. major preferentially channels photosynthesis-derived electrons into sorbitol biosynthesis and that this increased sorbitol is supportive for sink development and as a protective solute, during abiotic stress
Winery by-products arise in high amounts during winemaking processes. Hence, recovery alternatives are of great interest. In this study, effects of extracts from winery by-products (Vitis vinifera L. cv. Riesling) on mitochondrial functions in human hepatocellular carcinoma (HepG2) cells were examined. Polyphenolic profiles of pomace (PE), stem (SE), vine leaf (VLE), and vine shoot extracts (VSE) were characterized by HPLC-UV/Vis-ESI-MS/MS. The extracts induced dose-dependent cytotoxic effects (PE > SE > VLE > VSE). VSE showed protective effects regarding modulation of tert-butyl hydroperoxide (TBH)-induced intracellular reactive oxygen species (ROS) levels. PE, SE and VLE increased the mitochondrial membrane potential (MMP), whereas VSE decreased it owing to mildly impaired mitochondrial respiration. Cells may try to compensate reduced respiration chain complex activities by increasing the mitochondrial mass, as indicated by enhanced citrate synthase activity and mRNA expression levels after VSE incubation. Thus, winery by-products represent interesting sources of bioactive compounds that exert positive or negative effects on mitochondrial functions.
Since plants lack specialized immune cells, each cell has to defend itself independently against a plethora of different pathogens. Therefore, successful plant defense strongly relies on precise and efficient regulation of intracellular processes in every single cell. Smooth trafficking within the plant endomembrane is a prerequisite for a diverse set of immune responses. Pathogen recognition, signaling into the nucleus, cell wall enforcement, secretion of antimicrobial proteins and compounds, as well as generation of reactive oxygen species, all heavily depend on vesicle transport. In contrast, pathogens have developed a variety of different means to manipulate vesicle trafficking to prevent detection or to inhibit specific plant responses. Intriguingly, the plant endomembrane system exhibits remarkable plasticity upon pathogen attack. Unconventional trafficking pathways such as the formation of endoplasmic reticulum (ER) bodies or fusion of the vacuole with the plasma membrane are initiated and enforced as the counteraction. Here, we review the recent findings on unconventional and defense-induced trafficking pathways as the plant´s measures in response to pathogen attack. In addition, we describe the endomembrane system manipulations by different pathogens, with a focus on tethering and fusion events during vesicle trafficking.
Phospho-regulation of the Shugoshin - Condensin interaction at the centromere in budding yeast
(2020)
Correct bioriented attachment of sister chromatids to the mitotic spindle is essential for chromosome segregation. In budding yeast, the conserved protein shugoshin (Sgo1) contributes to biorientation by recruiting the protein phosphatase PP2A-Rts1 and the condensin complex to centromeres. Using peptide prints, we identified a Serine-Rich Motif (SRM) of Sgo1 that mediates the interaction with condensin and is essential for centromeric condensin recruitment and the establishment of biorientation. We show that the interaction is regulated via phosphorylation within the SRM and we determined the phospho-sites using mass spectrometry. Analysis of the phosphomimic and phosphoresistant mutants revealed that SRM phosphorylation disrupts the shugoshin–condensin interaction. We present evidence that Mps1, a central kinase in the spindle assembly checkpoint, directly phosphorylates Sgo1 within the SRM to regulate the interaction with condensin and thereby condensin localization to centromeres. Our findings identify novel mechanisms that control shugoshin activity at the centromere in budding yeast.
Within this work, we utilize the framework of phase field modeling for fracture in order to handle a very crucial issue in terms of designing technical structures, namely the phenomenon of fatigue crack growth. So far, phase field fracture models were applied to a number of problems in the field of fracture mechanics and were proven to yield reliable results even for complex crack problems. For crack growth due to cyclic fatigue, our basic approach considers an additional energy contribution entering the regularized energy density function accounting for crack driving forces associated with fatigue damage. With other words, the crack surface energy is not solely in competition with the time-dependent elastic strain energy but also with a contribution consisting of accumulated energies, which enables crack extension even for small maximum loads. The load time function applied to a certain structure has an essential effect on its fatigue life. Besides the pure magnitude of a certain load cycle, it is highly decisive at which point of the fatigue life a certain load cycle is applied. Furthermore, the level of the mean load has a significant effect. We show that the model developed within this study is able to predict realistic fatigue crack growth behavior in terms of accurate growth rates and also to account for mean stress effects and different stress ratios. These are important properties that must be treated accurately in order to yield an accurate model for arbitrary load sequences, where various amplitude loading occurs.
This work describes the development of a continuum phase field model that can describe static as well as dynamic wetting scenarios on the nano- and microscale.
The model reaches this goal by a direct integration of an equation of state as well as a direct integration of the dissipative properties of a specific fluid, which are both obtained from molecular simulations. The presented approach leads to good agreement between the predictions of the phase field model and the physical properties of the regarded fluid.
The implementation of the model employs a mixed finite element formulation, a newly developed semi-implicit time integration scheme, as well as the concept of hyper-dual numbers. This ensures a straightforward and robust exchangeability of the constitutive equation for the regarded fluid.
The presented simulations show good agreement between the results of the present phase field model and results from molecular dynamics simulations. Furthermore, the results show that the model enables the investigation of wetting scenarios on the microscale. The continuum phase field model of this work bridges the gap between the molecular models on the nanoscale and the phenomenologically motivated continuum models on the macroscale.
Biological clocks exist across all life forms and serve to coordinate organismal physiology with periodic environmental changes. The underlying mechanism of these clocks is predominantly based on cellular transcription-translation feedback loops in which clock proteins mediate the periodic expression of numerous genes. However, recent studies point to the existence of a conserved timekeeping mechanism independent of cellular transcription and translation, but based on cellular metabolism. These metabolic clocks were concluded based upon the observation of circadian and ultradian oscillations in the level of hyperoxidized peroxiredoxin proteins. Peroxiredoxins are enzymes found almost ubiquitously throughout life. Originally identified as H2O2 scavengers, recent studies show that peroxiredoxins can transfer oxidation to, and thereby regulate, a wide range of cellular proteins. Thus, it is conceivable that peroxiredoxins, using H2O2 as the primary signaling molecule, have the potential to integrate and coordinate much of cellular physiology and behavior with metabolic changes. Nonetheless, it remained unclear if peroxiredoxins are passive reporters of metabolic clock activity or active determinants of cellular timekeeping. Budding yeast possess an ultradian metabolic clock termed the Yeast Metabolic Cycle (YMC). The most obvious feature of the YMC is a high amplitude oscillation in oxygen consumption. Like circadian clocks, the YMC temporally compartmentalizes cellular processes (e.g. metabolism) and coordinates cellular programs such as gene expression and cell division. The YMC also exhibits oscillations in the level of hyperoxidized peroxiredoxin proteins.
In this study, I used the YMC clock model to investigate the role of peroxiredoxins in cellular timekeeping, as well as the coordination of cell division with the metabolic clock. I observed that cytosolic 2-Cys peroxiredoxins are essential for robust metabolic clock function. I provide direct evidence for oscillations in cytosolic H2O2 levels, as well as cyclical changes in oxidation state of a peroxiredoxin and a model peroxiredoxin target protein during the YMC. I noted two distinct metabolic states during the YMC: low oxygen consumption (LOC) and high oxygen consumption (HOC). I demonstrate that thiol-disulfide oxidation and reduction are necessary for switching between LOC and HOC. Specifically, a thiol reductant promotes switching to HOC, whilst a thiol oxidant prevents switching to HOC, forcing cells to remain in LOC. Transient peroxiredoxin inactivation triggered rapid and premature switching from LOC to HOC. Furthermore, I show that cell division is normally synchronized with the YMC and that deletion of typical 2-Cys peroxiredoxins leads to complete uncoupling of cell division from metabolic cycling. Moreover, metabolic oscillations are crucial for regulating cell cycle entry and exit. Intriguingly, switching to HOC is crucial for initiating cell cycle entry whilst switching to LOC is crucial for cell cycle completion and exit. Consequently, forcing cells to remain in HOC by application of a thiol reductant leads to multiple rounds of cell cycle entry despite failure to complete the preceding cell cycle. On the other hand, forcing cells to remain in LOC by treating with a thiol oxidant prevents initiation of cell cycle entry.
In conclusion, I propose that peroxiredoxins – by controlling metabolic cycles, which are in turn crucial for regulating the progression through cell cycle – play a central role in the coordination of cellular metabolism with cell division. This proposition, thus, positions peroxiredoxins as active players in the cellular timekeeping mechanism.
This thesis aims to examine various determinants of perceived team diversity on the on hand, and, on the other hand, the individual consequences of perceived team diversity. To ensure a strong theoretical foundation, I integrate and discuss different conceptualizations of and theoretical approaches to team diversity, empirically examined in three independent studies. The first study investigates the relationship between objective team diversity and perceived team diversity, and as moderators individual attitudes toward diversity and perception of one’s own work team’s diversity. The second study answers the questions of why and when dirty-task frequency impairs employees’ work relations and the third study examines how different cognitive mechanisms mediate the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. Taken together, study results provide support for the selection-extraction-application model of people perception and the assumption that individuals can integrate objective team characteristics into their mental representation of teams, using them to judging the team. Moreover, results show that a fit between perceived supervisor support and perceived organizational value of diversity can buffer the effects of dirty-task frequency on perception of identity-based subgroups, as well as perceived relationship conflict and surface acting, through employees’ perceptions of identity-based subgroups. Also, perceived social-identity threat and perceived procedural fairness but not perceived distributive fairness and perceived transactive memory systems serve as cognitive mechanisms of the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. These results contribute to diversity literature, such as the theory of subgroups in work teams and the categorization-elaboration model. In addition, I propose the input-mediator-output-input model of perceived team diversity, based on the study results, and recommend practitioners to develop diversity mindsets in teams.
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Herein, experimental demonstration of the parallel parametric generation of spin waves in a microscaled yttrium iron garnet waveguide with nanoscale thickness is presented. Using Brillouin light scattering microscopy, the parametric excitation of the first and second waveguide modes by a stripline microwave pumping source is observed. Micromagnetic simulations reveal the wave vector of the parametrically generated spin waves. Based on analytical calculations, which are in excellent agreement with experiments and simulations, it is proved that the spin-wave radiation losses are the determinative term of the parametric instability threshold in this miniaturized system. The used method enables the direct excitation and amplification of nanometer spin waves dominated by exchange interactions. The presented results pave the way for integrated magnonics based on insulating nanomagnets.
A palladium-catalyzed three-component synthesis of α-arylglycines from benzoic acids, sulfonamides and glyoxylic acid is reported. This novel reaction offers straightforward access to the important arylglycine motif in good yields and high structural diversity. By replacing boronic with carboxylic acids as nucleophilic component, this method can be considered as a more sustainable version of the classical Petasis reaction for synthesis of arylglycines.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.