Refine
Year of publication
- 2020 (277) (remove)
Document Type
- Article (113)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (159)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (277) (remove)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (50)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Die Regelung der Unternehmensnachfolge stellt die mittelständische Wirtschaft aktuell und zukünftig vor eine große Herausforderung. Neben Fragen der Finanzierung stellen dabei insbesondere Qualifikationsdefizite häufig Gründe für das Scheitern einer Unternehmensnachfolge dar. Vor diesem Hintergrund wurde zum Zwecke der genaueren Einschätzung der Potenziale und Anforderungen an ein mögliches Weiterbildungsangebot eine Bedarfsanalyse durchgeführt. Der vorliegende Arbeits- und Forschungsbericht dokumentiert dabei die verschiedenen Schritte: von dem Hintergrund und der Ausgangslage zur Idee, über die verschiedenen Bedarfserhebungen und -analysen zu den zentralen Ergebnissen und den daraus abzuleitenden Handlungsempfehlungen, welche die Grundlage zur weiteren Konzeptualisierung des Studienangebots bilden.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
In dieser Masterarbeit wird der Frage nachgegangen, wie Schulleiter und Schulleiterinnen an sonderpädagogischen Bildungs- und Beratungszentren ihre Führungsrolle im Kontext inklusiver Schulentwicklung verstehen. Artikel 24 der UN-Behindertenrechtskonvention (UN-BRK), die die Rechte von Menschen mit Behinderung stärkt und sich für die Entwicklung einer inklusiven Gesellschaft einsetzt, schreibt das Recht auf Bildung aller Menschen vor. D.h., dass Menschen mit Behinderung zukünftig nicht mehr vom allgemeinen Bildungssystem ausgeschlossen werden dürfen. Daraus ergibt sich für alle Schulen die Aufgabe, sich zu entwickeln: Für allgemeine Schulen bedeutet die Umsetzung der UN-BRK eine Entwicklung hin zu inklusiven Schulen. Für sonderpädagogische Bildungs- und Beratungszentren (SBBZen), früher Sonderschulen, bedeutet inklusive Schulentwicklung nicht nur eine Veränderung der Organisation, sondern ggf. auch die Auflösung bzw. Schließung einer Schule. Sonderpädagogische Expertise wird zukünftig vermehrt in den allgemeinen Schulen benötigt, was zur Folge hat, dass Lehrkräfte von SBBZen an allgemeine Schulen abgeordnet oder versetzt werden. Dies wiederum bedeutet eine immense Veränderung der SBBZen und ihrer Strukturen und damit auch eine immense Veränderung der Anforderungen an Führungspersonen, sprich Schulleitungen von SBBZen. Schulleiterinnen und Schulleiter nehmen bei solchen Veränderungsprozessen eine besondere und zentrale Rolle ein. Ihr Verständnis von und ihre innere Haltung zu Inklusion sind im Kontext von inklusiven Schulentwicklungsprozessen nach Auffassung der Autorin von zentraler Bedeutung und richtungsweisend für eine erfolgreiche oder auch erfolglose Entwicklung der Organisation Schule. Der Hypothese, dass das Verständnis von und die Haltung zu Inklusion das Führungsverständnis und auch die Art und Weise, wie geführt wird, beeinflussen, wird mittels der Methode leitfadengestützter Interviews nachgegangen. Im Theorieteil werden die Themen Schule, Schulentwicklung, Führung und Inklusion ausgeführt. Darüber hinaus wird der bisherige Forschungsstand dargelegt. Im empirischen Teil der Arbeit werden die Ergebnisse der Befragung dargestellt und hinsichtlich der zentralen Fragestellung diskutiert.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
Without actors, there is no action: How interpersonal interactions help to explain routine dynamics
(2020)
In this paper, we argue that it is important to gain a better understanding on how people interact with each other to explain routine dynamics. Thus, we propose to focus on the interpersonal interactions of actors which is not only the fact that actors interact with each other but that the manner and quality of these interactions is important to understand routine dynamics. By drawing on social exchange theory, we propose a framework that seeks to explain routine dynamics based on different relationships between actors. Building on this framework, we provide different process models indicating how routine performing and patterning is enacted due to the respective relationship of actors. Our insights contribute to research on routine dynamics by arguing (1) that actions of patterning are dependent on the relationship of actors; (2) that trust works as an enabler for creating new patterns of actions; (3) that distrust functions as an enhancer for interrupting and dissolving patterns of actions.
Dieser Arbeits- und Forschungsbericht beschreibt die Analyse der Wirkung der durch das Teil- projekt etablierten (Weiter-)Bildungsangebote an der Hochschule Kaiserslautern. Zu diesem Zweck wurden sowohl in der Programmentwicklung beteiligte Unternehmen als auch die Stu- dierenden, welche die entwickelten Angebote derzeit wahrnehmen, befragt. Ziel war es, unter anderem die Zielgruppenerreichung, einen Outcome sowie einen Impact messbar zu machen und zu analysieren. Aus den gewonnen Ergebnissen lassen sich Rückschlüsse auf die anvi- sierte Wirkung der (Weiter-)Bildungsangebote zum einen auf Studierende und zum anderen auf die in der Region ansässigen Unternehmen ziehen. Gleichzeitig wird der Bekanntheitsgrad der Hochschule Kaiserslautern als Bildungsträgerin analysiert und wichtige Erkenntnisse für die nachhaltige Qualitätssicherung der wissenschaftlichen (Weiter-)Bildung gezogen.
Whole-body electromyostimulation (WB-EMS) is an extension of the EMS application known in physical therapy. In WB-EMS, body composition and skinfold thickness seem to play a decisive role in influencing the Ohmic resistance and therefore the maximum intensity tolerance. That is why the therapeutic success of (WB-)EMS may depend on individual anatomical parameters. The aim of the study was to find out whether gender, skinfold thickness and parameters of body composition have an influence on the maximum intensity tolerance in WB-EMS. [Participants and Methods] Fifty-two participants were included in the study. Body composition (body impedance, body fat, fat mass, fat-free mass) and skinfold thicknesses were measured and set into relation to the maximum intensity tolerance. [Results] No relationship between the different anthropometric parameters and the maximum intensity tolerance was detected for both genders. Considering the individual muscle groups, no similarities were found in the results. [Conclusion] Body composition or skinfold thickness do not seem to have any influence on the maximum intensity tolerance in WB-EMS training. For the application in physiotherapy this means that a dosage of the electrical voltage within the scope of a (WB-) EMS application is only possible via the subjective feedback (BORG Scale).
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Die vorliegende Arbeit nimmt den Rahmen für den Transformationsprozess, in dem sich gegenwärtig die österreichische Schulaufsicht befindet, in den Blick indem sie
- Herausforderungen für die Aufgaben und die Rolle der Schulaufsicht, die durch gesellschaftliche Veränderungsprozesse und veränderte bildungspolitische Vorgaben entstanden sind, skizziert
- aus einem kurzen historischen Überblick heraus schulaufsichtliche Spannungsfelder identifiziert, die durch die gegenwärtige Reform der Schulaufsicht aufgelöst (oder zumindest abgeschwächt) werden sollen
- die aktuellen Rahmenbedingungen für schulaufsichtliche Tätigkeit (Schulautonomie und die Einführung der externen Schulevaluation) darstellt.
Auf dieser Grundlage, werden Perspektiven für die Entwicklung der Schulaufsicht in der Rolle als
- Vermittlerin und Verantwortungsträgerin hinsichtlich der Implementierung von Reformvorhaben,
- professionelle Unterstützerin bzw. Beraterin (im Kontext der Rechenschaftslegung eigenverantwortlicher Schulen und der in Österreich erst neu zu definierenden Arbeitsbeziehungen zur externen Schulevaluation) und
- strategische Führungskraft, die in supervidierender Form Schulleitungen einer Bildungsregion führt, vorgeschlagen.
Diese Perspektiven verstehen sich als ein Beitrag zur Diskussion, wie künftig Schulqualitätsmanager/innen ihre Rolle als Schulaufsichtsorgane entwickeln können. In Zeiten tiefgreifender Veränderungen, die auch eine beträchtliche Unsicherheit im Rollenbild ausgelöst haben, werden damit konkrete Vorschläge zur Entwicklung einer stabilen Rolle von Schulaufsichtspersonen vorgelegt.
Auf dem Weg von der Lehrkraft in die Führungsebene an Bildungsinstitutionen wird ein Rollenwechsel durchlebt. Dieser Rollenwechsel bietet Chancen, fordert Veränderungen und stellt vor Herausforderungen. Welche dies im Detail sind und wie diese einzuordnen sind, ist Thema der Arbeit. Dabei wird aufgrund einer wissenschaftlichen Analyse systematisiert und soll den Leser*innen die Möglichkeit bieten sich mit den Anforderungen des Rollenwechsels vertraut zu machen sowie mögliche Hilfestellungen zu holen.
VIPP proteins aid thylakoid biogenesis and membrane maintenance in cyanobacteria, algae, and plants. Some members of the Chlorophyceae contain two VIPP paralogs termed VIPP1 and VIPP2, which originate from an early gene duplication event during the evolution of green algae. VIPP2 is barely expressed under nonstress conditions but accumulates in cells exposed to high light intensities or H2O2, during recovery from heat stress, and in mutants with defective integration (alb3.1) or translocation (secA) of thylakoid membrane proteins. Recombinant VIPP2 forms rod-like structures in vitro and shows a strong affinity for phosphatidylinositol phosphate. Under stress conditions, >70% of VIPP2 is present in membrane fractions and localizes to chloroplast membranes. A vipp2 knock-out mutant displays no growth phenotypes and no defects in the biogenesis or repair of photosystem II. However, after exposure to high light intensities, the vipp2 mutant accumulates less HSP22E/F and more LHCSR3 protein and transcript. This suggests that VIPP2 modulates a retrograde signal for the expression of nuclear genes HSP22E/F and LHCSR3. Immunoprecipitation of VIPP2 from solubilized cells and membrane-enriched fractions revealed major interactions with VIPP1 and minor interactions with HSP22E/F. Our data support a distinct role of VIPP2 in sensing and coping with chloroplast membrane stress.
Defects change the phonon spectrum and also the magnetic properties of bcc-Fe. Using molecular dynamics simulation, the influence of defects – vacancies, dislocations, and grain boundaries – on the phonon spectra and magnetic properties of bcc-Fe is determined. It is found that the main influence of defects consists in a decrease of the amplitude of the longitudinal peak, PL, at around 37 meV. While the change in phonon spectra shows only little dependence on the defect type, the quantitative decrease of PL is proportional to the defect concentration. Local magnetic moments can be determined from the local atomic volumes. Again, the changes in the magnetic moments of a defective crystal are linear in the defect concentrations. In addition, the change of the phonon density of states and the magnetic moments under homogeneous uniaxial strain are investigated.
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
Validierung einer Farmer-Kammer für die Dosimetrie von Elektronenstrahlung mit geringer Reichweite
(2020)
In dieser Arbeit wurde die Auswirkung der Bezugspunktverschiebung [19, 20, 21, 22, 30, 31, 32, 36] des DIN-Entwurfes 6800-2 2016 bei Elektronenstrahlung, so-wie die Durchführbarkeit der Elektronen-Absolutdosimetrie mit Farmer-Kammern untersucht. Des Weiteren wurde der kE,R-Faktor für Farmerkammern bestimmt. Verwendet wurden vier Flachkammern unterschiedlicher Bauart (Roos-Kammer, Markus-Kammer, Advanced-Markus-Kammer der Firma PTW; PPC40-Kammer der Firma IBA) und drei Farmer-Kammer gleicher Bauart (PTW). Die Messungen wurden mit Elektronenenergien von 4 MeV bis 15 MeV durchgeführt.
In den aufgenommenen Tiefendosiskurven ist die Bezugspunktverschiebung (Δz) deutlich zu sehen. Die Kurven sind je nach Verschiebung parallel nach links (+Δz) oder rechts (-Δz) versetzt. Entsprechend verkürzt oder verlängert sich das Eintrittsfenster. Die sich dadurch veränderten Werte für die Halbwerttiefen der Ionendosis wirken sich widerrum auf die für die Absolutdosimetrie benötigten Referenztiefen zref aus. Diese Änderung der Messtiefe wird allerdings durch die neuen Formeln zur Berechnung der Halbwerttiefe der Wasser-Energiedosis nahezu egalisiert. Die neuen Berechnungsvorschriften für den Korrektionsfaktor zur Berücksichtigung des Einflusses der Strahlungsqualität der Elektronenstrahlung hin-gegen haben größere Auswirkungen auf die Dosiswerte.
Der kE,R-Faktor der Farmer-Kammern wurde durch einen Dosisvergleich mit der Roos-Kammer ermittelt. Der Mittelwert der Dosis aller drei Farmer-Kammern pro Energie wurde mit der Dosis der Roos-Kammer verglichen, der Unterschied als kE,R-Faktor bestimmt. Zusätzlich wurde das Verhalten der Farmer-Kammer bei der Absolutdosimetrie mit Elektronenstrahlung betrachtet. Hierbei wurde eine hohe Stabilität sowohl in den Tiefendosiskurven als auch in der Absolutdosimetrie deutlich, sodass die Farmer-Kammer der Firma PTW als für die Absolutdosimetrie mit Elektronenstrahlung < 10 MeV geeignet eingestuft wird.
Mobile devices (smartphones or tablets) as experimental tools (METs) offer inspiring possibilities for science education, but until now, there has been little research studying this approach. Previous research indicated that METs have positive effects on students’ interest and curiosity. The present investigation focuses on potential cognitive effects of METs using video analyses on tablets to investigate pendulum movements and an instruction that has been used before to study effects of smartphones’ acceleration sensors. In a quasi-experimental repeated-measurement design, a treatment group uses METs (TG, NTG = 23) and a control group works with traditional experimental tools (CG, NCG = 28) to study the effects on interest, curiosity, and learning achievement. Moreover, various control variables were taken into account. We suppose that pupils in the TG have a lower extraneous cognitive load and higher learning achievement than those in the CG working with traditional experimental tools. ANCOVAs showed significantly higher levels of learning achievement in the TG (medium effect size). No differences were found for interest, curiosity, or cognitive load. This might be due to a smaller material context provided by tablets, in comparison to smartphones, as more pupils possess and are familiar with smartphones than with tablets. Another reason for the unchanged interest might be the composition of the sample: While previous research showed that especially originally less-interested students profited most from using METs, the current sample contained only specialized courses, i.e., students with a high original interest, for whom the effect of METs on their interest is presumably smaller.
Untersuchungen zur Struktur und Spezifität der Phycobiliproteinlyase CPES aus Guillardia theta
(2020)
Cryptophyten verwenden neben Chlorophyll zusätzliche Lichtsammelproteine für die Photo-synthese – die Phycobiliproteine (PBP). In Cyanobakterien, Rotalgen und Glaukophyten sind PBP ebenfalls ubiquitär verbreitet. Für den Zweck der Lichtsammlung tragen die PBP- Untereinheiten kovalent gebundene offenkettige Tetrapyrrol-Chromophore an konservierten Cysteinresten. Diese Phycobiline sind in der Lage, grünes Licht zu absorbieren und es für die Photosynthese zur Verfügung zu stellen. Die Fähigkeit zur Photosynthese erlangten Crypto-phyten bei der sekundären Endosymbiose durch Aufnahme einer früheren Rotalge. Die evolutionäre Entwicklung brachte schließlich modifizierte PBP hervor. In Gegensatz zu ande-ren Organismen liegen die PBP in Cryptophyten in löslicher Form im Thylakoidlumen des Plastiden vor. Cryptophyten besitzen lediglich einen Typ an PBP, Guillardia theta verwendet Phycoerythrin PE545. Die α-Untereinheiten sind jeweils mit einem Molekül 15,16-Dihydrobi-liverdin (DHBV) und die β-Untereinheiten mit drei Molekülen Phycoerythrobilin (PEB) chromophoryliert. Die Chromophorylierung cryptophytischer Apo-PBP ist bisher wenig un-tersucht und verstanden. Aus Cyanobakterien ist jedoch bekannt, dass die Chromophorylie-rung häufig mit Hilfe von Phycobiliproteinlyasen (PBP Lyasen) stattfindet, welche die Phyco-bilinübertragung unterstützen.
In der vorliegenden Arbeit erfolgte die funktionelle Charakterisierung der eukaryotischen S-Typ-PBP Lyase GtCPES aus G. theta. Mittels Fluoreszenzspektroskopie und Zink-induzierter Fluoreszenz konnte gezeigt werden, dass GtCPES den Transfer von 3(Z)-PEB auf Cys82 der PBP-β-Untereinheit aus Prochlorococcus marinus MED4 (PmCpeB) vermittelt. An der PEB-Bindung sowie am -Transfer beteiligte Aminosäuren wurden mit Hilfe Zielgerichteter Muta-genese identifiziert. Anhand spektroskopischer Binde- und Transferstudien mit den Protein-varianten wurden drei Aminosäuren in der Ligandenbindetasche ermittelt, die relevant für die Bindung sind (Trp69, Glu136, Glu168). Diese koordinieren vermutlich PEB in der Bindetasche und stabilisieren somit die Konformation. Zusätzlich konnten zwei im PEB-Transfer involvierte Aminosäuren eindeutig identifiziert werden (Trp75, Ser150). Trp75 kommt dabei eine essenzielle Bedeutung für den Transfer zu. Des Weiteren konnte gezeigt werden, dass Met67 für die auf PEB und DHBV beschränkte Substratspezifität von GtCPES verantwortlich ist. Die Variante GtCPES_M67A bindet sowohl PEB als auch das rigide Phycocyanobilin (PCB) stabil unter Bildung eines farbigen Komplexes in vitro und in vivo in Escherichia coli. GtCPES_M67A scheint zudem in der Lage zu sein, PCB auf geeignete Apo-Proteine zu transfe-rieren. Neben der sterischen und elektrostatischen Umgebung entscheidet damit zusätzlich die Substratspezifität der PBP Lyase über die gebundenen Chromophore am PBP.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
Erstmalig wurde Synchrotron-basierte nukleare inelastische Streuung (NIS) unter Nutzung des Mößbauer-Isotops 161Dy für die Untersuchung der vibronischen Eigenschaften eines DyIII-basierten Einzelmolekülmagneten, [Dy(Cy3PO)2(H2O)5]Br3⋅2 (Cy3PO)⋅2 H2O⋅2 EtOH, eingesetzt. Die experimentelle partielle Phononen-Zustandsdichte, die alle Schwingungen mit einer Auslenkung des DyIII-Ions enthält, wurde mit Hilfe von auf Dichtefunktionaltheorie (DFT) basierenden Simulationen reproduziert, was die Zuordnung aller intramolekularen Schwingungsmoden des Moleküls ermöglicht. Diese Studie zeigt, dass 161Dy-NIS als eine experimentelle Methode ein hohes Potential besitzt, um zur Klärung der Rolle von Phononen in Einzelmolekülmagneten beizutragen.
Zur Reduktion von Kavitation am Eintritt des Laufrades einer Strömungsmaschine
finden häufig Inducer Anwendung. Hierbei handelt es sich um ein axiales Laufrad,
bei dem nur ein minimaler Druckaufbau stattfindet. Inducer sind Gegenstand der
hier vorliegenden Forschungsfragen. Basierend auf der zurzeit verfügbaren Literatur
sind zwei Arbeitshypothesen aufgestellt und untersucht. Die Hypothesen lauten
wie folgt:
1) Die Strömung im Bereich der Nabe ist abgelöst.
2) Die axiale Länge der Inducer kann verringert werden.
Die detaillierte Untersuchung der Hypothesen erfolgt durch instationäre Simulationen,
durchgeführt mit Ansys CFX in der Version 17.2. Gelöst werden hier
die Reynolds-gemittelten Navier-Stokes-Gleichungen. Um relevante Sekundärströmungseffekte
erfassen zu können, wird für die Modellierung des Reynolds-Spannungs-
Tensors der RANS Gleichungen ein Reynolds-Spannungs-Modell verwendet.
Hiermit ist eine detailliertere Modellierung physikalischer Effekte möglich. Um die
wandnahen Effekte der Strömungsablösung durch eine Strömungssimulation geeignet
abbilden zu können, wird auf eine passende Auflösung des Bereichs der
Grenzschicht geachtet. Zur Reduzierung der Fehler die sich aus der numerischen
Abbildung der realen Strömungszustände ergeben sind Voruntersuchungen bei den
Simulationen durchgeführt. Validiert werden die so generierten numerischen Ergebnisse
mittels instationärer und stationärer Messungen des statischen Drucks,
des Totaldrucks und des Strömungswinkels. Anstrichbilder basierend auf Ölfarbe
ermöglichen es die Stromlinien auf der Wand zu validieren und somit Ablösung
an der Nabe numerisch plausibel darzustellen. Somit ist sichergestellt, dass die
numerischen Ergebnisse die realen Strömungszustände bestmöglich abbilden. Alle
Untersuchungen erfolgen ohne den Einfluss von Kavitation und für Inducer mit unterschiedlich
gestalteten Vorderkanten der Schaufeln. Grundlagenwissen über die
Strömung an der Nabe, die entstehenden Verluste und den Einfluss auf die Strömungszustände
in der Auslaufstrecke liegt somit vor.
Basierend auf diesen Ergebnissen können weitere Untersuchungen erfolgen, um die
Verluste zu reduzieren und die Verteilung von Druck, Geschwindigkeit und Winkel
entlang der radialen Position in der Auslaufstrecke des Inducers homogener zu
gestalten. Die axiale Baulänge und deren mögliche Reduktion sind unmittelbar
mit einer Einsparung von Bauraum und Kosten verbunden. Basierend auf den hier
generierten Grundlagen ist ein Ansatz zur korrekten Dimensionierung der axialen
Länge bzw. des Umschlingungswinkels gegeben.
The Griffith-Ley oxidation of alcohols to aldehydes and ketones is performed with either RuCl3 ⋅ (H2O)x or a highly stable, well-defined ruthenium catalyst and with cheap trimethylamine N-oxide (TMAO) as the oxygen source. The use of n-heptane as the solvent, which forms a second phase with TMAO and a part of the alcohol, allows the reactions to be performed with a minimum amount of catalyst. This results in high local concentrations and thus to very rapid conversions. Detailed quantum chemical calculations suggest, that the Griffith-Ley oxidation not necessarily requires high oxidation states of ruthenium but can also proceed with RuII/RuIV species.
Existentialist philosophy offers an understanding of how trying to eliminate ambiguities that inevitably mark the human condition only seemingly leads to freedom. This existentialist outlook can also serve to shed light on how democratic politics may similarly show tendencies which aim at overcoming immanent tensions. Such tendencies in democratic politics can be clarified using Sartre’s notion of ignorance – and truth as its counterpart. His concept of ignorance goes beyond merely facts or knowledge and refers to a mode of being. It expresses a subject’s desire to avoid, rather than confront, resistances stemming from the world. Based on a distinction of different forms in which this orientation can manifest itself, this article shows how democratic politics, too, can be threatened by ignorance as a way of doing politics. This ignorance comes in different guises which all express a desire to eliminate tensions that democratic politics cannot overcome without undermining itself.
To assess ergonomic aspects of a (future) workplace already in the design phase where no physical prototypes exist, the use of digital human models (DHMs) becomes essential. Thereby, the prediction of human motions is a key aspect when simulating human work tasks. For ergonomic assessment e.g. the resulting postures, joint angles, the duration of the motion and muscle loads are important quantities. From a physical point of view, there is an infinite number of possible ways for a human to fulfill a given goal (trajectories, velocities...), which makes human motions and behavior hard to predict. A common approach used in state of the art commercial DHMs is the manual definition of joint angles by the user, which requires expert knowledge and is limited to postural assessments. Another way is to make use of pre-recorded motions from a real human that operates on a physical prototype, which limits assessments to scenarios which have been measured before. Both approaches need further post processing and inverse dynamics calculations with other software tools to get information about inner loads and muscle data, which leads to further uncertainties concerning validity of the simulated data.
In this thesis work a DHM control and validation framework is developed, which allows to investigate in how far the implemented human like actuation and control principles directly lead to human like motions and muscle actuations. From experiments performed in the motion laboratory, motion data is captured and muscle activations are measured using surface electromyography measurements (EMG). From the EMG data, time invariant muscle synergies are extracted by the use of a non-negative Matrix Factorization algorithm (NMF). Muscle synergies are one hypothesis from neuroscience to explain how the human central nervous system might reduce control complexity: instead of activating each muscle separately, muscles are grouped into functional units, whereas each muscle is present in each unit with a fixed amplitude. The measured experiment is then simulated in an optimal control framework. The used framework allows to build up DHMs as multibody system (MBS): bones are modeled as rigid bodies connected via joints, actuated by joint torques or by Hill type muscle models (1D string elements transferring fundamental characteristics of muscle force generation in humans). The OC code calculates the actuation signals for the modeled DHM in a way that a certain goal is fulfilled (e.g. reach for an object) while minimizing some cost function (e.g. minimizing time) and considering the side constraints that the equations of motion of the MBS are fulfilled. Therefore, three different Actuation Modes (AM) can be used (joint torques (AM-T), direct muscle actuation (AM-M) and muscle synergy actuation (AM-S), using the before extracted synergies as control parameters)). Simulation results are then compared with measured data, to investigate the influence of the different Actuation Modes and the solved OC cost function. The approach is applied to three different experiments, the basic reaching test, the weight lift test and a box lifting task, where a human arm model actuated by 29 Hill muscles is used for simulation. It is shown that, in contrast to a joint torque actuation (AM-T), using muscles as actuators (AM-M & AM-S) leads to very human like motion trajectories. Muscle synergies as control parameters, resulted in smoother velocity profiles, which were closer to those measured and appeared to be more robust, concerning the underlying muscle activation signals (compared to AM-M). In combination with a developed biomechanical cost function (a mix of different OC cost functions), the approach showed promising results, concerning the simulation of valid, human like motions, in a predictive manner.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Introducing parallelism and exploring its use is still a fundamental challenge for the computer algebra community. In high-performance numerical simulation, on the other hand, transparent environments for distributed computing which follow the principle of separating coordination and computation have been a success story for many years. In this paper, we explore the potential of using this principle in the context of computer algebra. More precisely, we combine two well-established systems: The mathematics we are interested in is implemented in the computer algebra system SINGULAR, whose focus is on polynomial computations, while the coordination is left to the workflow management system GPI-Space, which relies on Petri nets as its mathematical modeling language and has been successfully used for coordinating the parallel execution (autoparallelization) of academic codes as well as for commercial software in application areas such as seismic data processing. The result of our efforts is a major step towards a framework for massively parallel computations in the application areas of SINGULAR, specifically in commutative algebra and algebraic geometry. As a first test case for this framework, we have modeled and implemented a hybrid smoothness test for algebraic varieties which combines ideas from Hironaka’s celebrated desingularization proof with the classical Jacobian criterion. Applying our implementation to two examples originating from current research in algebraic geometry, one of which cannot be handled by other means, we illustrate the behavior of the smoothness test within our framework and investigate how the computations scale up to 256 cores.
Background: The use of health apps to support the treatment of chronic pain is gaining importance. Most available pain management apps are still lacking in content quality and quantity as their developers neither involve health experts to ensure target group suitability nor use gamification to engage and motivate the user. To close this gap, we aimed to develop a gamified pain management app, Pain-Mentor.
Objective: To determine whether medical professionals would approve of Pain-Mentor’s concept and content, this study aimed to evaluate the quality of the app’s first prototype with experts from the field of chronic pain management and to discover necessary improvements.
Methods: A total of 11 health professionals with a background in chronic pain treatment and 2 mobile health experts participated in this study. Each expert first received a detailed presentation of the app. Afterward, they tested Pain-Mentor and then rated its quality using the mobile application rating scale (MARS) in a semistructured interview.
Results: The experts found the app to be of excellent general (mean 4.54, SD 0.55) and subjective quality (mean 4.57, SD 0.43). The app-specific section was rated as good (mean 4.38, SD 0.75). Overall, the experts approved of the app’s content, namely, pain and stress management techniques, behavior change techniques, and gamification. They believed that the use of gamification in Pain-Mentor positively influences the patients’ motivation and engagement and thus has the potential to promote the learning of pain management techniques. Moreover, applying the MARS in a semistructured interview provided in-depth insight into the ratings and concrete suggestions for improvement.
Conclusions: The experts rated Pain-Mentor to be of excellent quality. It can be concluded that experts perceived the use of gamification in this pain management app in a positive manner. This showed that combining pain management with gamification did not negatively affect the app’s integrity. This study was therefore a promising first step in the development of Pain-Mentor.
Cell division and cell elongation are fundamental processes for growth. In contrast to animal cells, plant cells are surrounded by rigid walls and therefore loosening of the wall is required during elongation. On the other hand, vacuole size has been shown to correlate with cell size and inhibition of vacuolar expansion limits cell growth. However, the specific role of the vacuole during cell elongation is still not fully resolved. Especially the question whether the vacuole is the leading unit during cellular growth or just passively expands upon water uptake remains to be answered. Here, we review recent findings about the contribution of the vacuole to cell elongation. In addition, we also discuss the connection between cell wall status and vacuolar morphology. In particular, we focus on the question whether vacuolar size is dictated by cell size or vice versa and share our personnel view about the sequential steps during cell elongation.
Ethernet has become an established communication technology in industrial automation. This was possible thanks to the tremendous technological advances and enhancements of Ethernet such as increasing the link-speed, integrating the full-duplex transmission and the use of switches. However these enhancements were still not enough for certain high deterministic industrial applications such as motion control, which requires cycle time below one millisecond and jitter or delay deviation below one microsecond. To meet these high timing requirements, machine and plant manufacturers had to extend the standard Ethernet with real-time capability. As a result, vendor-specific and non-IEEE standard-compliant "Industrial Ethernet" (IE) solutions have emerged.
The IEEE Time-Sensitive Networking (TSN) Task Group specifies new IEEE-conformant functionalities and mechanisms to enable the determinism missing from Ethernet. Standard-compliant systems are very attractive to the industry because they guarantee investment security and sustainable solutions. TSN is considered therefore to be an opportunity to increase the performance of established Industrial-Ethernet systems and to move forward to Industry 4.0, which require standard mechanisms.
The challenge remains, however, for the Industrial Ethernet organizations to combine their protocols with the TSN standards without running the risk of creating incompatible technologies. TSN specifies 9 standards and enhancements that handle multiple communication aspects. In this thesis, the evaluation of the use of TSN in industrial real-time communication is restricted to four deterministic standards: IEEE802.1AS-Rev, IEEE802.1Qbu IEEE802.3br and IEEE802.1Qbv. The specification of these TSN sub-standards was finished at an early research stage of the thesis and hardware prototypes were available.
Integrating TSN into the Industrial-Ethernet protocols is considered a substantial strategical challenge for the industry. The benefits, limits and risks are too complex to estimate without a thorough investigation. The large number of Standard enhancements makes it hard to select the required/appropriate functionalities.
In order to cover all real-time classes in the automation [9], four established Industrial-Ethernet protocols have been selected for evaluation and combination with TSN as well as other performance relevant communication features.
The objectives of this thesis are to
(1) Provide theoretical, simulation and experimental evaluation-methodologies for the timing performance analysis of the deterministic TSN-standards mentioned above. Multiple test-plans are specified to evaluate the performance and compatibility of early version TSN-prototypes from different providers.
(2) Investigate multiple approaches and deduce migration strategies to integrate these features into the established Industrial-Ethernet protocols: Sercos III, Profinet IRT, Profinet RT and Ethernet/IP. A scenario of coexistence of time-critical traffic with other traffic in a TSN-network proves that the timing performance for highly deterministic applications, e.g. motion-control, can only be guaranteed by the TSN scheduling algorithm IEEE802.1Qbv.
Based on a requirements survey of highly deterministic industrial applications, multiple network scenarios and experiments are presented. The results are summarized into two case studies. The first case study shows that TSN alone is not enough to meet these requirements. The second case study investigates the benefits of additional mechanisms (Gigabit link-speed, minimum cycle time modeling, frame forwarding mechanisms, frame structure, topology migration, etc.) in combination with the TSN features. An implementation prototype of the proposed system and a simulation case study are used for the evaluation of the approach. The prototype is used for the evaluation and validation of the simulation model. Due to given scalability constraints of the prototype (no cut-through functionalities, limited number of TSN-prototypes, etc…), a realistic simulation model, using the network simulation tool OMNEST / OMNeT++, is conducted.
The obtained evaluation results show that a minimum cycle time ≤1 ms and a maximum jitter ≤1 μs can be achieved with the presented approaches.
Endocytosis of the amyloid precursor protein (APP) is critical for generation of β-amyloid, aggregating in Alzheimer's disease. APP endocytosis depending on the intracellular NPTY motif is well investigated, whereas involvement of the YTSI (also termed BaSS) motif remains controversial. Here, we show that APP lacking the YTSI motif (ΔYTSI) displays reduced localization to early endosomes and decreased internalization rates, similar to APP ΔNPTY. Additionally, we show that the YTSI-binding protein, PAT1a interacts with the Rab5 activator RME-6, as shown by several independent assays. Interestingly, knockdown of RME-6 decreased APP endocytosis, whereas overexpression increased the same. Similarly, APP ΔNPTY endocytosis was affected by PAT1a and RME-6 overexpression, whereas APP ΔYTSI internalization remained unchanged. Moreover, we could show that RME-6 mediated increase of APP endocytosis can be diminished upon knocking down PAT1a. Together, our data identify RME-6 as a novel player in APP endocytosis, involving the YTSI-binding protein PAT1a.
The development of a power system based on high shares of renewable energy sources puts high demands on power grids and the remaining controllable power generation plants, load management and the storage of energy. To reach climate protection goals and a significant reduction of CO2, surplus energies from fluctuating renewables have to be used to defossilize not only the power production sector but the mobility, heat and industry sectors as well, which is called sector coupling. In this article, the role of wastewater treatment plants by means of sector coupling is pictured, discussed and evaluated. The results show significant synergies—for example, using electrical surplus energy to produce hydrogen and oxygen with an electrolyzer to use them for long-term storage and enhancing purification processes on the wastewater treatment plant (WWTP). Furthermore, biofuels and storable methane gas can be produced or integrate the WWTP into a local heating network. An interconnection in many fields of different research sectors are given and show that a practical utilization is possible and reasonable for WWTPs to contribute with sustainable energy concepts to defossilization.
Employing site-directed spin labeling (SDSL), the structure of maltose-binding protein (MBP) had previously been studied in the native state by electron paramagnetic resonance (EPR) spectroscopy. Several spin-labeled double cysteine mutants were distributed all over the structure of this cysteine-free protein and revealed distance information between the nitroxide residues from double electron–electron resonance (DEER). The results were in good agreement with the known X-ray structure. We have now extended these studies to the molten globule (MG) state, a folding intermediate, which can be stabilized around pH 3 and that is characterized by secondary but hardly any tertiary structure. Instead of clearly defined distance features as found in the native state, several additional characteristics indicate that the MG structure of MBP contains different polypeptide chain and domain orientations. MBP is also known to bind its substrate maltose even in MG state although with lower affinity. Additionally, we have now created new mutants allowing for spin labeling at or near the active site. Our data confirm an already preformed ligand site structure in the MG explaining its substrate binding capability and thus most probably serving as a nucleation center for the final native structure.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Much reading research has found that informative parafoveal masks lead to a reading benefit for native speakers (see, Schotter et al., 2012). However, little reading research has tested the impact of uninformative parafoveal masks during reading. Additionally, parafoveal processing research is primarily restricted to native speakers. In the current study we manipulated the type of uninformative preview using a gaze contingent boundary paradigm with a group of L1 English speakers and a group of late L2 English speakers (L1 German). We were interested in how different types of uninformative masks impact on parafoveal processing, whether L1 and L2 speakers are similarly impacted, and whether they are sensitive to parafoveally viewed language-specific sub-lexical orthographic information. We manipulated six types of uninformative masks to test these objectives: an Identical, English pseudo-word, German pseudo-word, illegal string of letters, series of X’s, and a blank mask. We found that X masks affect reading the most with slight graded differences across the other masks, L1 and L2 speakers are impacted similarly, and neither group is sensitive to sub-lexical orthographic information. Overall these data show that not all previews are equal, and research should be aware of the way uninformative masks affect reading behavior. Additionally, we hope that future research starts to approach models of eye-movement behavior during reading from not only a monolingual but also from a multilingual perspective.
Intermetallische Verbindungen stellen eine relativ neue Gruppe heterogener Katalysatoren dar. Durch die Bildung von Kristallstrukturen und die damit einhergehende Änderung elektronischer und geometrischer Strukturen handelt es sich nicht einfach um Dotierungen von bestehenden Systemen, man kann viel mehr von "neuen Elementen" für die Katalyse sprechen. Jede Kombination hat ihre eigenen Eigenschaften und damit ungeahntes Potential für katalytische Anwendungen.
Eine Gruppe intermetallischer Verbindungen stellen Heusler-Phasen dar. Diese Untergruppe der intermetallischen Phasen zeigt sich im Feld der Katalyse als unbeschriebenes Blatt, ist in Anwendungen der Physik aber schon ein etabliertes System. Heusler-Verbindungen weisen die Zusammensetzung X2YZ auf, die Elemente X und Y sind in der Regel Übergangsmetalle während das Z Element aus der III. – V. Hauptgruppe stammt. Es handelt sich um ein kubisches Gitter der Raumgruppe Fm3 ̅m (Nr. 225) mit Cu2MnAl als Strukturtyp bestimmende Verbindung und der Strukturberichte Bezeichnung L21.
Ziel dieser Arbeit war es, SiO2 geträgerte Materialien basierend auf einer Heusler-Phase zu synthetisieren und diese auf ihre katalytische Aktivität in Modellreaktionen zu testen. Zunächst wurde eine Reihe von Verbindungen mit der Einsatzstöchiometrie X2YZ über Co Imprägnierung hergestellt. Bei allen Materialen wurde Cu als X-Element gewählt. Die Y-Position wurde mit den Elementen Ce, Co, Fe, La, Mn, Ni und Ti besetzt, während die Z-Position durch die Elemente Al, Ga, In, Sb, Si und Sn besetzt wurde. Aus den gewählten Zusammensetzungen ergaben sich 42 verschiedene Materialien. Über Röntgenbeugung wurden die fünf Kombinationen Cu2CoSn, Cu2FeSn, Cu2LaIn, Cu2NiSn2 und Cu2TiIn (jeweils 30 Gew.% auf SiO2) als aussichtsreichste Materialien bestimmt.
Mit Modellsubstanzen aus dem Bereich der Alkine (2-Hexin), der Aromaten (Benzol), der Aldehyde (Aceton) und der α, β ungesättigten Aldehyde (Citral, Citronellal, Zimtaldehyd und Furfural) wurde die höchste katalytische Aktivität an dem Material 30 Gew. % Cu2NiSn/SiO2 erzielt. Für dieses Material wurde eine Optimierung der Synthese angestrebt. Als wichtigster Parameter zur Ausbildung einer nanopartikulären Heusler-Phase in der nasschemischen Synthese stellte sich der Metallgehalt auf dem Träger heraus. Die drei Charakterisierungsmethoden N2 Physisorption, XRD und TEM zeigten, dass es möglich ist, die Heusler-Phase 10 Gew. % Cu2NiSn/SiO2 über den nasschemischen Weg als nanopartikuläres Material herzustellen.
Die katalytischen Eigenschaften dieses Materials wurden anhand der Modellsubstanz Zimtaldehyd umfassend untersucht sowie vergleichend mono- und bimetallische Materialien basierend auf den drei Metallen Cu, Ni und Sn herangezogen. Mit der Heusler Phase 10 Gew. % Cu2NiSn/SiO2 wurde bei einer Reaktionstemperatur von 150 °C nach 5 h ein Umsatz von 67 % mit einer Selektivität von 49 % zu Zimtalkohol erzielt, während das thermodynamisch begünstige Produkt Hydrozimtaldehyd mit einer Selektivität von lediglich 30 % gebildet wurde. Die Heusler Verbindung weist die höchste Chemoselektivität zu Zimtalkohol aller in dieser Arbeit getesteten Systeme auf. Während die Aktivität des in dieser Arbeit entwickeltem Heusler-Materials Cu2NiSn/SiO2 geringer ist, können mit der Literatur vergleichbare Selektivitäten zu Zimtalkohol erreicht werden. Die Ergebnisse zur chemoselektiven Hydrierung eines nasschemisch hergestellten Materials zeigen somit die Vielseitigkeit und das große Potential von intermetallischen Heusler Verbindungen in der heterogenen Katalyse.
In response priming experiments, a participant has to respond as quickly and as accurately as possible to a target stimulus preceded by a prime. The prime and the target can either be mapped to the same response (consistent trial) or to different responses (inconsistent trial). Here, we investigate the effects of two sequential primes (each one either consistent or inconsistent) followed by one target in a response priming experiment. We employ discrete-time hazard functions of response occurrence and conditional accuracy functions to explore the temporal dynamics of sequential motor activation. In two experiments (small-N design, 12 participants, 100 trials per cell and subject), we find that (1) the earliest responses are controlled exclusively by the first prime if primes are presented in quick succession, (2) intermediate responses reflect competition between primes, with the second prime increasingly dominating the response as its time of onset is moved forward, and (3) only the slowest responses are clearly controlled by the target. The current study provides evidence that sequential primes meet strict criteria for sequential response activation. Moreover, it suggests that primes can influence responses out of a memory buffer when they are presented so early that participants are forced to delay their responses.
Die Arbeit beschäftigt sich zunächst damit, was Schulentwicklung umfasst, welche Rolle die Teamentwicklung spielt und welche zentrale Stellung die Schulleitung, allen voran die Schulleiterin bzw. der Schulleiter, hierbei innehat. Daran anschließend wird konkret auf die Besonderheiten der Gemeinschaftsschule in Baden-Württemberg eingegangen und die damit verbundenen Herausforderungen für eine positive Schulentwicklung betrachtet. Abschließend wird die Frage beantwortet, wie die Schulleitung Teamentwicklung an einer Gemeinschaftsschule für eine positive Schulentwicklung initiieren, fördern, begleiten und implementieren kann. Die Ergebnisse münden in einer Handreichung für Schulleitungen an Gemeinschaftsschulen.
Colorectal cancer (CRC) is among the most frequent cancer entities worldwide. Multiple factors are causally associated with CRC development, such as genetic and epigenetic alterations,
inflammatory bowel disease, lifestyle and dietary factors. During malignant transformation,the cellular energy metabolism is reprogrammed in order to promote cancer cell growth and
proliferation. In this review, we first describe the main alterations of the energy metabolism found in CRC, revealing the critical impact of oncogenic signaling and driver mutations in key metabolic
enzymes. Then, the central role of mitochondria and the tricarboxylic acid (TCA) cycle in this process is highlighted, also considering the metabolic crosstalk between tumor and stromal cells in the
tumor microenvironment. The identified cancer-specific metabolic transformations provided new therapeutic targets for the development of small molecule inhibitors. Promising agents are in clinical
trials and are directed against enzymes of the TCA cycle, including isocitrate dehydrogenase, pyruvate dehydrogenase kinase, pyruvate dehydrogenase complex (PDC) and α-ketoglutarate dehydrogenase
(KGDH). Finally, we focus on the α-lipoic acid derivative CPI-613, an inhibitor of both PDC and KGDH, and delineate its anti-tumor effects for targeted therapy.
Die Gefährdungsbeurteilung der psychischen Belastung (Psych GB) birgt auf den Ebenen Organisation, Team und Individuum ein bisher wenig genutztes Potenzial für Organisationen. Nicht nur die gesetzlichen Vorgaben werden erfüllt, sondern zusätzliches Entwicklungspotenzial zur gesunden und agilen Organisationsentwicklung erschlossen. Es werden u.a. Rückkopplungseffekte für die Kommunikation und Führung im Zusammenhang mit VUCA sowie eine resiliente Organisationskultur behandelt.