Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (930) (remove)
Language
- German (930) (remove)
Keywords
- Katalyse (14)
- Stadtplanung (14)
- Simulation (13)
- Apoptosis (10)
- Phasengleichgewicht (10)
- Eisen (9)
- Modellierung (9)
- Tribologie (9)
- Oxidativer Stress (8)
- Querkraft (8)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (307)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (227)
- Kaiserslautern - Fachbereich Bauingenieurwesen (88)
- Kaiserslautern - Fachbereich Biologie (80)
- Kaiserslautern - Fachbereich ARUBI (66)
- Kaiserslautern - Fachbereich Sozialwissenschaften (35)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (28)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (28)
- Kaiserslautern - Fachbereich Informatik (17)
- Kaiserslautern - Fachbereich Physik (16)
In der heutigen Arbeitswelt stehen Organisationen vor der Herausforderung, sich kontinuierlich an Veränderungen anzupassen. Der demographische Wandel und steigende Zahlen von Arbeitsausfällen durch psychische Belastungen rücken das Wohlergehen und die Zufriedenheit von Mitarbeitenden am Arbeitsplatz in den Fokus. Die Mitarbeiterbefragung als Instrument der Organisationsentwicklung ist eine Möglichkeit Veränderungsprozesse so zu gestalten, dass betriebswirtschaftliche und gleichzeitig humanistische Ziele erreicht werden können. Bei der Umsetzung von Mitarbeiterbefragungen kommt es vor allem auf deren Folgeprozesse an, da hier aus den Ergebnissen einer Befragung Schlussfolgerungen gezogen und diese in Aktionen überführt werden. Der Blick in die Praxis zeigt jedoch, dass Erwartungen an Folgeprozesse und somit Mitarbeiterbefragungen, sowohl auf Seite von Unternehmen, als auch auf Seite von Mitarbeitenden, oft enttäuscht werden.
Die bisherige Forschung zeigt zwar allgemein den positiven Effekt von Mitarbeiterbefragungen und Folgeprozessen auf, jedoch bleibt unklar, wie einzelne Bestandteile eines Folgeprozesses und vor allem deren qualitative Durchführung wirken. Hierin liegt der erste Ansatzpunkt der vorliegenden Arbeit. Darüber hinaus soll die Rolle von Führungskräften in Folgeprozessen beleuchtet werden. Denn aus den vielen Überlegungen und Untersuchungen dazu, welche Aspekte Change-Prozesse beeinflussen, sticht oft die besondere Rolle von Führungskräften hervor. Dabei wird von den Führungskräften Verhalten gefordert, welches über ein klassisch rational-funktionales Verständnis von Führung hinausgeht und Mitarbeitende dazu anregt, sich offen und engagiert in Veränderungsprozessen zu verhalten. Einen Ansatz dies zu erreichen, stellt Positive Leadership dar. Hierbei werden Führungsverhaltensweisen an den Tag gelegt, die die Sinnhaftigkeit der Arbeit betonen, positive Beziehungen zu Mitarbeitenden fördern, Anerkennung und Wertschätzung zeigen, Stärkenorientierung praktizieren, für positives Arbeitsklima sorgen, positive Kommunikation beinhalten, die Mitarbeitenden in ihrer Entwicklung unterstützen und insbesondere Partizipation und Befähigung ermöglichen. Auch wenn sich das Konzept Positive Leadership immer größerer Beliebtheit erfreut, existiert noch keine klare Konzeption des Konstrukts und noch kein etabliertes Messinstrument. Darüber hinaus findet sich noch keine Anwendung des Konzepts im Kontext von Change-Prozessen allgemein und von Folgeprozessen von Mitarbeiterbefragungen im Speziellen.
Das Hauptziel der vorliegenden Arbeit besteht darin, Positive Leadership im Kontext von Folgeprozessen einer Mitarbeiterbefragung zu untersuchen. Dazu wurden vier Studien durchgeführt. In Studie 1 wurde durch teilstrukturierte Experten-Interviews (N = 22) exploriert, welche Schritte ein Folgeprozess einer Mitarbeiterbefragung beinhaltet und woran sich eine hohe Qualität in der Durchführung dieser Schritte festmachen lässt. In Studie 2 wurde in drei Teiluntersuchungen (N1 = 194, N2 = 201, N3 = 124) ein Messinstrument für Positive Leadership entwickelt und validiert.
In Studie 3 wurden in einer Fragebogenstudie an einer Stichprobe von Mitarbeitenden (N = 1302) und Führungskräften (N = 266) der Stellenwert einzelner Schritte des Folgeprozesses und der Qualität in der Durchführung aufgezeigt. Des Weiteren wurde der Einfluss von Positive Leadership auf die Qualität des Folgeprozesses und auch Arbeitsengagement und Arbeitszufriedenheit belegt. Dies galt sowohl für Mitarbeitende als auch für Führungskräfte selbst. Sowohl die Einhaltung und Qualität des Folgeprozesses als auch Positive Leadership wirkten sich zudem (zum Teil indirekt über die Zufriedenheit mit dem Folgeprozess vermittelt) auf die Veränderung in Arbeitsengagement und Arbeitszufriedenheit zwischen zwei Mitarbeiterbefragungen aus. Außerdem konnten an einer Stichprobe von 242 Dyaden aus Führungskraft und Mitarbeitendem die Auswirkungen von Diskrepanz und Kongruenz der Einschätzungen zu Positive Leadership oder dem Folgeprozess aufgezeigt werden. Zuletzt wurde untersucht, inwiefern die Attribution von Erfolgen und Misserfolgen im Folgeprozess durch Positive Leadership beeinflusst wird.
Studie 4 bestätigte in einem experimentellen Design (N = 420) unter Anwendung von Video-Vignetten die positiven Effekte einer hohen Qualität des Folgeprozesses und von Positive Leadership auf das Arbeitsengagement und die Arbeitszufriedenheit. Darüber hinaus konnten die vorigen Erkenntnisse um Aussagen über Interaktionen der untersuchten Faktoren erweitert werden. So zeigte sich, dass positives Führungsverhalten die Effekte mangelhafter Qualität im Folgeprozess oder geringer Einhaltung der Schritte des Folgeprozesses abfedern kann. Eine hohe Einhaltung der Schritte im Folgeprozess wirkte sich zudem nur positiv auf die Zufriedenheit mit dem Folgeprozess aus, wenn die Qualität der durchgeführten Schritte hoch war. Außerdem wurde in Studie 4 der Effekt von angenommenen Unterschieden in der Zufriedenheit mit dem Folgeprozess zwischen Mitarbeitenden und Führungskräften auf die Teilnahmeintention an einer nächsten Mitarbeiterbefragung, sowie der Arbeitszufriedenheit und dem Arbeitsengagement aufgezeigt. Abschließend wurden erneut die Auswirkungen von Positive Leadership auf die Attribution von Erfolgen und Misserfolgen im Folgeprozess analysiert. Zusätzlich wurden auch weiterführende Effekte der Attribution auf die Teilnahmeintention an nächsten Mitarbeiterbefragungen untersucht.
Die vorgestellten Studien der Dissertation werden theoretisch und methodisch diskutiert. Auf Basis der Ergebnisse werden praktische Empfehlungen zum verbesserten Umgang mit Folgeprozessen von Mitarbeiterbefragungen und Positive Leadership abgeleitet.
Mit der vorliegenden Dissertation wurde ein Werkzeug für die Erstellung volldigitaler binnendifferenzierter Arbeitsblätter im Regelunterricht Chemie evaluiert und weiterentwickelt, das ein motivations- und interessensförderndes Potential aufweist. Es konnten Zusammenhänge zur Benutzbarkeit der Anwendung und zum Cognitive Load hergestellt werden. Die Ergebnisse stützen damit die Erkenntnisse im Bereich des Lernens mit digitalen Medien. Die Integration von digitalen Werkzeugen in den Lernprozess ist berechtigt. Sie zeigen einerseits für Schüler:innen ein motivationsförderndes Potential und andererseits für Lehrende praktische Vorteile, indem auf vielfältige Weise Informationen dargeboten werden können – zum Beispiel im Bereich der Differenzierung. Mit HyperDocSystems können binnendifferenzierte digitale Arbeitsblätter erstellt und bearbeitet werden. Diese so genannten HyperDocs können von Lehrenden mit Lernhilfen in verschiedenen Darstellungsformen angereichert und von Lernenden volldigital im Browser mit einem Stylus oder der Tastatur bearbeitet werden.
Im Rahmen einer quasi-experimentellen Feldstudie wurde der Einsatz dieser neuartigen HyperDocs erstmals unter Betrachtung der intrinsischen Motivation und des Interesses, der Usability sowie der Nutzung des multimedialen Differenzierungsangebots analysiert. Die Studie fand über vier Schulstunden im Regelunterricht Chemie der Mittelstufe (Gymnasium / Gesamtschule) und Oberstufe (Gymnasium) statt. Dabei wurden auch der Cognitive Load und die tabletbezogenen Kompetenzen der Lernenden berücksichtigt. Die Ergebnisse lassen auf ein motivationsförderndes Potential der HyperDocs gegenüber analogen Arbeitsblättern schließen. Dabei zeigen sich Unterschiede zwischen den Geschlechtern, die zum Teil auf den Cognitive Load zurückzuführen sind und abhängig vom Alter der Lernenden (Mittel- und Oberstufe) auftreten. Die Lernhilfen werden in diesem Zusammenhang häufig aus Interesse und Neugier verwendet. Schüler:innen nutzen insbesondere Lernhilfen in Form von Text und Bild. Die Nutzungshäufigkeit des Differenzierungsangebots gibt jedoch nicht unmittelbar Aufschlüsse über die Motivation oder den Cognitive Load der Lernenden. Bei der Usability handelt es sich um ein wichtiges Kriterium beim Einsatz von digitalen Lernprogrammen, da sich unter anderem ein Zusammenhang zu den Variablen der intrinsischen Motivation und zum Cognitive Load beim Lernen mit HyperDocs herstellen lässt. Die Usability ist dabei jedoch abhängig vom Messzeitpunkt. HyperDocs weisen eine hohe Usability auf und können daher uneingeschränkt in der Mittel- und Oberstufe eingesetzt werden.
Esse aut non esse - Affirmation und Subversion intergeschlechtlicher Existenzen in der Schule
(2024)
Am 10.10.17 beschloss das Bundesverfassungsgericht in Karlsruhe, ein sog. drittes Geschlecht für den Eintrag im Geburtenregister einzuführen. Intersexuellen Menschen sollte damit ermöglicht werden, ihre geschlechtliche Identität eintragen zu lassen und damit Teilhabe am gesellschaftlichen Leben zu ermöglichen. Zur Begründung verwies das Gericht auf das im Grundgesetz geschützte Persönlichkeitsrecht. Die aktuell geltende Regelung sei mit den grundgesetzlichen Anforderungen insoweit nicht vereinbar, als dass es neben „weiblich" oder „männlich" keine dritte Möglichkeit bietet, ein Geschlecht eintragen zu lassen. Der Gesetzgeber musste nun bis Ende 2018 eine Neuregelung schaffen, in der sie eine Bezeichnung für ein drittes Geschlecht aufnimmt – „divers“.
Schulen als bedeutende soziale Einrichtungen sind nun gefordert, will man die Leitperspektiven der Diversität im Bildungsbereich und damit in der Gesellschaft beibehalten. Schulen stellen Arbeitsfeld, Lebenswelt und Lernumfeld für viele Generationen dar und besitzen damit immer eine gesellschaftliche Vorbildfunktion, wobei Diversität zum stets allgegenwärtigen Imperativ geworden ist. Als Avantgarde müssen Schulen deshalb gerade in gesellschaftlichen Fragen voranschreiten und gleichsam Verantwortung für die Entwicklungen und Lösung wichtiger ethischer Fragen übernehmen ohne dabei die Vermittlung traditioneller Werte und Normen als eine ihrer zentralen Funktionen aufzugeben. Diesen anspruchsvollen Spagat zu vollziehen bleibt konstante Herausforderung der Schulentwicklung.
Mit Vielfalt umgehen bedeutet im schulischen Kontext vor allem neben gegenseitiger Anerkennung und Respekt auch, dass das Zusammenleben der Menschen durch die Eröffnung alternativer Wahrnehmungs-, Denk- und Handlungsansätze bereichert wird. Der Beschluss des Bundesverfassungsgerichts ist folglich in besonderer Weise an Schulen gerichtet.
Doch wie kann dieser Weg erfolgreich und nachhaltig eingeschlagen werden?
Bei Betrachtung der zahlreichen Publikationen zum Thema Gender und Schule sowie der wenigen Entwicklungen in den letzten Jahren wird augenscheinlich, dass das deutsche Schulsystem für die Umsetzung der Entscheidung des Bundesverfassungsgerichts vom 10.10.2017 (1BvR 2019/16) systemisch und strukturell nicht vorbereitet ist.
Daraus lassen sich die Forschungsfragen dieser Promotionsarbeit formulieren:
- Wie verhält sich Schule zum Diskurs des dritten Geschlechts?
- Was sind aus Sicht schulischer Akteure Gelingensbedingungen für eine erfolgreiche Sichtbarmachung des dritten Geschlechts an Schulen?
Es soll in der Arbeit mittels empirischer Untersuchungen eingehend verdeutlicht werden, welche Gelingens- bzw. Misslingensfaktoren bei der Implementierung eines dritten Geschlechts eine Rolle spielen und unter welchen Voraussetzungen überhaupt Schule als Organisation auf die Sichtbarmachung intergeschlechtlicher Kinder und Jugendliche vorbereit ist.
In dieser Arbeit wurde wurde das CASOCI-Programm[1], dessen Implementierung bereits Thema der Dissertation von Dr. Tilmann Bodenstein war und Gegenstand kontinuierlicher Weiterentwicklung in den Arbeitsgruppen Fink (Karlsruher Institut für Technologie) und van Wüllen ist, MPI/OpenMP Hybrid parallelisiert. Dieses wurde im Anschluss daran verwendet, um den fünfkernigen [Ni(tmphen)2]3[Os(CN)6]2- Komplex (tmphen = 3,4,7,8-Tetramethyl-1,10-Phenanthrolin) auf dessen magnetische Eigenschaften hin zu untersuchen. Dieser wurde in der Gruppe von Kim R. Dunbar durch χT-Messungen experimentell untersucht[2,3]. Durch diamagnetische Substitution wurden von diesem Komplex Varianten mir nur ein und zwei aktiven Zentren erzeugt. An diesen wurden CASOCI-Rechnungen durchgeführt und g-Tensoren, Austauschkopplungen, D-Tensoren sowie Tensoren für den anisotropen Austausch bestimmt. Mit Hilfe dieser Tensoren konnte eine χT-Kurve berechnet werden, die eine gute Übereinstimmung mit der aus Dunbars Arbeiten zeigt aufweist. Es konnte gezeigt werden, dass der anisotrope Austausch maßgeblich für den Kurvenverlauf ist und die Einzel-Ionen Nullfeldaufspaltung praktisch keine Rolle spielt.
[1] T. Bodenstein, A. Heimermann, K. Fink, C. van Wüllen, Chem. Phys. Chem. 2022, 23, e202100648.
[2] M. G. Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, Chem. Commun. 2008, 5752–5754.
[3]A.V.Palii,O.S.Reu,S.M.Ostrovsky,S.I.Klokishner,B.S.Tsukerblat,M.Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, J. Phys. Chem. A 2009, 113, 6886–6890.
Cyber-physische Produktionssysteme (CPPS) ermöglichen die Herstellung kundenindividueller Produkte in kleinen Losgrößen durch Nutzung aktueller Entwicklungen der Informations- und Kommunikationstechnologien. Im Materialfluss in CPPS ist jedoch aufgrund unterschiedlicher physikalischer Eigenschaften der Fördergüter und dynamischer Prozesszuweisungen die Gefahr physikalisch bedingter Störungen erhöht. Diese Arbeit untersucht die Nutzung von Physiksimulation als Basis eines Digitalen Zwillings von Fördermitteln, um diesen Herausforderungen zu begegnen. Das Ziel besteht darin, durch die Simulation der physikalischen Phänomene einzelner Materialflussprozesse die negativen Einflüsse von Störungen zu verringern und somit die Leistungsfähigkeit des Produktionssystems zu erhöhen. Hierzu findet zunächst eine konzeptionelle Entwicklung des Digitalen Zwillings statt, die eine Analyse der beteiligten Systeme, eine Anforderungsdefinition, eine Festlegung von Aufbau- und Ablaufstruktur, sowie eine Formalisierung der einzelnen Funktionsbestandteile umfasst. Im Anschluss wird der Digitale Zwilling softwaretechnisch implementiert, mit einem exemplarischen Fördermittel vernetzt und prototypisch in Betrieb genommen. Die Ergebnisse zeigen die Eignung der Physiksimulation für den beschriebenen Zweck und die Wirksamkeit des Einsatzes auf Produktionssystemebene, indem Materialflussprozesse beschleunigt durchgeführt, überwacht und im Falle von Störungen nachträglich simulativ untersucht werden können.
Zeolithe werden seit Jahrzehnten als Katalysatoren in der chemischen Industrie und als Ionentauscher in Waschmitteln eingesetzt. Außerdem können Zeolithe als Trägermaterialien für Metalle, die durch Ionenaustausch oder Imprägnierung aufgebracht werden, eingesetzt werden. Ein neuartiges Anwendungsgebiet von Zeolithen ist die Verwendung als antimikrobielles Füllmaterial in Kunststoffen. Hierzu müssen die Zeolithe zuvor mit einem antimikrobiell wirkenden Metall wie z.B. Silber beladen werden. Dieser gefüllte Kunststoff kann zu Filamenten für den 3D-Druck weiterverarbeitet werden. Ein mögliches Anwendungsgebiet für die resultierenden Verbundmaterialien liegt im Bereich der Zahnmedizin in Form von Kronen oder dreigliedrigen Brücken. Ziel dieses Promotionsprojekts war die Modifikation der Zeolithe Beta und ZSM‑5 mit Silber, um die resultierenden Materialien als antimikrobielle Komponenten in einem Polymerverbundwerkstoff einzusetzen. Die beiden Zeolithe sollen mittels Ionenaustausch mit Silberionen beladen werden. Neben der Reaktionstemperatur und dem Gegenion im Zeolithgitter wurde auch die experimentelle Vorgehensweise des Ionenaustauschs (Dauer und Anzahl der Austauschzyklen) variiert, um eine möglichst hohe Beladung mit Silber zu erzielen. Durch die Kombination verschiedener Charakterisierungsmethoden wie Röntgenpulverdiffraktometrie (PXRD) und Festkörper-NMR-Spektrometrie (MAS-NMR) konnte der Erhalt der Zeolithstruktur nach dem Ionenaustausch bestätigt werden. Mittels Atomabsorptionsspektroskopie (AAS) wurde die Silbermenge im Zeolithgitter bestimmt. Da Zeolith ZSM-5 im Einkauf kostengünstiger ist als Zeolith Beta, wurde in den weiteren Schritten mit Silberionen ausgetauschtem Zeolith AgZSM-5 weitergearbeitet. Im nächsten Schritt wurde Zeolith AgZSM‑5 mit verschiedenen Verfahren modifiziert, um eine zeitlich steuerbare Freisetzung der Silberionen aus dem Zeolithgitter zu gewährleisten. Bei der Oberflächenpassivierung mittels Silylierung konnte mittels temperaturprogrammierter Desorption von Ammoniak (NH3-TPD) eine Abschwächung der Säurezentren nachgewiesen werden. Darüber hinaus wurde Zeolith AgZSM-5 noch mittels Imprägnierung mit Calcium bzw. Magnesium sowie durch Reduktion des Silbers im H2-Strom bei unterschiedlichen Temperaturen modifiziert. Bei der Reduktion des Silbers im H2-Strom konnte der Einfluss der Reduktionstemperatur auf die Kristallitgröße des Silbers gezeigt werden.
In 2022 verfehlten Gebäude- und Verkehrssektor die Klimaschutzziele in Deutschland. Im Gegensatz zum Verkehrssektor stehen im Gebäudesektor lange Lebensdauern schnellen Technologiewechseln entgegen, weshalb Strategien besonders frühzeitig umgesetzt werden müssen. Zudem ist der Gebäudebestand durch hohe Investitionskosten bei vergleichsweise geringen Treibhausgaseinsparungen je investiertem Euro geprägt. In Kombination erschweren diese Hemmnisse die Erreichung der Klimaschutzziele für den Wohngebäudebestand deutlich.
Ziel dieser Arbeit ist die Entwicklung eines Wohngebäudebestandsmodells, um Transformationspfade unter dem Einfluss variierender ökonomischer Rahmenbedingungen, wie z.B. dem Einfluss unterschiedlicher CO2-Preisverläufe und eine Reinvestition der CO2-Steuer in die Modernisierung der Gebäude, simulieren und analysieren zu können.
Im ersten Schritt wird ein Wohngebäudebestandsmodell bei Fortschreibung der ökonomischen Rahmenbedingungen im Startjahr entwickelt und angewendet. Hierzu werden wichtige Parameter des Gebäudebestands identifiziert und diese anhand des vergangenen Verlaufs analysiert sowie Szenarien und Prognosen betrachtet. Ergebnis sind Ausgangsbedingungen und Einflussfaktoren auf den weiteren Verlauf, die für die Modellierung genutzt werden. Im zweiten Schritt wird eine Systematik entwickelt, um Modernisierungsraten endogen bei Variation der ökonomischen Rahmenbedingungen berechnen zu können.
In der vorliegenden Arbeit wird ein Modell vorgestellt, dass die ökonomischen Rahmenbedingungen und das Kopplungsprinzip dynamisch bei der Simulation von Vollmodernisierungsraten berücksichtigt. Die Ergebnisse zeigen, dass Vollmodernisierungsraten von 2 %/a über längere Zeiträume extreme Rahmenbedingungen benötigen und unrealistisch sind. Haupthemmnisse sind der Sanierungsbedarf (Kopplungsprinzip), sinkende Energieeinsparpotenziale der jüngeren Baualtersklassen und Mitnahmeeffekte bei verbesserter Förderung. Da eine Erreichung der Klimaschutzziele nur durch Anpassung der CO2-Steuer (auch bei Reinvestition) nicht innerhalb realistischer Steuerhöhen im Modell möglich ist, wird stattdessen ein Maßnahmenpaket aus wirtschaftlichen und legislativen Rahmenbedingungen zur Zielerreichung vorgestellt.
Diese Dissertation erläutert die Umsetzung eines RAMI 4.0 konformen Marktplatz in der spanenden Bearbeitung. Ziel ist es einen Lösungsansatz zu definieren, in dem firmenübergreifende Prozessketten für kleine Losgrößen automatisiert identifiziert werden und die Fertigung eines individuellen Produktes realisiert wird. Die Extraktion von Produktinformationen, die Fertigung eines individualisierten Produktes sowie die Beschreibung der Informationen in den Verwaltungsschalen wird validiert. Vor allem stellt sich als Herausforderung für die Zukunft heraus, eine gemeinsame Semantik für die Beschreibung von Capabilities zu definieren. Diese würde ermöglichen, dass ein Matching zwischen proprietären Produktinformationen und Skills möglich wird.
Auf Grundlage normativer Regelungen, aktueller Forschungsvorhaben und deren Erkenntnisse (Kuhlmann u. a. 2008 und 2012) wurden experimentelle sowie numerische Untersuchungen an großen Ankerplatten mit mehr als der aktuell normativ zugelassenen Anzahl an Kopfbolzen durchgeführt. Ziel der Untersuchungen war es, einen Ansatz für die Tragfähigkeit großer nachgiebiger Ankerplatten mit Kopfbolzen zu entwickeln. Durch Variationen der maßgebenden Parameter wie der Ankerplattendicke, der Kopfbolzenlänge, des Grads der Rückhängebewehrung sowie des Zustands des Betons konnte anhand der experimentellen Untersuchungen ein Komponentenmodell verifiziert werden. Mögliche Versagensmechanismen, wie Stahlversagen der Kopfbolzen auf Zug, Fließen der Ankerplatte infolge der T-Stummelbildung, kegelförmiger Betonausbruch sowie Stahlversagen der Rückhängebewehrung, konnten mithilfe dieser Parameter abgebildet werden. Weiter hat sich beim Versagensmodus ‚kegelförmiger Betonausbruch‘ die Oberflächenbewehrung im Nachtraglastbereich als zusätzlicher Parameter herausgestellt.
Das auf Grundlage der DIN EN 1993-1-8 entwickelte Modell und die Berücksichtigung der Komponentensteifigkeiten ermöglichen die Bemessung starrer und nachgiebiger Ankerplatten. Durch den Einbezug der Steifigkeiten einzelner Komponenten kann die Gesamtsteifigkeit einer Anschlusskonfiguration berechnet werden, um ein duktiles Tragverhalten zu erhalten. Neben verschiedenen möglichen Fließzonen auf der Ankerplatte infolge unterschiedlicher Geometrien und Anordnungen der Verbindungsmittel werden kegelförmige Betonausbrüche in Abhängigkeit einer möglichen zusätzlichen Rückhängebewehrung im Modell berücksichtigt.
Das in dieser Arbeit beschriebene Modell für die sich bildende Zugseite starrer sowie nachgiebiger Ankerplatten mit mehr als aktuell nach Norm zulässigen Ver-bindungsmitteln konnte anhand experimenteller und numerischer Versuche verifiziert werden. Der plastische Bemessungsansatz zeigt, über alle Versuchsserien hinweg, eine gute Übereinstimmung mit den experimentellen Untersuchungen sowie den numerischen Parameterstudien.
In einem zweiten Schritt wurden Auswirkungen einer Kurzzeitrelaxation des Betons infolge Zwang auf große Ankerplatten in Verbindung mit Kopfbolzen untersucht. Mit dem in Anlehnung an die Komponentenmethode der DIN EN 1993-1-8 entwickelten Federmodell können zeitabhängige Verformungen von Beton infolge von Kriechen und Schwinden berücksichtigt werden. Mithilfe des anhand experimenteller und numerischer Versuche verifizierten Modells ist es möglich, Auswirkungen infolge Zwang auf Ankerplatten zu untersuchen.
VR ist ein stetig wachsendes Forschungsgebiet, das die Perspektiven und Möglichkeiten der Mensch-Computer-Interaktion erweitert (Hassan & Hossain, 2022). Durch Studien konnte bereits vor dem aktiven Einsatz im Schulalltag eine Vielzahl an positiven Auswirkungen auf den Lernprozess durch die Nutzung von VR nachgewiesen werden (Chavez & Bayona, 2018). Das sogenannte Immersive Learning stellt damit einen Schlüsselbereich zur digitalen Transformation im Bildungsbereich dar. Um VR allerdings im Schulunterricht einsetzen zu können, bedarf es Lernumgebungen, die auf die örtlichen Gegebenheiten und alltäglichen Bedürfnisse eines praktischen Schulunterrichts angepasst sind. Solche Gestaltungsprinzipien sind allerdings im Bildungsbereich noch nicht vorhanden (Johnson-Glenberg, 2018). Diese Arbeit beschäftigt sich damit, Prinzipien aus der Theorie abzuleiten, diese mit Gestaltungskomponenten zu vereinen und darauf aufbauend eine VR-Lernumgebung zu gestalten und zu erforschen. Um eine Praxis-nähe bei der Entwicklung und Untersuchung zu gewährleisten, wurde ein Design-Based Research Ansatz gewählt. In aufeinander aufbauenden Mikrozyklen wurden die Gestaltungskomponenten evaluiert und daraus Gestaltungsprinzipien abgeleitet. Die Lernmaterialien wurden fächerübergreifend für die Fächer Chemie und Geografie konzipiert sowie praxisnah mit Teilnehmenden aus vier zehnten Klassen eines Gymnasiums in Rheinland-Pfalz evaluiert. Als Lerninhalt wurde der Kohlenstoffkreislauf gewählt und in den jeweiligen Curricula der Fächer verortet. Der Hauptfokus lag auf dem Fach Chemie, Themenfeld elf „Stoffe im Fokus von Um-welt und Klima“. Als virtueller Ort wurde die Nachbildung eines Abschnitts des außerschulischen Lernorts „Reallabor Queichland“ gewählt. Die Komponenten wurden in insgesamt sieben Mikrozyklen aufgeteilt, nummeriert von null bis sechs. Mikrozyklus null wird genutzt, um den Teilnehmenden den Umgang mit dem VR-System näher zu bringen und den Neuigkeitseffekt abzumildern. Mikrozyklus eins evaluiert die Grundfläche der VR-Lernumgebung mit dem Fokus auf den Realismus der Umgebung. Mikrozyklus zwei beschäftigt sich mit dem zu wählenden Bewegungsradius innerhalb der VR. Mikrozyklus drei untersucht den Effekt von realitätsnahen Hintergrundgeräuschen. Die Mikrozyklen vier bis sechs bestehen aus drei Lernstationen mit unterschiedlichen Interaktionsmöglichkeiten: realitätsnahe Interaktionen, realitätsferne Interaktionen sowie eine Mischung daraus. Erhoben wurden die Skalen räumliches Präsenzerleben, aktuelle Motivation, Realismus, wahrgenommene Bedienbarkeit, wahrgenommene Lerneffektivität und die VR-Skala. Ausgewertet wurden die Daten mit ANOVAs und Pfadanalysen sowie einer übergreifenden Analyse am Ende der Erhebung. Durch das Design der Komponenten konnte ein sehr hohes räumliches Präsenzerleben sowie ein sehr hoher wahrgenommener Realismus erzeugt werden. In den Lernstationen bewerteten die Teilnehmenden die wahrgenommene Lerneffektivität sowie Bedienbarkeit als auch den Zusammenhang von 3-D-Model-len, deren Manipulierbarkeit in VR und der damit verbundene Effekt auf die Lerneffektivität als sehr hoch. Insgesamt konnten aus den vorliegenden Daten zwölf Gestaltungsprinzipien generiert werden. Diese können dafür genutzt werden, neue VR-Lernumgebungen für den praktischen Einsatz im Schulunterricht zu erstellen. Es wurden theoretische Annahmen zur Respezifikation des Prozessmodells des räumlichen Präsenzerlebens getroffen und mit den erhobenen Daten geprüft. Die Anpassung des Modells an moderne VR-Brillen und kognitiv fordernde VR-Lernumgebungen stand dabei im Fokus und ergab sehr gute Modelfit-Werte. In weiterführen-den Studien sollten diese Annahmen mit größeren Stichproben überprüft werden.
Zur Förderung der Nahmobilität, insbesondere der Basismobilität „Zufußgehen“, ist die Möglichkeit zur Teilhabe im öffentlichen Verkehrsraum für alle Menschen und im Besonderen für mobilitätseingeschränkte (Bedürfnisgruppen) unerlässlich. Nur mit Hilfe einer barrierefrei gestalteten Umwelt kann die Teilhabe Aller erreicht werden. In diesem Zusammenhang ist es notwendig, ein durchgehend barrierefreies Fußverkehrsnetz herzustellen. Hierzu sind die Fußverkehrsanlagen (Gehbereiche, Überquerungsstellen, Treppen, Rampen und Aufzüge) entsprechend zu gestalten. Ein nachvollziehbares und praxisorientiertes Verfahren zur Bewertung der Barrierefreiheit von Fußverkehrsnetzen existiert allerdings derzeit nicht. An diesem Punkt setzt die vorliegende Forschungsarbeit an. Durch die Entwicklung
eines Verfahrens zur Bewertung der bestehenden Barrierefreiheit von Fußverkehrsnetzen anhand von Qualitätsstufen wird ein praktisches Anwendungstool geschaffen. Dieses richtet sich an verantwortliche Personen, u.a. aus Planung, Politik und Verwaltung, um eine Priorisierung und Umsetzung von
Maßnahmen zum Abbau von Barrieren vornehmen zu können.
Grundlage für das Bewertungsverfahren bilden Interviews und Befragungen von Fachleuten und Bedürfnisgruppen. Der Schwerpunkt liegt hierbei auf motorisch und visuell eingeschränkten Personen. Die Befragungen befassten sich mit der Höhe der Erschwernisse, je nach Bedürfnisgruppe, bei der Nutzung von Fußverkehrsanlagen im öffentlichen Raum, wenn diese nicht den Vorgaben der Technischen Regelwerke entsprechen. Das Bewertungsverfahren übersetzt die Barrierefreiheit in eine verständliche und nachvollziehbare Größe, indem die Erschwernisse in eine gefühlte zusätzliche Entfernung umgerechnet werden. Weiterhin wird neben der gefühlten auch die tatsächliche zusätzliche Entfernung aufgrund von Umwegen berücksichtigt. Aufbauend auf der Bewertung von Fußverkehrsanlagen können so Routen und Verbindungen sowie Fußverkehrsnetze bewertet werden. Der grundsätzliche Ablauf des Bewertungsverfahrens ist für alle Bedürfnisgruppen gleich. Er besteht aus vier wesentlichen Schritten und hat jeweils eine von sechs Qualitätsstufen der Barrierefreiheit (QSB, Stufen von A bis F) zum Ergebnis. Im Rahmen der Forschungsarbeit wird festgelegt, dass der Übergang von der Stufe D zur
Stufe E für die Mehrheit der betrachteten Bedürfnisgruppen die Grenze zwischen Selbstständigkeit und Notwendigkeit fremder Hilfe beim Nutzen der Fußverkehrsanlagen darstellt. Das entwickelte Bewertungsverfahren bietet eine gute Grundlage zur Bewertung von Fußverkehrsnetzen in Bezug auf die Barrierefreiheit. Aufgrund der Modularität und Flexibilität ist es möglich, sowohl
weitere Aspekte als auch weitere Bedürfnisgruppen zu integrieren. Wichtig sind eine kontinuierliche Anwendung des Verfahrens und die Berücksichtigung der Barrierefreiheit von Anfang an in jeder Planung. Ebenfalls ist eine gesetzliche Integration der barrierefreien schrittweisen Umgestaltung anhand
anerkannter Technischer Regelwerke notwendig. Nur so kann ein durchgehend barrierefreies Netz entstehen und allen Menschen, egal ob mit oder ohne Mobilitätseinschränkung, eine Teilhabe im öffentlichen Verkehrsraum ohne fremde Hilfe ermöglicht werden. Zudem kann durch die Steigerung der
Attraktivität die Nahmobilität gefördert werden. Hiermit kann erreicht werden, Menschen bei kurzen Entfernungen vom zu Fuß gehen bzw. von der Nutzung des Rollstuhls zu überzeugen. Letztlich ist so auch eine Minderung des CO2-Ausstoßes denkbar, wenn für kurze Routen kein oder seltener das Kfz
genutzt wird. Das nachhaltigste und umweltschonendste Fortbewegungsmittel ist das zu Fuß gehen und ein barrierefreies Umfeld trägt somit schlussendlich zum Klimaschutz bei.
In dieser Arbeit wird die Co-Konsolidierung im Thermoformen zwischen kontinuierlich faserverstärkten, teilkonsolidierten CF/PEEK Tape-Preforms und kontinuierlich faserverstärkten, vollständig konsolidierten CF/PEEK Tape-Laminaten untersucht. Bei der Co-Konsolidierung handelt es sich um die Herstellung einer Schweißverbindung zwischen zwei oder mehr Thermoplasten durch separates Aufheizen, Zusammenbringen der Fügeflächen und rasches Abkühlen unter Druck im isothermen Werkzeug. Die adressierte Anwendung ist das Verschweißen von Versteifungen auf Tape-Preforms während dem Thermoformen, sodass nachgeschaltete Fügeprozesse solcher Versteifungen obsolet werden und die Zykluszeit des Thermoformens unverändert bleibt.
Die Ergebnisse zeigen, dass der Grad der Teilkonsolidierung der Tape-Preforms -
unabhängig der gewählten Einstellgrößen des Werkzeugdrucks - keinen Einfluss auf die Konsolidierung der Tape-Laminate nach dem Thermoformen nimmt. Im Bereich einer Versteifung ist ein vergleichsweise größerer Werkzeugdruck zur Konsolidierung der teilkonsolidierten Tape-Preform notwendig, damit dort die gleichen Eigenschaften wie fern der Co-Konsolidierung erzeugt werden. Die zwischen Tape-Laminat und Versteifung gemessenen Zugscherfestigkeiten, die mittels Co-Konsolidierung im Thermoformen erzeugt werden, sind niedriger als die der Co-Konsolidierung im Autoklav.
Die von Zhou bereits 1994 erhaltenen tri(tert-butyl)cyclopentadienyltrichloride der vierten Gruppe [Cp'''MCl3] (M = Ti, Zr, Hf) konnten reproduziert, kristallisiert und strukturell untersuchtwerden. Auch konnten neue Di- und Tri(tert-butyl)cyclopentadienylzirconiumbromide und -iodide synthetisiert werden. Von [Cp''ZrI3] wurden röntgendiffraktometertaugliche
Kristalle erhalten, an denen die Struktur der Verbindung
aufgeklärt werden konnte. Bei Substitutionsversuchen mit weiteren Liganden konnten Hydridocluster erhalten werden. Strukturelle Untersuchungen zeigte einen Clusterkomplex mit der Formel (Cp''Zr)4(μ-H)8(μ-Cl)2. Es handelt sich hierbei um einen vierkernigen Zirconiumcluster, welcher von acht Hydrido- und zwei Chloridoliganden verbrückt wird. Jedes Zirconiumatom ist weiterhin
mit einem Di(tert-butyl)cyclopentadienylliganden verbunden. Bei der Untersuchung des Reaktionshergangs wurde ein weiterer Zr-Cluster gefunden. Es konnten röntgendiffraktometertaugliche Kristalle von Tris{di(tert-butyl)cyclopentadienyldi(μ-hydrido)zirconium} {chloridotri(μ-hydrido)aluminat} erhalten werden. Der Cluster besteht aus drei Zirconiumatomen, welche in einem Dreieck angeordnet sind und mit je zwei Hydridoliganden verbrückt. Jedes Zirconium ist über eine Hydridobrücke mit einem Aluminiumchloridfragment verbunden. Zudem ist an je Zirconiumatom je ein Di(tert- butyl)cyclopentadienylligand koordiniert. Weiterhin wurden Experimente zur Herstellung von Alkylderivaten des bislang nicht bekannten
Zirconocengrundkörpers Cp2Zr unternommen. Hierzu wurde Zirconiumtetrachlorid
mit n-Butyllithium zum Dichlorid ZrCl2(THF)2 reduziert. Das Reduktionsprodukt
wurde mit Natriumtetra(isopropyl)cyclopentadienid, Natriumtri(tertbutyl)
cyclopentadienid oder Lithiumpenta(isopropyl)cyclopentadienid umgesetzt.
Die Ergebnisse zeigen keinen eindeutigen erhalt von Zirconocenen, jedoch wurde ein Tri(tert-butyl)cyclopentadienyllithium- salz erhalten, welches strukturell aufgeklärt werden konnte.
Velocity Based Training ist ein Ansatz zur Belastungssteuerung im Widerstandstraining, der die volitional maximale konzentrische Durchschnittsgeschwindigkeit gegen einen bestimmten Lastwiderstand zur Steuerung der Belastungsintensität sowie das Ausmaß der intraseriellen konzentrischen Geschwindigkeitsreduktion zur Steuerung der intraseriellen muskulären Ermüdung verwendet. Die diesem Ansatz inhärente Grundvoraussetzung, sich mit volitional maximalen konzentrischen Geschwindigkeiten zu bewegen, führt jedoch dazu, dass die Steuerung der muskulären Ermüdung auf Basis der relativen Geschwindigkeitsreduktion nicht umsetzbar ist, wenn man sich im Widerstandstraining mit volitional submaximaler Geschwindigkeit bewegt. Deshalb befasste sich dieses Promotionsprojekt mit der übergeordneten Forschungsfrage, inwieweit sich ein adaptierter Ansatz der geschwindigkeitsbasierten Belastungssteuerung im Widerstandstraining auf Basis der Minimum Velocity Threshold (MVT), der eine „Relative Stopping Velocity Threshold“ ([RSVT], berechnet als Vielfaches der MVT in Prozent) zur objektiven Autoregulation der Belastungsdauer verwendet, dazu eignet, den Grad der muskulären Ermüdung innerhalb eines Trainingssatzes mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit zu steuern.
Zur Beantwortung dieser übergeordneten Forschungsfrage wurde eine explanative, prospektive Untersuchung im quasiexperimentellen Design durchgeführt. Dabei wurde für alle Probanden an einem ersten Termin die individuelle dynamische Maximalkraftleistung (1-RM) für die Langhantelübungen Bankdrücken und Kreuzheben ermittelt und an einem zweiten Termin die eigentliche Testung durchgeführt. An diesem zweiten Testtermin wurde pro Übung jeweils ein Testsatz mit volitional maximaler und ein Testsatz mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit bei einer standardisierten Belastungsintensität von 75 % 1-RM ausgeführt, während die konzentrische Bewegungsgeschwindigkeit der einzelnen Wiederholungen mittels einer Inertialsensoreinheit erfasst wurde, um die ermüdungsbedingte Geschwindigkeitsreduktion der Wiederholungen am Ende eines ausbelastenden Testsatzes zu untersuchen.
Als Antwort auf die übergeordnete Forschungsfrage dieser Untersuchung kann festgehalten werden, dass sich die RSVT grundsätzlich zur Steuerung der intraseriellen muskulären Ermüdung im Widerstandstraining mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit eignet. Für fitness- und gesundheitsorientierte Personen wurde ein RSVT-Zielkorridor abgeleitet der RSVT = 171,4 - 186,6 % MVT entspricht. Führt man einen Satz Bankdrücken mit der Langhantel mit einer Belastungsintensität von 75 % 1-RM und volitional submaximaler konzentrischer Bewegungsgeschwindigkeit so lange aus, bis die durchschnittliche konzentrische Bewegungsgeschwindigkeit (MV) einer Wiederholung ermüdungsbedingt in diesen Zielkorridor absinkt, sollten noch zwei bis drei weitere Wiederholungen ausführbar sein, bevor der Punkt des momentanen konzentrischen Muskelversagens erreicht wird. Für leistungsorientierte Personen im trainierten Zustand wurde ein RSVT-Zielkorridor von RSVT = 183,8 - 211,3 % MVT abgeleitet. Sinkt die gemessene MV einer Wiederholung ermüdungsbedingt in diesen Zielkorridor, kann mit vertretbarer Sicherheit davon ausgegangen werden, dass noch eine bis zwei weitere Wiederholungen bis zum Punkt des momentanen konzentrischen Muskelversagens ausgeführt werden können.
Die vorliegende Dissertation liefert durch diese Weiterentwicklung des Velocity Based Training einen adaptierten Steuerungsansatz, mit dem es erstmals möglich wird, die geschwindigkeitsbasierte Belastungssteuerung im Widerstandstraining auch bei volitional submaximalen konzentrischen Bewegungsgeschwindigkeiten sinnvoll anzuwenden. Aufgrund bestehender Limitationen der Untersuchung sind jedoch weitere wissenschaftliche Studien erforderlich, um die Gültigkeit, die Übertragbarkeit sowie die Effektivität des MVT-basierten Steuerungsansatzes weiter zu erforschen.
Schneckengetriebe werden meist aus einer Stahlschnecke und einem Bronze-Schneckenrad gefertigt. Diese werden zur einstufigen Übertragung von Drehbewegungen bei hohen Übersetzungen eingesetzt. Einen Nachteil von Schneckengetrieben stellt der relativ hohe Verschleiß infolge der hohen Gleitreibung im Zahneingriff dar. Durch eine geeignete Schmierung können Reibung und Verschleiß reduziert werden. Dies reduziert den Temperaturanstieg
im Betrieb und führt somit zu einer längeren Lebensdauer des Getriebes. Aufgrund der ausgeprägten Kühlwirkung erfolgt die Schmierung von Schneckengetrieben in der Praxis überwiegend mit Schmierölen. Fettartige Schmierstoffe werden ebenfalls verwendet, weisen jedoch eine geringere Kühlwirkung als flüssige Schmierstoffe auf. Bei Vakuumanwendungen oder unter extremen Betriebsbedingungen, wie z.B. Hoch- oder Tieftemperaturanwendungen
sowie bei niedrigen hydrodynamischen Geschwindigkeiten, verlieren die oben genannten konventionellen Schmierstoffe ihre Schmierwirkung. Als Alternative
werden Festschmierstoffe eingesetzt.
Festschmierstoffe können im Allgemeinen auf verschiedene Weise in den Kontaktstellen von Maschinenelementen verwendet werden. In dieser Arbeit wird das Prinzip der Transferschmierung durch ein Opferbauteil eingesetzt. Hierbei werden Compounds aus strahlenmodifiziertem Polytetrafluorethylen (PTFE) und Polyamid (PA) als Opferbauteil im Schneckengetriebe verwendet, sodass die Stahlschnecke zeitgleich mit dem Bronze-Schneckenrad und dem Opferrad aus PA-PTFE-Compound im Zahneingriff steht. Durch die Belastung des Opferrades mit einem relativ kleinen Drehmoment verschleißt das Opferrad, wodurch der PTFE-Festschmierstoff freigesetzt und an der Stahloberfläche deponiert wird. Dies führt zur Bildung eines Transferfilms, welcher zur Schmierung des Kontakts
zwischen der Stahlschnecke und dem Bronze-Schneckenrad führt. Die Mechanismen des Auf- und Abbaus solcher Transferfilme in Schneckengetrieben sind derzeit unbekannt und werden in dieser Arbeit anhand experimenteller Untersuchungen erforscht. Hierzu wurden tribologische Versuche an Modellprüfständen durchgeführt, wodurch das reib- und Verschleißverhalten an Stahl-Bronze-Kontakten untersucht wurde. Als Modellprüfstände kamen der Block-auf-Ring-, der Block-Zwei-Scheiben- und der Drei-Scheiben-Prüfstand zum Einsatz. Anschließend wurden Bauteilversuche auf einem Schneckengetriebeprüfstand durchgeführt, um die aus den Modellversuchen gewonnenen Erkenntnisse zu validieren. Mit Hilfe von oberflächenanalytischen Techniken wurden die Prüfkörper auf der Mikroskala untersucht, um die Qualität und Quantität des aufgebauten Transferfilms zu bestimmen.
Die vorliegende Dissertation befasst sich mit der Herstellung und Charakterisierung
von Titan-, Zirconium- und Hafniumkomplexen, die mit sperrigen
Alkylcyclopentadienylliganden koordinieren. Hierbei wurden vorrangig
tert-butylsubstituierte Cp-Derivate verwendet aber auch die in der vierten
Nebengruppe weniger etablierten Isopropylcyclopentadienylliganden eingesetzt.
UV-Vis-spektroskopische Untersuchungen verdeutlichten Korrelationen der
Absorptionsmaxima und Intensitäten mit dem Substitutionsmuster am Cp-Liganden,
der Übergangsmetallart sowie der sonstigen koordinierenden Liganden.
Unter Durchführen von Substitutionsreaktionen konnten 2,6-Diisopropylphenolato-,
2,6-Di-tert-butylphenolato- und 3,5-Dimethylpyrazolidokomplexe hergestellt werden.
Verbindungen mit bidentaten Liganden konnten durch Verwenden von Natriumacetat,
Kaliumpivalat und Lithiumbenzoat synthetisiert werden. Säure-Base-Reaktionen
ausgehend von Cp''TiBr2N(TMS)2 ermöglichten das Einführen monodentater Liganden
wie Pyrrolidin, Piperidin und tert-Butylamin. Die Etablierung bidentater Liganden wie
N,N'-Diisopropyl-o-phenylendiamin und N,N'-Dimethylethylendiamin war über den
"constrained geometry complex" ansa-Cp'(Me2SitBuN-κN)TiCl2 realisierbar.
Im Zuge der Reduktion von Cp''TiBr3 mit Mangan entstand neben dem dominierend
ausgebildeten [Cp''TiBr(µ-Br)]2 in geringen Mengen [(Cp''TiBr2)2(µ-O)] durch nahezu
unvermeidliche Hydroxidkontaminationen des Reduktionsmittels. Die Umsetzung von
[RCpTiBr(µ-Br)]2 mit dem TEMPO-Radikal ermöglichte bei eng definierten
Reaktionsbedingungen die Herstellung von Cp''TiBr2(TEMPO), Cp''TiBr(TEMPO)2
sowie Cp'''TiBr2(TEMPO), deren homolytische Ti–O-Bindungsdissoziationstendenz
durch quantitative ESR-Experimente bei Raumtemperatur bestimmt wurde. Unter
Einsatz des TEMPO-Liganden konnten bei Raumtemperatur Cp''ZrCl2(TEMPO),
Cp''ZrCl(TEMPO)2 und Cp''HfCl(TEMPO)2 hergestellt und röntgenkristallographisch
untersucht werden. Folgereaktionen zu neuen Titan(III)-Komplexen ermöglichte die
Verbindungsklasse der Carbonsäureamide in Form von N,N-Dimethylisobutyramid,
N,N-Dimethylacetamid, 1,3-Dimethylimidazolidinon, Tetramethylharnstoff und
Acetamid, die unter Koordination zwitterionische Strukturen ausbilden. Alle
synthetisierten Komplexe wurden nach Möglichkeit mittels CHNS-Elementaranalyse,
Röntgenstrukturanalyse, Schmelzpunktbestimmung, NMR-, IR-, UV-Vis- und
ESR-Spektroskopie sowie SQUID-Magnetometrie charakterisiert.
Mit Durchführung des Instandsetzungsverfahrens 8.3 nach der Technischen Regel Instandhaltung, kurz TR-IH; wird zunächst keine direkte Repassivierung des Bewehrungsstahls angestrebt. Der Instandsetzungserfolg ist vielmehr an die zeitliche Änderung der korrosionsrelevanten Kenngrößen gekoppelt. Hierzu zählen die Erhöhung des spezifischen Elektrolytwiderstands des Betons infolge von Austrocknung sowie die Abnahme der Korrosionsströme und Treibspannungen am Bewehrungsstahl.
Im Rahmen dieser Arbeit wurden grundlegende Untersuchungen zur Wirkungsweise und zu den Anwendungsgrenzen des Instandsetzungsverfahrens 8.3 durchgeführt. Zur Beschreibung der Feuchteaufnahme und Feuchtespeicherung von chloridbelastetem Beton im Vergleich zu chloridfreiem Beton erfolgte die Untersuchung der Sorptionsisotherme an Betonen mit unterschiedlichen Chloridgehalten. Im Weiteren erfolgte die Untersuchung des Austrocknungsverhaltens von chloridbelasteten Betonproben unter eher diffusionsoffenen und stark diffusionsbremsenden Beschichtungen. Zusammen mit dem Austrocknungsverhalten wurde auch die Korrosionsaktivität der Bewehrung mittels elektrochemischer Messmethoden untersucht.
Die korrosionsbremsende Wirkungsweise des Verfahrens 8.3 wird bei niedrigen Wassergehalten primär durch eine anodische Steuerung der Korrosion als maßgeblicher Faktor beeinflusst. Der spezifische Elektrolytwiderstand hat als Systembestandteil im untersuchten Aufbau einen wichtigen, aber für den Nachweis des Instandsetzungserfolgs nicht hinreichenden Anteil, wenngleich er eine gute Korrelation mit der Austrocknung des Betons besitzt. Zur Bewertung der Korrosionskinetik ist die alleinige Betrachtung des spezifischen Elektrolytwiderstands daher ungeeignet.
Im Hinblick auf die Anwendungsgrenze des Verfahrens 8.3 zeigt sich der auf Höhe des Betonstahls im Beton vorhandene Chloridgehalt als ein maßgebliches Kriterium. Während die Korrosionsaktivität selbst bei moderat austrocknenden Proben unter stark diffusionsbremsenden Beschichtungen bei Chloridgehalten von 1 M.-% Cl-/z im Bereich der Passivstromdichte liegt, ist eine vergleichbare Reduktion der Stromdichten bei Chloridgehalten von 2 M.-% Cl-/z von weiteren Randparametern abhängig. Die Art der Beschichtung beeinflusst die Austrocknung des Betons entscheidend. So kann ein weniger dichter Beton unter einer diffusionsoffenen Beschichtung (OS 4) so weit austrocknen, dass die Passivstromdichte erreicht wird. Bei eher diffusionsdichten Beschichtungen und Vorhandensein hoher Chloridgehalte von 2 M.-% Cl-/z führte das Instandsetzungsverfahren 8.3 bei dem gewählten Versuchsaufbau innerhalb üblicher Zeiträume (hier 1,5 Jahre) nachweislich nicht zum Erfolg (unschädliche Korrosionsraten).
Der Klimawandel stellt eine der größten Herausforderungen der aktuellen Zeit dar. Um die globale Erwärmung zu begrenzen, ist eine deutliche Reduzierung der CO2-Emissionen erforderlich. Dies muss auch im Gebäudesektor erfolgen. In Deutschland lassen sich auf diesen 34 % des gesamten Endenergieverbrauchs und 28 % der CO2-Emissionen zurückführen.
Um den Heiz- und Kühlenergiebedarf von Gebäuden möglichst umweltschonend sicherzustellen, ist es erforderlich, dass Gebäude mit ihrer Umgebung als eine Einheit betrachtet werden. Neben einem hohen Dämmniveau und einer möglichst luftdichten Ausführung der Gebäudehülle bedarf es dazu einer effizienten Anlagentechnik. Ziel dieser ist es, einen möglichst großen Anteil der erforderlichen Energie aus der Umwelt zu gewinnen und einzuspeichern, wenn diese in ausreichender Menge und auf dem erforderlichen Temperaturniveau zur Verfügung steht und abzugeben, wenn diese zur Beheizung oder Kühlung des Gebäudes benötigt wird.
Bei der Entwicklung solcher Gebäudegesamtsysteme ist es sinnvoll, die einzelnen Komponenten und deren Zusammenspiel über Simulationsprogramme zu modellieren. Auf diese Weise lässt sich die Funktion und Effizienz der Systeme untersuchen und bewerten. Aus diesem Grund wurde ein auf Latentwärmespeichern und Peltier-Wärmetauschern basierender Ansatz für ein neuartiges Gebäudegesamtsystem experimentell und simulativ untersucht.
Die vorliegende Arbeit beschreibt die an einzelnen Komponenten durchgeführten Versuche im Labor sowie in einem Versuchsgebäude. Anhand der gewonnenen Messwerte erfolgt anschließend aufgeteilt in ein Teilsystem zur Kühlung und ein Teilsystem zur Beheizung die Modellierung des Systems über das Gebäudesimulationsprogramm TRNSYS. Um die Funktions-weise der untersuchten Latentwärmespeicher und die Steuerung des Gesamtsystems abzubilden, wurde in TRNSYS der Type62 verwendet.
Es stellte sich heraus, dass sich dieser sehr gut eignet, um Messdaten in die Simulation zu implementieren, physikalische Prozesse abzubilden sowie um Algorithmen zur Steuerung des Systems zu programmieren. Auf diese Weise ließen sich für das neuartige Gebäudegesamtsystem das Zusammenspiel der einzelnen Technologien, der Deckungsanteil am Jahresenergiebedarf sowie die Energieeffizienz analysieren. Beim Teilsystem zur Kühlung wurden darüber hinaus die thermische Behaglichkeit sowie die Auswirkungen, die sich bei einer Holzrahmenbauweise und einem extrem warmen Testreferenzjahr ergeben, untersucht.
Die entwickelten Simulationsmodelle ermöglichen es, Randbedingungen sowie die Dimensionierung einzelner Komponenten zu variieren oder die Steuerungstechnik zu erweitern. Auch besteht die Möglichkeit weitere Technologien mit einzubinden, um deren Effekt auf die Leistungsfähigkeit und Effizienz des Gesamtsystems zu untersuchen. Optimierungspotential besteht beim Teilsystem zur Kühlung darin, weitere prädiktive Steuerungsalgorithmen zu hinterlegen, um die Betriebszeiten der Anlage und somit auch den Stromverbrauch zu reduzieren.
Stadtzentren stehen vor vielfältigen Herausforderungen und Veränderungsprozessen. Beispielhaft lassen sich der Strukturwandel im Einzelhandel, fehlende Stadtteilidentität, vernachlässigte öffentliche Räume oder auch der Klimawandel nennen. Vor dem Hintergrund der gesamtstädtischen Bedeutung der Zentren gilt es, diesen Herausforderungen umfassend zu begegnen.
Bei der Weiterentwicklung von Zentren kommt dem Engagement der lokalen Akteur*innen eine besondere Bedeutung zu. Diese umfasst nicht ausschließlich die Teilnahme an formellen Planungsprozessen, sondern z.B. auch die Mitwirkung an Leitbildprozessen, Gestaltungsvorhaben und die Umsetzung eigener Projekte. Ein Mehrwert wird dabei nicht allein durch übereinstimmende Entscheidungen der verschiedenen Akteur*innen erzielt, viel wichtiger ist es, dass die Menschen miteinander ins Gespräch kommen.
Im Rahmen der Städtebauförderung werden u.a. Finanzhilfen für Kommunen bereitgestellt, um baulichen, funktionalen sowie sozialen Missständen in den Zentren zu begegnen. Die Wichtigkeit des privaten Engagements in der Städtebauförderung wurde bereits erkannt, dies spiegelt sich z.B. in bestehenden Beteiligungsmöglichkeiten sowie den Instrumenten der Städtebauförderung (integriertes städtebauliches Entwicklungskonzept, Quartier- bzw. Zentrenmanagement und Verfügungsfonds) wider. Dennoch konnte im Rahmen der Städtebauförderung in der Vergangenheit oftmals nicht im gewünschten Umfang Engagement aktiviert werden. Insbesondere in schrumpfenden Kommunen häufen sich oftmals Engagement hemmende Faktoren.
Daher wird in der folgenden Arbeit untersucht, wie lokales Engagement in schrumpfenden Mittelstädten im Rahmen der Städtebauförderung weiter gestärkt bzw. eingefordert werden kann. Im Fokus liegen schrumpfende Mittelstädte in NRW, deren Zentren im Rahmen der Städtebauförderung weiterentwickelt wurden bzw. sich aktuell noch in der Förderung befinden.
Die These dieser Arbeit ist, dass die Herausforderungen in Stadtzentren schrumpfender Mittelstädte in NRW nur gelöst werden können, wenn dies gemeinsam mit den Menschen vor Ort geschieht und deren Engagement im Rahmen der Städtebauförderung weiter gestärkt und gefordert wird.
Stress- und Sicherheitsempfinden – Chancen und Potenziale zur Förderung der Radverkehrssicherheit
(2023)
Radfahren trägt zu einer Verbesserung der Lärm- und Luftqualität bei, wenn stattdessen weniger motorisierte Fahrzeuge genutzt werden. Für viele Interessierte ist es jedoch wichtige Voraussetzung, dass Radverkehrsanlagen stressfrei und sicher befahren werden können. Während sich die objektive Sicherheit im Unfallgeschehen widerspiegelt, existiert zur subjektiven Sicherheitswahrnehmung von Radfahrenden jedoch nur wenig gesichertes Wissen.
Aus diesem Grund wurden mehrere Befragungen zur Erfassung des subjektiven Sicherheits- und Stressempfindens durchgeführt. Die Befragungsergebnisse zeigen, dass diese beiden Empfindungen in engem Zusammenhang stehen. Das Stressempfinden wurde zusätzlich in einer Feldstudie gemessen. Durch die Befragungen und die Feldstudie konnten subjektiv empfundene Sicherheitsdefizite in innerstädtischen Radverkehrsnetzen identifiziert werden. Dabei zeigen die Auswertungen, dass hauptsächlich geringe Abstände zu fahrenden und parkenden Kfz sowie das besondere Dooring-Risiko bei seitlich parkenden Kfz einen hohen Einfluss auf das Stressempfinden von Fahrradfahrenden haben. Die Ergebnisse decken sich mit allgemein bekannten Unfallstellen und -ursachen im Radverkehr und den Befunden anderer Studien. Weiterhin konnten auch bisher nicht bekannte Stresspunkte und -auslöser identifiziert werden, wie signalisierte Knotenpunkte, Bordsteinkanten an Querungsstellen und dunkle Unterführungen. Das Fahren auf geschützten Radfahrstreifen sowie Radwegen, Wald- und Wirtschaftswegen, Fahrradstraßen und verkehrsberuhigten Bereichen hingegen wird als stressarm bewertet. Neben den Ursachen von subjektivem Stress im Radverkehr wurden ebenso Licht- und Assistenzsysteme hinsichtlich ihrer Wirkung auf das Stressempfinden untersucht. Dabei zeichnet sich einerseits ein noch bestehender Forschungs- und Entwicklungsbedarf hinsichtlich Helligkeit und Verbreitung, andererseits auch eine sehr hohe Nutzungsbereitschaft ab. Durch die Nutzung der Systeme wird ein großer Sicherheitsgewinn erwartet, da sie Sichtverdeckungen (z. B. in Kreuzungsbereichen, an Grundstücksein- und -ausfahrten) ausgleichen und der Witterung und schlechten Lichtverhältnissen gegenüber unempfindlich sind.
Aus den ermittelten Stresswerten der Befragungen und der Feldstudie wurde ein Bewertungsverfahren für Radverkehrsanlagen entwickelt, das eine Ergänzung der etablierten Verfahren darstellt. Die Bewertung erfolgt durch die Berechnung von Potenzialen zur Stressreduktion anhand eines Formblatts. Aus den Bewertungen lassen sich folgende Handlungsempfehlung zur Stressreduktion für Radfahrende ableiten: In Wohnquartieren empfiehlt sich die Führung über verkehrsberuhigte Bereiche oder Fahrradstraßen. An Hauptstraßen eröffnet eine Reduzierung der zulässigen Geschwindigkeit auf 30 km/h sowie die Führung über geschützte Radfahrstreifen und Radwege die größten Potenziale. Bei der Gestaltung von Knotenpunkten werden Einmündungen und geschützte Kreuzungen angeraten. Weitere Stressreduktionen sind durch die Nutzung von Licht- und Assistenzsystemen zu erwarten. Die Potenziale der Stressreduktion können jedoch nur ausgeschöpft werden, wenn die Streckenabschnitte Teil eines durchgängigen Radverkehrsnetzes sind. Der Fokus von Maßnahmen für den Radverkehr sollte daher auf der Einrichtung bzw. Vervollständigung eines Radverkehrsnetzes über stressarme Routen liegen, um den Radverkehr weiter zu fördern.
Automatisierte und individualisierte Mobilitätsdienstleistungen - Anforderungen und Umweltwirkungen
(2023)
Durch die Digitalisierung und Prozessautomatisierung sowie die Sharing Economy, positionieren sich zunehmend neue Mobilitätsdienstleistungen im Verkehrssektor. Mit der zusätzlichen Automatisierung der Fahrzeuge, werden sich diese Dienstleistungen zu Robotaxen und Roboshuttles weiterentwickeln. Die Angebote ordnen sich zwischen dem heutigen öffentlichen Verkehr und dem Individualverkehr ein und nutzen die technischen Möglichkeiten, um ein auf die Bedürfnisse der Fahrgäste zugeschnittenes, flexibel nutzbares Angebot zu erstellen. Welche verkehrlichen und ökologischen Auswirkungen eine Einführung solcher Angebote hat, ist bis dato noch nicht bekannt oder kann allenfalls auf Grundlage von bestehenden Simulationsstudien abgeleitet werden. Das Ziel der Dissertation ist es, die Nutzungsintention und die Anforderungen an die Angebotsparameter in der Bevölkerung zu erheben und die potenzielle Nutzung sowie deren Wirkungen auf das Verkehrssystem und die Umwelt abzuschätzen.
In einem ersten Arbeitsschritt wurde zunächst der Entwicklungsrahmen der Fahrzeugautomatisierung und der Mobilitätsangebote definiert. Eine wichtige Grundlage sind dafür die Systemgrenzen für den heutigen und künftigen Einsatz automatisierter Fahrzeuge. Diese wurden durch eine Analyse der auf dem Markt verfügbaren Fahrzeuge und mit Hilfe gemachter Erfahrungen aus dem Testbetrieb ermittelt. Eine Marktstudie und eine Leitbildanalyse dienten zudem zur Definition möglicher Pfade und Szenarien zur Weiterentwicklung des automatisierten Fahrens und der Mobilitätsangebote.
Um die Akzeptanz des automatisierten Fahrens erheben zu können, wurde eine Faktorenanalyse mit einer nachgelagerten Clusteranalyse auf Grundlage quantitativer, empirischer Daten durchgeführt. Es wurden die beiden psychologischen Konstrukte der Befürchtungen und wahrgenommenen Wirkungen identifiziert, welche die Nutzungsintention direkt beeinflussen. Auf Grundlage dieser latenten Variablen wurden die befragten Personen in fünf Personengruppen eingeteilt. Diese sind besorgte Pessimisten, unbesorgte Pessimisten, Unentschlossene, besorgte Optimisten und unbesorgte Optimisten. Eine Analyse zeigt, dass die Nutzungsintention selbstfahrender Elektroshuttles in verschiedenen Szenarien von der Gruppe der besorgten Pessimisten bis zur Gruppe der unbesorgten Optimisten ansteigt.
Da die Mobilitätsangebote per Definition auf die Bedürfnisse der Nutzer und Nutzerinnen zugeschnitten sind, wurden zusätzlich die Anforderungen an die Angebotsparameter erhoben. Grundlegend waren neben der quantitativen Empirie auch qualitative Daten zu möglichen Angebotskonzepten, welche von Teilnehmenden in gruppenspezifischen Workshops definiert wurden.
Die Ergebnisse einer abschließend durchgeführten Beispieluntersuchung verdeutlichen, dass positive, ökologische Wirkungen durch die Angebote erzielt werden können. Voraussetzung dafür ist jedoch, dass die Angebote mehrere Fahrtenwünsche bündeln und gezielt in den Erschließungslücken des öffentlichen Verkehrs eingesetzt werden.
KTL-beschichtete verzinkte Stahlbleche sind weitverbreitete Teile in der Automobilindustrie. Bei Defekten im Lack ist eine Unterwanderung der organischen Beschichtung durch Korrosion möglich. Diese Arbeit präsentiert ein effektives Finite-Elemente-Modell zur Simulation der anodischen Lackunterwanderung an standardisierten Schäden unter verschiedenen Klimaten und räumlichen Orientierungen des Bleches. Das semi-empirische Simulationsmodell beruht auf der Mischpotential-Theorie und berücksichtigt das Ausfallen von Korrosionsprodukten, die Zeit der Elektrolytbedeckung, die Temperatur, die Solekonzentration, die Sauerstoffkonzentration und den pH-Wert des Elektrolyten. Es werden elektrochemische Polarisationsdaten und Time-of-Wetness-Daten experimentell ermittelt, welche als Eingangswerte für das Simulationsmodell dienen. Zur Modellierung der Korrosionsprodukte wird ein impliziter Ansatz verfolgt, wobei der Kathodenstrom in Abhängigkeit der Delaminationsweite reduziert wird. Die Validierung der Simulationsergebnisse erfolgt anhand von Korrosionstests. Die Übereinstimmung der Simulations- und Korrosionstestergebnisse zeigt, dass mit dem entwickelten Simulationsmodell der Korrosionsfortschritt über die untersuchte Testdauer von 8 Wochen mit mehreren Millimetern Unterwanderung präzise simuliert werden kann. Des Weiteren bleibt die Rechenzeit bei der Ausführung des Simulationsmodells praktikabel für eine industrielle Modellanwendung.
Ziel der vorliegenden Studie ist es, Evidenzen zur PPIK-Theorie und zum selbstregulierten Lernen aufzuzeigen. Mit diesen Theorien kann sich zu den folgenden zwei Fragen
geäußert werden: Mit welchen lernpsychologischen Kontextfaktoren kann das Lesen und
Interpretieren von Technischen Zeichnungen nach DIN EN ISO im Erwachsenenalter
erklärt werden? Wie lassen sich das Lesen und Interpretieren von Technischen Zeichnungen nach DIN EN ISO angemessen fördern? Dazu werden in einem experimentellen
Feldstudiendesign mit einer Stichprobe von (n=381) Studierenden der Fachschule Technik (Maschinenbau) fünf Analysen zu zwei Messzeitpunkten durchgeführt. In diesen fünf
Analysen werden via Strukturgleichungsmodellierung mit Mplus7 die zuvor theoretisch
operationalisierten Konstrukte evaluiert. In Analyse 1 manifestieren sich sowohl das deklarative Sachwissen als auch die analytische Problemlösekompetenz der berufsfachlichen
Kompetenz als mehrdimensionale Konstrukte. Mit Analyse 2 lässt sich für Quer- und
Längsschnitt eine Invarianz zum einen für den Treatment-Gruppenvergleich und zum anderen für den Zusammenschluss von Prä- und Posttest verzeichnen. In Analyse 3 wird
eine bedeutende Lernprogression infolge der vier Lernarrangements attestiert. Auf dieser
Grundlage werden in der Studie gelingende Lernprozesse basierend auf dem pädagogischen Konzept des selbstregulierten Lernens initiiert. Mithilfe von Analyse 4 kann darüber hinaus eine Quasi-Circumplexstruktur der beruflichen Interessen nach Holland aufgezeichnet werden. In der abschließenden Analyse fünf werden u. a. empirische Evidenzen zum belastbaren Einfluss von intelligence-as-knowledge auf die verschiedenen Dimensionen analytischer Problemlösekompetenz herausgearbeitet, die eine große Rolle in der integrativen und intellektuellen Kompetenzentwicklung der PPIK-Theorie spielt. Diese
neuen Erkenntnisse aus der Studie stehen demgemäß künftig Lernbegleitern zur Verfügung, die sie zur Förderung des Lesens und Interpretierens Technischer Zeichnungen
angemessen in ihre theoretisch begründeten Lernarrangements integrieren können.
Zeitaufgelöste FTIR- und Lumineszenzspektroskopie an Organometallkomplexen und deren Reaktionen
(2023)
In dieser Arbeit wurden mittels Lumineszenzspektroskopie und Step-scan-FTIR-Spektroskopie die Leuchteigenschaften sowie die elektronisch angeregten Zustände von Organometallkomplexen im Temperaturbereich von 5 - 290 K untersucht, welche für die Eignung als organische Leuchtdioden (OLEDs) und Photokatalysatoren bzw. -sensibilisatoren relevant sind. Für ein besseres Verständnis der Reaktivität verschiedener Organometallkomplexe wurden die Reaktionen mittels zeitaufgelöster FTIR-Spektroskopie verfolgt. Der Vergleich mit quantenchemischen Rechnungen unterstützt die Charakterisierung der elektronisch angeregten Zustände, Reaktionsprodukte oder Intermediate. Die untersuchten Komplexe erreichen die gewünschten Eigenschaften ohne Seltenerdmetalle und enthalten stattdessen häufiger vorkommende Metalle wie Kupfer. Daher wurde der Einfluss von Metall-, Halogenid- und Ligandvariationen auf die Leuchteigenschaften und die dafür verantwortlichen elektronisch angeregten Zustände zweikerniger und vierkerniger Kupfer- und Silberkomplexe, die sich potentiell für die Anwendung als OLEDs eignen, untersucht. Auch der elektronisch angeregte Zustand eines weiteren Kupferkomplexes mit interessanten Lumineszenzeigenschaften wurde charakterisiert. Ebenfalls wurden die photophysikalischen Eigenschaften eines Kupfer-Photosensibilisators sowie seine Fähigkeit zum Energieübertrag untersucht. Im Bereich der Reaktivitäten wurden die photochemische Reaktion und ihre ungewöhnliche, dunkle Rückreaktion von Carbonyl-haltigen Chrom-, Molybdän- und Wolframkomplexen verfolgt und der Reaktionsmechanismus aufgeklärt. Auch die thermische Reaktion eines Kupferkomplexes, die sich je nach Lösungsmittel unterscheidet wurde untersucht und mögliche Produkte identifiziert. Die erlangten Erkenntnisse über den Einfluss verschiedener Ligandmodifikationen, Halogenid- oder Metallzentren auf die gewünschten Eigenschaften der Organometallkomplexe und das Verständnis für die Reaktivität tragen zu der Entwicklung verbesserter Systeme bei, welche ohne Seltenerdelemente gute Eigenschaften für die Verwendung als Leuchtdioden, Katalysatoren oder Photosensibilisatoren aufweisen.
Trotz überlegenen gewichtsspezifischen mechanischen Eigenschaften von klassi-schen, endlosfaserverstärkten Faser-Kunststoff-Verbunden (FKV), sind oftmals das spröde Versagensverhalten unter Zug- und Biegebeanspruchungen sowie die daraus resultierende geringe Schadenstoleranz und Strukturintegrität ein Ausschlusskriterium für diese Werkstoffe. Weitere anwendungsbezogene Ausschlusskriterien folgen aus der, verglichen mit metallischen Leichtbauwerkstoffen, eher als gering einzustufenden elektrischen Leitfähigkeit. Eine vielversprechende Möglichkeit, um diesen Nachteilen entgegen zu wirken besteht in der Hybridisierung von duktilen metallischen Verstär-kungsfasern und klassischen Verstärkungsfasern. Damit können elektrische und ther-misch leitfähige Hybridwerkstoffe erzeugt werden, die neben sehr guten gewichtsspe-zifischen mechanischen Eigenschaften eine signifikante Verbesserung der Scha-denstoleranz und der Crashperformance ermöglichen. In Abhängigkeit der Werkstoff-zusammensetzung, der Laminatarchitektur und der angewandten Hybridisierungsstra-tegie, bieten die eingebetteten Metallfasern aufgrund ihrer hohen Bruchdehnung alter-native Lastpfade und ermöglichen so die Lastaufnahme auch nach dem Versagen der klassischen Verstärkungsfasern. Während das Potenzial dieser Hybridwerkstoffe be-reits für verschiedenste Werkstoffkombinationen bewiesen wurde, konzentriert sich die vorliegende Arbeit darauf, die verschiedenen Wirkmechanismen des Materialverhal-tens von metallisch hybridisierten FKV vor, nach und während des Versagens zu ver-stehen und verschiedene Beschreibungsansätze und -modelle dafür zu entwickeln. Am Beispiel von stahl- und kohlenstofffaserverstärktem Epoxidharz (SCFK) wird hierzu eine umfangreiche experimentelle Untersuchung vorgestellt. Dabei wird gezeigt, dass das Versagen der Kohlenstofffasern einen komplexen Lastumlagerungsprozess aus-löst und dass das Materialverhalten nach dem Versagen der Kohlenstoffasern im We-sentlichen von den dabei entstehenden lokalen Schädigungen und Beanspruchungen abhängt. Ferner kann gezeigt werden, wie diese Schädigungen und Beanspruchungen durch die Zusammensetzung des Werkstoffes, die Laminatarchitektur oder die Prüf-körpergeometrie beeinflusst werden können. Darauf aufbauend wird ein neuartiges Werkstoffmodell vorgestellt, mit dem der komplexe Lastumlagerungsprozess nach dem Versagen der Kohlenstoffasern abgebildet werden kann und mit dem eine schnelle Abschätzung der Materialeigenschaften möglich ist. Darüber hinaus wird ein Materialmodell zur Abbildung des Materialverhaltens von stahlfaserverstärkten Kunst-stoffen (SFK) für den Solver LSDyna implementiert und in Kombination mit einem Ma-terialmodell für kohlenstofffaserverstärkte Kunststoffe (CFK) für die Beschreibung von auf Laminatebene hybridisiertem SCFK mit der FEM verwendet. Abschließend wird sowohl für das Modell des Lastumlagerungsprozesses als auch für die Beschreibung von SCFK mit der FEM eine detaillierte Analyse der Vorhersageeignung vorgestellt.
Wissenschaftliche Evidenz zum Thema "(Un-)Wirksamkeit von Strafe" wird in der Öffentlichkeit kontrovers diskutiert. In der vorliegenden Arbeit wird vermutet, dass es bei der Rezeption zu motivierten Verzerrungen, genauer gesagt, zu einer Bedrohung der moralischen Wertvorstellungen kommt, infolgedessen wissenschaftliche Erkenntnisse diskreditiert und abgelehnt werden. Hierfür wurde zunächst die moralische Begründung von persönlichen Strafeinstellungen systematisch untersucht. Dabei zeigte sich, dass eine deliktspezifische (nach Kriminalitätsbereichen aufgeteilte) Betrachtung erforderlich ist. Regressionsanalysen konnten die qualitativen Unterschiede hinsichtlich der zugrundeliegenden Wertvorstellungen belegen. Die Art und Weise der Operationalisierung erwies sich hierbei als entscheidend für den "moralischen Gehalt" der individuellen Strafeinstellung.
Eine Bedrohung moralischer Wertvorstellungen durch einen wissenschaftlichen Artikel, der sich gegen die Wirksamkeit von harten Strafen (deliktspezifisch) ausspricht, konnte nicht nachgewiesen werden. Weitere Moderationsanalysen offenbarten jedoch unabhängig von den persönlichen Wertvorstellungen eine motivierte Verzerrung bei der Rezeption des Artikels: TeilnehmerInnen, die an die Wirksamkeit von Strafe glaubten, bewerteten einen Artikel, der dies widerlegte, schlechter als diejenigen, die einen Artikel lasen, der dies bestätigte. Diese Verzerrungen liegen jedoch nicht in einer moralischen Bedrohung begründet, sondern lassen sich vielmehr als Strategie zur Auflösung von Dissonanz bei Konfrontation mit einstellungsinkonsistenten Inhalten verstehen. Kern des Problems sind offenbar nicht die untersuchten persönlichen Wertvorstellungen und deren Bedrohung, sondern das hohe Ausmaß der Diskrepanz zwischen öffentlicher und wissenschaftlicher Meinung. Diese Erkenntnis ist insofern von Bedeutung, als dass sie ein Bewusstsein für die Gefahren (z.B. eines Bumerang-Effekts) bei der Kommunikation der Inhalte schafft.
Insgesamt betrachtet tragen die Ergebnisse zu einem tieferen Verständnis persönlicher Strafeinstellungen bei und liefern Ansatzpunkte für die Entwicklung von Strategien zur überzeugenden Kommunikation kriminologischer Erkenntnisse bezüglich der Sinnhaftigkeit von Strafe.
Die Palladium-Katalyse bietet dem Chemiker eine Vielzahl an Möglichkeiten für etwaige Kupplungs- und Additionsreaktionen. Die Bandbreite an bereits etablierten Methoden zur Anwendung der Palladium-Katalyse im Feld der Decarboxylierungen ermöglicht die Nutzung von ubiquitär vorkommenden Carbonsäuren als Arylquelle für anschließende Additionsreaktionen. Selbst enantioselektive Multikomponentenreaktionen sind bereits publiziert worden. Der erste Teil dieser Arbeit legt den Fokus auf die Etablierung einer Methode zur Synthese von Mandelsäure-Derivaten auf Basis einer Palladium-katalysierten decarboxylierenden Additionsreaktion von Arylcarbonsäuren an Glyoxylsäureester, welche als Bausteine in zahlreichen biologisch aktiven Substanzen enthalten sind. Im zweiten und dritten Teil der Arbeit wurde der Schwerpunkt auf die Entwicklung einer Methode zur enantioselektiven Synthese von α-Arylglycinen gelegt, deren Vorkommen als Strukturmotiv oder direkter Baustein in pharmakologischen Wirkstoffen von großer Bedeutung sind. Dabei wurden für diese Multikomponentenreaktion zunächst die Arylboronsäuren und im Anschluss Aryltrifluoroborate als Arylquellen untersucht.
Neue nachhaltige und dezentrale Energiesysteme können einen großen Beitrag bei der Einsparung von Energie sowie für die Verringerung der CO2-Emissionen des Gebäudesektors leisten. Bei der Entwicklung dieser Systeme ist eine ganzheitliche Betrachtung ihrer wesentlichen Auswirkungen und Einflussfaktoren essenziell. Ziel dieser Arbeit ist es, ein neuartiges, auf Peltier-Elementen basierendes Heiz- und Kühlsystem ganzheitlich zu bewerten. Peltier-Elemente sind kleine thermoelektrische Wandler und sollten, installiert in der Außenwand eines Gebäudes, als dezentrale Wärmepumpen fungieren. Die Bewertung des Gesamtsystems ist durch eine Kombination aus experimentellen Untersuchungen und thermischen Simulationen möglich. Die experimentellen Untersuchungen konzentrierten sich zunächst auf die Leistungsfähigkeit der Peltier-Elemente und wurden später zu Versuchen an einem Prototyp erweitert, der sowohl im Labor als auch im Freilandversuch analysiert wurde. Aufbauend auf den Erkenntnissen dieser Untersuchungen wurden thermische Bauteilsimulationen in TRISCO und VOLTRA sowie thermische Gebäudesimulationen in TRNSYS durchgeführt. Anhand der Freilandversuche und der Gebäudesimulationen konnte das entwickelte thermoelektrische Heiz- und Kühlsystem abschließend energetisch bewertet werden. Mit einem durchschnittlichen jährlichen System-COP von 0,96 bis 1,02 erwies sich das erforschte System als nicht ausreichend effizient. Vor allem im direkten Vergleich mit einem auf einer Wärmepumpe basierenden Referenzsystem zeigte sich, dass das untersuchte Peltier-System beim derzeitigen Stand der Technik keine zukunftsfähige Technologie ist.
Im Rahmen der vorliegenden Forschungsarbeit konnte erfolgreich eine Reihe an radikal- (n = 3) und bptz0-verbrückten (n = 4) homodinuklearen Metallkomplexen (20 Verbindungen) der Form [{M(L-N4R2)}2(bptz)](X)n mit dem verbrückenden redoxaktiven bptz-Liganden (bptz = 3,6-Di(2-pyridyl)-1,2,4,5-tetrazin), dem terminalen L-N4R2-Liganden (L-N4R2 = 2,11-Diaza[3.3](2,6)pyridinophan, R = Me oder tBu), unterschiedlichen Gegenionen (X = PF6-, ClO4-, AsF6-, OTf-) und den 3d-Metallionen Fe2+, Co2+, Co3+, Ni2+, Cu2+ und Zn2+ sowie Ru2+ als einzigem Vertreter der 4d-Metalle realisiert werden. Die generierten Komplexe wurden dabei röntgenkristallographisch, elementaranalytisch, ESI-massenspektrometrisch, elektrochemisch, mit Hilfe eines SQUID-Magnetometers, UV/Vis-, IR-, NMR- und ESR-spektroskopisch charakterisiert. Die Fe-haltigen Spezies wurden zudem mittels der Mößbauer-Spektroskopie untersucht. Im Zuge dieser Analysen konnte der Einfluss des Oxida-tionszustandes des Brückenliganden und der Metallionen auf die Komplexeigenschaften ergründet werden.
Das wichtigste Resultat dieser Dissertation war die Synthese schaltbarer Fe2+-SCO-Verbindungen. Im Zuge der Untersuchung der Reihe an radikalverbrückten homodinuklearen Übergangsmetallkomplexen stellte sich heraus, dass dessen Vertreter mit dem Komplexkation [{Fe(L-N4tBu2)}2(bptz)]3+ und den Gegenionen PF6-, ClO4-, AsF6-, OTf- SCO-Charakteristika aufwiesen. Diese konnten durch die reversible Elektronenaufnahme des Brückenliganden ein- und ausgeschaltet werden. Der jeweils sukzessiv erfolgende, graduelle, zweifache SCO-Prozess konnte erfolgreich mittels röntgenkristallographischer, NMR-, UV/Vis- und Mößbauer-spektroskopischer Analyse sowie durch ein SQUID-Magnetometer verfolgt werden. Dabei wurde eine antiferromagnetische Kopplung zwischen dem HS-Fe2+-Zentrum und dem organischen Radikal detektiert. Die Verwendung verschiedener Gegenionen und Lösungsmittel ermöglichte die Adressierung unterschiedlicher magnetischer Grundzustände und Spinübergangstemperaturen.
Kulturpolitik erlebt einen Aufschwung in Deutschland – steigende Etats, eine zugebilligte Funktion als Allheilmittel eine wachsende Relevanz in der Wissenschaft sowie eine Charakterisierung als wirtschafts- und arbeitsmarktpolitischer Faktor sind Ausdruck einer zunehmenden Bedeutsamkeit.
Gleichzeitig steht die Kulturpolitik vor wachsenden Herausforderungen in der Ausfinanzierung eines Kulturbetriebs, der Bewältigung eines digitalen und demografischen Wandels, einer sich verstetigenden Teilhabe-Ungerechtigkeit sowie einer sich in einem Rechtfertigungskonsens ausdrückenden Legitimationskrise.
Diese Kontroverse begünstigt den Einsatz konzeptbasierter Kulturpolitik als Qualitätsmerkmal der Kulturpolitik zu deren renommiertesten Komponenten ein Kulturentwicklungsplan (KEP) zählt.
Die Messung und Deutung der kommunalen Unterschiede in der Intensität konzeptbasierter Kulturpolitik, die empirische Erforschung der für die Intensitätsunterschiede verantwortlichen Ursachen sowie die Untersuchung der Wirkung konzeptbasierter Kulturpolitik sind Gegenstand der Dissertation.
Die Regulation des Glucosestoffwechsels und damit einhergehend die Aufrechterhaltung der
Glucosehomöostase sind essenzielle Prozesse des menschlichen Körpers zur
Energiegewinnung. Ein dauerhaft erhöhter Blutglucosespiegel ist pathologisch und gilt als
Symptom der Krankheit Diabetes mellitus. Seine steigende Inzidenz sowie Prävalenz weltweit
[Magliano und Boyko, 2021], zeigen die Notwendigkeit der Suche nach Medikamenten auf,
wobei Pflanzenextrakten eine tragende Rolle zukommen kann [Alam et al., 2022]. Die Nutzung
von Nebenprodukten greift zusätzlich den Nachhaltigkeitsaspekt auf, was Biertreber (BSG) als
Ausgangsmaterial entsprechender Untersuchungen interessant macht. Mit über 39 Millionen
Tonnen weltweit pro Jahr stellt er das Hauptnebenprodukt der Bierindustrie dar und wird
bislang vordergründig als Futtermittel verwendet [Mussatto, 2014]. Aktuelle Studien zeigten
seinen Nutzen zur Erhöhung des Nährwertes von Lebensmitteln auf [Sahin et al., 2021; Pratap
Singh et al., 2020]. Zudem wurden bioaktive Inhaltsstoffe wie Flavonoide oder
Hydroxyzimtsäuren (HCA) aus BSG extrahiert, wobei letztere Bestandteil der Arabinoxylane
sind [Stefanello et al., 2018]. Neben antioxidativen Wirkungen sind HCA als Inhibitoren einiger
Enzyme des Glucosestoffwechsels beschrieben. Ferula- (FA) und Kaffeesäure (CA) erwiesen
sich als potente α-Glucosidase-Inhibitoren in vitro [Adisakwattana et al., 2009], FA zeigte
zudem einen starken Einfluss auf Enzyme des Glykogenstoffwechsels [Narasimhan et al.,
2015a; Narasimhan et al., 2015b]. Mittels verschiedener Methoden wie Fest-Flüssig-
Extraktion (SLE) oder alkalischer Hydrolysen wurden verschiedene Extraktgruppen (HA, HE, A)
aus drei BSG-Chargen (BSG 1–3) hergestellt, charakterisiert und in vitro auf ihren Einfluss
gegenüber α-Glucosidase, α-Amylase, Dipeptidylpeptidase IV und Glykogenphosphorylase α
(GPα) untersucht. Die Extrakte aus alkalischer Hydrolyse (HE) wiesen einen deutlich höheren
Gesamtphenol (TPC)- und Gesamtflavonoidgehalt (TFC) auf als die A- (SLE) und HA-Extrakte
(SLE aus Rückstand der alkalischen Hydrolyse). Potente Inhibition wurde v.a. durch die
A-Extrakte gegenüber α-Glucosidase und GPα beobachtet. Eine Korrelation der Inhibition mit
dem TPC und TFC konnte nicht festgestellt werden. HPLC-ESI-MS/MS- Experimente zeigten
zudem die deutlichen Unterschiede der Extraktgruppen, wobei HCA-Derivate als
Leitsubstanzen der HE- und HA-Extrakte und Hordatine als Hauptkomponenten der A-Extrakte
nachgewiesen wurden. Die Hordatin- wie auch HCA-Gehalte wurden semiquantitativ
bestimmt, wobei letztere signifikant geringer in HA- als HE-Extrakten war. Sowohl die FA-
Dehydrodimere (DiFA) als auch Hordatine waren kommerziell nicht erhältlich, weshalb sie aus
BSG isoliert wurden. In beiden Isolierungen wurden Fraktionen erhalten (37 F-Fraktionen aus
DiFA-Isolierung, zehn H-Fraktionen aus Hordatin-Isolierung), welche charakterisiert und im
α-Glucosidase- und GPα-Inhibitionsassay untersucht wurden. Zwei H-Fraktionen hemmten
α-Glucosidase und deuteten auf Hordatin-Glykoside oder den Präkursor p-Coumaroylagmatin
als möglichen Inhibitor hin. Zahlreiche F-Fraktionen hemmten GPα, wobei trimere
Ferulasäurederivate als Inhibitoren postuliert wurden. Eindeutige Rückschlüsse auf die
inhibierenden Komponenten der Extrakte waren aufgrund der geringen Ausbeuten und damit
kleinen Stichprobenzahl sowie den semiquantitativen Bestimmungen schwierig. Zudem
rückten Oxylipine als Inhaltsstoffe fast aller Extrakte sowie der F-Fraktionen in den Fokus. Ein
GPα- und α-Glucosidase-hemmendes Potential von BSG-Extrakten bzw. isolierter
Phytochemikalien konnte im Rahmen der vorliegenden Arbeit nachgewiesen werden.
Beste mechanische Eigenschaften werden bei Faser-Kunststoff-Verbunden mit Hilfe von Endlosfaserverstärkungen erreicht. Die Fertigung von komplexen Strukturbauteilen mit Endlosfaserverstärkung ist jedoch ein aufwendiger Prozess, welcher zum Teil immer noch händisch erfolgt. In den bekannten automatisierten Prozessen werden die Endlosfasern für komplexe Bauteile häufig nicht optimal entlang der Lastpfade ausgerichtet und somit nicht effizient eingesetzt.
Im Rahmen dieser Arbeit wird ein neuartiges Verfahren vorgestellt, welches unter effizienter Ausnutzung der Endlosfasern eine automatisierte Fertigung von hochbelastbaren Strukturbauteilen ermöglicht. Dafür wird das roboterbasierte 3D-Faserwickeln mit vorimprägniertem, epoxidharzbasiertem und endloskohlenstofffaserverstärktem TowPreg, mit dem thermoplastischen, kurzglasfaserverstärkten Spritzgussverfahren kombiniert. Neben den Eigenschaften des zu bewickelnden Fadenträgers und eines eigens entwickelten Wickelkopfes, wird der Einfluss unterschiedlicher Fadenspannungen im Wickelprozess, mit Hilfe der roboterbasierten Fertigung von Druckprobekörpern in einem neuartigen Werkzeug, auf die mechanischen Eigenschaften untersucht. Dieser Einfluss konnte nicht nachgewiesen werden. Es wird des Weiteren, anhand eines Demonstrators (Brakebooster), die computerbasierte Erzeugung von Wickelmustern, sowie die Berechnung der optimalen Zusammensetzung dieser, für fachwerkartige Strukturen, entwickelt. Die Hybridisierung der duroplastischen (Epoxidharz), endlosfaserverstärkten Struktur mit kurzglasfaserverstärktem, thermoplastischem (Polyamid 6) Material wird über unterschiedliche Vorbehandlungsmethoden der gewickelten Struktur untersucht. Der Fokus wird hier vor allem auf die Behandlung im Niederdruckplasmaverfahren gelegt. Es wird ein Versuch entwickelt, mit dem die gewickelten und hybridisierten Proben im Bereich der Interface-Festigkeit charakterisiert werden können. Bei diesem Versuch konnte eine Interface-Festigkeiten von bis zu 𝜏 = 15,1 ± 1,1 MPa durch eine Vorbehandlung mit 45-minütigem Luftplasma nachgewiesen werden.
Die Ergebnisse werden abschließend an topologieoptimierten Demonstratoren angewendet. Diese werden als Wickelstruktur, in einer plasmabehandelten und nicht-vorbehandelten hybriden Variante und einer spritzgegossenen Variante getestet. Die spezifische Steifigkeit der plasmabehandelten, hybriden Brakebooster lag dabei auf dem Niveau der gewickelten Brakebooster und war mehr als doppelt so hoch, wie bei spritzgegossenen Brakeboostern. Auch konnte eine 23 % höher spezifische Steifigkeit durch die Niederdruckplasmabehandlung erreicht werden, als ohne Vorbehandlung.
Untersucht wurden im dargestellten Dissertationsprojekt Erklärungen von Grundschüler*innen der 4. Klassenstufe, die aus Sprachvergleichssituationen stammen. Ziel war es, die analysierten metasprachlichen Erklärungen in polythetische Subtypen auszudifferenzieren. Die darauf abzielende Sprachanalyse vereinte inhalts- und korpusanalytische Verfahren, deren jeweiligen Ergebnisse für die abschließende Typenbildung genutzt wurden.
Durch die Inhaltsanalyse konnten hinsichtlich des Explanans der untersuchten metasprachlichen Erklärungen die zwei Erklärschemata Verabsolutierendes Erklärschema und Präsumtives Erklärschema rekonstruiert werden. Beide unterscheiden sich bezogen auf den kommunikativen Zweck im epistemischen Modus. Auch konnten die sprachbezogenen Explananda näher spezifiziert werden (WAS-Explanandum, WIE-Explanandum, MISCH-Explanandum). Im Rahmen der Korpusanalyse wurden die in den Erklärschemata enthaltenen rekurrenten Wörter und Wortverbindungen als sprachliche Verfestigungen erfasst und statistisch geprüft. Die inhalts- sowie korpusanalytischen Befunde, vereint im Konstrukt metasprachlicher Erklärprozeduren, stellten die Grundlage und Voraussetzung für die Bestimmung der Merkmalsräume im Rahmen der Typenbildung dar. Mithilfe der Merkmalsräume lassen sich insgesamt vier polythetische Typen metasprachlicher Erklärungen voneinander abgrenzen (Typ A: Verabsolutierende metasprachliche WAS-Erklärung; Typ B: Verabsolutierende metasprachliche WIE-Erklärung; Typ C: Präsumtive metasprachliche WAS-Erklärung; Typ D: Präsumtive metasprachliche WIE-Erklärung).
Durch die kontextspezifische Sprachanalyse bietet die Studie strukturelle und fachdidaktisch anschlussfähige Einsichten zum metasprachlichen Erklärverhalten von Grundschüler*innen in Sprachvergleichssituationen.
Bei den Flüssigimprägnierverfahren wird ein trockenes Textil mit einem Harzsystem imprägniert, wodurch Faser-Kunststoff-Verbunde hergestellt werden. Bei der Betrachtung von üblichen Faser-Kunststoff-Verbund-Bauteilen wie z. B. Motorhauben an Kraftfahrzeugen, Verkleidungsstrukturen für die Luft- und Raumfahrt oder Sportgeräte wie Ski wird deutlich, dass es sich meist um „schalenförmige“ Bauteile handelt. Hierdurch wird klar, dass bei einer Imprägnierung in transversaler Richtung, also senkrecht zur Bauteil- bzw. Textilebene, der Fließweg deutlich kürzer ist als in der Bauteilebene. Somit birgt eine transversale Imprägnierung ein großes Potenzial zur Fließweg- und somit zu einer Zykluszeitreduktion. Um das volle Potenzial bei einer Imprägnierung in transversaler Richtung nutzen zu können, müssen die Textileigenschaften für eine akkurate Prozessauslegung so genau wie möglich bekannt sein. Hierzu gehören die faservolumengehaltsabhängige Tränkbarkeit (Dickenpermeabilität), der Kapillardruck sowie die Kompaktierungseigenschaften von Textilien. Um diese Eigenschaften zu ermitteln, wurden im Zuge dieser Arbeit mehrere Bestimmungsmethoden entwickelt, realisiert und validiert. Kern dieser Bestimmungsmethoden ist ein System welches neben dem Sättigungsvorgang, die Dickenpermeabilität sowie die strömungsinduzierte Textildeformation aufzeichnen kann. Ersteres durch die Verfolgung des Fließfrontfortschritts und Letzteres durch Verfolgung der Gesamtdickenänderung des zu messenden Textilstapels als auch der Änderung der Position einer einzelnen Lage im Textilstapel. Zur Berechnung der Dickenpermeabilität werden zusätzlich noch Druck- und Volumenstrommessungen durchgeführt. Um die Validität von ungesättigten Permeabilitätsmessungen nachzuweisen, wurde ein Kapillardruckmesssystem für eine reine transversale Strömung entwickelt. Hier wird die Fließfront in Abhängigkeit der Zeit dazu genutzt um den Kapillardruck zu bestimmen. Alle Methoden und Verfahren ermöglichen ein tieferes Verständnis der Vorgänge bei einer transversalen Imprägnierung von Textilien. Die gewonnenen Daten können zusätzlich als Eingangsparameter für Prozesssimulationen genutzt werden. Die Grundlagen einer solchen Simulation wurden erfasst und erste Simulationen zur Ermittlung einer Umsetzbarkeit bei der ungesättigten Dickenpermeabilität sowie der hydrodynamischen Kompaktierung durchgeführt.
Omics-basierte Untersuchungen zum Wirkmechanismus des makrozyklischen Lactons Oxacyclododecindion
(2023)
Die Suche nach neuen therapeutischen Wirkstoffen ist, aufgrund der geringen Erfolgsquote vor allem
in späteren Phasen der Zulassung, nach wie vor eine große Herausforderung. Für einen möglichst
effizienten Entwicklung- und Zulassungsprozess zu erhöhen, ist eine möglichst genaue
Charakterisierung des Moleküls und der davon ausgehenden biologischen Aktivität sinnvoll. Eine
wertvolle Quelle an potenziellen Wirkstoffen stellen Sekundärmetaboliten aus Bakterien, Algen,
Pflanzen oder Pilzen dar. Im Rahmen dieser Arbeit wurden verschiedene, aus Pilzen isolierte Stoffe
näher untersucht, die durch eine phänotypische Wirkstoffsuche gefunden wurden. Im Gegensatz zu
einer Target-basierten Wirkstoffsuche, wird sich bei dieser Methode nicht auf ein bestimmtes
Zielprotein fokussiert, sondern in einem zellbasierten System nach Stoffen gesucht, die einen
phänotypischen Effekt hervorrufen. Das genaue Target bleibt daher zunächst unbekannt.
Hauptsächlich wurde das Makrolacton Oxacyclododecindion (Oxa) bzw. dessen Derivate untersucht.
In phänotypischen Analysen stellte sich Oxa bereits in der Vergangenheit als vielversprechender
Wirkstoff zur Behandlung inflammatorischer und fibrotischer Erkrankungen heraus. Verschiedene
Derivate des Naturstoffs wurden durch die Abteilung für Organische Chemie der Johannes
Gutenberg-Universität Mainz synthetisiert und im Rahmen dieser Arbeit auf ihre biologische Aktivität
hin untersucht. So konnte der Einfluss verschiedener Derivatisierungen auf die biologische Aktivität
analysiert und mit bereits publizierten Derivaten verglichen werden. So konnte die optimale Position
für weitere Funktionalisierungen des Moleküls gefunden werden.
Neben der Analyse globaler Effekte auf BEAS-2B und HepG2 stand vor allem die Identifikation
möglicher Targets im Vordergrund. Dazu wurden zunächst verschiedene Ansätze zur Identifikation
von Proteinen, die an das besonders aktive Derivat 14-Deoxy-14-methyloxacyclododecindion (DM-Oxa) binden, durchgeführt. So konnten bereits erste Kandidaten, insbesondere das
Hitzeschockprotein HSP90, als mögliche Interaktoren identifiziert werden. Dieses Protein hat einen
zentralen Stellenwert in zahlreichen zellulären Prozessen, wodurch es bereits als mögliches Target
für verschiedene Erkrankungen bekannt ist.
Um erstmals einen Einblick in die globalen Effekte von DM-Oxa auf die Genexpression und das
Proteom in verschiedenen Zelltypen zu erhalten, wurden sowohl mRNA-Sequenzierungs- als auch
MS-Proteomics-Ansätze durchgeführt. Somit konnten bereits bekannte Charakteristika verifiziert und
neue Einblicke in beteiligte Signalwege gewonnen werden. Im Rahmen dieser Analysen konnten
potenzielle Zielproteine von DM-Oxa identifiziert werden. Darunter beispielsweise die zentralen
Transkriptionsfaktoren FOXO3 und AP-1.
Auch die Rolle von HSP90 als möglicher Interaktionspartner von DM-Oxa wurde weiter beleuchtet.
Dazu wurde eine Co-Immunpräzipitation mit HSP90 Antikörpern durchgeführt, um Veränderungen in
der Abundanz von Proteinen, die an HSP90 binden, festzustellen. Solche Veränderungen könnten
auf die Blockade von Bindestellen durch DM-Oxa hinweisen. Tatsächlich wurde die Abundanz von
100 bekannten Interaktionspartnern durch DM-Oxa Behandlung signifikant beeinflusst, sodass die
Rolle von HSP90 als Oxa-Target weiter ins Zentrum rückt.
Neben der Analyse von Oxacyclododecindion und verschiedenen Derivaten wurden zwei weitere
bisher unveröffentlichte Naturstoffe aus einem Pilz der Gattung Alternaria näher untersucht. Diese
gehören zu Klasse der Perylenchinone und zeigten zum Teil toxische und oxidative Wirkung in
BEAS-2B-Zellen, was durch verschiedene Versuchsansätze nachgewiesen werden konnte.
Plattformarbeit gewinnt als neue Arbeitsform zunehmend an Bedeutung und bietet Vorteile bei der Vereinbarkeit von Erwerbs- und Privatleben. Allerdings können Steuerungselemente wie Algorithmen und Bewertungssysteme auch Risiken bergen. Aktuelle Forschung zur Diskriminierung von Frauen auf Online-Arbeitsmärkten gibt Hinweise auf eine mögliche Ungleichbehandlung. Bekannte Muster des traditionellen Arbeitsmarktes bei der Beauftragung und Preissetzung zeigen sich auch auf den Plattformen. Dies legt nahe, dass sich Geschlechterstereotype auf die Plattformökonomie übertragen. Welche Bedeutung dabei die plattformspezifischen Steuerungselemente haben stand bei bisherigen Untersuchungen nur selten im Fokus.
Diese Dissertation untersucht die Rolle von Geschlechterstereotypen und Algorithmen bei Beauftragung und Preissetzung auf einer der weltweit größten Freelancing-Plattformen, freelancer.com. Durch Web-Scraping wird ein einzigartiger Datensatz erstellt und mithilfe von Methoden des maschinellen Lernens aufbereitet. Mittels ökonometrischer Modelle wird die Fragestellung unter Berücksichtigung auftragsspezifischer Effekte untersucht.
Die Ergebnisse deuten darauf hin, dass Geschlechterstereotype bei der Beauftragungsentscheidung auf der Plattform keine Rolle spielen. Allerdings kommt dem Rankingalgorithmus der Plattform eine hohe Bedeutung zu. Ferner kann festgestellt werden, dass das Ranking der Freelancer:innen in Abhängigkeit vom Geschlecht unterschiedlichen Einfluss auf die Beauftragungswahrscheinlichkeit nimmt: Für Frauen ist der Rang in einem weiblich geprägten Tätigkeitsfeld weniger relevant als für Männer.
Geschlechterstereotype scheinen demnach auf der Freelancing-Plattform keine Relevanz zu haben. Frauen wird somit eine gendergerechtere Erwerbstätigkeit geboten. Jedoch bergen plattformspezifische Steuerungselemente wie der Rankingalgorithmus neue Potenziale zur Geschlechterdiskriminierung. Die Erkenntnisse tragen dazu bei, ein besseres Verständnis der Herausforderungen und Chancen der Plattformarbeit im Kontext der Geschlechtergleichstellung zu gewinnen.
Ketten werden als Übertragungselement für Drehbewegungen und Zugkräfte in verschiedenen Anwendungen verbaut. Daher lassen sich Ketten in Abhängigkeit ihres mechanischen Aufbaus, der Verwendung und der Belastung der Kette unterscheiden. Die kommerziell relevanteste Kette ist die Rollenkette, die aus Innen- und Außengliedern im alternierenden Wechsel besteht. Diese sind durch ein Gelenk aus Bolzen und Hülse miteinander verbunden. Sie wird als Antriebselement im Maschinen- und Fahrzeugbau verwendet. Hinsichtlich Lebensdauer und Effizienz des Kettentriebs steht der tribologische Kontakt zwischen Bolzen und Hülse im Fokus der Entwicklung. Reduzierte Kettenlängung durch geminderten Verschleiß steigert die Gebrauchsdauer einer Rollenkette. Ein optimiertes Reibungsverhalten führt zu einer Senkung der Verlustleistung des Kettentriebs. Neben unterschiedlichen Kettenwerkstoff en, Oberflächenbehandlungen und Schmierstoff en wird an der Bauteilkontur der Gelenkkomponenten geforscht. Infolge von Betriebsbelastungen und elastischen sowie plastischen Verformungen im Montageprozess kommt es im Kettengelenk zu komplexen Lastverhältnissen mit sehr hohen Kontaktpressungen. Der Einfluss der beschriebenen Form- und Konturabweichungen auf das Verschleiß- und Reibungsverhalten wird in dieser Arbeit untersucht, wozu Ketten mit unterschiedlichen Hülseninnenkonturen miteinander verglichen werden. Kettengelenke, die Komponenten mit starker Abweichung von der idealen Zylinderkontur aufweisen, zeigen eine ausgeprägtere Verschleißneigung als Ketten mit optimierten Hülsen. Anstelle von herkömmlichen Bauteil- oder Aggregatsversuchen mit großem physischen Materialaufwand wird ein Bauteil-Tribometer, das Kettengelenktribometer verwendet. Mit Hilfe dieses Prüfstands wird ein einzelnes Kettengelenk über aus realen Kettentrieben abgeleiteten Lastkollektiven geprüft. Der Aufbau ermöglicht so eine realitätsnahe Untersuchung und liefert dabei im Betrieb Daten hinsichtlich des Gelenkverschleiß. Zudem können Reibungskenngrößen erfasst werden. Aus den Daten der experimentellen Untersuchungen und der Prüfkörper-Charakterisierung speist sich ein reibenergetischer Verschleißberechnungsansatz, der die tribologischen Gegebenheiten im Kettengelenk durch eine EHD-Kontaktsimulation darstellt. Der Simulationsansatz kann als Unterstützung im Entwicklungsprozess neuer Hülseninnenkonturen genutzt werden.
Vor knapp einem Jahrhundert erschien mit Wilhelm Riegers »Einführung in die Privatwirtschaftslehre« (1928) die erste und bislang einzige Gesamtschau über diese heute weitgehend vergessene Wissenschaft, welche im frühen zwanzigsten Jahrhundert aufkeimte und sogleich wieder erstarrte. Riegers Privatwirtschaftslehre bildet ein Gegenmodell zu der damals gerade etablierten Betriebswirtschaftslehre. Während letztere den Betrieb in den Mittelpunkt ihrer Betrachtung stellt und so dem damaligen Vorwurf entging, das eigennützige Profitstreben der Kaufleute befördern zu wollen, wird in Riegers Lehre gerade jenes Streben zum Ausgangspunkt aller Überlegungen erhoben. Nach Riegers Meinung stellt eine Disziplin, die den Betrieb als solchen und ungeachtet der mit ihm verfolgten Absichten behandelt, keine Wirtschaftslehre im eigentlichen Sinne dar. Was er im Allgemeinen unter »Wirtschaftslehre« verstand, blieb jedoch offen.
Bei der vorliegenden Arbeit handelt es sich um das Bestreben, diese Definitionslücke zu schließen und Riegers Lehre neu im Lichte einer bestimmten Auffassung von Wirtschaftslehre zu würdigen. Es wird unterstellt, es handele sich um dasjenige, was der Ökonom Ludwig von Mises als »Praxeologie« bezeichnete: eine Wissenschaft, die auf rein introspektiv-gedanklichem Wege die Gesetze des menschlichen Handelns ergründet. Riegers Lehre wird vor diesem Hintergrund in zwei aufeinander aufbauenden Untersuchungen kritisiert werden. Bei der ersten wird, ausgehend von den bisher an ihr geübten Kritiken, das logische Recht in Frage stehen, mit welchem sie ihr Dasein als akademische Disziplin beansprucht. Die zweite Untersuchung wird die Art der Methode betreffen, derer sie sich zur Erfüllung dieses Anspruches bedienen müsste. Beide Untersuchungen werden dogmatischer Art sein: Sie werden Mises’ System unhinterfragt als gültig voraussetzen. Riegers Kritik an der Betriebswirtschaftslehre wird unter dieser Annahme berechtigt erscheinen und sämtliche Einwendungen, die bislang von betriebswirtschaftlicher Seite gegen seine Konzeption der Privatwirtschaftslehre vorgebracht wurden, werden sich als unhaltbar zurückweisen lassen.
Trotz der beträchtlichen Fortschritte in der organischen Synthese in den letzten Jahrzehnten ist der rasche und selektive Aufbau von Molekülen mit mehreren stereogenen Zentren nach wie vor eine große Herausforderung für jeden Chemiker. Insbesondere für pharmazeutische Anwendungen ist die präzise Kontrolle der absoluten und relativen Konfiguration von entscheidender Bedeutung, da die biologischen Eigenschaften von Arzneimitteln unmittelbar davon abhängig sind. Aus diesem Grund besteht ein dringender Bedarf, effiziente Methoden für die Darstellung von strukturell komplexen Molekülen, wie bspw. 1,3-Diamino-2-olen oder Tetrahydrochinolinen, zu entwickeln (Schema I). Eine retrosynthetische Betrachtung dieser Motive ergab, dass 2-Oxyenamide nützliche Bausteine für dieses Vorhaben sind. In diesem Zusammenhang lassen sich die Ziele dieser Dissertation in zwei wesentliche Teile gliedern. Zunächst wurden geeignete Methoden zur Herstellung von 2-Oxyenamiden ausgehend von leicht zugänglichen Startmaterialien untersucht und etabliert (Teil I). Anschließend wurden, im zweiten Teil dieser Arbeit, 2-Oxyenamide für die stereodivergente Synthese von 1,3-Diamino-2-olen und die stereoselektive Darstellung von Tetrahydrochinolinen verwendet (Teil II).
Numerische Berechnungsmodelle wurden in den letzten Jahren zunehmend für
geotechnische Nachweise eingesetzt, da sie die Möglichkeit bieten, komplizierte
Systemgeometrien und realistische, nichtlineare Materialmodelle für den Boden
zu verwenden. In den geltenden Europäischen Normen gibt es hierzu kaum
Vorgaben, weshalb deren Neufassung numerische Verfahren als
Nachweismöglichkeit enthalten wird. Motiviert durch diese Entwicklung
beschäftigt sich die vorliegende Arbeit mit der Implementierung und
Modellierung verschiedener geotechnischer Randwertprobleme mittels der
Finite-Elemente-Methode.
Die Grundbruchsicherheit von Fundamenten kann mit numerischen Methoden
gut abgebildet werden. Trotz Modellierungsschwierigkeiten lässt sich der
Einfluss der Fundamentform über 3D-Modelle abschätzen und etablierte
Vorschläge zur Berücksichtigung der Auswirkungen der Lastexzentrizität
konnten verifiziert werden. Die Ergebnisse bestätigten außerdem, dass der
Ansatz, die Anteile des Grundbruchwiderstands getrennt zu berechnen und dann
zu überlagern, auf der sicheren Seite liegt. Zur Berücksichtigung seismischer
Belastungen wurde die klassische Grundbruchformel um seismische
Trägheitsfaktoren erweitert. Für Gründungen auf geschichteten Böden konnten
Werte aus früheren analytischen und numerischen Untersuchungen gut
reproduziert werden.
Gestützte Baugrubenwände wurden mit zwei verschiedenen
Nachweisalternativen numerisch analysiert: dem Material Factor Approach und
dem Effect Factor Approach. Für beide Varianten wurden die Schnittkräfte in
der Wand verglichen. Während an den Auflagern und entlang der Wandbettung
beide Methoden ähnliche Ergebnisse liefern, zeigen sich in den Feldmomenten
Unterschiede. Auch der Einfluss des Grundwassers wurde untersucht.
Die Umsetzung des räumlichen Erdwiderstands in numerischen Modellen ist
noch immer eine Herausforderung. Für den ebenen Zustand stimmen die
numerischen Ergebnisse sehr gut mit den analytischen Lösungen der Normen
überein. Einflussfaktoren auf die numerische Umsetzung von
Brückenwiderlagern wurden identifiziert. Dazu gehören die Netzfeinheit und die
Nachgiebigkeit der Flügelwände. Die Ergebnisse der Untersuchungen und die daraus abgeleiteten
Schlussfolgerungen können in der Praxis und für die weitergehende Analyse von
geotechnischen Bauwerken verwendet werden.
Veränderungen sind für dynamische Organisationen selbstverständlich. Das macht es nicht selten schwer, an bekannten Mustern wie bspw. vertrauten Führungskonzepten festzuhalten. Das Zeitalter von Digitalisierung verändert auch die Anforderungen für organisationale Führungsarbeit. Demgegenüber basieren die bestehenden Führungsmethoden meist auf strukturgebenden Handlungsanweisungen, welche im Rahmen von langen Planungshorizonten das gewünschte Ziel erreichbar werden lassen.
Das im Rahmen der Forschungsarbeit identifizierte Problem zeigt sich darin, dass Führungs-verantwortlichen Modelle bzw. Methoden für Ihre Führungsarbeit zur Verfügung stehen, die sich bei der Lösung von Aufgaben und Problemen vor allem linear-kausaler Handlungslogiken bedienen. Doch ist ein Führungsansatz, der sowohl Zweckorientierung als auch eine Wertorientierung beinhaltet, schwer umsetzbar, da (nach Geißler) wertorientierte Zugänge nicht zweckorientiert begründet werden können.
Dabei weist Arnold darauf hin, dass einige theoretische Ansätze vorzugsweise von der Idee ausgehen, dass Aufklärungs- und Lernprozesse sowie Identitätsentwicklung von außen durch professionelle Vermittlung, Begleitung oder Beratung intentional einigermaßen wirkungssicher gestaltet werden können. So bspw. die Bürokratietheorie, Entrepreneurship, Management als Prozess oder auch die Managementsoziologie. Dass dies Führungskräfte in ihrem Lernprozess im Umgang mit Veränderungen nicht unterstützt, wie bspw. bei der digitalen Transformation in Organisationen, zeigt u. a. auch, dass bisherige Ansätze, wie Checklisten und Methoden für die verschiedenen Phasen von Organisationsentwicklung, um nur zwei Beispiele zu nennen, ein Scheitern der betreffenden Vorhaben bzw. Prozesse nicht verhindern können (rund 70% der Veränderungsaktivitäten scheitern). Dabei haben Führungskräfte meist mit ihrer Rolle die Entscheidungsbefugnis und damit die strukturelle Überlegenheit in Organisationen. Damit sind sie durch und mit ihrer Führungsarbeit ein Ausgangspunkt für den Rahmen, in welchem Organisationsentwicklung stattfindet. Der Einbezug der Mitarbeiter steht häufig im Zentrum der verfügbaren Ansätze zu Führung in organisationalen Veränderungsprozessen. Individuelles und organisationales Lernen scheint bislang noch kein wirksamer Bestandteil in Organisationsentwicklungsprozessen zu sein. Führungskräfte sehen sich Komplexitäten gegenüber, welche sich mit linearen Modellen nur bedingt lösen lassen. Dem gegenüber könnte Führung im Kontext von Organisationsentwicklung mit einem reflexiven Ansatz mehr unterstützt werden. Dabei würde, Arnold folgend, anstelle einer systematischen Perspektive mit linearer Ausrichtung vielmehr ein systemischer Blickwinkel mit reflexivem Zugang erkennbar. Dabei zeigt sich die Ambivalenz der Führungskräfte, zwischen der Suche nach Sicherheit und Orientierung, was lineare Modelle mit Abstrichen bieten, und der Alternative, dass reflexive Sichtweisen hilfreich sein können. Mit dieser Alternative ließe sich dann das Erreichen des faktischen Zieles (bspw. Neustruktur eines Verantwortungsbereiches) und darüber hinaus individuelles und in der Folge kollektives Lernen ermöglichen. Der reflexive Ansatz, welcher sich über den Bildungsbegriff, im Sinne der selbstbestimmten Suche nach Vervollkommnung, definiert (der in linearen Modellen gerade keinen Raum findet) findet hier seinen Raum. Die Fähigkeit der Selbstreflexion und des sich selbst Hinterfragens der eigenen Wahrnehmung und Deutungsmuster von Führungskräften leistet möglicherweise einen Beitrag zu ihrem Lernen. Aus der Perspektive dieser Forschungsarbeit wird unter Annahme der vorangestellten Ausführungen dann die Handhabung von Führungsarbeit in organisationalen Veränderungen anders ermöglicht.
Damit steht die Auseinandersetzung mit Führung in organisationalen Veränderungen im Fokus der Forschungsarbeit. Dabei greift die Arbeit auf das Santiago-Prinzip von Arnold zurück. Ein wesentlicher Bestandteil dieses Prinzips liegt darin, dass die betreffenden Handelnden zunächst eigene Wahrnehmungs- und Deutungsmuster diskursiv hinterfragen. Dieser Diskurs soll den Akteuren einen macht- und sanktionsfreien Raum ermöglichen. Selbst wenn in einer Organisation dies zunächst eine Annahme ist. Habermas ist es bewusst, dass dieser Raum nicht real existiert und dennoch ist er notwendig, um Kommunikation innerhalb sozialer Systeme überhaupt stattfinden zu lassen.
Die Möglichkeit gemeinsamen Diskurs zu führen, erlaubt denen am Veränderungsgeschehen beteiligten Akteuren eine auf gemeinsam verhandelte Sinnzuweisungen getragene Form von individuellem Lernen. Dabei wird Lernen im Rahmen des dialogischen Verständnisses angenommen und unterstützt die Beteiligten, verschiedene Perspektiven einzunehmen und nicht den unreflektierten, eigenen Urteilen zu folgen. Damit wird ein diskursiver Zugang zu organisationalen Veränderungen ermöglicht. Hiermit kann ein Zusammenhang von Führung in bzw. von Organisationsentwicklungsprozessen und bildungsbezogener Entwicklung der beteiligten Akteure hergestellt werden.
Bildung als die selbstbestimmte Suche nach individueller Vervollkommnung ermöglicht den Beteiligten im Veränderungsprozess eine Weiterentwicklung auf persönlicher und interpersonaler Ebene.
Die Forschungsarbeit erweitert die bestehenden Erkenntnisse der linear-kausalen Ansätze zur Führungsarbeit in organisationalen Veränderungen mit dem Beitrag, dass durch den diskursiven Führungsansatz die gemeinsame, bewusste und abgestimmte Suche nach alternativen Perspektiven und Lösungsoptionen möglich ist.
Der Erkenntnisbeitrag dieser Forschungsarbeit liegt darin, dass innerhalb der Theorie ein eigener Zugang aufgezeigt wird, um die Lücken zu füllen, welche die bisherigen Modelle auf-weisen. Dies umfasst einen neuen Zugang zur Führungsarbeit in Organisationsentwicklungsprozessen, der den Akteuren eine gemeinsam entwickelte und abgestimmte Sinnzuweisung in organisationalen Veränderungen ermöglicht. Dabei stellt die (betriebs-)pädagogische Handlungslogik hier den Ausgangspunkt dar, um die Individuen in ihrer selbstbestimmten Suche nach Erkenntnis und Vervollkommnung einzubeziehen. In diesem Rahmen wird gewürdigt, dass soziale Systeme die Fähigkeit haben, aus sich selbst heraus neue Ordnungsformen zu entwickeln. Leitend für diesen alternativen Lösungsansatz ist der Mangel bestehender Führungsmodelle in Organisationsveränderungen. Diesem Lösungsansatz liegt ein dialogisch-diskursiver Zugang auf organisationale Veränderungsprozesse zugrunde, welcher einen neuen Erkenntnisbeitrag im Bereich der Organisationsentwicklung darstellt.
Gerade die Haltung der Akteure, sich kritisch-konstruktiv mit sich selbst auseinander zu setzen, eine Selbstreflexivität und die Wahrnehmung des Gegenübers mit einzubeziehen, erweitert ihnen den Möglichkeitsraum, Führung in Veränderungen von Organisationen nachhaltig zu gestalten.
Dieses Ziel soll mit Hilfe folgender Forschungsfragen erreicht werden:
In welcher Weise bewirkt eine diskursive Haltung, dass die Handlungen in organisationalen Veränderungen auf eine von den beteiligten und betroffenen Akteuren gemeinsam geteilte und getragene Verständnisbasis gestellt werden?
In welcher Weise können betroffene Akteure mit Hilfe von Diskursen ihr Handeln innerhalb der Organisationsentwicklung auf der Basis von gemeinsam geteiltem und getragenem Verständnis gestalten?
Dabei werden Hypothesen aufgestellt und empirisch überprüft. Für das empirische Vorgehen sind zwei Varianten eingesetzt worden, um damit Aussagen über Zusammenhänge zwischen Lücken bestehender Führungsmodelle und der gemeinsam geteilten und getragenen Verständnis- und Handlungsbasis treffen zu können:
online Befragung (22 Teilnehmer): Aufgrund der Samplegröße sind keine Rückschlüsse auf die Grundgesamtheit aller Führungskräfte möglich. Diese Daten dienen der Orientierung zu einfach beobachtbaren Phänomenen in organisationalen Veränderungsprozessen.
Experteninterviews (16 Interviews): Vertiefende Untersuchung der angenommenen Zusammenhänge bzgl. der Lücken zwischen den bestehenden Führungsmodellen und einem diskursiven Zugang in Organisationsentwicklungsprozessen. Die Auswertung erfolgt im Rahmen einer qualitativen Inhaltsanalyse.
Folgende Hypothesen werden untersucht:
Je mehr die Beteiligten eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis gestalten, desto wirkungsvoller lassen sich Lücken bestehender Führungsmodelle in der Organisationsentwicklung füllen.
Je mehr die Beteiligten ihre Führungsrolle auf eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis stellen, desto vielfältiger ermöglichen sie allen Beteiligten, Herausforderungen in Organisationsentwicklungsprozessen mitzugestalten.
Je häufiger Diskurs in Führungsbeziehungen ermöglicht wird, desto nachhaltiger entsteht eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis der Beteiligten in Organisationsentwicklungsprozessen.
Die Hypothesen basieren auf den Ansätzen zur Diskurstheorie bei Foucault und Habermas. Nach Foucault dient der Diskurs als Vorgang der Herausbildung von Wahrheiten, die auf Grundlage des Seins, der Erfahrungen der Diskursbeteiligten entstehen. Für Habermas stellt der Diskurs die notwendige Grundlage dar, allen am Diskurs beteiligten Akteuren einen Zugang zu Formen kommunikativer Vernunft zur ermöglichen. Über diesen Zugang gelangen die betreffenden Akteure zu neuen Erkenntnissen und vorläufigen Wahrheiten. Diese beiden Säulen des Diskurses werden mit dem Dialogischen Management Ansatz nach Petersen verbunden, um einen Erkenntniszuwachs im bestehenden Theoriefeld zu erreichen.
Damit soll diese Forschungsarbeit mit ihrem Bezug auf Diskurs und Lernen als Erfolgsfaktor für bewusste Wahrnehmung von Führungsaufgaben einen Beitrag für individuelle und organisationale Entwicklung leisten.
Analyse des Potenzials von Phasenwechselmaterialien im Einsatz bei mehrschichtigen Bauelementen
(2023)
Das letzte Jahrzehnt hat die menschliche Wahrnehmung von Klimawandel und Energieverbrauch dramatisch verändert. Es ist ersichtlich, dass der Mensch aufgrund der
CO2-Emissionen aus dem fossilen Energieverbrauch eine dominante Rolle im Klima-
wandel spielt. Es ist heute weitgehend Konsens, dass wir den Einsatz fossiler Brenn-
stoffe reduzieren müssen, um die Abhängigkeit von den Lieferländern zu verringern
und die CO2-Emissionen zu reduzieren. In dieser Hinsicht ist die beste Alternative die
Verwendung Erneuerbarer Energien.
Energie aus solarer Strahlung ist weder kontinuierlich noch vollständig steuerbar, aber
quasi kostenlos verfügbar. Um die nicht kontinuierliche, teilweise steuerbare Bereit-
stellung zu kompensieren, muss die Energie für ihre Nutzung möglichst effizient ge-
speichert werden. Aktuell werden Bauteile bereits passiv als Wärmespeicher genutzt
und decken einen Teil des Wärmebedarfs von Gebäuden. Für eine umfangreichere
Deckung dieses Bedarfs können Bauteile mittels thermischer Aktivierung aktiv beladen
werden. Darüber hinaus können Materialien eingesetzt werden, um die thermische
Speicherkapazität zu erhöhen. Besonders interessant sind Phasenwechselmaterialien
(PCM), welche ohne Temperaturanstieg Wärme speichern.
PCMs weisen ein nichtlineares Verhalten auf, was bei Simulationen oder Steuerungen
neue Herausforderungen bedeutet. Daher ist es unerlässlich, ihr Verhalten anhand ei-
ner numerischen Methode zu modellieren. In dieser Dissertation wird die Finite-Diffe-
renzen-Methode (FDM) zur Modellierung und Simulation des thermischen Verhaltens
von thermisch aktivierten Bauteilen, ausgestattet mit PCM, benutzt und zur Diskreti-
sierung der Differentialgleichungen wird das Crank-Nicolson-Verfahren eingesetzt. Au-
ßerdem wird zur Modellierung des latenten Verhaltens von PCM die Enthalpie-Me-
thode angewendet. Die Hysterese vom PCM ist auch modelliert. Für die Simulation der
aktivierten Bauteile wird das Stern-Dreieck-Transformationsverfahren genutzt. Basie-
rend auf den genannten Methoden und den dazugehörigen Gleichungen wird ein Code
im MATLAB Programm implementiert, mit dem das thermische Verhalten von ther-
misch aktivierten Bauteilen, ausgestattet mit PCM, untersuchen werden kann. Letzt-
endlich wird zur Validierung des numerischen Modells das komplexe Verhalten von
PCM untersucht und zusätzlich wird der entwickelte Code durch thermische Simulati-
onen einer genormten Wand in „ANSYS Workbench“ verifiziert. Nach der Validierung
des Codes und seiner Entwicklung als TRNSYS-Komponente wird die Parametrisie-
rung durchgeführt. Sein Zweck war es, unter Berücksichtigung der verschiedenen Pa-
rameter eine Außenwand zu entwerfen, die den Heizwärmebedarf des Referenzge-
bäudes, SFH30 nach IEA SHC Task32, maximal und gleichmäßig im Laufe der drei
aufeinanderfolgenden kältesten Tage in jedem Monat der Heizperiode abdecken kann.
Schließlich wird ein Optimierungscode mit Hilfe der Simulated Annealing Methode im
MATLAB Programm implementiert. Mit diesem Code wird die Wandkonstruktion be-
stimmt, welche den gesamten Heizwärmebedarf des Referenzgebäudes gleichmäßig
im Lauf der drei aufeinanderfolgenden kältesten Tage in jedem Monat der Heizperiode
abdecken kann.
Im Rahmen dieser Dissertation wurden neuartige tetraamidomakrozyklische Liganden mit verschiedenen Strukturmotiven entlang mehrstufiger Syntheserouten analysenrein dargestellt. Zum einen wurden als neuartige Grundstrukturen 1,8‑Diaminonaphthalin sowie 2-Aminobenzylamin in das tetraamidomakrozyklische Ringsystem eingebaut, wodurch sich Makrozyklen mit 14 Ringatomen ergaben. Zum anderen wurde das gegenüberliegende Ligandenrückgrat durch Variation der Substituenten am α‑Kohlenstoffatom von Malonsäurederivaten verändert. Bei bereits literaturbekannten Liganden mit einer Größe von 13 Ringatomen konnte durch Variation einiger Reaktionsparameter eine Optimierung der Ausbeuten im Cyclisierungsschritt erfolgen. Im Anschluss daran wurden alle erhaltenen Liganden zu Eisen(III)komplexen mit axialen Wasserliganden mit Kaliumgegenionen umgesetzt. Eine Kristallisation vieler Eisen(III)komplexe wurde durch Ionenaustausch erreicht, wobei in den meisten Fällen reproduzierbar, zusätzlich zum Ionenaustausch, ein Ligandenaustausch des axialen Liganden zu Chlorid beobachtet wurde. Die Charakterisierung aller erhaltenen paramagnetischen Eisen(III)komplexe erfolgte mittels verschiedener analytischer Methoden. Weiterhin konnte festgestellt werden, dass alle neuartigen makrozyklischen Liganden mit 14 Ringatomen bei unterschiedlichen verwendeten Reaktionsbedingungen keine Cobalt(III)komplexe ausbildeten. Zusätzlich wurde im Rahmen dieser Arbeit erstmalig die Komplexierung des 4d-Metalls Molybdän in der Oxidationsstufe +V durch einen tetraamidomakrozyklischen Liganden beobachtet, was durch röntgenkristallographische Messungen belegt wurde. Die dargestellten Eisen(III)komplexe kamen schließlich bei der selektiven Oxidation von Cyclohexen zur Untersuchung ihrer homogenkatalytischen Aktivität zum Einsatz. Hierbei fanden verschiedene Aktivierungsmethoden Anwendung. Die Variation einiger Reaktionsparameter resultierte in guten Ausbeuten sowie hohen Selektivitäten bei der katalytischen Anwendung. Auch konnten Struktur- und Reaktivitätsbeziehungen der verschiedenen Komplexe abgeleitet werden. Abschließend erfolgten erste Versuche zur katalytischen Oxidation von Cumol.
Die Trends und Entwicklungen, mit denen sich die Weinwirtschaft auf der Konsumentenseite konfrontiert sieht, sind vielfältig. Seit einigen Jahren lässt sich in Deutschland ein Rückgang des Pro-Kopf-Konsums alkoholischer Getränke beobachten. Ein weiterer Trend ist das zunehmende Gesundheitsbewusstsein in der Gesellschaft. Diese und weitere Entwicklungen treiben die Weinbranche an, alkoholfreie und alkoholreduzierte Weine als Produktinnovationen auf dem Markt zu positionieren. Die Dissertation widmet sich einer theoretischen und empirischen Analyse der Zielgruppen sowie der Einflussfaktoren der Innovationsadoption im Kontext alkoholfreier Weine. Sie ist thematisch in das Strukturförderungsprojekt „Weinnova: Innovative Produkte mit verringertem Alkoholgehalt im Segment Wein“ eingebettet, das durch die Europäische Innovationspartnerschaft für landwirtschaftliche Produktivität und Nachhaltigkeit (EIP-AGRI) als Teil des Maßnahmen- und Entwicklungsplans ländlicher Raum Baden-Württemberg (MEPL III) im Zeitraum 2019 bis 2022 gefördert wurde.
Zur Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen unter Zugbeanspruchung
(2023)
Zur Realisierung von schlanken, weit gespannten Deckensystemen im Hochbau werden zunehmend einachsig und zweiachsig gespannte Hohlkörperdecken eingesetzt. Bei dieser Bauweise sind die Deckenquerschnitte im Vergleich zu massiven Stahlbetondecken planmäßig geschwächt. Gleichermaßen gilt dies für Stahlbetondecken, die als Installationsebene für Leitungen der Gebäudetechnik genutzt werden. In beiden Fällen führen die integrierten Hohlräume zu einer Minderung der Querkrafttragfähigkeit von nicht querkraftbewehrten Stahlbetondecken. An der TU Kaiserslautern wurde in den vergangenen Jahren die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen eingehend erforscht. Die entwickelten Bemessungskonzepte stehen der Baupraxis mit den nationalen Erläuterungen in DAfStb Heft 600 zu DIN EN 1992-1-1 zur Verfügung. Der Einfluss von Längszug auf die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen ist jedoch weitgehend unbekannt. In dieser Arbeit wird mit experimentellen Untersuchungen und numerischen Simulationen das Querkraftversagen von einachsig gespannten Stahlbetondecken mit integrierten Hohlräumen und Hohlkörpern unter Längszug erforscht. Die Arbeit gibt Aufschluss über das Tragverhalten geschwächter Stahlbetonbauteile unter Längszug infolge einer direkten Einwirkung. Die Versuchsergebnisse zeigen einen erwartungsgemäß ungünstigen Einfluss von Längszug auf die Querkrafttragfähigkeit massiver Stahlbetondecken. Im Gegensatz dazu zeigt sich bei Stahlbetondecken mit integrierten Hohlräumen und bei Stahlbetondecken mit integrierten Hohlkörpern ein deutlich geringerer, ungünstiger Einfluss von Längszug auf die Querkrafttragfähigkeit, der mit zunehmender Querschnittsschwächung deutlich zurückgeht. Auf Grundlage der Ergebnisse wird ein Vorschlag zur Erweiterung des bestehenden Bemessungskonzeptes nach Dafstb Heft 600 für die Bemessung der Querkrafttragfähigkeit von Stahlbetonbauteilen mit integrierten Hohlräumen unter Längszug erarbeitet. Gleichermaßen wird ein Vorschlag zur Erweiterung des Bemessungskonzeptes für die Querkrafttragfähigkeit von Hohlkörperdecken nach den allgemeinen bauaufsichtlichen Zulassungen für Hohlkörperdecken vom Typ Cobiax Eco-Line, Cobiax Slim-Line und Unidome XS unterbreitet.
Im Rahmen dieser Arbeit wurden chirale Liganden mit einem Rückgrat aus 2,6 Bis(pyrazol-1-yl)pyridin aus den Naturstoffen Campher, Menthon und Carvon dargestellt. Diese wurden mit Ruthenium(II)komplexvorstufen umgesetzt. Hierbei zeigte sich die Notwendigkeit einer dazu erforderlichen Vorkoordination durch räumliche Nähe eines π-Systems. Deshalb wurden durch Reduktion chiraler Ruthenium(III)vorläuferverbindungen weitere asymmetrische Rutheniumkomplexe dargestellt. Diese erwiesen sich als monokationische Verbindungen und wurden mittels Kristallstrukturanalyse verifiziert. Durch Einsatz der katalytisch aktiven Komplexe in der homogen katalysierten Transferhydrierung von Acetophenon wurden Enantiomerenüberschüsse des (S)-konfigurierten Alkohols festgestellt. Zusätzlich gelang die Darstellung weiterer chiraler 3d- und 4d-Übergangsmetallkomplexe. Weiterhin wurden dikationische Rutheniumkomplexe dargestellt, an welchen die Koordination kleiner Donormoleküle vorgenommen wurde, wodurch diese für die katalytische Ammoniaksynthese verwendet werden könnten. Außerdem wurden die signifikanten Eigenschaften intramolekular koordinierender Allylfunktionen des Liganden deutlich.
Verbundträger aus Stahlprofilen, die mit der Betonplatte der Decke schubfest verbunden sind, stellen eine besonders wirtschaftliche Bauweise dar. Bei den heute üblichen Bauteilen des Hoch- und Brückenbaus kommen mechanische Verbundmittel zum Einsatz, die zu hohen lokalen Beanspruchungen insbesondere des Betons führen.
Durch den Ersatz dieser mechanischen Verbundmittel durch die Klebtechnik können diese hohen lokalen Beanspruchungsspitzen vermieden werden. Zusätzlich ermöglicht die Klebtechnik neuartige Konstruktionen auch unter Verwendung neuartiger Materialien.
Die Dauerhaftigkeit der Verbindung unter klimatischen und thermischen Einflüssen sowie mechanischer Beanspruchung ist dabei für die Anwendbarkeit der Klebtechnik von entscheidender Bedeutung.
Fehlende Kenntnisse des Langzeitverhaltens von geklebten Verbindungen, insbesondere unter langen andauernden klimatischen Einwirkungen, stehen einer weitgehenden und über die Ausführung von Pilotprojekten hinausgehenden Anwendung struktureller Klebungen im Bauwesen zurzeit entgegen.
Deshalb sollen Erkenntnisse zum dauerhaften Tragverhalten der Verbundfuge zwischen Stahl und Beton unter Beachtung der Eigenspannungszustände in der Klebfuge gewonnen werden. Der Beschreibung des Klebstoffverhaltens und Beachtung der Eigenspannungszustände und der Einflüsse der behinderten Querdehnung kommt dabei eine besondere Bedeutung zu. Bei dieser Bewertung des Trag- und Verformungsverhaltens unter lang andauernden klimatischen Einwirkungen ist auch die Wechselwirkung des Klebstoffs mit den Fügepartnern Stahl und insbesondere Beton zu behandeln, da auch die mechanischen Eigenschaften dieser Substrate maßgebend für das Verhalten der Klebfuge werden können. Insbesondere der Fügepartner Beton mit seiner hohen Alkalität, seinem Wassergehalt und seiner Permeabilität für Feuchte steht dabei im Blickpunkt der Untersuchungen. Durch die Anwendung der Klebtechnik ergibt sich die Möglichkeit, neue Geometrien für Stahlverbundbauteile zu entwickeln, die nicht mehr auf die Randbedingungen der mechanischen Verbundmittel wie Mindestdicken, Mindestbreiten oder minimale Randabstände Rücksicht nehmen müssen.
Die vorliegende Arbeit thematisiert die rutheniumkatalysierte Oxidation von
(Fettsäure)alkoholen zu den in die korrespondierenden Carbonylverbindungen.
Fettsäurealdehyde sind von großem wissenschaftlichem und wirtschaftlichem Interesse, da
sie wertvolle Start- und Zwischenprodukte für viele Zweige der chemischen Industrie
darstellen. Der Einsatz von rutheniumhaltigen Verbindungen als Katalysatoren zeichnet sich
durch eine hohe Flexibilität und Anpassbarkeit der gewünschten Reaktivität, sowie durch ein
breitgefächertes Anwendungsgebiet aus. Die Oxidationsreaktionen im Rahmen dieser Arbeit
erfolgten sowohl homogen- als auch heterogenkatalytisch unter Verwendung verschiedener
rutheniumhaltiger Katalysatoren und Oxidationsmittel. Der homogenkatalytische Einsatz von
simplem RuCl3 ∙ (H2O)x führte mit tert-Butylhydroperoxid als Sauerstoffquelle zur Entwicklung
eines umweltfreundlichen und unter milden Bedingungen operierenden Systems für die
Oxidation sekundärer Alkohole, während Fettsäurealkohole unter Einsatz von Trimethylamin-
N-oxid als Oxidationsmittel in die korrespondierenden Aldehyde überführt werden konnten.
Die Heterogenisierung von RuCl3 ∙ (H2O)x erfolgte auf harnstofffunktionalisierten Kieselgelen,
welche auch als Trägermaterial für Rutheniumnanopartikel eingesetzt wurden. Diese
Kieselgelderivate wurden durch Kopplung von (3-Isocyanatopropyl)trialkoxysilylverbindungen
mit primären und sekundären Aminen und anschließendem Postgrafting der
resultierenden Silanprecursoren hergestellt. Für einen Teil der Materialien erfolgte zusätzlich
eine Desaktivierung der Silanolgruppen auf der Materialoberfläche durch Austausch der
Hydroxygruppen gegen Trimethylsilyloxyeinheiten. Die heterogenkatalytische Oxidation von
Alkoholen – sowohl mit RuCl3 ∙ (H2O)x als auch mit Rutheniumnanopartikeln - erfolgte
ebenfalls unter Verwendung von Trimethylamin-N-oxid als Sauerstoffquelle und zeigt
Potential für zukünftige Untersuchungen zur Wiederverwendbarkeit der Katalysatormaterialien.
Neben RuCl3 ∙ (H2O)x und Rutheniumnanopartikeln wurde auch ein
rutheniumhaltiges Polyoxometallat für die Oxidation von sekundären und primären Alkoholen
unter Verwendung von tert-Butylhydroperoxid bzw. Trimethylamin-N-oxid eingesetzt, wobei
die für RuCl3 ∙ (H2O)x optimierten Reaktionsbedingungen erneut angewandt wurden.
Die steigende Verfügbarkeit von Smartphones und Tablet-PCs in der Schule bieten neue methodische und mediale Wege der Unterrichtsgestaltung, die zur Beurteilung der Lernwirksamkeit eine wissenschaftliche Betrachtung erfordern. Während zahlreiche Publikationen zu Augmented Reality (AR) im Bildungskontext existieren, fehlt es an einer differenzierten Betrachtung der Lernwirksamkeit AR-typischer Merkmale sowie breit angelegter Untersuchungsdesigns. Ziel dieser Arbeit ist es, die Lernwirksamkeit von AR in authentischen biologischen Unterrichtsszenarien multiperspektivisch zu betrachten. Zur Beurteilung der Lernwirksamkeit wurden Daten zu Lernzuwachs (LZ), Cognitive Load (CL), Nutzungserlebnis (UX), empfundener Lernunterstützung (ELU) sowie zur Immersion gemessen. Die Forschungsfragen beziehen sich auf den Einfluss der Art des Mediums, der Steuerung, des Triggers und der medialen Repräsentation auf die Lernwirksamkeit.
Die Untersuchungen wurden mithilfe eigens entwickelnder AR-Apps mit 769 Teilnehmenden aus rheinland-pfälzischen Gymnasien und zwei Universitäten durchgeführt. Neben dem Nachweis theoretischer Zusammenhänge der untersuchten Parameter mittels Strukturgleichungsmodellierung konnten mehrheitlich signifikante Unterschiede im LZ zugunsten von AR festgestellt werden. Darüber hinaus zeigten die Studien dieser Arbeit einen positiven Einfluss von AR auf den CL, sodass sich der Einsatz von AR nicht nachteilig auf die kognitive Belastung auswirkt. Neben des überdurchschnittlich bis exzellenten Abschneidens der AR-Apps im Benchmark-Vergleich (Vergleichsgruppe n = 20190 (Schrepp, 2019)), konnten positive Effekte der UX-Dimension Stimulation auf die Reduktion des lernhinderlichen Extraneous Cognitive Loads und die Steigerung des lernförderlichen Germane Cognitive Loads nachgewiesen werden. Hinsichtlich der ELU zeigten sich verschiedene mediale Präferenzen der Teilnehmenden, sodass durch die Verwendung von AR im Sinne eines wechselnden Medieneinsatzes die Bedürfnisse aller Lernenden abgedeckt werden kann. Weiterhin erreichten die Teilnehmenden die höchste der drei Ebenen der Immersion, sodass die Art des Triggers die 21 Immersionsfaktoren von Georgiou und Kyza (2017a) ergänzt.
Die Arbeit leistet auf Grundlage der Identifikation von AR-typischen Merkmalen einen Beitrag zum besseren Verständnis der lernwirksamen Potenziale von AR-basierten Lernumgebungen und zeigt darüber hinaus theoriebildende Implikationen zur Messung des CL auf. Ob sich mithilfe von AR der CL senken lässt, bedarf es Untersuchungen in Lernsettings, die einen hohen CL aufweisen. Weiterhin bietet der ARI-Fragebogen einen geeigneten Ausgangspunkt zur Erforschung AR-typischer Immersionsfaktoren. Trotzdem bedarf es weiterer Studien zur Validierung des ARI-Fragebogens und zur systematischen Untersuchung der Lernwirksamkeit von AR-typischen Merkmalen.
Verbundträger stellen in der Regel aufgrund der Anordnung der Ausgangsmaterialien im System entsprechend den jeweils vorteilhaften Eigenschaften sehr wirtschaftliche Konstruktionen dar. Neben den enormen Steifigkeiten und Tragfähigkeiten im Vergleich zu losen aufeinanderliegenden Querschnitten und dem deutlichen Einsparen an Eigengewicht im Vergleich zu Massivkonstruktionen zeichnen sich Verbundträger aufgrund hoher Vorfertigungsgrade durch einen schnellen Bauablauf aus.
Da die Verbundfuge zwischen Träger und Betonplatte in der Regel nicht unendlich starr ausgeführt werden kann, treten unter Last Relativverschiebungen zwischen den Teilquerschnitten auf, welche das Trag- und Verformungsverhalten des Gesamtsystems maßgebend beeinflussen können. Zum detaillierten Abbilden des realen Last- Verformungs-Verhaltens ist eine Berücksichtigung der Nachgiebigkeit der Verbundfuge daher unerlässlich. Da die Wirtschaftlichkeit von Stahl-Beton-Verbundträgern, den „klassischen Verbundträgern“, maßgebend durch das Ausnutzen plastischer Tragreserven im Grenzzustand der Tragfähigkeit abhängt, werden im Rahmen vorliegender Arbeit Berechnungsverfahren untersucht, die sowohl das nichtlineare Materialverhalten der Teilquerschnitte als auch das nichtlineare Last-Verformungs- Verhalten der Verbundfuge berücksichtigen.
Der Fokus vorliegender Arbeit liegt auf statisch unbestimmten Systemen, da sich die äußeren Schnittgrößen und die Steifigkeitsverteilung entlang der Trägerlänge gegenseitig beeinflussen. Konkret erfolgt die Modellierung mit der Segment-Lamellen- Methode, welche aufbauend auf der Differentialgleichung des elastischen Verbundes über zahlreiche elastische Lastschritte unter Reduktion der Steifigkeit einzelner Querschnittsbereiche das nichtlineare Tragverhalten mit guter Näherung darstellen kann. Darüber hinaus wird eine Übertragung der im Holzbau üblichen Stabwerkmodelle durch Berücksichtigung nichtlinearen Materialverhaltens auf Stahl-Beton-Verbundträger gegeben.
Zur Kalibrierung der Modelle und um zusätzliche Erkenntnisse zum Trag- und Verformungsverhalten von Verbundträgern vor allem in der Verbundfuge zu erhalten, werden drei großmaßstäbliche, statisch unbestimmt gelagerte Stahl-Beton- Verbundträger mit unterschiedlicher Verbundwirkung experimentell untersucht. Als Besonderheit ist zu nennen, dass abweichend von der aktuellen Normenregelung sowohl im Feld- als auch im Stützbereich eine Teilverdübelung vorliegt. Zusätzlich werden drei Versuche an großmaßstäblichen statisch bestimmt gelagerten Holz-Beton- Verbundträgern durchgeführt.
Beim Vergleich der Versuchsergebnisse mit der Modellrechnung kann gezeigt werden, dass das globale Last- und Verformungsverhalten von Verbundträgern mit sehr guter Näherung abgebildet werden kann. Hierdurch eignen sich beide Modellrechnungen als Basis einer verformungsorientierten Bemessung, bei der die Traglast des Systems bei Erreichen von Grenzdehnungen der Teilquerschnitte oder der Grenzverformung in der Verbundfuge erreicht wird. Vorteilhaft bei dieser Bemessung ist, dass einerseits sowohl nichtlineares Materialverhalten als auch die Nachgiebigkeit der Verbundfuge bei der Bemessung berücksichtigt werden kann und andererseits der Verformungszustand unmittelbar bestimmt werden kann.
In der vorliegenden Arbeit wird das Querkrafttragverhalten vorgefertigter Wand-elemente aus haufwerksporigem Leichtbeton (LAC) untersucht.
Leichtbeton mit haufwerksporigem Gefüge gilt als gut wärmedämmend und ressourcenschonend, weshalb er bei Verwendung in Fassadenelementen weiter an Bedeutung gewinnt. Allerdings führen unzureichende Erkenntnisse zum Querkraft-tragverhalten freitragender Wandbauteile ohne und mit Querkraftbewehrung zu normativen Einschränkungen in der konstruktiven Durchbildung und Herstellung der Fertigteile.
Das Ziel dieser Arbeit ist die Entwicklung eines Bemessungsmodells für freitragende Wandelemente aus LAC, das mit geeigneten Bewehrungskonstruktionen sowohl die einwandfreie Herstellung im üblichen Walzverfahren ermöglicht als auch die Tragfähigkeit der Elemente sicherstellt.
Zunächst werden experimentelle Untersuchungen zur Verdichtung von Elementen aus haufwerksporigem Leichtbeton durchgeführt. Darauf aufbauend ermöglichen Auszug-versuche mit einem modifizierten BeamEndTest eine Aussage über das Verbund- und Verankerungsverhalten von Bewehrungsstäben in LAC.
Mit den Ergebnissen der Auszugversuche werden Großversuche an Wandbauteilen konzipiert und durchgeführt, welche die Beurteilung der Querkrafttragfähigkeit von Bauteilen ohne und mit Querkraftbewehrung erlauben. Aus den experimentellen Untersuchungen wird ein an den Eurocode 2 und DIN EN 1520:2011-06 angelehnter Bemessungsvorschlag entwickelt, der unter anderem auch die Schubschlankheit der Elemente und die Verankerung der Querkraftbewehrung als Einflussparameter berücksichtigt.
Teile dieser Arbeit wurden im Forschungsvorhaben „Innovative Konstruktions- und Bemessungsregeln zur Optimierung der Querkraft- und Torsionstragfähigkeit von freitragenden Wandplatten aus LAC“ erarbeitet. Dabei handelt es sich um ein Kooperationsprojekt zwischen der Technischen Universität Kaiserslautern (Prof. Dr.-Ing. Matthias Pahn, Prof. Dr.-Ing. Jürgen Schnell), der Hochschule Koblenz (Prof. Dr.-Ing. Ralf Zeitler) und dem Bundesverband Leichtbeton e.V. (Dieter Heller). Das Projekt wurde gefördert durch das Bundesministerium fürWirtschaft und Energie.
Die tribologische Untersuchung von mechanischen Kontaktproblemen nimmt im Maschinenbau
einen immer wichtigeren Platz ein. Sie ermöglicht ein tieferes Verständnis von Phänomenen
wie Reibung und Verschleiß auf der Mikroebene und trägt zur Optimierung von
Maschinenelementen bei. Eine große Herausforderung besteht darin, die Rechenzeit trotz
der hohen Auflösung gering zu halten. Dazu bieten die Randelementmethoden eine große
Rechenzeitoptimierung für eine Kategorie von Kontaktproblemen, die durch bestimmte
Annahmen definiert werden. Die auf der Halbraumtheorie basierende semi-analytische
Methode, die Gegenstand dieser Arbeit ist, gehört zu den Randelementmethoden. Die
Halbraumtheorie beruht auf Grundannahmen wie beispielsweise dem linearen elastischen
Materialverhalten oder der alleinigen Berücksichtigung lokaler Verformungsanteile. Diese
verhindern die Anwendbarkeit der Methode auf spezielle Fälle in der Dichtungstechnik
und im Wälzlager.
Im Rahmen dieser Arbeit soll ein am Institut bereits vorhandenes semi-analytisches Kontaktmodell
für den Normalkontakt mit linear elastischem Materialverhalten der Kontaktpaare
erweitert werden, um eine Anwendung in der Dichtungstechnik und in Wälzlagern
zu ermöglichen. Mit dem Modell sollen Reibung und Verschleiß im Dichtkontakt sowie
Plastizität (Kontaktpressung- und Oberflächenveränderungen sowie belastungsinduzierte
Eigenspannungen) und Materialinhomogenität im Wälzkontakt untersucht werden können.
Eine Modellvalidierung wird in den beiden Anwendungsfällen durch Vergleich mit experimentellen
Messergebnissen durchgeführt.
Im Rahmen dieser Arbeit wurden Zink-Dipicolylamin-haltige Goldnanopartikeln zur Erkennung von anorganischen bzw. organischen Anionen synthetisiert. Im ersten Teil wurden funktionalisierte Goldnanopartikel entwickelt, mit denen anorganische Salze, insbesondere Natriumdiphosphat und Natriumtriphosphat, in einem Wasser/Methanol Gemisch nachgewiesen werden können. Dazu wurden gemischt-funktionalisierte Goldnanopartikel hergestellt, auf deren Oberfläche Triethylenglykol-haltige Liganden zur besseren Solubilisierung und funktionelle Zink-Dipicolylamin-haltige Liganden zum Anionennachweis immobilisiert wurden. Nach Zugabe von Natriumhydrogenphosphat, Natriumdiphosphat oder Natriumtriphosphat zu den Goldnanopartikellösungen kam es ab einer charakteristischen Salzkonzentration zu einer Aggregation der Nanopartikel. Dies steht im Einklang mit der Vorstellung, dass nach Zugabe des Analytsalzes aufgrund multivalenter und kooperativer Effekte, abrupt sehr große unlösliche Agglomerate ausgebildet werden. Die initial gebildeten Nanopartikelaggregate lösten sich bei weiterer Erhöhung der Salzkonzentration wieder auf, was wahrscheinlich auf den Übergang von 2:1 Komplexen zu 1:1 Komplexen zwischen den entsprechenden Anionen und den Erkennungseinheiten zurückzuführen ist. Die jeweiligen Grenzkonzentrationen sind zudem nicht nur für die Art des Anions spezifisch, sondern hängen auch von dem Anteil der auf der Goldnanopartikeloberfläche gebundenen Zink-Dipicolylamin Komplexen ab. Dabei führt ein geringerer Funktionalisierungsgrad zu einer höheren Empfindlichkeit der Goldnanopartikelsonden. Die grundsätzliche Eignung von mit Zink-Dipicolylamin Komplexen funktionalisierten Goldnanopartikeln wurde somit für den optischen Nachweis anorganischer Phosphate belegt. Im Rahmen des zweiten Teils der Arbeit wurde untersucht, ob sich Goldnanopartikel mit oberflächengebundenen Dipicolylamin-Zink Komplexen auch als optische Sonden zum Nachweis von Nukleotiden eignen. Die Bindungsstudien zeigten, dass die Nanopartikel auch in Gegenwart von Nukleotiden aggregieren, wobei die Empfindlichkeit für ATP im Vergleich zu ADP und AMP am größten war. Durch Zugabe von Natriumdiphosphat oder Natriumtriphosphat zu den ATP-haltigen Goldnanopartikellösungen konnte die Selektivität der Goldnanopartikellösungen umgekehrt werden, wodurch ein vielversprechendes Konzept zum selektiven AMP-Nachweis entwickelt wurde. Dieser AMP-Nachweis stellt einen vielversprechenden Ausgangspunkt für weitere Entwicklungen dar.
Die vorliegende Arbeit beschreibt die Synthese und Charakterisierung von oktaedrischen Eisen(II)- und Co(II)-Komplexen der Form [M(L-N4R2)(Y)](X)2 (M = Fe, Co) mit den vierzähnigen Diazapyridinophanliganden L-N4R2 (R = Me, tBu), zweizähnigen Pyridin- bzw. Chinolinimidazolliganden (Y) und verschiedenen Gegenionen X (X = ClO4 , PF6 , BPh4 , OTf-). Hierbei wurde zunächst gezeigt, dass sich die Einführung von Substituenten auf die Ligandenfeldstärke auswirkt und somit die Komplexe unterschiedliche magnetische Eigenschaften zeigen können, wobei sowohl low-spin- als auch high-spin Komplexe erhalten wurden. Zusätzlich wurde in vielen Fällen Spin Crossover-Verhalten beobachtet. Hierbei findet meistens ein thermisch induzierter Übergang vom low-spin- in den high-spin-Zustand statt, weshalb solche Verbindungen auch als molekulare Schalter bezeichnet werden. Von besonderem Interesse waren photochemisch schaltbare Liganden. Diese zeichnen sich in dieser Arbeit durch zwei 2,5-Dimethylthienylsubstituenten in 4- und 5-Position am Imidazolring des Co-Liganden aus. Nach Einstrahlung von UV-Licht einer für die Verbindung charakteristischen Wellenlänge kann ein intramolekularer Ringschluss über eine neue C-C-Bindung erfolgen. Mit den Liganden 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-methyl-imidazol-2-yl]pyridin (dtpyim-m), 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-phenyl-imidazol-2-yl]pyridin (dtpyim-ph) und 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-methyl-imidazol-2-yl]chinolin (dtchim-m) wurden erfolgreich Komplexe mit einem solchen Chromophor im Ligandenrückgrat synthetisiert. Die somit erhaltenen Verbindungen [Fe(L-N4Me2)(dtpyim-m)](PF6)2, [Fe(L-N4tBu2)(dtpyim-m](BPh4)2 · 2 MeCN, [Fe(L-N4tBu2)(dtpyim-ph](BPh4)2 · Et2O, [Fe(L-N4Me2)(dtchim-m](ClO4)2 · 1.5 DCM, [Co(L-N4Me2)(dtpyim-m)](ClO4)2, [Co(L-N4tBu2)(dtpyim-m)](BPh4)2 ∙ MeCN ∙ Et2O und [Co(L-N4Me2)(dtchim-m)](ClO4)2 ∙ 1.5 DCM wurden sowohl auf ihre magnetischen als auch photochemischen Eigenschaften untersucht. Von großem Interesse war hierbei ob durch die photochemisch initiierte Ringbildung die -Donor und -Akzeptoreigenschaften des Liganden so verändert werden können, dass der Spinzustand des Metallzentrums beeinflusst werden kann.
Sub-zero Kühlschmierstoffe: Wirkmechanismen und Einsatzverhalten am Beispiel der Drehbearbeitung
(2023)
Die für die Kühlung und Schmierung eingesetzte Technologie ist für die Leistungsfähigkeit fertigungstechnischer Prozesse von hoher Bedeutung, sowohl für die Produktivität und Prozessstabilität als auch hinsichtlich der Qualität gefertigter Werkstücke. Beim Drehen werden dazu üblicherweise Emulsionen eingesetzt. Der Einsatz kryogener Medien weist zwar ein hohes Verbesserungspotential auf, wird aber bislang nur selten industriell eingesetzt. In dieser Arbeit wird auf Basis einer umfangreichen Analyse der strömungsmechanischen, thermodynamischen und tribologischen Vorgänge verschiedener Kühlschmierstrategien eine neuartige sub-zero Kühlschmierstrategie motiviert und entwickelt. Zu diesem Zweck werden sub-zero Kühlschmierstoffe formuliert, die einen Gefrierpunkt von weit unter 0 °C aufweisen und dadurch unter geringen Zufuhrtemperaturen in einem flüssigen stabilen Zustand eingesetzt werden können. In dieser Arbeit wird die sub-zero Kühlschmierstrategie ganzheitlich mit Blick auf die Strahlerzeugung, die Zufuhrmethodik sowie hinsichtlich der Kühl- und Schmierwirkung erforscht. Auf Basis dieser Erkenntnisse wird eine optimierte sub-zero Kühlschmierstrategie am Beispiel der Drehbearbeitung von Titanlegierungen und Stahlwerkstoffen analysiert. Im Vergleich zur Trockenzerspanung sowie der Verwendung kryogener und herkömmlicher KSS weist der neuartige sub-zero Ansatz ein hohes Potenzial auf. Die sub-zero Kühlschmierstrategie ist eine universell einsetzbare Kühlschmierstrategie, mit der die Vorteile der kryogenen Zerspanung mit den Vorteilen herkömmlicher Emulsion kombiniert werden können. Weitgehend unabhängig von dem zerspanten Werkstoff, der Werkstückgeometrie, den Zerspanungswerkzeugen oder den Stellgrößen wird der Drehprozess durch die Kombination aus hoher Kühl- und Schmierwirkung verbessert.
Die funktionale Wechselwirkung zwischen geometrischen Oberflächeneigenschaften und dem daraus resultierenden Haftreibwert wird in der vorliegenden Arbeit anhand von mechanisch bearbeiteten Stahloberflächen untersucht. Dabei wird der Fokus neben einer umfangreichen Analyse der Einflussfaktoren auf die Oberflächencharakterisierung gelegt. Basierend auf Drückversuchen und der Untersuchung der Oberflächendeformation wird eine Methode zur funktional relevanten Beschreibung der Oberfläche entwickelt. Die am Haftreibwert beteiligten Oberflächenanteile sind durch die Parameter Inselanzahl, projizierte Durchschnittsoberfläche und Durchschnittsmaterialvolumen beschrieben. Diese Kenngrößen fließen in eine mathema-tische Berechnung eines theoretischen Haftreibwertes ein. Es werden der theoretisch errech-nete und der aus einer statistischen Versuchsreihe ermittelte Haftreibwert miteinander vergli-chen. Statistische Untersuchungen sowie die Aufstellung eines Messunsicherheitsbilanz stüt-zen die Forschungsergebnisse. Damit leistet diese Arbeit nicht nur einen Beitrag zur funktion-sorientierten Oberflächenbeschreibung, sondern auch zur methodischen Korrelations-/ Re-gressionsanalyse und zur Integration geometrischer Oberflächenparameter in Haftreibwert-untersuchungen.
Die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine kann die erreichbare Bearbeitungsgenauigkeit spanender Bearbeitungsverfahren beeinflussen. Bei der spanenden Mikrobearbeitung sind die Größen- und Kraftverhältnisse zwischen Span, Werkzeug und Werkzeugmaschine im Vergleich zur spanenden Bearbeitung mit Werkzeuggrößen über einem Millimeter jedoch grundlegend unterschiedlich. Aufgrund dessen können dort gewonnene Erkenntnisse nicht ohne Weiteres für die spanende Mikrobearbeitung adaptiert werden. So gilt es für die spanende Mikrobearbeitung gesondert zu identifizieren, welche Effekte und Faktoren die erreichbare Bearbeitungsgenauigkeit beeinflussen. Die veränderten Größenverhältnisse, Eingriffsverhältnisse und eingesetzten Maschinenkomponenten erschweren jedoch eine experimentelle Untersuchung. Eine simulationsgestützte Analyse des Prozesses und der Maschinenkomponenten kann deshalb maßgeblich dazu beitragen, die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine bei der spanenden Mikrobearbeitung zu verstehen.
Diese Arbeit präsentiert simulationsgestützte Methoden zur Analyse der Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine bei der spanenden Mikrobearbeitung. Darauf aufbauend werden die Interaktion zwischen Spindelwelle und Elektromotor sowie die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine für das Mikrofräsen und Mikroschleifen untersucht. Zwischen der Spindelwelle und dem Elektromotor kann keine Interaktion identifiziert werden. Stattdessen liegt ein nicht vernachlässigbarer unidirektionaler Einfluss des Elektromotors auf die Spindelwelle vor. Ebenso konnte eine unidirektionale Beeinflussung des Werkzeugs durch die Werkzeugspindel ermittelt werden. Zwischen dem Prozess und dem Werkzeug kommt es zu einer Interaktion. Jedoch beschränkt sich diese Interaktion auf das Werkzeug, das heißt, die Spindelwelle wird nicht vom Werkzeug beeinflusst. Insgesamt zeigt sich, dass bei der spanenden Mikrobearbeitung nicht nur die Auftrennung der Werkzeugmaschine und des Spindel-Werkzeug-Systems zweckmäßig ist, sondern dass auch das Werkzeug und die Werkzeugspindel als separate Aspekte betrachtet werden müssen.
Die Studie begreift Schule und Unterricht mit Bourdieu als sprachlichen Markt, auf dem über den Wert und die Legitimität von Sprache(n) und Sprechen verhandelt wird. Anhand der Zuschreibung sprachbiografischer Merkmale und sprachlicher Kompetenzen sowie der Bewertung sprachlicher Leistungen konstruieren schulische Akteur:innen – Lehrkräfte wie auch Schüler:innen - Differenzen innerhalb schulischer Sprachmärkte. Hierdurch werden Sprecher:innen soziale Positionen in einem komplex strukturierten (Klassen-)Raum zugewiesen, der sich durch konkurrierende Diskurse um das richtige und angemessene Sprechen auszeichnet (Spotti 2013; Fürstenau & Niedrig 2011). Um das Phänomen sprachbezogener Differenzkonstruktion in Schule und Unterricht multiperspektivisch zu beleuchten und hierbei wirksame Language Policies (Shohamy 2006; Spolsky 2010) aufzudecken, nutzt die Studie die Nexus Analysis (Scollon & Scollon 2004) als Meta-Methodologie, die verschiedene Analysedimensionen vereint: Betrachtet und verknüpft werden schulische und außerschulische Erfahrungen schulischer Akteur:innen in Bezug auf Sprache(n) und Sprachgebrauch, schulische Diskurse über sprachliche Vielfalt und die Legitimität von Sprache(n), die Gestaltung und Wahrnehmung schulischer Sprachlandschaften (Linguistic Schoolscapes) sowie Konstruktionen sprachbezogener Differenz und damit einhergehende Selbst- und Fremdpositionierungen in Unterrichtsinteraktionen. Die Untersuchung stützt sich auf Datenmaterial aus sechs Schulklassen dreier rheinland-pfälzischer Grundschulen: 100 Schüler:innen der sechs Klassen nahmen an einer Fragebogenerhebung teil, drei Schulleitungen und sieben Lehrkräfte wurden im Rahmen von Leitfadeninterviews befragt. Über die sechs Klassenzimmer hinweg wurden 1.797 schriftsprachliche Artefakte fotografisch dokumentiert und mithilfe eines Kodiermanuals in der Tradition der Linguistic Landscape-Forschung ausgewertet. In allen sechs Schulklassen wurde Unterricht audiovisuell aufgezeichnet; insgesamt liegen Aufnahmen von 40 Unterrichtsstunden vor. Die Unterrichtsaufzeichnungen wurden interaktionsanalytisch untersucht, teils multimodal, um mikroanalytisch offenzulegen, wie Lehrkräfte und Schüler:innen in ihrem Unterrichtshandeln zur Konstruktion von Differenz beitragen, etwa indem sie Schüler:innen als Personen mit Migrationsbiografien und/oder als Sprecher:innen des Deutschen als Zweitsprache exponieren. Die Zusammenführung der vielfältigen Zugänge und Perspektiven führt die Spannungen und Ambivalenzen dynamischer schulischer Sprachmärkte vor Augen und belegt datenbasiert die Komplexität des Anforderungs- und Handlungsfelds Schule.
Abbildung von Arbeitszufriedenheits-Strukturen im soziotechnischen Modell der Berufsgruppe Busfahrer
(2023)
Hintergrund: Die Übertragung von allgemeinen Erkenntnissen der Arbeitszufriedenheit (AZ) auf spezifische Berufsgruppen ist ohne Einbezug von Berufskontext und Persönlichkeit der involvierten Individuen nicht sinnhaft möglich. Mixed Methods Ansätze, samt darin inkludierter Experteninterviews, sind relevant um Zusammenhänge aus Expertensicht verstehen zu können. Der vorherrschenden Kritik der bestehenden Eindimensionalität der AZ Forschung soll damit begegnet werden.
Methode: Leitfadengestützte, teilstrukturierte Interviewerhebungen führten zu Faktorenidentifikation und Hypothesenmodellbildung der Berufsgruppe deutscher Busfahrer des öffentlichen Personennahverkehrs. In Fragebogenform wurden folgende Aspekte erhoben: Effort-Reward-Imbalance (ERI), Resilienz (RS 11), Arbeitszufriedenheitstypisierung (FEAT), Work-Life-Balance (TKS-WLB), Persönlichkeitsausprägungen (BFI-10), Gefährdungsbeurteilung gegenüber psychischen Belastungen am Arbeitsplatz (COPSOQ), Spillover zwischen Arbeit und Privatleben (BAOF). Strukturgleichungsmodelle (SGM) wurden zur teilweisen Quantifizierung der Hypothesenmodelle erstellt. Strukturiert wurde die Arbeit im soziotechnischen Modell (STM).
Ergebnisse: Die qualitative Datenanalyse wurde anhand des STMverfahrens geleitet und anschließend in Form von Causal-Loop-Diagrammen (CLD) abgebildet. Bestehende Faktoren der AZ (hemmend oder fördernd), ihre Interaktionen untereinander, sowie daraus entstehende Wirkketten konnten so abgebildet werden. Die SGM zeigten hohe Modellgüte (Chi²/df = 1.29; 1.90), hohe Modellaufklärung (TLI und CFI > .95; >.90) und gute Annäherung an ein perfektes Messmodell (RMSEA= .03; .06). TKS-WLB und BAOF zeigten reduzierte Werte. Die ERI identifizierte bei 68% der Probanden eine Gratifikationskrise (M=1.32, SD=.56). Mit einem Overcommitment (OC) von M=.63 neigen Busfahrer eher zu einer beruflichen Verausgabung. Arbeitsplatzsicherheit (M=5.03; SD= 1.71) wurde als adäquat eingeschätzt, Wertschätzung (M=4.51; SD=1.66) neutral und die Möglichkeit der Weiterqualifizierung (M=5.63; SD=1.89) als schwach. Die Resilienz (M=64; SD=3.58) wurde als stark ausgeprägt eingestuft. Die Persönlichkeitsmerkmale (BFI10) der Probanden weisen Normwerte der Verträglichkeit (M=3.30; SD=.77) und des Neurotizismus (M=2.18; SD=.79), etwas reduzierte Werte der Offenheit (M=3.31; SD=.92) und Extraversion (M=3.48; SD=.92) im Vergleich und deutlich ausgeprägte Ergebnisse der Gewissenhaftigkeit (M=4.08; SD=.84) auf. Im FEAT konnten 7 maßgebliche Typen identifiziert werden.
Fazit: Die Herangehensweise dieser Arbeit über die Gliederung des STM und die darin eingebettete Aufbereitung identifizierter Faktoren über CLD, zeigte Ausprägung, Ladung und Zusammenhang einwirkender Faktoren auf die AZ im Berufsbild Busfahrer und erschloss Systemverständnis in diesem Berufsbild hinsichtlich der AZ. Einbezug persönlichkeitsbezogener Aspekte erweiterten das Verständnis dieses bislang wenig beachteten Berufsbildes.
Die vorliegende Arbeit betrachtet die Eigenschaften eines tribologischen Kontaktes bei elektrischem Stromdurchgang. Diese unerwünschten Stromdurchgänge entstehen etwa durch die Kombination von unvermeidbaren parasitären Kapazitäten in einem Elektromotor unter dem Einsatz von schnellschaltenden Frequenzumrichtern mit steilen Spannungsflanken. Folge dieser Stromdurchgänge sind Schäden an den Kontaktpartnern als auch an dem dazwischen befindlichen Schmiermittel. Zur Vorhersage der Gefährdung eines Antriebsstrangs hinsichtlich parasitärem Stromdurchgang werden elektro-mechanische Simulationen eingesetzt. Diese erlauben eine Beurteilung des tribologisch-elektrischen Kontaktes hin auf seine Gefährdung gegen Stromdurchgang. Basierend hierauf können dann geeignete Abhilfemaßnahmen getroffen werden.
Zur weiteren Verbesserung solcher elektro-mechanischen Simulationen werden im ersten Teil der Arbeit experimentell die Durchschlagspannung als auch der Widerstand des Entladekanals ermittelt. Hierbei zeigt sich ein ausgeprägtes nichtlineares Verhalten des Entladewiderstands, welches in dieser Form nicht vollumfänglich mit den Kenntnissen aus der Hochspannungstechnik erklärt werden kann. Hierauf aufbauend werden die langzeitlichen Auswirkungen des parasitären Stromdurchgangs im definierten tribologischen Zustand der Mischreibung betrachtet. Zur Ermittlung von Wechselwirkungen werden umfangreiche Messgrößen aufgezeichnet und analysiert. Im abschließenden Teil der Arbeit werden die Auswirkungen des elektrischen Stromdurchgangs auf die Oberflächenrauheiten simulativ ermittelt.
Wenn drei oder mehr rechtlich selbstständige Organisationen zusammenarbeiten, um nicht nur ihre eigenen Ziele, sondern auch gemeinsame Ziele auf Netzwerkebene zu erreichen, spricht man von einem Zusammenschluss in Form
eines inter-organisationalen Netzwerks. Diese Netzwerke gewinnen in letzter Zeit in den verschiedensten Bereichen enorm an Verbreitung und Bedeutung.
In der Praxis wird jedoch deutlich, dass für ein effektives Zusammenarbeiten der einzelnen Netzwerkmitglieder oft große Hürden genommen werden müssen, da inter-organisationale Netzwerke sehr komplexe Gebilde sind. Der Aufbau der
Netzwerksteuerung hat daher einen bedeutenden Einfluss auf den Erfolg des Netzwerks. In der Literatur finden sich allerdings noch keine empirischen Untersuchungen zum Aufbau von Netzwerksteuerung und förderlichen Bedingungen, die daraus abgeleitet werden können. Die vorliegende Arbeit setzt an diesem Punkt an und untersucht die Entstehung und Weiterentwicklung von
Netzwerksteuerungsmechanismen bei unterschiedlichen Arten von inter-organisationalen Netzwerken. Dazu wurden Daten in insgesamt acht Fallstudien
erhoben und mit Hilfe eines Multilevel-Ansatzes und einer
strukturationstheoretischen Perspektive analysiert.
Die Ergebnisse machen deutlich, dass Steuerungsmechanismen in inter-organisationalen Netzwerken durch die wiederkehrende Anwendung von drei Praktiken, „Bedarfsanalyse“, „Ausloten von Synergieeffekten“ und
„Formalisierung“, aufgebaut werden. Diese lassen Strukturen entstehen, die
ihrerseits eine Wirkung auf die Praktiken und den Aufbau weiterer Strukturen
entfalten. Die Strukturen ermöglichen den Übergang in drei unterschiedliche
Entwicklungsstadien. Dieser Aufbau wird in der vorliegenden Arbeit als ineinander verzahnte Metamorphose konzeptualisiert, die nie abgeschlossen ist. Unterschiede beim Aufbau von Steuerungsmechanismen lassen sich bei den beobachteten
Netzwerken insbesondere darin feststellen, ob sie staatlich initiiert wurden oder aus
einer Bedarfsfeststellung für eine Vernetzung in einem bestimmten gesellschaftlichen Bereich entstanden sind. Diese initialen Bedingungen
bestimmen darüber, welche Steuerungsformen im Verlauf angenommen werden.
Als förderliche Bedingungen arbeitet die vorliegende Arbeit heraus, dass
insbesondere die Bedarfsanalyse zu Anfang große Bedeutung hat. Bei dem Aufbau
von Netzwerken wird häufig nur auf den Bedarf für eine Vernetzung fokussiert, nicht
aber erhoben, welchen Bedarf das aufzubauende Netzwerk hat. Darüber hinaus spielt der Netzwerkmobilisierer oder die Netzwerkmobilisiererin eine große Rolle. Das Netzwerk kann in angedachter Form nur dann aufgebaut werden, wenn der
Netzwerkmobilisierer oder die Netzwerkmobilisiererin als Führungsperson so lange
erhalten bleibt, bis das dritte Entwicklungsstadium erreicht wird.
In dieser Arbeit wird ein flexibles dimeres Ligandensystem basierend auf 2,6-Bis(1H-pyrazol-3-yl)pyridin (bpp) und 2,6-Bis(1H-5-butyl-pyrazol-3-yl)pyridin (bpp(n-bu)) vorgestellt. Dabei wurden je zwei Einheiten bpp/bpp(n-bu) über variable Bausteine miteinander verknüpft. Auf diese Weise wurden verschiede makrocyclische sowie offenkettige Liganden erhalten. Die Liganden kamen in der Synthese multinuklearer Komplexverbindungen zum Einsatz. Die Verwendung der 3d-Metallionen Eisen(II), Kobalt(II) und Kupfer(II) ermöglichte den Erhalt verschiedener homo- als auch heterobimetallischer Komplexe mit makrocyclischen Liganden. Die offenkettigen Liganden lieferten dabei selbstorganisiert homoleptische Komplexverbindungen unter Ausbildung einer helikalen Struktur. Einblick in das Verhalten der Komplexverbindungen in Lösung konnten Palladium(II)- und Platin(II)-Verbindungen geben. Hieran konnte gezeigt werden, dass die Art der Ligandenverknüpfung (makrocyclisch vs. offenkettig) ebenso die Spezifikation der verknüpfenden Einheit einen Einfluss auf die Eigenschaften der Komplexe in Lösung ausübt. Unter Einbau von Ruthenium(II)-Zentren wurden mononukleare Komplexe einer Reihe von substituierten bppn-bu-Derivaten erhalten. Hieran wurde der Einfluss des Substituenten auf die katalytische Aktivität der Verbindungen in der Transferhydrierung untersucht. Eine Übertragung des Strukturmotivs auf einen dimeren Liganden lieferte einen dinuklearen Komplex, dessen Aktivität jedoch durch die mononuklearen Verbindungen übertroffen wird.
Verschiedene Ereignisse, wie die Nuklearkatastrophe in Fukushima oder kürzlich die Corona Pandemie, haben gezeigt, dass globale Lieferketten immer anfälliger für Risiken und Unsicherheiten unterschiedlicher Art werden. Aus diesem Grund wird das Thema Supply Chain Resilience sowohl für Forscher als auch für Manager zunehmend wichtiger.
Da in der bestehenden Forschung häufig theoretisch-konzeptionelle Ansätze zuvorderst stehen, beschäftigt sich diese Arbeit unter Einnahme einer strukturationstheoretischen Perspektive mit der Frage, wie ein an Praktiken orientierter Ansatz zur Steigerung der Resilienz globaler Lieferketten aussehen kann.
Dazu bedient sich diese Arbeit einer vergleichenden qualitativen Fallstudie, bei der einerseits mehrere Unternehmen der deutschen Spielwarenbranche befragt und ein Großunternehmen der Elektroindustrie analysiert werden. Dazu werden mehrere qualitative Methoden eingesetzt, die Daten trianguliert und im Anschluss mittels qualitativer Inhaltsanalyse aufbereitet und interpretiert.
Als Ergebnis entsteht eine Sammlung von insgesamt 29 Praktiken, die entlang der drei Resilienzphasen Readiness, Response und Recovery eingeordnet werden können. Weiterhin zeigt sich, dass die identifizierten Praktiken ebenfalls anhand des Status der Implementierung kategorisiert werden können.
Aus dieser Erkenntnis ergibt sich eine Matrix, in der Resilienzpraktiken entlang beider Kategoriensysteme aufgetragen werden können und somit einen Überblick über den Status der Resilienz einer globalen Lieferkette liefert. Diese Matrix bildet die Grundlage für einen Supply Chain Resilience Management Ansatz, der im Rahmen dieser Arbeit entwickelt und erläutert wird. Dieser bietet eine Handlungsanleitung für Manager und unterstützt somit beim Streben nach mehr Resilienz entlang der Lieferkette.
Damit erweitert diese Arbeit nicht nur die bestehende Literatur zur Supply Chain Resilience um einen strukturationstheoretischen Ansatz, sondern liefert einen entscheidenden Beitrag zum Management globaler Lieferketten.
Zur Abkehr von fossilen Rohstoffen, wird die Bedeutung der Produktion von
Kunststoffen aus alternativen Rohstoffquellen in den kommenden Jahrzehnten
zunehmen. In dieser Arbeit wurde daher ein Verfahren untersucht, bei dem
Primärschlamm (PS) einer kommunalen Kläranlage (KA) und Brauereiabwasser als
Rohstoffe zur Polymerproduktion dienen. Zur Anwendung kam dabei ein dreistufiges
Verfahren, mit dem Polyhydroxyalkanoate (PHA), eine Gruppe biologisch abbaubarer
Polymere, durch Bakterienmischkulturen wie Überschussschlamm (ÜSS) nach gezielter
Selektion und Akkumulation synthetisiert werden können. Als Substrat für diesen
Prozess dienen kurzkettigen organischen Säuren (VFA) aus der Versäuerung der
Abwasserströme. Das Ziel der Arbeit war, vorhandenes Grundlagenwissen zu
erweitern, um den PHA-Produktionsprozess in größere Produktionsmaßstäbe zu
skalieren und damit den Betrieb unter realen Bedingungen vorzubereiten. Zur
Erreichung dieser Ziele wurde die Arbeit in drei Teile untergliedert.
Im ersten Teil konnte im Labormaßstab anhand einer Voruntersuchung und
anschließenden Versäuerungsversuchen mit vier Lebensmittelabwässern aufgezeigt
werden wie die Eignung potentieller Abwasserströme zur VFA- und PHA-Produktion
überprüft werden kann und die Versäuerungsbedingungen in Abhängigkeit der
Substratzusammensetzung gezielt an das jeweilige Abwasser gewählt werden können.
In einem nächsten Schritt wurde nachgewiesen, dass gleichbleibende
Selektionsbedingungen auf ÜSS verschiedener KA zu einer vergleichbaren PHA-
Speicherfähigkeit führten. Eine bisher fehlende langfristige Stabilität relevanter
Betriebsparameter erfordert jedoch weitergehende Untersuchungen. Weiterhin
wurde am Beispiel von Brauereiabwasser gezeigt, dass durch die Anwendung einer
niedrigen Raumbelastung in der Selektion der Betrieb mit Abwässern mit einem
geringem CSB möglich ist.
Im zweiten Teil der Arbeit wurde eine Pilotanlage auf der KA Buchenhofen in
Wuppertal mit PS unter möglichst niedrigem Ressourceneinsatz betrieben. Dabei wies
der CSBVFA des versäuerten PS eine Jahreszeit-unabhängige große Spanne auf, dennoch
war eine ganzjährige Eignung zur PHA-Produktion gegeben. Die VFA-
Zusammensetzung war ganzjährig stabil und ermöglichte damit eine gleichbleibende
PHA-Zusammensetzung. Die PHA-Speicherfähigkeit konnte in einem Selektionsbetrieb
mit niedriger Raumbelastung nicht reproduziert werden. Es wird angenommen, dass
Unterschiede des VFA-Anteils im Substrat vorrangig ursächlich waren.
Für den dritten Teil der Arbeit wurde aufbauend auf den Ergebnissen des Pilotbetriebs,
unter Verzicht auf Hilfsströme, eine verfahrenstechnische Auslegung für die
Anschlussgröße der KA Buchenhofen mit 550.000 E durchgeführt. Mit den Ergebnissen
konnten die Dimensionen einer PHA-Produktionsanlage eingeordnet werden.
Weitergehend wurden bei der Auslegung Ansatzpunkte aufgedeckt, die im
versuchstechnischen Betrieb angepasst oder untersucht werden müssen, um eine
reale und wirtschaftliche Betriebsweise in der weiteren Prozessentwicklung zu
ermöglichen.
Eisen-Schwefel-(Fe/S)-Cluster-haltige Proteine sind in allen Domänen des Lebens vertreten und gehören zu den wichtigsten Metallocofaktoren. Eines der Hauptaufgabengebiete von Fe/S-Proteinen stellt der Elektronentransport dar. Sie sind aber auch an einer Vielzahl von enzymatischen oder regulatorischen Funktionen beteiligt. Bis heute sind ca. 90 Fe/S-Proteine im Menschen bekannt und es werden verschiedene, schwerwiegende Erkrankungen mit Defekten dieser Proteine oder deren Biogenese in Verbindung gebracht. In der Bäckerhefe S. cerevisiae sind nach der yeast genome database 39 Proteineinträge als Fe/S-Cluster bindend dotiert, jedoch sind bis heute noch etwa 10 % des Hefeproteoms nicht charakterisiert. Untersuchungen zu Fe/S-haltigen Proteinen im Modellorganismus Hefe können zum Verständnis komplexer Stoffwechselwege in höheren Eukaryoten einen entscheidenden Beitrag liefern. Die beiden [2Fe-2S]-Proteine Apd1 und Aim32 aus S. cerevisiae wurden mittels verschiedener in vivo resp. in vitro Methoden in dieser Arbeit näher untersucht. Im ersten Schritt wurden verschiedene Wachstumsexperimente zur Phänotypisierung von Δaim32 und Δapd1 durchgeführt. Durch zu Hilfenahme einer chemogenomischen Datenbank konnten für Δapd1-Hefezellen und durch weitere Modifikationen auch für Δaim32 Wachstumsbedingungen gefunden werden, unter denen diese Gene essenziell sind. Mittels einer Mutagenesestudie wurden mit dem angepassten chemogenomischen Screen die Liganden des [2Fe-2S]-Clusters für Aim32 und Apd1 in vivo identifiziert.
Bis heute ist der Zusammenhang zwischen der CIA-Maschinerie und dem Einbau von [2Fe 2S]-Clustern noch nicht aufgeklärt. Durch Ergebnisse dieser Arbeit konnten erstmals Hinweise auf den CIA-Maschinerie-abhängigen Einbau des [2Fe-2S]-Clusters durch die ESR-Spektroskopie gewonnen werden.
Das Protein Aim32 wurde nach heterologer Proteinexpression in E. coli spektroskopisch untersucht. Mößbauer- und ESR-Spektren wiesen eine hohe Similarität zu jenen von Apd1 auf und beide Proteine wurden Gründungsmitglieder einer neuen Klasse von [2Fe 2S]-Proteinen. Die Clusterliganden von Aim32 konnten in vitro identifiziert werden und durch Austausch der clusterbindenden Histidine zu Cysteinen wurde eine Änderung der ESR-Parameter detektiert, was zusammen mit den Mößbauerspektren des Proteins einen unabhängigen Nachweis für zwei Histidin-Reste in der Clusterkoordination darstellt.
Im letzten Teil der Arbeit wurde ein Protein aus Thermomonospora curvata näher untersucht. Das Protein zeichnet sich durch die Anwesenheit einer Sequenz des HXGGH-Motivs von Aim32/Apd1 aus, jedoch ist hier das zweite Histidin durch ein Aspartat ersetzt. UV/Vis-, ESR- und Mößbauerspektroskopie belegen die Einzigartigkeit dieses Proteins. Durch Mutagenese der clusterbindenden Aminosäuren in alternative Liganden konnte die Koordination eines [2Fe-2S]-Clusters durch zwei Cysteine, ein Aspartat und ein Histidin spektroskopisch belegt werden. Diese Arbeit lieferte grundlegende Erkenntnisse zu einer neuen Klasse von [2Fe-2S]-Proteinen mit flexibler Koordination.
Thermoplastische Faserkunststoffverbunde (TP-FKV) werden aufgrund ihres Leichtbaupotentials zusammen mit Metallen vermehrt in Multimaterialstrukturen eingesetzt [1, 2]. Der Einsatz TP-FKV ermöglicht das thermische Fügen, wobei die Benetzung der Metalloberfläche mit Polymer und hierdurch die Zug-Scher-Festigkeit der Verbindung mit steigendem Fügeweg ebenfalls ansteigt. Im Rahmen der Arbeit wurde der Fügeweg als Indikator für eine qualitätsgesicherte Fügung mittels induktiver Erwärmung validiert.
Der Fügeweg wird maßgeblich durch die Fügetemperatur, den Fügedruck und die verwendeten Materialien bestimmt. Um den im Prozess gemessenen Fügeweg als Qualitätssicherungsmerkmal nutzen zu können sind bei der Beurteilung der Messkurven auch mechanische und insbesondere thermische Dehnungen zu berücksichtigen. Diese Einflüsse konnten durch analytische Methoden erfasst, bewertet und bei der Beurteilung des Fügeweges entsprechend herausgerechnet werden.
Zur quantitativen Bewertung wurden TP-FKV/Stahl-Verbindungen durch induktives Fügen hergestellt und der Einfluss der Oberflächenvorbehandlung, Prozessparameter, Witterung und Wechsellasten auf die Verbindungsfestigkeit untersucht. Es konnte gezeigt werden, dass für alle untersuchten TP-FKV in Kombination mit einer laserstrukturierten Stahloberfläche Verbindungsfestigkeiten im Bereich von Referenzklebungen erreicht wurden. Durch den Einsatz von für das jeweilige Matrixpolymer optimierten Haftvermittlern auf den Stahloberflächen konnten ebenfalls gute Verbindungsfestigkeiten erreicht werden. Das Schädigungsverhalten der TP-FKV/Stahl-Verbindung nach Bewitterung beziehungsweise Wechsellasten wurde anhand von Schliffbildanalysen und Simulationen analysiert. Die Arbeit schließt mit der Implementierung des induktiven Fügens in eine Fertigungszelle.
Der Klimawandel erfordert den Ausbau urbaner blau-grüner Infrastrukturen, was jedoch mit einem erheblichen Mehrbedarf an Wasser einhergeht. Zentrale Abwasserinfrastrukturen genügen nicht den Ansprüchen der Ressourceneffizienz und Nachhaltigkeit. Daher ist ein neuer Umgang mit Wasser im städtischen Kontext notwendig. Die getrennte Erfassung von schwach belastetem Grauwasser aus Duschen und Handwaschbecken bietet eine nahezu kontinuierliche, wenig verschmutzte Wasserressource zur Wiederverwendung. Naturnahe Verfahren wie Bodenfilter können zur Grauwasseraufbereitung eingesetzt werden; der hohe Flächenbedarf beschränkte jedoch bisher den Einsatz in dicht besiedelten Gebieten. In dieser Arbeit werden technologiebasierte und konzeptionelle Ansätze vorgestellt. Dabei wurden acht vertikal durchströmte Bodenfilter zur nutzungsorientierten Grauwasseraufbereitung im kleintechnischen und Pilotmaßstab untersucht und zusätzlich ein Excel-basiertes Instrument entwickelt, das die Auswirkungen der Grauwasserseparation auf konventionelle zentrale Kläranlagen bewertet. Die Ergebnisse zeigen schwankende Zusammensetzungen und Mengen von Grauwasser. Aufgrund begrenzter Datenverfügbarkeit in der Fachliteratur wird empfohlen, die hier ermittelten 85-Perzentilwerte von 13 g CSB (chemischer Sauerstoffbedarf) pro Einwohner (E) und Tag sowie 55 L/(E·d) für die Bemessung von Anlagen zur Behandlung von gesiebtem, schwach belastetem Grauwasser heranzuziehen. Die ermittelten Stickstofffrachten und -konzentrationen waren aufgrund von Urinkontamination um 60 – 130 % höher als bisher angenommen, während die Phosphorkonzentrationen gesetzlich bedingt um ca. 60 % niedriger lagen. Alle Vertikalfilter wiesen im Ablauf meist < 2,0 mg/l abfiltrierbare Stoffe (AFS) bzw. < 10 mg/l CSB auf (also Eliminationen von überwiegend > 98 % AFS bzw. > 97 % CSB). Der aufgeständerte Rheinsandfilter zeigte bei < 12°C eine eingeschränkte Nitrifikation, während der Lavasandfilter bei > 5°C vollständig nitrifizierte. Die Vertikalfilter entfernten bis zu 50 – 70 % Stickstoff bei Drainageeinstau und Nitratrückführung. Der Lavasandfilter hielt Phosphor weitestgehend zurück. Die Reduktion von Escherichia coli, Enterokokken und Gesamtcoliformen betrug > 3 log-Stufen, während organische Spurenstoffe meist zu > 85 % entfernt wurden. Durch gezielte Anpassungen im Aufbau und Betrieb wurden für verschiedene Nutzungszwecke (Bewässerung, Versickerung und Toilettenspülung) geeignete Qualitäten erreicht. Der erforderliche Flächenbedarf für Bodenfilter zur Behandlung von schwach belastetem Grauwasser wurde zu 0,4 m2/E bestimmt (bezogen auf 85-Perzentilwerte). Dem liegen eine CSB-Flächenbelastung von 32 g/(m2·d) und eine hydraulische Flächenbelastung von 130 L/(m2·d) zugrunde. Die Anwendung von Lavasandfiltern in aufgeständerter Bauweise erwies sich als praxistauglich. Damit wird die Ausweitung des Bodenfilterverfahrens auf den urbanen Raum gefördert. Die Bilanzierungen zeigen, dass die Abtrennung von bis zu 17 % des an die Kläranlage angeschlossenen Grauwassers förderlich für den Kläranlagenbetrieb ist. Bei höheren Abtrennungsraten könnte jedoch eine Stickstoffrückgewinnung/-entfernung aus stickstoffreichen Schlammströmen erforderlich werden. Die Trennung bzw. dezentrale Aufbereitung von Grauwasser hat Vorteile wie Verdunstungskühlung und Wasserwiederverwendung und unterstützt zentral die Transition zu ressourcenorientierten Sanitärsystemen. Insgesamt können betrieblich und baulich angepasste Bodenfilter eine wichtige Rolle in dieser Umstellung spielen und einen deutlichen Beitrag zum nachhaltigen Umgang mit Wasser im städtischen Bereich leisten.
In der vorliegenden Dissertation wurde das Korrosionssystem verzinkter Stahl in alkalischen, zementbasierten Feststoffelektrolyten untersucht. Dabei kamen drei Zementarten mit je vier Chloridgehalten zur Anwendung. Neben dem Korrosionssystem lag das Augenmerk ebenso auf einer adäquaten Beschreibung der Elektrolyteigenschaften. Hierzu wurde die Masseänderung, die Änderung des elektrischen Mörtelwiderstandes und des IR-Drop über die Zeit sowie die Porosität und die Porenwasserzusammensetzung, um nur einige Kenngrößen zu nennen, untersucht.
Das Hauptaugenmerk ruht jedoch auf der Beschreibung des Korrosionssystems verzinkter Stahl in Mörtel. Dazu wurden die gebildeten Deckschichten und deren Einfluss auf den Korrosionsfortschritt in Abhängigkeit von der Zementart und des Chloridgehaltes sowie die daraus resultierenden elektrochemischen Kennwerte bestimmt.
Die aus den Untersuchungen hervorgehenden Ergebnisse ermöglichen es, die Korrosionssysteme in Abhängigkeit vom Chloridgehalt oder von geometrischen Inhomogenitäten, im Phasengrenzbereich Mörtel/verzinkter Stahl zu differenzieren. Dabei konnte unabhängig von den verwendeten Zementen eine Klassifizierung der Korrosionssysteme über den Phasenwinkel bei 0,1 Hz erfolgen. Klassifiziert wurden durchtrittskontrollierte und diffusionskontrollierte Korrosionssysteme, Mischsysteme, Übergangssysteme und Korrosionssysteme mit Spaltgeometrie.
Für diese Korrosionssysteme konnte festgestellt werden, welche Deckschichten maßgebenden Einfluss auf die Ausbildung eines durchtrittskontrollierten Korrosionssystem haben. Dazu gehören das bereits bekannte Simonkolleit und eine Deckschichtvariante, die bisher noch nicht in der Literatur als Deckschicht an verzinktem Betonstahl in Mörtel oder Beton beschrieben wurde.
Für die Mischsysteme erfolgte eine Darstellung der anteiligen Bedeckung mit Simonkolleit, um den Übergang zu einem durchtrittskontrollierten Korrosionssystemen zu beschreiben.
Neben der Klassifizierung der Korrosionssysteme kann über die Bestimmung des Phasenwinkels bei 0,1 Hz jedem Korrosionssystem nun auch ein spezifischer B-Wert zugewiesen werden. In Kombination mit der für diese Korrosionssysteme angepassten LPR-Messungen zur Bestimmung des Polarisationswiderstandes können Korrosionsraten ohne signifikante Beeinflussung des Korrosionssystems bestimmt werden.
Eine große Untergruppe der Soft Robotik sind die mehrkammerigen pneumatischen Biegeaktuatoren.Diese Arbeit beschäftigt sich mit der Modellierung dieser Art Aktuatoren mittels eines Balkenmodells und arbeitet speziell die Vorteile heraus, die sich aus einer Berücksichtigung der wechselseitigen Abhängigkeiten von Design und Modellierung ergeben. Die Verwendung eines Balkenmodells ist numerisch deutlich effizienter als die Simulation eines dreidimensionalen Körpers, trotzdem werden die Freiheitsgrade axiale Dehnung, Biegung, Scherung und Torsion vom verwendeten Cosserat-Balken berücksichtigt. Zunächst wird ein sinnvolles Design für mehrkammerige
Biegeaktuatoren durch systematische Untersuchung von Designaspekten und unter Berücksichtigung von Aspekten der Modellierung hergeleitet. Zur Modellierung der einzelnen Kammern des Biegeaktuators wird ein Ansatz mittels des Prinzips der virtuellen Arbeit gewählt. Das resultierende Modell erlaubt insbesondere Rückschlüsse auf die Sensitivität der Kammern gegenüber externen axialen Kräften. Dies ist ein wichtiger Aspekt, der bei der Modellierung des mehrkammerigen Biegeaktuators mittels Cosserat-Balken aufgegriffen wird. Dieses Modell wiederum nutzt das besonders gut zu modellierende Design des Aktuators, um einen Zusammenhang zwischen Dehn- und Biegesteifigkeit herzustellen, der, im Gegensatz zu bisherigen Modellen, auch Rücksicht auf die axiale Dehnung des Aktuators nimmt. So lassen sich dreidimensionale Simulationen einzig auf Grundlage axialer Parameteridentifikation durchführen. Die in dieser Arbeit hergeleiteten Zusammenhänge zwischen Design und Modellierung und die daraus entwickelten Methoden sind eine wichtige Grundlage für komplexere Anwendungen in der Zukunft.
Im Rahmen dieser Arbeit wurden entlang mehrstufiger Syntheserouten verschiedene neuartige 1,3-Bis(pyrazol-3-yl)benzolliganden aus günstigen Startmaterialien synthetisiert und charakterisiert. Zur Variation der sterischen und elektronischen Eigenschaften wurden die Liganden in 5-Position und 1-Position (N-Position) der Pyrazolylgruppen mit unterschiedlichen Alkylsubstituenten funktionalisiert. Es wurden dreizähnige NC(X)N-Liganden und mehrzähnige bifunktionelle NC(X)N-P2-Liganden dargestellt (X = H, Br). Die NC(X)N-Liganden (X = H, Br) wurden mit ausgewählten Metallvorstufen zu cyclometallierten Komplexen des Typs [(NCN)MYLn] umgesetzt (M = Ru(II), Ni(II), Pd(II), Pt(II), Y = Cl, Br, L = PPh3 mit n = 0, 2). Die Darstellung der Komplexe erfolgte unter der Verwendung der Synthesekonzepte der direkten Cyclometallierung (C-H Bindungsaktivierung) oder der oxidativen Addition. Der Ruthenium(II)-Komplex wurde auf seine katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Zusätzlich wurden DFT-Berechnungen zur Postulierung eines Reaktionsmechanismus der Cyclometallierung durchgeführt. Die cyclometallierten Komplexe der Nickelgruppe wurden intensiv auf ihre photophysikalischen Eigenschaften hin untersucht. Die Zuordnungen der einzelnen elektronischen Übergänge erfolgten mit Hilfe quantenchemischer Berechnungen (DFT/TDDFT). Durch Umsetzung der mehrzähnigen bifunktionellen NC(H)N-P2-Liganden mit ausgewählten dinuklearen Metallvorstufen der Gruppen 8 und 9 wurden neutrale κ1P,κ1P‘-koordinierte und neutrale und kationische κ2PN,κ2P‘N‘-koordinierte homobimetallische Komplexe erhalten. Als Metallvorstufen wurden die dinuklearen Komplexe [(η6-Aren)M(μ-Cl)Cl]2 (η6-Aren = C10H14, C6H5CO2Et, M = Ru(II), Os(II)), [(η5-C5Me5)M(μ-Cl)Cl]2 (M = Rh(III), Ir(III)), [Rh(η4-COD)(μ-Cl)]2 und [Rh(CO)2(μ-Cl)]2 eingesetzt. Des Weiteren wurden die synthetisierten Halbsandwichkomplexe auf ihre katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Die Halbsandwichruthenium(II)-Komplexe erwiesen sich als exzellente Präkatalysatoren und reduzierten Acetophenon in nahezu quantitativen Ausbeuten innerhalb weniger Minuten. Darüber hinaus wurden alle synthetisierten Komplexe mittels multinuklearer NMR-Spektroskopie, IR-Spektroskopie, Elementaranalyse und ESI-Massenspektrometrie charakterisiert. Die Strukturen einiger dargestellter Komplexe konnten zudem mit Hilfe der Röntgenstrukturanalyse eindeutig belegt werden.
Die induktive Erwärmung stellt insbesondere aufgrund der schnellen intrinsischen Erwärmung eine Schlüsseltechnologie für die zunehmende industrielle Anwendung von textilverstärkten CFK-Organoblechen dar. Allerdings kann deren großes Potenti-al nicht vollständig ausgeschöpft werden, da sich bei konventionellen CFK-Organoblechen über der Laminatdicke physikalisch bedingt eine mit zunehmendem Abstand zum Induktor abfallende Temperaturkurve ergibt. Speziell für CFK-Organobleche bestehend aus textilen Verstärkungshalbzeugen wurde im Rahmen dieser Arbeit zunächst der Einfluss der Textil- und Laminatparameter grundlegend untersucht. Zusätzlich wurde ein analytisches Modell in Form eines elektrischen Er-satzschaubilds einer im CFK-Organoblech vorliegenden Leiterschleife entwickelt, an-hand dessen der dominierende Heizmechanismus identifiziert werden kann. Ab-schließend wurde basierend auf den zuvor gewonnenen Erkenntnissen ein speziell für das kontinuierliche Induktionsschweißen angepasster Laminataufbau entwickelt und validiert.
Zur Abdichtung von rotierenden Wellen können Radialwellendichtringe (RWDR) aus Elastomer
eingesetzt werden. Sie sollen Leckage aus Maschinen, wie z.B. Getrieben, verhindern
und dem Eintritt anderer Medien in das abzudichtende System entgegenwirken. Für ein
funktionierendes Dichtsystem ist ein perfektes Zusammenspiel aus Dichtring, Wellenoberfläche,
Schmierstoff und den Einsatzbedingungen dieser drei Hauptkomponenten erforderlich.
Im Dichtkontakt spielt sich eine hochkomplexe Kombination mechanischer und chemisch-physikalischer
Wechselwirkungen ab.
Die kontinuierliche Weiterentwicklung von leistungsfähigen Schmierstoffen für die Hauptkomponenten
der abzudichtenden Maschine, wie z.B. Wälzlager oder Zahnräder, steht im
Einklang mit dem Drang nach Erweiterung ihrer Leistungsdichte und Einsatzgrenzen sowie
Steigerung der Lebensdauer solcher Systeme. All das muss das Dichtsystem Radialwellendichtring
ertragen und steht daher seit seiner Entwicklung trotz vielschichtiger Forschung
immer wieder vor neuen anspruchsvollen Herausforderungen und ungeklärten Phänomenen.
Eine dieser offenen Fragestellungen betrifft das Verschleißverhalten der Gegenlauffläche, die
bei bestimmten Materialkombinationen zu extremem Verschleiß neigen kann. Hier gibt es bei
der Erklärung der Ursachen uneinheitliche Ansätze und daher Forschungsbedarf hinsichtlich
der gezielten Aufklärung dieser Fragestellung.
Diese Arbeit widmet sich der Identifikation und Aufklärung von Verschleißmechanismen im
Dichtkontakt auf mehreren Skalen und deren oberflächen-morphologischer Ausprägung an
Dichtring und Welle. In Abhängigkeit von Schmierstoff, Elastomer und Wellenwerkstoff werden
Verschleißprozesse systematisch am Dichtsystem mit RWDR, als auch an einem speziellen
Tribometer für den Dichtkontakt, reproduziert und analysiert. Durch den gezielten Einsatz
von Oberflächenanalytik werden chemisch-physikalische Aspekte auf der mikroskopischen
Ebene mit tribologischer Relevanz für den Dichtkontakt mitbetrachtet. Zentral wird so die
Entstehung des Verschleißes an der Gegenlauffläche aufgeklärt. Daraus werden Gegenmaßnahmen
für die Reduktion von Verschleiß abgeleitet.
Um im Rahmen der Modellbildung der Wirkmechanismen auch die nicht messtechnisch erfassbaren
Größen, wie die lokalen Schmierspalthöhen, den Flüssigkeits- und Festkörperkontaktdruck
oder die Festkörperverformung berücksichtigen zu können, werden die Verschleißvorgänge
mit Finite-Elemente-Simulationen am Dichtsystem mit RWDR und am Tribometer
sowie in einem mikroskopischen Tribosimulationsmodell auf Basis experimentell ermittelter
Eingangsdaten nachgebildet und analysiert.
Peroxiredoxine sind Peroxidasen, die in allen Reichen der Lebewesen vorkommen. Sie gehören zu den häufigsten Proteinen in einer Zelle und spielen eine wichtige Rolle im Redox-Metabolimus, dienen als Signalüberträger und können als Chaperone fungieren. Das hier untersuchte Peroxiredoxin 6 aus Plasmodium falciparum (PfPrx6) hat in in vitro Tests bereits eine große Aktivität bei der Reduktion von Hydroperoxiden gezeigt, jedoch keine Reaktion mit gängigen Reduktionspartnern, sodass der Mechanismus der Regeneration aus seiner oxidierten Form bis heute ungeklärt ist. Im Rahmen dieser Arbeit wurde ein PFPRX6-HIS8-GFP-Konstrukt in das Genom des Malariaerregers Plasmodium falciparum integriert. Die Integration konnte hierbei nur auf DNA-Ebene bestätigt werden. In zukünftigen Experimenten muss daher im nächsten Schritt die Anwesenheit des Protein-Konstrukts nachgewiesen werden. Hiernach kann das Konstrukt durch einen Pulldown aus dem Zelllysat isoliert und mithilfe von Massenspektrometrie untersucht werden, mit welchen Proteinen das PfPrx6 interagiert. Findet sich ein geeigneter Kandidat, kann eine folgende in vitro Studie bestätigen oder widerlegen, ob dieser das PfPrx6 effizient reduzieren kann.
Neben Peroxiredoxinen spielen Glutaredoxine (Grx) eine zentrale Rolle in der Homöostase des Redox-Milieus einer Zelle. Trotz großer struktureller Ähnlichkeit zueinander werden sie nach ihrer Funktion in zwei Klassen unterteilt: aktive Klasse 1 Glutaredoxine, welche enzymatisch die Reduktion von oxidierten Zellbestandteilen katalysieren, und redox-inaktive Klasse 2 Glutaredoxine, die wichtig für die Synthese und den Transfer von Eisen-Schwefel-Clustern sind. In vergangenen Studien wurde gezeigt, dass die Reaktion eines Grx mit einem glutathionylierten Substrat nach einem Ping-Pong-Mechanismus verläuft, also in zwei getrennte Schritte unterteilt ist. In der oxidativen Halbreaktion bindet der Gluthathion-Rest des Substrats an die Glutathion-Scaffold-Site („Glutathion-Gerüst-Zentrum“) und transferiert das Glutathion auf das Grx. In der hierauf folgenden reduktiven Halbreaktion bindet ein zweites Molekül reduziertes Glutathion (GSH) in die Glutathion-Activator-Site („Glutathion-Aktivierungs-Zentrum“) und regeneriert unter Freisetzung von oxidiertem Glutathion (GSSG) das reduzierte Glutaredoxin.
In dieser Arbeit wurden Aminosäuren des Klasse 1 ScGrx7 und des Klasse 2 HsGrx5 ausgetauscht, um die Motive zu identifizieren, die ein Grx aktiv oder inaktiv machen. Das Einfügen der Mutationen R152W und R153P in ScGrx7 verlangsamte die oxidative Halbreaktion auf etwa 20 % der Aktivität des Wildtypenzyms, hatte aber keinen Einfluss auf die reduktive Halbreaktion. Somit ist davon auszugehen, dass diese Reste Teil der Glutahion-Scaffold-Site sind. Ein weiterer Unterschied der Grx-Varianten ist eine fünf Aminosäuren lange Schleife im HsGrx5, welche in aktiven Glutaredoxinen fehlt. Es wurde eine ScGrx7loop-Mutante erstellt, die einen Verlust von mehr als 99 % ihrer Aktivität aufweist. Das Ausschneiden dieser fünf Aminosäuren in HsGrx5 konnte hingegen dessen katalytische Funktion aktivieren. Somit konnte gezeigt werden, dass diese Schleife einer der Hauptunterschiede der beiden Glutaredoxinklassen ist und diese als eine Art An- und Ausschalter der katalytischen Aktivität dient.
Durch das Verwenden des redox-sensitiven grün-fluoreszierenden Proteins 2 (roGFP2) als Elektronendonor und Reporterprotein konnte ebenfalls die direkte Reduktion von GSNO, einem Derivat von Glutathion, das hauptsächlich als Stickoxidspeicher gesehen wird, durch PfGrx nachgewiesen werden. Dieses Ergebnis kann auf die Beteiligung von Glutaredoxinen an der NO-Signalkette hinweisen.
RoGFP2 wird bereits in weiten Bereichen der Redox-Forschung eingesetzt. Es besitzt Cysteine an den Stellen 151 und 208, die eine Disulfidbrücke ausbilden können. Je nach Oxidationszustand dieser Cysteine ändert das roGFP2 seine spektralen Eigenschaften. Zuletzt wurde es meist als Reportereinheit in Fusionskonstrukten mit Glutaredoxinen oder Peroxiredoxinen, die als Sensorproteine dienen, eingesetzt. Diese Konstrukte können in zellulären Tests genutzt werden, beispielsweise zur Bestimmung lokaler Peroxidkonzentrationen, zur Untersuchung des Glutathion-Redoxstatus oder als Screening-Methode für Aktivitätsbestimmungen und Struktur-Funktions-Analysen der fusionierten Sensorproteine.
In dieser Arbeit wurde die Reaktion von roGFP2 und Grx aus Plasmodium falciparum (PfGrx) untersucht, sowohl als Fusionskonstrukt, als auch als getrennte Einzelproteine. Um sowohl den Monothiol- als auch den Dithiolmechanismus der Glutaredoxine zu verstehen, wurden die Mutanten PfGrxC32/88S (Monothiol) und PfGrxC88S (Dithiol) erstellt, sowie die roGFP2-Mutanten roGFP2C151S und roGFP2C208S. Es konnte gezeigt werden, dass die Oxidation des roGFP2 nur durch den Übertrag von Glutathion effizient verläuft, wobei der Transfer selbst im Fusionskonstrukt bei großen Substratkonzentrationen geschwindigkeitsbestimmend sein kann. Der Übertrag eines nicht-Glutathion Disulfids von PfGrxC88S auf roGFP2 verläuft nur sehr langsam. In dynamischen in cellulo Tests, die einen solchen Übertrag untersuchen wollen, muss also mit großen Beeinflussungen der Daten durch effizientere, glutathionabhängige Nebenreaktionen gerechnet werden.
Es konnte ebenfalls gezeigt werden, dass die Reduktion von roGFP2 als Disulfidsubstrat sehr langsam verläuft und nur in Anwesenheit von GSH stattfinden kann. Ein Kompetitionstest mit GSMe (S-Methyl-Glutathion) zeigt, dass das Grx hierfür ein Molekül GSH rekrutiert und nicht etwa zufällig durch GSH glutathionylierte Proteine angreift. Obwohl das Dithiol-Grx hierbei effizienter ist, kann auch das Monothiol-Grx auf diese Weise Disulfidsubstrate wie roGFP2 reduzieren.
Die Reduktion der glutathionylierten roGFP2 Monothiol-Mutanten konnte effizient von beiden Grx-Varianten katalysiert werden, auch in Abwesenheit von GSH. PfGrxC88S weist hierbei allerdings eine größere Geschwindigkeit auf. Somit scheint das Cys32 des PfGrx die Konformation des Cys29 und damit dessen Reaktivität zu beeinflussen.
Die Probleme die der demographische Wandel und der damit einhergehende Rückgang der
Bevölkerung in Deutschland auslöst, werden seit Beginn der 2000er in zahllosen
wissenschaftlichen Untersuchungen thematisiert. In Deutschland führt diese Entwicklung in
einigen Teilen des Landes unter anderem zu einem Phänomen das im Allgemeinen als
Stadtschrumpfung bezeichnet wird. Da die zugrundeliegenden Bevölkerungsverluste jedoch
nicht auf einzelne Städte begrenzt sind, sondern im Gegenteil ganze Regionen – inkl. der
urbanen Zentren – betroffen sind, sind für große Teile der in diesen Regionen lebenden
Bevölkerung negative Auswirkungen in Bezug auf die Daseinsvorsorge zu erwarten.
Die flächendeckende Ausprägung dieser Bevölkerungsverluste sind in diesem Ausmaß durch
einzelne kommunale Aktivitäten kaum zu bewältigen. Insbesondere vor dem Hintergrund der
interkommunalen Konkurrenz erscheint eine regional abgestimmte Vorgehensweise unter
Federführung oder zumindest Beteiligung der Regionalplanung notwendig. Zugleich erfordern
die gesellschaftlichen Bedürfnisse nach Transparenz und Mitwirkung eine stärkere
Fokussierung auf kommunikative und partizipative Ansätze in der räumlichen Planung.
Anhand einer vergleichenden Analyse wird, auf Grundlage eines Evaluierungsrasters,
untersucht welche Potenziale regionale Beteiligungsverfahren, auch unter Einbezug einer
breiteren Öffentlichkeit, für schrumpfende Regionen bieten.
Die Analyse der Mitwirkungsprozesse in Birkenfeld und Coburg bestätigt einmal mehr die
Schwierigkeiten in der vergleichenden Forschung. Trotz ähnlicher Ausgangsbedingungen und
Zielsetzungen sind sowohl die Struktur der Prozesse als auch die Ergebnisse in der eigenen
Wahrnehmung unterschiedlich zu bewerten.
Während governance Prozesse, ergänzt durch Informationsveranstaltungen oder andere in
ihren Mitwirkungsmöglichkeiten begrenzte Formate, für die Mehrzahl der Planungen
ausreichen dürfte bieten sich Aufwendigere Verfahren für die genannten Anlässe an.
Letztendlich bleiben ja auch in institutionell organisierten und vergleichsweise klar
strukturierten regional governance Prozessen die gesetzlich vorgeschriebenen
Beteiligungsmöglichkeiten erhalten, auch wenn sie die Bevölkerung vermutlich weniger
mobilisieren. Auf der anderen Seite sind regionale Mitwirkungsprozesse wahrscheinlich in
ihrer Struktur chaotischer, vor allem aber in Bezug auf die tatsächliche Umsetzung der
erarbeiteten Lösungsansätze unsicherer.
Eine der zentralen Herausforderungen unserer Zeit ist der Klimaschutz und damit
einhergehend die Reduktion des durch den Menschen verursachten CO2-Ausstoßes,
an dem auch das Bauwesen zu einem maßgeblichen Anteil beiträgt.
Häufig werden bestehende Tragstrukturen aus Kostengründen abgebrochen und
durch Neubauten ersetzen. Hinzu kommt, dass Bestandsbauwerke nicht immer nach
den aktuell gültigen Regelwerken nachgewiesen werden können. Im Sinne der
Ressourcenschonung sowie dem kulturellen Erhalt bestehender Strukturen sollte dem
Erhalt, der Instandsetzung und der Umnutzung von Bestandstragwerken Vorrang vor
dem Abriss mit anschließendem Neubau gegeben werden.
Als Grundlage für die Nachrechnung von Bestandsbauwerken sind die Kenntnisse
über die Abmessungen und Geometrien der Bauteile sowie die Materialkennwerte
erforderlich. Diese können mit Hilfe von Bestandsunterlagen oder durch Untersuchung
des Bestandsbauwerks bestimmt werden. Für Stahlbetontragwerke sind
dementsprechend die Materialkennwerte des Betons und des Betonstahls zu ermitteln.
Basierend auf dem aktuellen Sicherheitskonzepts sind nicht die Mittelwerte, sondern
jeweils die charakteristischen Materialkennwerte (≙ 5 %-Quantil) zu berechnen. Die
Ermittlung der charakteristischen In-situ-Betondruckfestigkeit basiert in der Regel auf
den Ergebnissen der direkten Prüfmethode oder auf einer Kombination der Ergebnisse
aus direkter und indirekter Prüfmethode. Die charakteristische In-situ-Betondruckfestigkeit ist dabei möglichst wirklichkeitsnah zu ermitteln, während
gleichzeitig das Tragwerk so wenig wie möglich geschädigt werden soll. Statistisch
belastbare Auswerteverfahren sind aufgrund einer geringen Datenbasis somit ebenso
essenziell, wie eine fachgerechte Untersuchung des Bestandstragwerks und die
zugehörige Entnahme mit normativ korrekter Vorbereitung und Prüfung der Bohrkerne.
Die im Februar 2020 veröffentlichte DIN EN 13791:2020-02 löst formal die
Normfassung DIN EN 13791:2008-05 ab. Mit Einführung dieser Norm sind jedoch
noch keine neuen Nationalen Anwendungsregeln für Deutschland vorhanden (analog
zu DIN EN 13791/A20:2017-02). Besonders für geringe Stichprobenumfänge
(3 ≤ n ≤ 7), aber auch für große Stichprobenumfänge (n ≥ 8) ergeben sich in
DIN EN 13791:2020-02, im Vergleich zu den bisherigen Regelungen, deutliche
Änderungen bei der Bestimmung der charakteristischen In-situ-Betondruckfestigkeit
für Bestandstragwerke. Allerdings fehlen hierzu aktuell Hintergrundinformationen
bezüglich deren statistischer Belastbarkeit.
Mit Blick auf die Altersstruktur der Bauwerke, der damals üblichen und der heute nach
Eurocode 2 (DIN EN 1992-1-1:2011-01) gültigen Betonfestigkeiten ergeben sich
Diskrepanzen, sodass zu überprüfen ist, ob die Nachweisformate nach Eurocode 2
auch für geringere Festigkeitsklassen angewendet werden dürfen.
Im Zuge des Normgebungsverfahren wurden Teile, der im Rahmen dieser Arbeit
vorgestellten Ergebnisse und Erkenntnisse bei der Erstellung des neuen Nationalen
Anhangs DIN EN 13791/A20:2022-04 berücksichtigt.
Diese Dissertation widmet sich der fertigungsintegrierten spektroskopischen Prozessanalytik
zur technischen Qualitätssicherung struktureller Glasklebungen. Glas als Werkstoff mit
seiner einzigartigen Eigenschaft der Transparenz ist in vielen Bereichen unverzichtbar. Wichtig
zur Verbesserung der Festigkeit und Langzeitbeständigkeit von Glasklebungen ist eine
Vorbehandlung der Oberfläche. Aufgrund des chemischen Aufbaus und der Reaktivität der
Glasoberfläche muss diese in einen für die Klebung geeigneten Zustand versetzt werden.
Die Applikation von Haftvermittlern und die Einhaltung der Prozessparameter sind für die
Qualität der Klebung entscheidend. Bislang fehlen Methoden zur zerstörungsfreien Qualitätssicherung
von Klebungen. Das Konzept zur prozessintegrierten Qualitätssicherung von
Glasklebungen soll Analyseverfahren zur Beurteilung der Reinigungswirkung (Kontaminationsfreiheit)
und zur Wirksamkeit der klebtechnischen Funktionalisierung bereitstellen. Die
Hypothese unterstellt, dass sich die Qualität der Oberflächenvorbehandlung und somit die
Qualität der Glasklebung hinsichtlich Zuverlässigkeit und Beständigkeit mit spektroskopischer
Analysetechnik überwachen lässt. Als spektroskopische zerstörungsfreie Analysemethoden
werden die UV-Fluoreszenzanalyse, die Infrarotspektroskopie und die Röntgenfluoreszenzanalyse
eingesetzt. Die Forschungsergebnisse bieten die Möglichkeit Klebprozesse mit
Glaswerkstoffen robust und qualitätssicher auszulegen.
Additive Fertigungsverfahren zeichnen sich durch eine hohe erreichbare Komplexität der zu erzeugenden Geometrien, bei gleichzeitig kaum steigendem Fertigungsaufwand, aus. Dies wird durch den schichtweisen Aufbau additiver Fertigungsverfahren erreicht, bei dem die zu fertigende Geometrie zunächst in einzelne Bauteilquerschnitte aufgeteilt und anschließend durch Fügen dieser Querschnitte aufgebaut wird. Ein etabliertes additives Fertigungsverfahren ist das selektive Laserschmelzen, bei dem die zu erzeugende Geometrie durch Aufschmelzen von Metallpulver mittels eines Lasers in einem Pulverbett erzeugt wird. Die durch selektives Laserschmelzen generierten Oberflächen müssen zur Erzeugung von Funktionsflächen spanend endbearbeitet werden, wobei die charakteristische Anisotropie additiv erzeugter Werkstoffe berücksichtigt werden muss. Diese Arbeit beschäftigt sich mit den Wirkmechanismen additiv-subtraktiver Prozessketten bei der spanenden Bearbeitung von Edelstahl 1.4404, wobei zunächst beide Prozesskettenteile getrennt voneinander analysiert werden. Es werden unterschiedliche Wirkzusammenhänge der Prozessparameter der additiven Fertigung und Pulvereigenschaften auf den erzeugten Werkstoff identifizert. Weiter werden durch den Einsatz des Mikrofräsens als Bearbeitungsverfahren (Werkzeugdurchmesser < 50 µm) Wechselwirkungen zwischen anisotropem Werkstoff sowie Prozess- und Prozessergebnisgrößen der spanenden Bearbeitung besonders deutlich. Die Untersuchungen ergaben, dass prozesskettenübergreifende Wirkmechanismen zwischen additiven und subtraktiven Prozesskettenteilen beim selektiven Laserschmelzen und Mikrofräsen von Edelstahl 1.4404 bestehen.
Die ganzheitliche stoffliche Verwertung von Biertreber in Bioraffinerieprozessen mit dem Ziel der Itaconsäureproduktion, bietet eine alternative Nutzungsmöglichkeit für diesen industriellen Nebenproduktstrom. Dabei stellt Itaconsäure ein nachhaltiges Substitut für beispielsweise erdölbasierte Acrylsäure dar. Das Ziel der vorliegenden Arbeit liegt in der Entwicklung und Etablierung geeigneter mechanischer, hydrothermaler und enzymatischer Vorbehandlungsmethoden, um zuckerreiche Hydrolysate zu Fermentationszwecken bereitzustellen. Die Optimierung der Einflussgrößen auf die hydrothermale Vorbehandlung erfolgte im Rahmen einer statistischen Versuchsplanung. Dadurch wurden mittels der kombinierten Vorbehandlung, bestehend aus mechanischem Abpressen und anschließender Organosolv Behandlung, im enzymatischen Schritt Ausbeuten von bis zu 66 % (Glucose) und 70 % (Xylose) erzielt. Zur anschließenden fermentativen Herstellung von Itaconsäure wurde ein Produktionsprozess mit dem Organismus Ustilago maydis und den zuckerreichen Biertreberhydrolysaten als Fermentationsmedium etabliert. Dabei konnten Ausbeutesteigerungen von bis zu 52 %, verglichen mit einer Referenz in Standardmedium, erzielt werden. Unter Verwendung von biertreberbasierten Fermentationsmedien wurde bei der Herstellung von bis zu 9,4 g/L Itaconsäure die bereitgestellte Menge an Kohlenhydraten als produktbildungslimitierender Faktor identifiziert. Des Weiteren konnte durch Variation der Prozessführung unter anderem die Option der simultanen Verzuckerung und Fermentation von hydrothermal vorbehandeltem Biertreber mit U. maydis erfolgreich demonstriert werden. Abschließend erfolgte die Evaluation des gesamten entwickelten Bioraffinerieprozesses anhand einer Stoffstromsimulation. Dabei zeigte sich, dass neben der Erhöhung der Ausbeuten noch weitere Optimierungen durchgeführt werden müssen, um ein wirtschaftlich tragfähiges Verfahren zu entwickeln.
In der vorliegenden Dissertationsschrift wurden die Prozesse Valenztautomerie und Spincrossover an Co(III/II)-Dioxolen-Komplexen mit dem neutralen Diazapyridinophan-Liganden L-N4tBu2 untersucht. Hierbei wurden zunächst Cobalt(II)-Catecholat-Komplexe mit verschiedenen Dioxolen-Liganden und dem Liganden L-N4tBu2 dargestellt. Dabei unterschieden sich die Dioxolen-Liganden in ihren Substituenten, um die σ- und π-Donoreigenschaften sowie die π-Akzeptoreigenschaften zu variieren. Gleichzeitig wurde dadurch das Redoxpotential Catecholat/Semichinonat verändert. Die synthetisierten Verbindungen [Co(L-N4tBu2)(DCCat)] ⸱ 2 MeOH (R), [Co(L-N4tBu2)(Br2Cat)] ⸱ 2 MeOH (1), [Co(L-N4tBu2)(BrCat)] ⸱ 2 MeOH (2), [Co(L-N4tBu2)(Br2Me2Cat)] ⸱ 2 MeCN (3), [Co(L-N4tBu2)(BrtBuCat)] ⸱ 3 MeOH (4), [Co(L-N4tBu2)(3,6-Me2Cat)] ⸱ 2 MeOH (5) und [Co(L-N4tBu2)(4,5-Me2Cat)] ⸱ 3 MeOH (6) wurden anschließend auf ihre strukturellen Parameter und spektroskopischen Eigenschaften untersucht. Dadurch konnte der high-spin Cobalt(II)-Catecholat-Zustand der Verbindungen R bzw. 1-6 charakterisiert werden. Anschließend wurden die Verbindungen um ein Elektron oxidiert. Die resultierenden Komplexe [Co(L-N4tBu2)(DCCat)][BPh2(DCCat)] (8a), [Co(L-N4tBu2)(DCCat)](BF4) (8b), [Co(L-N4tBu2)(Br2Cat)][BPh2(Br2Cat)] (9a), [Co(L-N4tBu2)(Br2Cat)](BF4) (9b), [Co(L-N4tBu2)(BrCat)](BF4) (10), [Co(L-N4tBu2)(Br2Me2Cat)](BF4) (11b), [Co(L-N4tBu2)(BrtBuSQ)](BF4) (12) [Co(L-N4tBu2)(3,6-Me2SQ)](BF4) (13) sowie [Co(L-N4tBu2)(4,5-Me2SQ)](BF4) (14) wurden durch magnetische Messungen und Röntgenstrukturmessungen sowie temperaturabhängige spektroskopische Methoden (darunter UV-Vis-NIR und IR) eingehend untersucht. Zudem wurde der Komplex [Co(L-N4tBu2)(Cl4Cat)](BF4) (7b) in situ synthetisiert und untersucht. Mithilfe der erhaltenen Daten konnte das temperaturabhängige Verhalten der Komplexe 7-14 interpretiert werden. Komplex 7b geht im Festkörper keinen Valenztautomerie-Prozess ein, während die Verbindungen 8a, b und 9a, b eine geringe Neigung zur Valenztautomerie zwischen low-spin Cobalt(III)-Catecholat und low-spin Cobalt(II)-Semichinonat besitzen. Komplex 10 und 11b zeigen einen vollständigeren Valenztautomerie-Prozess, wobei in Komplex 11b ab ca. 300 K zusätzlich ein Spincrossover-Prozess einsetzt. In Verbindung 12 und 13 ist der low-spin Cobalt(III)-Catecholat-Zustand bereits stärker destabilisiert und der Valenztautomerie-Prozess nahezu abgeschlossen, während zugleich der Spincrossover zu erkennen ist. Komplex 14 liegt bei tiefen Temperaturen bereits als low-spin Cobalt(II)-Semichinonat-Komplex vor und zeigt mit Temperaturerhöhung den Spincrossover-Prozess. Weiterhin wurde das Valenztautomerie- und Spincrossover-Verhalten in Lösung untersucht (UV-Vis-NIR, Evans-NMR). In der vorliegenden Arbeit wurden die Prozesse Valenztautomerie und Spincrossover in Cobalt-Dioxolen-Komplexen eingehend untersucht. Zudem konnten zum ersten Mal Cobalt-Dioxolen-Komplexe dargestellt werden, die einen Valenztautomerie-Prozess vom low-spin Cobalt(III)-Catecholat zum low-spin Cobalt(II)-Semichinonat zeigen. Weiterhin wurden die ersten Komplexe gefunden, die Valenztautomerie sowie Spincrossover in einer Verbindung zeigen. Die vorliegenden Daten können demnach Aufschluss darüber geben, warum in der Literatur bisher nur der Valenztautomerie-Prozess low-spin Cobalt(III)-Catecholat → high-spin Cobalt(II)-Semichinonat gefunden wurde.
Bauen im Bestand hat bei heutigen Bauaufgaben einen nicht mehr zu vernachlässigbaren
Anteil eingenommen. Aufgrund erhöhter Deckenlasten in Gebäuden durch Nutzungsänderungen
oder erhöhter Verkehrsdichten auf Brücken wird dabei eine statische
Neuberechnung nach aktuell geltendem Normenwerk notwendig. Dazu ist eine möglichst
genaue und realitätsnahe Kenntnis des Belastungszustandes der zu untersuchenden
Bauwerke unabdingbar. Oftmals ergibt ein konventionell geführter Nachweis
dabei keine ausreichende Tragfähigkeit oder dieser ist aufgrund fehlender Bauwerksunterlagen
erschwert zu führen. In diesem Fall werden bisher aufwendige Probebelastungen
durchgeführt, mit Hilfe derer das wirkliche Tragverhalten eines Bauwerks untersucht
wird. Dadurch können für Neubauten zu verwendende Annahmen entfallen und
die vorhandenen Tragwerksreserven lassen sich ausnutzen. Mit dem in dieser Arbeit
vorgestellten Verfahren der Spannungs- und Schnittgrößenermittlung in Stahlbauteilen
mittels zerstörungsfreiem Ultraschallprüfverfahren können diese hohen Aufwendungen
reduziert werden und es lassen sich wirtschaftlich und schnell die vorhandenen Belastungszustände
bestehender Stahlbauwerke bestimmen.
Dazu wird das Verfahren der Ultraschall- Spannungsermittlung an Baustahlträgern untersucht.
Es wird auf die Besonderheiten desWerkstoffs Baustahl eingegangen und die
speziellen baupraktischen Einflüsse werden betrachtet. In Laborversuchen werden die
Ultraschallwellen auf ihre Genauigkeit und ihre Reproduzierbarkeit hin überprüft sowie
der akusto- elastische Kennwert ermittelt, welcher der Ultraschallwellengeschwindigkeit
im Baustahl den vorhandenen Spannungswert zuordnet. Somit können Längsbiegespannungen
und Schubspannungen belasteter Träger ermittelt werden.
Um die Messergebnisse auf nutzbare Ergebnisse für das gültige Format des zu führenden
Tragfähigkeitsnachweises zu übertragen, wird eine stochastische Aufbereitung der
Messdaten vorgenommen. Aus den gemessenen Spannungen können die Schnittgrößenverläufe
verschiedener vorhandener Belastungszustände stochastisch geschätzt
werden. Das Sicherheitskonzept des Bauwesens wird auf die Verwendung dieser
Schnittgrößenverläufe adaptiert. Mit Hilfe von Messungen an ermittelten nachweisrelevanten
Messstellen steht ein Messsystem und -verfahren zur Verfügung, mit welchem
zerstörungsfreie Tragfähigkeitsnachweise an bestehenden Stahlbauwerken nach aktuell
gültigem Normenwerk geführt werden können. In Praxiseinsätzen während der
Entwicklung wird die Handhabbarkeit des Ultraschall- Messsystems validiert und es
werden Optimierungsmöglichkeiten abgeleitet.
Open Strategy beschreibt die zunehmende Öffnung strategischer Prozesse für zuvor nicht involvierte Individuen und Gruppen. Diese Dissertation ergründet durch eine empirische Betrachtung das Management solcher Prozesse und wie zusätzliche Offenheit gesteuert wird. Um dieses Management der Open Strategy näher zu beschreiben, befasst sich diese Arbeit mit drei zentralen Aspekten. Zuerst werden grundlegende Facetten der Offenheit betrachtet und dadurch das Verständnis geschärft wie diese ausgeprägt ist. Weiterhin wird das Management der Open Strategy als das Implementieren von Steuerungsmechanismen charakterisiert und aufgezeigt wie solche Mechanismen einen Einfluss auf Offenheit haben können. Zuletzt wird die Offenheit in der Open Strategy als eine Balance von Schließung und Öffnung identifiziert, die stetiger Anpassung bedarf. Die Dissertation erweitert die Open Strategy somit um zwei zentrale Punkte: (1) eine differenzierte Sichtweise auf Offenheit und (2) den Zusammenhang von Schließung und Öffnung als auszugleichende Faktoren.
Chemie als moderne Wissenschaft hat sich schon vor mehreren Jahrhunderten etabliert. Trotzdem müssen vor allem in der präparativen Chemie viele Reaktionen weiterentwickelt oder gar erst entdeckt werden. Umso bedeutender werden „ideale“ Synthesewege in Hinblick auf die wachsende Ressourcenknappheit und den Klimawandel. Hier sind nachhaltige Reaktionsstrategien, die von möglichst wenig funktionalisierten Ausgangsverbindungen ausgehen, gefragt. Auch das Bedürfnis nach Medikamenten für bestehende bzw. neuartige Krankheiten bleibt weiterhin von fundamentaler Bedeutung. An dieser Stelle haben sich Sulfonyl-haltige Verbindungen R-SO2-R, mit ihren hervorragenden Eigenschaften, bewährt. In den letzten Jahren rücken hierbei Sulfonsäureamide immer stärker in den Fokus der Medizin.
Nachhaltige Reaktionswege, die bspw. auf Licht als Energiemedium basieren, sind in den letzten Jahren immer weiterentwickelt worden. Auch die Inkorporierung von Schwefeldioxid in wenig funktionalisierte Kohlenstoff-basierte Ausgangsverbindungen – was die Anzahl notwendiger Reaktionsschritte minimiert und somit Energie, Ressourcen und Kosten schont – wurde intensiver erforscht. Leider lassen sich diese Darstellungswege nicht so einfach auf Sulfonsäureamide übertragen, was mit der unterschiedlichen Reaktivität von Stickstoff-basierten Radikalen zusammenhängt. Im Rahmen dieser Doktorarbeit konnte zum ersten Mal eine solche Reaktionsart aufgezeigt und im weiteren Zuge optimiert werden. Es ist gelungen Stickstoffradikalvorläufer photokatalytisch mit einer Schwefeldioxidquelle und einem Alken zu entsprechenden Sulfonsäureamiden umzusetzen. Bei den ersten Stickstoffradikalvorläufern handelt es sich um sogenannte Katritzky Salze, N-Pyridinium-Salze (vgl. Schema I.: A). Nachteilig hierbei ist der eingeschränkte synthetische Zugang beim Einsatz von Reagenzien wie Hydrazinen, zum Aufbau dieser Vorläufer. Die Pyridinium-Abgangsgruppe, die in der Reaktion abgespalten wird, setzt die Atombilanz herab. Auch der Zugang zu Katritzky-Salzen mit primären Aminresten war nicht möglich. Im Zuge weiterer Untersuchungen konnten Dibenzothiophenium-Salze erfolgreich in photokatalytischen Eintopfreaktionen zu Sulfonsäureamiden umgesetzt werden (vgl. Schema I: B). Zur Darstellung dieser Dibenzothiophenium-Salze kann sowohl von sekundären, als auch von primären Aminen über eine N–H Aktivierung ausgegangen werden. Durch Isolierung und Wiederverwendung der Dibenzothiophen-Abgangsgruppe kann die Atomökonomie verbessert werden. Der größte Mehrwert dieser Arbeit besteht darin, Sulfonsäureamide durch Inkorporierung von Schwefeldioxid mit Stickstoff-basierten Radikalen darstellen zu können. Dadurch wurde eine nachhaltige und modulare Syntheseroute von Sulfonsäureamiden über eine N–H-Aktivierung offenbart, parallel zu der Synthese von Sulfonen über eine C–H-Aktivierung.
Aerodynamische Mehrpunktoptimierung eines Hochdruckverdichters mithilfe des Adjungiertenverfahrens
(2022)
In der vorliegenden Arbeit wird eine Prozesskette entwickelt, mit deren Hilfe aerodynamische
numerische Optimierungen eines Hochdruckverdichters unter Berücksichtigung mehrerer relevanter
Betriebspunkte effizient durchgeführt werden können.
Dazu werden zwei Parametriken erarbeitet und implementiert, um neben den konventionellen
Beschaufelungsparametern auch die betriebspunktspezifische Stellung der Verstellstatoren
und deren Verstellgesetz als freie Parameter berücksichtigen zu können.
Um die für die Optimierung nötigen Sensitivitätsinformationen des 17 Schaufelgitter umfassenden
Hochdruckverdichter effizient bestimmen zu können, wird auf das Adjungiertenverfahren
zurückgegriffen. Dieses entkoppelt den Aufwand zur Bestimmung der Gradienteninformation
von der Anzahl der freien Parameter nahezu. Der rechenintensive Teil der Prozesskette,
die Strömungslösung und -auswertung, wird mit dem diskret adjungierten Strömungslöser
adjointTRACE und dem Auswertewerkzeug adjointPOST durchgeführt. Die auf einem
Fixpunkt-Ansatz beruhende Vorgehensweise zur Lösung der adjungierten Gleichung ermöglicht
eine konsistente adjungierte Strömungslösung, deren Konvergenzrate derjenigen der primalen
Strömungslösung entspricht.
Die Validierung der Sensitivitätsinformationen, auf Basis der im Rahmen der Arbeit entwickelten
Prozesskette, wird in einem Vergleich zum Ansatz der Finiten Differenzen erfolgreich
durchgeführt.
Mithilfe der validierten Prozesskette können erfolgreich Mehrpunktoptimierungen mit dem
Ziel durchgeführt werden, den Pumpgrenzabstand an einem der betrachteten Betriebspunkte
deutlich zu vergrößern. Die durch die neu implementierten Verstellgitterparametriken verbesserten
Optimierungsergebnisse zeigen dabei deutlich den Einfluss und das Potential modifizierbarer
Statorverstellwinkel im Auslegungsprozess.
Die Durchlaufzeiten der durchgeführten Optimierungen können aufgrund der erarbeiteten
Prozesskette um Faktor vier bis zehn verglichen zur konventionellen Vorgehensweisen reduziert
werden. Die noch stärker verkürzten Rechenaufwände gemessen in CPU-Zeit belegen
die Notwendigkeit der Verwendung des Adjungiertenverfahrens für aerodynamischen Optimierungsaufgaben
mit mehreren hundert Parametern und wenigen Nebenbedingungen.
Acrylamid ist eine α,β-ungesättigte Carbonylverbindung, die beim Erhitzen von Lebensmitteln durch die Maillard-Reaktion aus Aminosäuren wie Asparagin und reduzierenden Zuckern gebildet wird. Da für diese prozessbedingte Lebensmittelkontaminante neuro- und gentoxische Effekte beschrieben sind und die mittlere alimentäre Exposition in Europa auf 0,4–1,9 μg/kg KG/d geschätzt wurde, ist Acrylamid von Bedeutung für die Risikobewertung von Lebensmitteln.
Acrylamid und sein gentoxischer Metabolit Glycidamid werden zu den Mercaptursäuren N-Acetyl-S-(2-carbamoylethyl)-L-cystein (AAMA) bzw. N-Acetyl-S-(2-hydroxy-2-carbamoylethyl)-L-cystein (GAMA) metabolisiert, die als renale Biomarker zur Abschätzung der internen Exposition Verwendung finden. Frühere Befunde deuteten bereits auf eine potentielle endogene Bildung hin, die einer Acrylamid-Exposition von 0,2–0,7 µg/kg KG entsprach und somit nennenswert zur Biomarker-Ausscheidung beitragen kann, die exogen durch Acrylamid-Aufnahme durch Lebensmittel, Tabakrauch oder Exposition am Arbeitsplatz beeinflusst werden kann. Um diese verschiedenen Einflussfaktoren weiter zu untersuchen, wurden zwei Humanstudien durchgeführt.
Im Rahmen einer Duplikat-Studie unter streng kontrollierten Bedingungen wurde die Toxikokinetik der Mercaptursäuren und Hämoglobin-Addukte nach Acrylamid-Aufnahme durch den Verzehr von Kaffee (0,15–0,17 µg/kg KG/d) bzw. hitzebehandelten Lebensmitteln (14,1–15,9 μg/kg KG/d) in sechs Probanden untersucht. Während der Kaffeekonsum nur zu einer leicht erhöhten Mercaptursäure-Antwort führte, konnte die renale Ausscheidungskinetik nach Aufnahme von 14,1–15,9 μg/kg KG/d Acrylamid erfasst werden. Weitere sechs Probanden erhielten eine Acrylamid-minimierte Diät, die eine Acrylamid-Aufnahme von 0,05–0,06 µg/kg KG/d nicht überschritt (Washout), und zusätzlich einen einmaligen Bolus von 1 μg/kg KG 13C3D3-Acrylamid. Am Ende des 13-tägigen Washout wurde ein AAMA-Level erfasst, das einer Hintergrundbelastung von 0,3–0,4 µg/kg KG/d entsprach, während die Ausscheidung von 13C3D3-Acrylamid als 13C3D3-AAMA innerhalb von 72–96 h praktisch abgeschlossen war, welches die Hypothese einer anhaltenden endogenen Acrylamid-Bildung in vivo unterstützt. Dies wurde durch Modell-Reaktionen untermauert, die eine Acrylamid-Bildung unter physiologischen Bedingungen zeigten.
Eine zweite Duplikat-Studie mit Gemischtköstlern und Veganern befasste sich mit dem Einfluss der Ernährung und Lebensstils auf die Acrylamid-Exposition und Ausscheidung von AAMA, GAMA sowie Tabakrauch-Expositionsbiomarkern. Die mittlere Acrylamid-Aufnahme betrug 0,32±0,19 µg/kg KG/d, es zeigten sich jedoch deutliche Variabilitäten zwischen den Tagen und den Probanden. So nahmen Veganer mehr Acrylamid auf (0,38±0,23 µg/kg KG/d) als Gemischtköstler (0,26±0,10 µg/kg KG/d). Die Ausscheidungskinetik von AAMA und GAMA im Urin stimmte im Wesentlichen mit der jeweiligen alimentären Acrylamid-Aufnahme überein. Erhöhte Werte konnten auf eine umwelt-bezogene Belastung mit Tabakrauch zurückgeführt werden.
Entwicklung von Fermentationsstrategien zur stofflichen Nutzung von nachwachsenden Rohstoffen
(2022)
Biertreber stellt einen wichtigen Vertreter eines nachwachsenden Rohstoffes dar, da es sich dabei um ein niedrigpreisiges Nebenprodukt des Brauprozesses handelt, welches jedes Jahr in großen Mengen anfällt. In der vorliegenden Arbeit wurde Biertreber aus sieben verschiedenen Braurezepten, sowohl aus eigener Herstellung als auch industriellen Ursprungs, analysiert und in Bezug auf die zugrundeliegenden Braugänge klassifiziert. Darüber hinaus wurde der Treber durch Pressen in zwei separate Stoffströme aufgeteilt: eine flüssige und eine feste Fraktion. Für beide Fraktionen wurden Bioprozesse etabliert, um einerseits das flüssige Substrat (Treberpresssaft) mit einem Milchsäurebakterium (Lactobacillus delbrueckii subsp. lactis) zu Milchsäure und andererseits das feste Substrat (Treberrückstand) mit einem lignocellulolytischen und gemischtsäuregärung-betreibenden Stamm (Cellulomonas uda) zu Ethanol und Essigsäure umzusetzen. Außerdem wurde ein kinetisches Modell aufgestellt, welches u.a. die Milchsäurebildung und das Zellwachstum von L. delbrueckii subsp. lactis für drei Treberpresssäfte unterschiedlicher Braurezepturen, d.h. mit unterschiedlicher Nährstoffausstattung, in einer simultanen Verzuckerung und Fermentation vorhersagen konnte. Des Weiteren konnten die entwickelten Fermentationsstrategien zur Verwertung des Treberpresssaftes und Treberrückstandes sowie die zugrundeliegenden Prozessüberwachungs- und Regelungsstrategien auf Fermentationen mit den gleichen Organismen aber dem Substrat Wiesenschnitt – also einen weiteren nachwachsenden Rohstoff – übertragen werden.
Ziel dieser Arbeit ist die Entwicklung einer optimierungsbasierten Betriebsstrategie von
Plug-In-Hybridfahrzeugen (PHEV), welche basierend auf Vorausschauinformationen die
Freiheitsgrade Lastpunktverschiebung und Motor-An/Aus-Entscheidung kraftstoffoptimal
einstellt. Der Hauptfokus der Arbeit liegt dabei auf der Entwicklung einer echtzeitfähigen
Strategie für Serienfahrzeuge. Hierfür wird ein neuartiger Ansatz auf Basis des Minimumprinzips
nach Pontryagin (PMP) vorgestellt, durch welchen die Freiheitsgrade des
PHEV kraftstoffoptimal eingestellt werden können. Dabei werden Informationen über die
vorausliegende Strecke effizient berücksichtigt. Die Qualität der in der Realität verfügbaren
Vorausschaudaten stellt jedoch eine besondere Herausforderung dar, da dadurch zwei in
der Praxis besonders relevante Aspekte auftreten: 1) Bei der Verwendung von PMP können
durch das besonders starke Auftreten sogenannter Singularitäten die Randbedingungen
des Optimalsteuerungsproblems nicht exakt eingehalten werden. Um dieses Problem zu
lösen, wurde in dieser Arbeit eine neuartige, PMP basierte Methodik entwickelt. 2) Die
für die Optimierung zur Verfügung stehenden Informationen sind zwangsweise unsicher,
und das reale Fahrzeugverhalten weicht von dem der Navi-Vorausschau ab. Um mit
dieser Unsicherheit umgehen zu können, wurde in dieser Arbeit eine Feedback-Struktur
entwickelt, welche eine Anpassung der Strategie auf ein abweichendes Fahrzeugverhalten
ermöglicht. Des Weiteren wurde eine Verallgemeinerung der vorgestellten PMP-Methodik
entwickelt, wodurch eine Integration von Motorstartkosten und externen Anforderungen
an die Motor-An/Aus-Entscheidung ermöglicht werden kann. Zu diesem Zweck wurde eine
Kombination von Dynamischer Programmierung und PMP betrachtet. Die entwickelten
Strategien wurden sowohl in der Simulation wie auch auf einem Prüfstand analysiert und
validiert. Abschließend wurde hierfür ein Vergleich mit regelbasierten Betriebsstrategien
vorgestellt. Dabei konnte ein deutlicher Verbrauchsvorteil durch die Verwendung der
entwickelten, optimierungsbasierten Betriebsstrategie ausgewiesen werden.
Mit der Blickrichtung auf die Synthese und Darstellung neuer Verbindungen zur Verbesserung der Lebensqualität, Grundbedürfnisse und Gesundheit einer modernen Gesellschaft sind neue Strategien, welche die Konzepte der Nachhaltigkeit, Effizienz und Umweltschutz verinnerlichen, von immenser Bedeutung. Multikomponentenreaktionen (MCRs) offerieren hierfür einen attraktiven Lösungsansatz. Als Eintopfreaktionen zeichnen sich MCRs durch hohe Stufen- sowie Atomökonomien aus und können ferner dazu beitragen Kosten, Zeit, Energie und Abfälle einzusparen. Durch den modularen Charakter von MCRs lassen sich darüber hinaus schnell und effizient eine Vielzahl unterschiedlicher Molekülstrukturen generieren. Vor diesem Hintergrund konnten im Rahmen dieser Forschungsarbeit einige neue, kombinatorische Konzepte zur Synthese α-substituierter Glycinderivate entwickelt werden. Ausgehend von einer weiterentwickelten, Pd-katalysierten, enantioselektiven 3-Komponentenreaktion auf Basis von Sulfonsäureamiden, Glyoxylsäure Monohydrat und Boronsäuren konnte eine unerwartete Hintergrundreaktion festgestellt werden, die sich schlussendlich als erste katalysatorunabhängige Petasis-Reaktion auf Basis von Sulfonsäureamiden als Amin-Komponente darstellte.
In Anbetracht der Aufgabe eine ressourcensparende und nachhaltigere Aufbaumöglichkeit von unnatürlichen Aminosäurederivaten zu entwickeln, gelang es im Zuge dieser Doktorarbeit weiterhin eine Pd-katalysierte, decarboxylative 3-Komponentenreaktion aufzubauen und zu etablieren. Dabei bieten Arylcarbonsäuren als Schlüsselkomponenten in einem decarboxylativen Konzept mit Palladium eine kostengünstigere und umweltfreundlichere Alternative zu den bisher bestehenden Methoden mit Organoboronsäuren oder anderer Organometall-Spezies. Überraschenderweise konnte im Zuge der Untersuchungen zur Substratbreite der Aldehyd-Komponente eine direkte, decarboxylative Addition zwischen den eingesetzten Arylcarbonsäuren und den verschiedenen Glyoxylsäureestern beobachtet werden. Dabei eröffnete diese Methode in ersten Untersuchungen eine interessante Möglichkeit zur Darstellung entsprechender Mandelsäurederivate.
Die Bedeutung und Nachfrage an der Holz-Beton-Verbundbauweise nimmt
aufgrund einer Vielzahl an Vorteilen gegenüber dem reinen Holzund
Stahlbetonbau immer weiter zu. Die Bemessung von Holz-Beton-
Verbundkonstruktionen ist aktuell nicht normativ geregelt, sondern wird auf
der Grundlage von bauaufsichtlichen Zulassungen und Bauartgenehmigungen
durchgeführt. Dabei kommen die unterschiedlichsten Typen an Verbindungsmitteln
zum Einsatz, wie beispielsweise stiftförmige Verbindungsmittel
und Kerven. Kontinuierliche Verbindungsmittel wie die Verbunddübelleiste
im Stahl-Beton-Verbundbau wurden bisher nicht im Holz-Beton-
Verbundbau verwendet. Verbunddübelleisten haben sich als sehr leistungsfähige
Verbundmittel mit einer hohen Tragfähigkeit und einfacher Herstellung
herausgestellt, deren Bemessung in der AbZ Z-26.4-56 2018 geregelt
ist. Zur Entwicklung eines Bemessungskonzeptes für ein den Verbunddübelleisten
ähnliches Verbundmittel für den Holz-Beton-Verbundbau sind klassischer
Weise experimentelle Untersuchungen zur Ermittlung der Tragfähigkeit
durchzuführen. Neben den oftmals zeitaufwendigen und kostenintensiven
Versuchen haben viele Untersuchungen an verschiedensten Verbundmitteln
gezeigt, dass sich numerische Untersuchungen in Form von Finite-
Elemente-Modellen dafür eignen das Tragverhalten abzubilden und die erforderliche
Anzahl an Versuchen zur Abdeckung der verschiedenen Parameter
zu reduzieren.
Im Rahmen dieser Arbeit wurde ein kontinuierliches Verbundmittel für die
Holz-Beton-Verbundbauweise entwickelt und es wurde mittels experimenteller
und numerischer Untersuchungen ein Bemessungskonzept erarbeitet.
Zur Beschreibung des Trag- und Verformungsverhaltens wurden Versuche
unter Längsschub- und Zugbeanspruchung durchgeführt. Anhand dieser
Versuche konnten Finite-Elemente-Modelle kalibriert werden und darauf aufbauend
numerische Untersuchungen zum Tragverhalten unter kombinierter
Zug- und Schubbeanspruchung durchgeführt werden. Da viele numerische
Untersuchungen an Verbundmitteln in der Vergangenheit eine hohe Sensibilität
bei der Variation der Materialparameter der Betonmodelle gezeigt
haben, wurde eine separate Untersuchung zu den Besonderheiten von Verbundmitteln
im Beton bei der numerischen Simulation herausgearbeitet und
entsprechende Lösungsansätze gegeben. Auf Grundlage der experimentellen
und numerischen Untersuchungen konnten die für das neue Verbundmittel
spezifischen Tragmechanismen identifiziert, in einem abschließenden
Trägerversuch bestätigt und in ein Bemessungsmodell überführt werden.
Durch den kombinierten Einsatz von experimentellen und numerischen
Untersuchungen konnte das Tragverhalten des neuen Holz-Beton-
Verbundsystems umfassend beschrieben und ein für die Praxis anwendbares
Bemessungskonzept entwickelt werden. Diese Arbeit soll damit neben dem
Bemessungskonzept einen Beitrag für die Anwendung numerischer Verfahren
bei der Untersuchung des Tragverhaltens von Verbundmitteln im Beton
leisten.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
Die Verwendung der Fest-Flüssig Extraktion zur Gewinnung von Wirkstoffen aus
Pflanzenmaterial ist so alt wie die Menschheit. Es sind daher angereicherte Extrakte oder
aufgereinigte Wirkstoffe in der Lebensmitteltechnologie, Biotechnologie und Pharmakologie
alltäglich vorzufinden. Die Diffusion sowie der Stofftransport der Wirkstoffe werden durch die
biologischen, chemischen, physikalischen Charakteristika des Pflanzenmaterials und durch die
Betriebsführung des Extraktionsvorgangs beeinflusst. Diese Dissertation analysiert das
Diffusionsverhalten diverser Wirkstoffe aus unterschiedlichen Pflanzenmaterialien mit einer
Unterstützung des Extraktionsvorgangs durch Mikrowellen, Ultraschallwellen oder Hochspannungsimpulse. Der Stofftransport wird bei festgesetzter Temperatur mit verfahrenstechnischen Modellen einstufig und mehrstufig beschrieben.
Im Gegensatz zu vorangegangenen Studien werden mannigfaltige Pflanzenstrukturen in
Kombination mit alternativen Prozesskonzepte beruhend auf den verschiedenen
Wirkmechanismen ausgewählt. Diese Modellierungen sind durch die vielfältigen Pflanzenmaterialien wie Blätter, Blüten, Nadeln, Samen, Rinde, Wurzeln und Kräuter unter der Einwirkung
der Mikrowellen, Ultraschallwellen sowie Hochspannungsimpulse, die zur Erhöhung der Ausbeute
an den Wirkstoffen im Extrakt beitragen, inspiriert. Zuerst wurden die Eigenschaften wie die
Schüttgutdichte, der Anteil an flüchtigen Bestandteilen, Partikelgrößenverteilung, der Lösungsmittel- und Phasenverhältniseinfluss der ausgewählten Pflanzenmaterialien untersucht. Wie
erwartet zeigt jede Pflanze und deren Wirkstoffe verschiedene Merkmale, die sich auf den
Extraktionsvorgang mit alternativen Prozesskonzepte auswirken.
Entgegen den Vermutungen, erreicht die Mikrowellen-unterstützende Extraktion mittels
dielektrischer Erwärmung nach Optimierung der Leistung die höchste Ausbeute für alle ausgewählten Pflanzenmaterialien, wenn diese getrocknet vorliegen. Mit der Ultraschall-unterstützenden Extraktionstechnologie wird bei festgesetzter Extraktionstemperatur eine
größere Quantität der Wirkstoffe im Extrakt im Vergleich zu einem gerührten Batch gemessen.
Die Hochspannungsimpuls-unterstützende Extraktionstechnologie mit einem einfachen
Pulsprotokoll und einer moderaten elektrischen Feldstärke zeigt bei frisch geernteten bzw. nicht
getrockneten Pflanzenmaterialien und wässrigen Extraktionsmilieu mit maximal 20 Vol% Ethanol
eine hohe Ausbeute an Wirkstoffen und eine milde Erwärmung des Extraktionsmittels.
Die Berechnungen der Geschwindigkeitskonstanten, der daraus resultierenden
Aktivierungsenergien und der effektiven Diffusionskoeffizienten, die auf der analytischen Lösung
des 2. Fick‘schen Gesetz basieren, korrelieren mit den festgestellten Makro- und Mikroeigenschaften der Pflanzenmaterialien. Schließlich werden mit einem automatisierten Hochdurchsatzsystem durchgeführte, dreistufige Kreuzstromextraktionen auf Grundlage der
Massenbilanzen modelliert und die tatsächlich eingesetzten mit den berechneten
Extraktionsmittelmengen bei unterschiedlichen Pflanzenmaterialien verglichen. Die Wirkstoffe in
holzartigen Strukturen und in Kräuter zeigen aufgrund ihres Quellverhalten eine abgeschwächte
Diffusion im Vergleich zum Herauslösen der Wirkstoffe aus blättrigem Rohstoff oder
Gewürzsamen.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
Die Systeme der Planung von Windenergieanlagen in Deutschland und Frankreich – ein Rechtsvergleich
(2022)
Die Energiewende in Deutschland stockt, so auch der Ausbau der Windenergie an Land. Die Gründe liegen unter anderem in der Umstellung des Fördersystems von einer garantierten Einspeisevergütung hin zu Ausschreibungen, sinkender Akzeptanz gegenüber Windenergieanlagen und der Einführung von Abstandsflächen in bestimmten Bundesländern. Bundesweit stellen Vorhabenträger und Investoren gleichermaßen fest, es mangelt an Ausbauflächen. Vor dem Hintergrund der beabsichtigten Steigerung der Ausbauziele stellen sich beträchtliche Ansprüche an den Raum. Ihnen Geltung zu verschaffen ist in Deutschland die Aufgabe der räumlichen (Gesamt-)Planung. Das bestehende Planungssystem stößt dabei jedoch an seine Grenzen. Die rechtsvergleichende Untersuchung wendet den Blick Deutschlands Nachbarn und starkem Partner in der Europäischen Union zu: Frankreich. Einerseits hat Frankreich im Jahr 2018 den ersten Rang als attraktivsten Markt für Investitionen in erneuerbare Energien vor Deutschland eingenommen. Andererseits verzeichnet Frankreich im Vergleich zu Deutschland einen stetigen Zubau der installierten Windenergieleistung. Der einfachen Frage, was Frankreich anders oder gar besser macht, folgen die zwei zentralen Forschungsleitfragen der Untersuchung:
1. Wie vergleichbar ist die rechtliche und tatsächliche Ausgangslage in Bezug auf die Planungssysteme von Windenergieanlagen in Deutschland und Frankreich?
2. Wie erfolgt die planerische Steuerung des Ausbaus der Windenergie in Deutschland und Frankreich – wie kann das deutsche System durch das französische optimiert werden?
Die Beantwortung dieser Fragen führte zum Aufbau der Arbeit in zwei Teile. Im ersten (Grundlagen-)Teil werden jeweils die Ziele zum Ausbau der Windenergie, die tatsächliche Ausgangssituation, Fördermechanismen und der Staats- und verwaltungsorganisatorische Rahmen aufgezeigt. Dies schafft den Kontext und eine bessere Vergleichbarkeit für den sich anschließenden Zweiten Teil. Verglichen werden hier für Deutschland und Frankreich jeweils das Verständnis von (Raum-)Planung, die Systeme der Planung mit ihren einzelnen Planungsinstrumenten zum Ausbau der Windenergie und die Systeme ihrer planerischen Steuerung sowie das Verhältnis von Planung zur Vorhabenzulassung. Die Untersuchung mündet in dem Entwurf eines „Energieplanungskonzepte-Systems“ für das deutsche Planungssystem. Denn die zentralen Erkenntnisse der Arbeit sind:
In Frankreich stehen keine stärkeren Umsetzungs-/ Durchsetzungsmechanismen als in Deutschland zur Verfügung, auch nicht in Gestalt von finanziellen Fördermechanismen durch das vergleichbare Ausschreibungsmodell für Windenergieanlagen. Das „günstige Klima“ ist zum einen dem größeren Entwicklungspotenzial der Windenergie geschuldet, zum anderem der besseren, landesweiten und einheitlichen Integration von Umweltfachplanungen, die in Deutschland mit Energiekonzepten vergleichbar sind. In Frankreich verhelfen die sektoralen (Energiefach-)Planungen zu einem vergleichbar besseren Überblick über die Erneuerbare- Energien-Erzeugung – auch wenn ein Zusammenführen der (inter-)kommunalen Daten auf regionaler Ebene nicht vorgesehen ist. Durch die Zentralisierung strategischer und struktureller Entscheidungen verfügt das französische Planungssystem zudem über mehr Systemkohärenz.
Die Überführung der Windenergieplanung von der Außenbereichsprivilegierung in Verbindung mit begrenzender Steuerungsplanung hin zu einer Bedarfsfachplanung, die den bundesweiten Ausbaubedarf ermittelt und über die Planungshierarchie schrittweise auf Bundesländer, Regionen und Kommunen herunterbricht, konkretisiert und durchsetzt, würde endlich das vielfach vermisste übergreifende Konzept der Energiewende erbringen. Auf der Grundlage des Vergleichs mit dem französischen Planungssystem bietet die vorliegende Untersuchung einen Vorschlag an, wie das deutsche System für den weiteren Ausbau der Windenergie zur Erreichung der Ausbauziele ertüchtigt werden kann.
Untersucht wurde das mechanische Verformungsverhalten des massiven metallischen Glases Zr52,5Cu17,9Ni14,6Al10Ti5 (Vitreloy 105) an Luft und im wässrigen Umgebungsmedium 0,01 M Na2SO4 (+ 0,01 M NaCl). Die Belastung erfolgte im Dreipunktbiegeversuch unter quasistatischer sowie zyklischer Beanspruchung und mit Hilfe der instrumentierten Schlagprüfung. Neben dem Umgebungseinfluss wurde der Effekt von zyklisch-kryogenen Vorbehandlungen und Oberflächenbearbeitungen mittels Mikrostrahlen, -fräsen, -erodieren und -laserablation auf die Schädigungsentwicklung und die ertragbaren Spannungen analysiert. Während eine Modifikation der Oberfläche stets in einer Erhöhung der Plastizität infolge einer verstärkten Scherbandbildung resultierte, wiesen diese Proben i.d.R. deutlich niedrigere Dauerfestigkeiten unter zyklischer Wechselbeanspruchung auf. Die tiefkühlbehandelten Zustände zeigten in allen mechanischen Tests ein optimiertes Verformungsverhalten. Mit Hilfe der anodischen Polarisation wurde außerdem im chloridhaltigen Medium ein signifikanter Effekt auf die Lebensdauer der unbehandelten Ermüdungsproben verzeichnet. Die Detektion der scherbandgetriebenen Deformationsprozesse sowie der Rissinitiierung und -ausbreitung erfolgte sowohl mittels Licht- und Rasterelektronenmikroskopie als auch unter Ausnutzung elektrochemischer Messsignale im wässrigen Medium bzw. resistometrischer Methoden an Luft. Auf Basis der Untersuchungsergebnisse wurden abschließend Schädigungsmodelle für die jeweiligen Versuchsbedingungen aufgestellt und diskutiert.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
Flächenhafte Kalibriernormale dienen zur Kalibrierung und Justierung von flächenhaft messenden Topographiemessgeräten und ermöglichen die Abschätzung der Messunsicherheit und die Rückführung der gemessenen Länge zur Basiseinheit. Es existieren hohe Anforderungen an die Maßhaltigkeit und Oberflächenqualität von Kalibriernormalen. Da in der Norm DIN EN ISO 25178-70 kein Fertigungsverfahren zur Herstellung von flächenhaften Kalibriernormalen vorgeschrieben ist, wurden bisher unterschiedliche Verfahren angewandt. Mikrofräsen ist ein sehr flexibles Herstellungsverfahren, welches hohe Maßhaltigkeiten und Oberflächengüten auf der Mikroskala ermöglicht. Im Rahmen dieser Arbeit wurde der Mikrofräsprozess zur Herstellung der Kalibriernormale mittels Kugelfräsern ausgelegt. Dazu wurden experimentelle als auch simulative Versuche durchgeführt und wichtige Einflussgrößen auf das Prozessergebnis zunächst identifiziert und anschließend entsprechend definiert. Nachdem zuerst flächenhafte Kalibriernormale, welche bereits genormte Kalibrierstrukturen aufweisen, gefertigt wurden, wurde der Mikrofräsprozess anschließend auch auf neuartige Kalibrierstrukturen basierend auf realen Bauteiloberflächen angewandt. Für alle gefertigten Kalibrierstrukturen lagen die Abweichungen von den Soll-Kennwerten nach der entsprechenden Prozessanpassung im einstelligen bis niedrig zweistelligen Nanometerbereich. Die Wiederholbarkeit bei der Fertigung der Kalibrierstrukturen lag in der gleichen Größenordnung. Mit dem ausgelegten Fräsprozess können die hohen Anforderungen an die Maßhaltigkeit und Oberflächenqualität der Kalibriernormale erfüllt werden.
Die Enzyme α-Amylase und α-Glucosidase katalysieren die Hydrolyse von Polysacchariden in resorbierbare Monosaccharide und damit die Glucosefreisetzung ins Blut. Durch Glykogenphosphorylase α wird ebenfalls Glucose ins Blut freigesetzt, hier jedoch durch die Hydrolyse von Leber- oder Muskelglykogen. Dipeptidylpeptidase IV spielt eine zentrale Rolle bei der Freisetzung von Insulin, indem sie das Inkretinhormon Glucagon-like-peptide-1 (GLP-1) abbaut. Hemmstoffe dieser Enzyme finden in der therapeutischen Behandlung und Prävention von Diabetes mellitus Anwendung. Neben synthetischen Inhibitoren sind bereits einige natürliche Stoffe mit hemmender Wirkung bekannt, die in unterschiedlichen Lebensmitteln vorkommen. So erwiesen sich vor allem Flavonoide als potente Hemmer. Diese Arbeit beschäftigt sich mit dem Einfluss verschiedener Extrakte aus neun roten Früchten auf die Aktivität der Enzyme α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro und in vivo sowie der Identifizierung der verantwortlichen Inhaltsstoffe und entstand in Kooperation mit der TU Braunschweig. Alle Saftextrakte enthielten potente Inhibitoren der untersuchten Enzyme. Zu den aktivsten Extrakten zählten die aus Aronia (Aronia melanocarpa), Granatapfel (Punica granatum) und roter Traube (Vitis vinifera). Zur Identifizierung der aktiven Inhaltsstoffe wurden diese drei Extrakte in ihre Anthocyan-, Copigment- und Polymerfraktion getrennt und die ersten beiden Fraktionen in Braunschweig weiter subfraktioniert. Auch hier zeigten sich alle (Sub-)Fraktionen als potente Inhibitoren der getesteten Enzyme. Eine Studie mit einzelnen Anthocyanen und Copigmenten belegte diese Ergebnisse und gab Hinweise auf die Strukturabhängigkeit des Inhibitionspotentials. So beeinflussen die Anwesenheit und Anzahl der Hydroxyl- sowie Methylgruppen, die Molekülgröße und synergistische Effekte die inhibitorische Aktivität. Um eine irreversible Inaktivierung der Enzyme auszuschließen, wurde der Hemmmechanismus der Extrakte und Fraktionen ermittelt. Hierbei zeigte sich, dass alle untersuchten Proben die Aktivität der α-Amylase und α-Glucosidase reversibel hemmten.
Im Rahmen einer humanen Interventionsstudie wurde der Einfluss eines Extraktes aus Aroniadirektsaft sowie eines roten Traubensaftkonzentrats auf den Blut- und Gewebsglucosespiegel als auch auf die Blutinsulinkonzentration untersucht. Für den ersten Extrakt zeigte sich eine signifikante Reduktion der Glucosespiegel, während der zweite die Insulinkonzentration signifikant erhöhte. Für alle Parameter konnten interindividuelle Unterschiede festgestellt werden, die eine Einteilung der Probanden in „Responder“ und „Nicht-Responder“ ermöglichte. In der vorliegenden Arbeit konnte das inhibitorische Potential verschiedener Extrakte aus roten Früchten sowie unterschiedlicher Polyphenole auf α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro nachgewiesen sowie relevante Struktureigenschaften von Inhibitoren ermittelt werden. Im Rahmen einer humanen Interventionsstudie konnten die beobachteten Effekte auch in vivo bestätigt werden. Die Ergebnisse dieser Pilotstudie sollten zukünftig mit einer höheren Anzahl an Probanden und einer höheren Dosierung der Extrakte abgesichert werden.
Effiziente Multiskalen-Methode für Viskoelastizität und Ermüdung von kurzfaserverstärkten Polymeren
(2022)
Kurzfaserverstärkte Polymere sind in aktuellen industriellen Anwendungen wie beispielsweise in Leichtbauanwendungen von zentraler Bedeutung. Dies ist vor allem durch deren außergewöhnlich gutes Verhältnis zwischen geringem Gewicht und hoher Steifigkeit bedingt. Die Verarbeitung dieser Verbundwerkstoffe im Spritzgussverfahren zu Bauteilen mit komplexen Geometrien macht sie vorrangig in der Großserienproduktion zu einer kostengünstigen Alternative zu metallischen Werkstoffen. Die komplexe mikroskopische Struktur von kurzfaserverstärkten Polymeren gestaltet deren experimentelle Charakterisierung jedoch schwierig und zeitintensiv. Besonders die Auslegung von kurzfaserverstärkten Bauteilen im Hinblick auf deren Langzeitverhalten, wie deren Lebensdauer unter zyklischer Belastung oder Kriechbelastung ist eine komplexe Aufgabe, denn das mechanische Verhalten dieser Bauteile ist von den komplexen morphologischen Parametern der Mikrostruktur abhängig. Eine konventionelle Simulation ohne Berücksichtigung der durch die lokale Mikrostruktur bedingten Materialeigenschaften auf rein makroskopischer Skala ist in vielen Anwendungen daher nicht ausreichend. Eine Multiskalensimulation von kurzfaserverstärkten Bauteilen ist deshalb notwendig, um das Materialverhalten dieser Bauteile korrekt vorherzusagen und somit deren experimentelle Charakterisierung zu unterstützen.
In der vorliegenden Arbeit wird in Kapitel 3 eine effiziente datenbasierte Multiskalen-Methode vorgestellt, welche es ermöglicht, den Einfluss der Mikrostruktur in der Bauteilsimulation zu berücksichtigen. Hauptsächlich wird hierbei auf den Einfluss des Faserorientierungszustandes eingegangen.
Um die Multiskalensimulation von realen Bauteilen aus der Industrie zu ermöglichen, wird in dieser Arbeit auf effektive bzw. reduzierte Modelle zurückgegriffen. Diese Multiskalen-Methode besteht aus zwei Schritten.
Zuerst werden für vorgegebene Faserorientierungszustände effektive Modelle generiert. In dieser Arbeit erfolgt dies mittels auf der schnellen Fouriertransformation (FFT) basierten numerischer Homogenisierungsmethoden, welche sich als besonders geeignet für die Simulation von kurzfaserverstärkten Polymeren zeigt. Aufgrund ihrer Effizienz ermöglicht es diese numerische Homogenisierungsmethode, das Randwertproblem auf der Mikroskala für große Volumenelemente schnell zu lösen.
In Kapitel 4 wird mithilfe von Schaperys Kollokationsmethode zusammen mit der FFT-basierten Homogenisierung ein Effektivmodell zur Vorhersage des Kriechverhaltens von mit Kurzglasfasern verstärktem Polyamid identifiziert. Die Multiskalen-Methode wird für diese von der Faserorientierung abhängigen Effektivmodelle in einer makroskopischen FE-Simulation mit dem kommerziellen Finite Elemente (FE) Löser Abaqus für ein Bauteil angewendet.
In Kapitel 5 wird ein Modell zur Vorhersage der Steifigkeitsabnahme in kurzfaserverstärkten Polymeren unter zyklischer Belastung vorgestellt. Dieses Modell beruht auf einem einfachen isotropen nichtlokalen Ermüdungsmodell im Matrixmaterial mit einer minimalen Anzahl von Parametern. Die Einflüsse der numerischen Parameter und Materialparameter auf die effektive Steifigkeit werden in Kapitel 5 ausgiebig studiert. Zudem wird der Einfluss geometrischer Mikrostrukturgrößen wie beispielsweise des Faservolumengehalts und der Faserorientierung untersucht. Aufgrund der speziellen Struktur dieses Modells wird durch eine Modellreduktion vom Galerkin-Typ ein reduziertes Modell identifiziert. Weiterhin wird dieses reduzierte Modell in einer makroskopischen FE-Simulation im Multiskalen-Rahmen angewendet.
Als alternatives Bewehrungsmaterial für Betonbauteile kann eine Faserkunststoffbewehrung (FKB), bestehend aus faserverstärkten Kunststoffen (FVK) eingesetzt werden. Im Vergleich zu Stahlbewehrung weist eine FKB verschiedene Vorteile auf. Neben einer geringen Wärmeleitfähigkeit, nicht magnetischen Eigenschaft und einer hohen Zugfestigkeit weist FKB eine hohe Beständigkeit gegenüber stahlkorrosionsfördernden Umgebungsbedingungen auf. Durch die Anwendung von FKB in Betonbauteilen, besteht das Potenzial eine tragfähige und wartungsarme Betonkonstruktion herzustellen.
Da noch keine allgemeingültige Bemessungsnorm für FKB existiert, werden faserkunststoffbewehrte Betonbauteile derzeit nach den für Betonstahl gültigen Normen in Kombination mit den allgemeinen bauaufsichtlichen Zulassungen bemessen. Infolge der voneinander abweichenden Materialcharakteristiken der Werkstoffe Stahl und FVK, können nicht alle geltenden Bemessungsgleichungen ohne Anpassung angewendet werden. Dies betrifft die Bemessung der Verankerungslänge zur Sicherstellung der Verankerungstragfähigkeit.
Der aktuelle Stand der Wissenschaft bezieht sich überwiegend auf das stabspezifische Verbundverhalten von FKB-Stäben unter Kurzzeitbeanspruchung. Erkenntnisse zum Langzeitverbundverhalten und der Verankerungstragfähigkeit eines faserkunststoffbewehrten Betonbauteils sind unzureichend vorhanden.
Gegenstand der vorliegenden Arbeit ist die Erforschung des Verbundtragverhaltens von FKB-Stäben und die Erarbeitung eines Bemessungskonzepts zur Sicherstellung der Verankerungstragfähigkeit unter Kurz- und Langzeitbeanspruchung. Die Basis hierfür bildet der aktuelle Arbeitsentwurf des Eurocode 2. Die darin aufgeführte Bemessungsgleichung der Verankerungslänge wird für FKB-Stäbe angepasst und um eine Mindestverankerungslänge zur Sicherstellung einer dauerhaften Verankerungstragfähigkeit sowie eine Mindestbetondeckung zur Vermeidung eines schlagartigen Bauteilversagens erweitert.
Zur Erstellung des Bemessungskonzepts werden experimentelle Untersuchungen an faserkunststoffbewehrte Betonbauteile mit Bewehrungsstäben aus glasfaserverstärktem Kunststoff (GFK) durchgeführt. Es werden das Verbundverhalten und das Veran-kerungstragverhalten in Abhängigkeit konstruktiver Parameter erforscht. Um den Einfluss von Langzeiteinflüssen auf die Verankerungstragfähigkeit zu erforschen, wird ein Versuchsstand konzipiert, mit dessen Hilfe der Einfluss einer langandauernden Belas-tung und einer kombinierten Einwirkung von Temperatur, Feuchtigkeit und Betonalkalität auf die Verbundfestigkeit bestimmt wird. Des Weiteren wird ein Versuchskörper entwickelt, welcher ermöglicht die Spannungsverteilung einer Verankerung quantitativ zu erfassen. Hiermit wird die Beanspruchung des Betons entlang der Verankerungslänge abgeleitet.
Die gesammelten Erkenntnisse münden in einem Modell zur Berechnung des Verbundspannungsverlaufs, dessen zeitliche Entwicklung sowie der Beanspruchung der Betondeckung. Anhand dieses Modells werden Bemessungswerte der Verbundfestigkeit stabspezifisch abgeleitet.
Im Rahmen dieser Dissertation konnten verschiedene multimetallische Komplexe auf Basis des
(η5-Cyclopentadienyl)(η6-phenyl)eisen(II)-Rückgrats dargestellt werden. Als Strukturmotiv zur Bindung
weiterer Metallzentren diente dabei entweder eine Phosphanfunktionalität oder verschiedene
imidazolbasierte N-Heterocyclische Carbenstrukturen. Diese neuartigen Liganden wurden zudem in
Hinblick auf ihre elektronischen und sterischen Eigenschaften untersucht. Neben dem Eisenzentrum
wurden Komplexe mit den häufig katalytisch relevanten Übergangsmetallzentren Ruthenium(II),
Osmium(II), Rhodium(I), Rhodium(III), Iridium(III), Palladium(II), Platin(II), Kupfer(I), Silber(I) und
Gold(I) mit jeweils unterschiedlicher weiterer Koordinationsumgebung erhalten. Diese Vielfalt
neuartiger multimetallischer Verbindungen wurde darüber hinaus im Bereich der homogenen Katalyse
erforscht. Dies geschah insbesondere in Hinblick auf mögliche kooperative Effekte der Metallzentren
mit- und untereinander im Kontext des Sonderforschungsbereichs TRR 88 „3MET“.
2-Methylfuran (MF) ist eine Kontaminante, die vor allem in hitzebehandelten Lebensmitteln wie Kaffee oder Lebensmittelkonserven vorkommt. Jedoch ist die Datenlage für eine Risikobewertung lückenhaft hinsichtlich der Exposition und Toxizität (Knutsen et al., 2017). In vivo Studien mit 14C-MF zeigten die Leber als Zielorgan histopathologischer Veränderungen, wie Nekrosen (Ravindranath et al., 1986; Gill et al., 2014). Es wurde die metabolische Aktivierung von MF zu reaktivem Acetylacrolein (AcA) angenommen, welches ein hohes Potential zeigte an Aminosäuren zu binden (Ravindranath et al., 1984a; Ravindranath und Boyd, 1985). In dieser Arbeit wurden die molekularen und chemischen Mechanismen von MF und AcA untersucht, um Rückschlüsse auf die toxikologischen Effekte zu ermöglichen. Zunächst wurde MF in silico hinsichtlich seines toxikologischen Potentials klassifiziert und endpunktspezifisch quantitative Struktur-Wirkungsbeziehungen (QSAR, engl. quantitative structure-activity relationship) analysiert. Positive toxikologische Abschätzungen basierten auf dessen metabolischer Aktivierung zu verschiedenen Metabolite. Diese wurden in zwei Gruppen unterteilt, welche von AcA oder Furfurylalkohol (FFA) abstammten. Im Folgenden wurde AcA synthetisiert und dessen Reaktivität gegenüber N-Acetyl-L-cystein (AcCys), Nα-Acetyl-L-lysin (AcLys), 2′-Desoxyadenosin (dA), 2′-Desoxyguanosin (dG), 2′-Desoxycytosin (dC) sowie 2′-Desoxythymidin (dT) geprüft. Bis auf dT, welches keine Reaktivität zeigte, wurden alle Addukte von AcA charakterisiert, was die Entwicklung sensitiver Quantifizierungsmethoden via (U)HPLC-ESI+/--MS/MS ermöglichte. Anschließend wurde die metabolische Aktivierung von MF zu AcA unter Verwendung humaner (HLM) und Rattenlebermikrosomen (RLM) verifiziert und enzymkinetisch untersucht. Analog wurde die Umsetzung von MF mit CYP 2E1 charakterisiert, welches sich innerhalb der getesteten SupersomesTM CYP 1A2, 2A6, 2C9, 2D6, 2E1 und 3A4 als Schlüsselenzym herausstellte. Zuletzt wurde die Bildung der in chemico identifizierten AcA-Addukte in vitro untersucht. Hierzu wurde die Zytotoxizität von MF in primären Rattenhepatozyten (pRH) mit der in HepG2-Zellen verglichen als auch in Bezug zu der Zytotoxizität von AcA gesetzt. Wurden pRH mit MF und AcA inkubiert, konnte in den Zellüberständen AcLys-AcA zeit- und dosisabhängig nachgewiesen werden. Dies qualifiziert AcLys-AcA als potenzieller Biomarker. Gleichzeitig konnte hiermit gezeigt werden, dass AcA auch auf zellulärer Ebene gebildet wird. Dahingegen wurde weder AcCys-AcA noch die DNA-Addukte dA-AcA, dG-AcA oder dC-AcA in vitro nachgewiesen. Dies deutete auf eine effiziente Detoxifzierung, bzw. Reaktion mit Biomolekülen in der Zelle hin, obgleich die Induktion anderer DNA-Schäden, ggf. auch durch anderen Metabolit, nicht prinzipiell auszuschließen ist. So wurde erstmals in vitro AcA als reaktiver Metabolit von MF nachgewiesen und seine Addukte mit nukleophilen Zellbestandteilen als potenzielle Biomarker untersucht. Diese ermöglicht eine verbesserte Risikobewertung von MF.