Refine
Year of publication
Document Type
- Doctoral Thesis (931) (remove)
Language
- German (931) (remove)
Keywords
- Katalyse (14)
- Stadtplanung (14)
- Simulation (13)
- Apoptosis (10)
- Phasengleichgewicht (10)
- Eisen (9)
- Modellierung (9)
- Tribologie (9)
- Oxidativer Stress (8)
- Querkraft (8)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (307)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (227)
- Kaiserslautern - Fachbereich Bauingenieurwesen (88)
- Kaiserslautern - Fachbereich Biologie (80)
- Kaiserslautern - Fachbereich ARUBI (66)
- Kaiserslautern - Fachbereich Sozialwissenschaften (35)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (29)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (28)
- Kaiserslautern - Fachbereich Informatik (17)
- Kaiserslautern - Fachbereich Physik (16)
- Kaiserslautern - Fachbereich Mathematik (14)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (10)
- Kaiserslautern - Fachbereich Architektur (4)
- Landau - Fachbereich Erziehungswissenschaften (3)
- Landau - Fachbereich Kultur- und Sozialwissenschaften (2)
- Landau - Fachbereich Psychologie (2)
- Landau - Fachbereich Natur- und Umweltwissenschaften (1)
- Universität (1)
[Halb]- trocken im Unterstockbereich?
„Untersuchungen meteorologisch-hydrologischer Messgrößen im Weinbau als Anpassungsstrategie an den Klimawandel sowie für eine nachhaltige Wassernutzung von Vitis vinifera [cv. Riesling]. “
Christian Ihrig & Sascha Henninger
RPTU Kaiserslautern
Der vom Menschen verursachte Klimawandel beeinflusst sowohl langfristige Klimaprozesse, als auch das aktuelle, kurzfristige Wettergeschehen in allen Regionen der Erde. Er äußert sich in einer Vielzahl an Phänomenen, die sich je nach Klimagebiet unterschiedlich manifestieren lassen oder auch unterschiedliche Auswirkungen mit sich bringen. Diese Forschungsarbeit beschäftigt sich mit dem Wasserhaushalt von Weinreben im Rahmen des rezenten Klimawandels. Ziel dieses Projektes ist es, mittels meteorologisch-hydrologischen Messgrößen eine Anpassungsstrategie zu generieren, die auf alle Weinbauregionen in Rheinland-Pfalz übertragen werden kann, um Winzer*innen die Möglichkeit zu eröffnen, auf natürlicher Art und Weise der Rebe Wasser zugänglich zu machen.
Durch die Zunahme abiotischer Schäden (z.B. Niederschlag) und die Veränderung der Vegetationszeit sowie die Zunahme invasiver Schaderreger ist vermehrt eine Steigerung der Vulnerabilität des Ökosystems „Wingert“ zu erkennen. Winzer*innen werden aufgrund der Zunahme von Extremwetterereignissen (Hitze-/Dürrephasen) zur langfristigen Bewässerung ihrer Weinbauflächen gezwungen. Große Mengen Wasser werden bereits vereinzelt in Weinbergsregionen gepumpt, was langfristig hinsichtlich eines sinkenden Grundwasserspiegels einen fatalen Fehler darstellt. Die ressourcenschonende Gestaltung des Wasserhaushaltes sollte daher in den Mittelpunkt der Weinbauforschung gestellt werden. Weinbauer*innen sind an regional-/ lokalklimatischen Lösungsmöglichkeiten und Anpassungsstrategien interessiert, um Risiken für die Anbaufrucht reduzieren und auf die lokalklimatischen Auswirkungen des Klimawandels reagieren zu können. Um gegen dieses Risiko anzugehen und den Produktionsausfall zu minimieren, muss die Anpassungsfähigkeit in Sachen Wasserhaushalt der Reben bekräftigt werden. Demzufolge wird das Mikroklima in der Weinbauregion Rheinhessen mittels des Einsatzes der Scholander-Druckkammer untersucht. Die Bestimmung des Wasserstatus hinsichtlich der exakten Bewässerungssteuerung von Weinreben hat sich durch das frühmorgendliche Blattwasser- (Ψpd) und mittägliche Stammwasserpotential (Ψstem) bewährt. Physiologische Prozesse, wie die stomatäre Leitfähigkeit der Blattschließzellen sowie das vegetative Wachstum, aber auch die Photosynthese, sind direkt oder indirekt an Ψpd + Ψstem gekoppelt. Darüber hinaus lässt sich der Wasserhaushalt durch ein an Trockenstandorten angepasstes Bodenpflegesystem, wie zum Beispiel einer flächendeckenden Bodenabdeckung mittels Holzhäcksel, deutlich verbessern. Des Weiteren wird das Mikroklima im Weinberg durch die Laubwandstruktur mitbestimmt, was durch eine gesteigerte Photosyntheseleistung der Laubwand, eine optimale Belüftung und Belichtung gewährleistet wird. Im praktischen Weinbau wird dies durch die Höhe der Laubwand realisiert. Um dem Herbizid im Unterstockraum durch das anstehende Glyphosatverbot eine Alternative zu bieten, entwickelt die Landmaschinenbranche bereits heute alternative Arbeitsgeräte, die eine Möglichkeit darstellen, dem Wuchs des Unkrautes im Unterstockbereich entgegenzuwirken.
Daher ist es von gesteigertem Interesse zu analysieren, inwiefern sich eine Bodenabdeckung im Unterstockbereich von einer flächendeckenden bzw. moderaten Tropfbewässerung in Flachlage unterscheidet. Darüber hinaus sollen Möglichkeiten zur Reduzierung des Wasserverbrauchs und zur Reifeverzögerung (Verminderung des Botrytisbefalls, Verlängerung der Reifedauer, Vermeidung eines zu hohen Alkoholgehaltes) durch eine kürzere Laubwandhöhe beim Riesling in Flachlage in diesem Projekt erprobt werden. Als Versuchsvarianten dienen vier Variationen, um abgrenzbare und eindeutige Ergebnisse erzielen zu können (V1: Tropfbewässerung; V2: Unterstockabdeckung Holzhäcksel; V3: Flächendeckende Holzhäcksel; V4: Kontrollvariante).
Velocity Based Training ist ein Ansatz zur Belastungssteuerung im Widerstandstraining, der die volitional maximale konzentrische Durchschnittsgeschwindigkeit gegen einen bestimmten Lastwiderstand zur Steuerung der Belastungsintensität sowie das Ausmaß der intraseriellen konzentrischen Geschwindigkeitsreduktion zur Steuerung der intraseriellen muskulären Ermüdung verwendet. Die diesem Ansatz inhärente Grundvoraussetzung, sich mit volitional maximalen konzentrischen Geschwindigkeiten zu bewegen, führt jedoch dazu, dass die Steuerung der muskulären Ermüdung auf Basis der relativen Geschwindigkeitsreduktion nicht umsetzbar ist, wenn man sich im Widerstandstraining mit volitional submaximaler Geschwindigkeit bewegt. Deshalb befasste sich dieses Promotionsprojekt mit der übergeordneten Forschungsfrage, inwieweit sich ein adaptierter Ansatz der geschwindigkeitsbasierten Belastungssteuerung im Widerstandstraining auf Basis der Minimum Velocity Threshold (MVT), der eine „Relative Stopping Velocity Threshold“ ([RSVT], berechnet als Vielfaches der MVT in Prozent) zur objektiven Autoregulation der Belastungsdauer verwendet, dazu eignet, den Grad der muskulären Ermüdung innerhalb eines Trainingssatzes mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit zu steuern.
Zur Beantwortung dieser übergeordneten Forschungsfrage wurde eine explanative, prospektive Untersuchung im quasiexperimentellen Design durchgeführt. Dabei wurde für alle Probanden an einem ersten Termin die individuelle dynamische Maximalkraftleistung (1-RM) für die Langhantelübungen Bankdrücken und Kreuzheben ermittelt und an einem zweiten Termin die eigentliche Testung durchgeführt. An diesem zweiten Testtermin wurde pro Übung jeweils ein Testsatz mit volitional maximaler und ein Testsatz mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit bei einer standardisierten Belastungsintensität von 75 % 1-RM ausgeführt, während die konzentrische Bewegungsgeschwindigkeit der einzelnen Wiederholungen mittels einer Inertialsensoreinheit erfasst wurde, um die ermüdungsbedingte Geschwindigkeitsreduktion der Wiederholungen am Ende eines ausbelastenden Testsatzes zu untersuchen.
Als Antwort auf die übergeordnete Forschungsfrage dieser Untersuchung kann festgehalten werden, dass sich die RSVT grundsätzlich zur Steuerung der intraseriellen muskulären Ermüdung im Widerstandstraining mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit eignet. Für fitness- und gesundheitsorientierte Personen wurde ein RSVT-Zielkorridor abgeleitet der RSVT = 171,4 - 186,6 % MVT entspricht. Führt man einen Satz Bankdrücken mit der Langhantel mit einer Belastungsintensität von 75 % 1-RM und volitional submaximaler konzentrischer Bewegungsgeschwindigkeit so lange aus, bis die durchschnittliche konzentrische Bewegungsgeschwindigkeit (MV) einer Wiederholung ermüdungsbedingt in diesen Zielkorridor absinkt, sollten noch zwei bis drei weitere Wiederholungen ausführbar sein, bevor der Punkt des momentanen konzentrischen Muskelversagens erreicht wird. Für leistungsorientierte Personen im trainierten Zustand wurde ein RSVT-Zielkorridor von RSVT = 183,8 - 211,3 % MVT abgeleitet. Sinkt die gemessene MV einer Wiederholung ermüdungsbedingt in diesen Zielkorridor, kann mit vertretbarer Sicherheit davon ausgegangen werden, dass noch eine bis zwei weitere Wiederholungen bis zum Punkt des momentanen konzentrischen Muskelversagens ausgeführt werden können.
Die vorliegende Dissertation liefert durch diese Weiterentwicklung des Velocity Based Training einen adaptierten Steuerungsansatz, mit dem es erstmals möglich wird, die geschwindigkeitsbasierte Belastungssteuerung im Widerstandstraining auch bei volitional submaximalen konzentrischen Bewegungsgeschwindigkeiten sinnvoll anzuwenden. Aufgrund bestehender Limitationen der Untersuchung sind jedoch weitere wissenschaftliche Studien erforderlich, um die Gültigkeit, die Übertragbarkeit sowie die Effektivität des MVT-basierten Steuerungsansatzes weiter zu erforschen.
Zur Förderung der Nahmobilität, insbesondere der Basismobilität „Zufußgehen“, ist die Möglichkeit zur Teilhabe im öffentlichen Verkehrsraum für alle Menschen und im Besonderen für mobilitätseingeschränkte (Bedürfnisgruppen) unerlässlich. Nur mit Hilfe einer barrierefrei gestalteten Umwelt kann die Teilhabe Aller erreicht werden. In diesem Zusammenhang ist es notwendig, ein durchgehend barrierefreies Fußverkehrsnetz herzustellen. Hierzu sind die Fußverkehrsanlagen (Gehbereiche, Überquerungsstellen, Treppen, Rampen und Aufzüge) entsprechend zu gestalten. Ein nachvollziehbares und praxisorientiertes Verfahren zur Bewertung der Barrierefreiheit von Fußverkehrsnetzen existiert allerdings derzeit nicht. An diesem Punkt setzt die vorliegende Forschungsarbeit an. Durch die Entwicklung
eines Verfahrens zur Bewertung der bestehenden Barrierefreiheit von Fußverkehrsnetzen anhand von Qualitätsstufen wird ein praktisches Anwendungstool geschaffen. Dieses richtet sich an verantwortliche Personen, u.a. aus Planung, Politik und Verwaltung, um eine Priorisierung und Umsetzung von
Maßnahmen zum Abbau von Barrieren vornehmen zu können.
Grundlage für das Bewertungsverfahren bilden Interviews und Befragungen von Fachleuten und Bedürfnisgruppen. Der Schwerpunkt liegt hierbei auf motorisch und visuell eingeschränkten Personen. Die Befragungen befassten sich mit der Höhe der Erschwernisse, je nach Bedürfnisgruppe, bei der Nutzung von Fußverkehrsanlagen im öffentlichen Raum, wenn diese nicht den Vorgaben der Technischen Regelwerke entsprechen. Das Bewertungsverfahren übersetzt die Barrierefreiheit in eine verständliche und nachvollziehbare Größe, indem die Erschwernisse in eine gefühlte zusätzliche Entfernung umgerechnet werden. Weiterhin wird neben der gefühlten auch die tatsächliche zusätzliche Entfernung aufgrund von Umwegen berücksichtigt. Aufbauend auf der Bewertung von Fußverkehrsanlagen können so Routen und Verbindungen sowie Fußverkehrsnetze bewertet werden. Der grundsätzliche Ablauf des Bewertungsverfahrens ist für alle Bedürfnisgruppen gleich. Er besteht aus vier wesentlichen Schritten und hat jeweils eine von sechs Qualitätsstufen der Barrierefreiheit (QSB, Stufen von A bis F) zum Ergebnis. Im Rahmen der Forschungsarbeit wird festgelegt, dass der Übergang von der Stufe D zur
Stufe E für die Mehrheit der betrachteten Bedürfnisgruppen die Grenze zwischen Selbstständigkeit und Notwendigkeit fremder Hilfe beim Nutzen der Fußverkehrsanlagen darstellt. Das entwickelte Bewertungsverfahren bietet eine gute Grundlage zur Bewertung von Fußverkehrsnetzen in Bezug auf die Barrierefreiheit. Aufgrund der Modularität und Flexibilität ist es möglich, sowohl
weitere Aspekte als auch weitere Bedürfnisgruppen zu integrieren. Wichtig sind eine kontinuierliche Anwendung des Verfahrens und die Berücksichtigung der Barrierefreiheit von Anfang an in jeder Planung. Ebenfalls ist eine gesetzliche Integration der barrierefreien schrittweisen Umgestaltung anhand
anerkannter Technischer Regelwerke notwendig. Nur so kann ein durchgehend barrierefreies Netz entstehen und allen Menschen, egal ob mit oder ohne Mobilitätseinschränkung, eine Teilhabe im öffentlichen Verkehrsraum ohne fremde Hilfe ermöglicht werden. Zudem kann durch die Steigerung der
Attraktivität die Nahmobilität gefördert werden. Hiermit kann erreicht werden, Menschen bei kurzen Entfernungen vom zu Fuß gehen bzw. von der Nutzung des Rollstuhls zu überzeugen. Letztlich ist so auch eine Minderung des CO2-Ausstoßes denkbar, wenn für kurze Routen kein oder seltener das Kfz
genutzt wird. Das nachhaltigste und umweltschonendste Fortbewegungsmittel ist das zu Fuß gehen und ein barrierefreies Umfeld trägt somit schlussendlich zum Klimaschutz bei.
Schneckengetriebe werden meist aus einer Stahlschnecke und einem Bronze-Schneckenrad gefertigt. Diese werden zur einstufigen Übertragung von Drehbewegungen bei hohen Übersetzungen eingesetzt. Einen Nachteil von Schneckengetrieben stellt der relativ hohe Verschleiß infolge der hohen Gleitreibung im Zahneingriff dar. Durch eine geeignete Schmierung können Reibung und Verschleiß reduziert werden. Dies reduziert den Temperaturanstieg
im Betrieb und führt somit zu einer längeren Lebensdauer des Getriebes. Aufgrund der ausgeprägten Kühlwirkung erfolgt die Schmierung von Schneckengetrieben in der Praxis überwiegend mit Schmierölen. Fettartige Schmierstoffe werden ebenfalls verwendet, weisen jedoch eine geringere Kühlwirkung als flüssige Schmierstoffe auf. Bei Vakuumanwendungen oder unter extremen Betriebsbedingungen, wie z.B. Hoch- oder Tieftemperaturanwendungen
sowie bei niedrigen hydrodynamischen Geschwindigkeiten, verlieren die oben genannten konventionellen Schmierstoffe ihre Schmierwirkung. Als Alternative
werden Festschmierstoffe eingesetzt.
Festschmierstoffe können im Allgemeinen auf verschiedene Weise in den Kontaktstellen von Maschinenelementen verwendet werden. In dieser Arbeit wird das Prinzip der Transferschmierung durch ein Opferbauteil eingesetzt. Hierbei werden Compounds aus strahlenmodifiziertem Polytetrafluorethylen (PTFE) und Polyamid (PA) als Opferbauteil im Schneckengetriebe verwendet, sodass die Stahlschnecke zeitgleich mit dem Bronze-Schneckenrad und dem Opferrad aus PA-PTFE-Compound im Zahneingriff steht. Durch die Belastung des Opferrades mit einem relativ kleinen Drehmoment verschleißt das Opferrad, wodurch der PTFE-Festschmierstoff freigesetzt und an der Stahloberfläche deponiert wird. Dies führt zur Bildung eines Transferfilms, welcher zur Schmierung des Kontakts
zwischen der Stahlschnecke und dem Bronze-Schneckenrad führt. Die Mechanismen des Auf- und Abbaus solcher Transferfilme in Schneckengetrieben sind derzeit unbekannt und werden in dieser Arbeit anhand experimenteller Untersuchungen erforscht. Hierzu wurden tribologische Versuche an Modellprüfständen durchgeführt, wodurch das reib- und Verschleißverhalten an Stahl-Bronze-Kontakten untersucht wurde. Als Modellprüfstände kamen der Block-auf-Ring-, der Block-Zwei-Scheiben- und der Drei-Scheiben-Prüfstand zum Einsatz. Anschließend wurden Bauteilversuche auf einem Schneckengetriebeprüfstand durchgeführt, um die aus den Modellversuchen gewonnenen Erkenntnisse zu validieren. Mit Hilfe von oberflächenanalytischen Techniken wurden die Prüfkörper auf der Mikroskala untersucht, um die Qualität und Quantität des aufgebauten Transferfilms zu bestimmen.
In dieser Arbeit wird die Co-Konsolidierung im Thermoformen zwischen kontinuierlich faserverstärkten, teilkonsolidierten CF/PEEK Tape-Preforms und kontinuierlich faserverstärkten, vollständig konsolidierten CF/PEEK Tape-Laminaten untersucht. Bei der Co-Konsolidierung handelt es sich um die Herstellung einer Schweißverbindung zwischen zwei oder mehr Thermoplasten durch separates Aufheizen, Zusammenbringen der Fügeflächen und rasches Abkühlen unter Druck im isothermen Werkzeug. Die adressierte Anwendung ist das Verschweißen von Versteifungen auf Tape-Preforms während dem Thermoformen, sodass nachgeschaltete Fügeprozesse solcher Versteifungen obsolet werden und die Zykluszeit des Thermoformens unverändert bleibt.
Die Ergebnisse zeigen, dass der Grad der Teilkonsolidierung der Tape-Preforms -
unabhängig der gewählten Einstellgrößen des Werkzeugdrucks - keinen Einfluss auf die Konsolidierung der Tape-Laminate nach dem Thermoformen nimmt. Im Bereich einer Versteifung ist ein vergleichsweise größerer Werkzeugdruck zur Konsolidierung der teilkonsolidierten Tape-Preform notwendig, damit dort die gleichen Eigenschaften wie fern der Co-Konsolidierung erzeugt werden. Die zwischen Tape-Laminat und Versteifung gemessenen Zugscherfestigkeiten, die mittels Co-Konsolidierung im Thermoformen erzeugt werden, sind niedriger als die der Co-Konsolidierung im Autoklav.
Die von Zhou bereits 1994 erhaltenen tri(tert-butyl)cyclopentadienyltrichloride der vierten Gruppe [Cp'''MCl3] (M = Ti, Zr, Hf) konnten reproduziert, kristallisiert und strukturell untersuchtwerden. Auch konnten neue Di- und Tri(tert-butyl)cyclopentadienylzirconiumbromide und -iodide synthetisiert werden. Von [Cp''ZrI3] wurden röntgendiffraktometertaugliche
Kristalle erhalten, an denen die Struktur der Verbindung
aufgeklärt werden konnte. Bei Substitutionsversuchen mit weiteren Liganden konnten Hydridocluster erhalten werden. Strukturelle Untersuchungen zeigte einen Clusterkomplex mit der Formel (Cp''Zr)4(μ-H)8(μ-Cl)2. Es handelt sich hierbei um einen vierkernigen Zirconiumcluster, welcher von acht Hydrido- und zwei Chloridoliganden verbrückt wird. Jedes Zirconiumatom ist weiterhin
mit einem Di(tert-butyl)cyclopentadienylliganden verbunden. Bei der Untersuchung des Reaktionshergangs wurde ein weiterer Zr-Cluster gefunden. Es konnten röntgendiffraktometertaugliche Kristalle von Tris{di(tert-butyl)cyclopentadienyldi(μ-hydrido)zirconium} {chloridotri(μ-hydrido)aluminat} erhalten werden. Der Cluster besteht aus drei Zirconiumatomen, welche in einem Dreieck angeordnet sind und mit je zwei Hydridoliganden verbrückt. Jedes Zirconium ist über eine Hydridobrücke mit einem Aluminiumchloridfragment verbunden. Zudem ist an je Zirconiumatom je ein Di(tert- butyl)cyclopentadienylligand koordiniert. Weiterhin wurden Experimente zur Herstellung von Alkylderivaten des bislang nicht bekannten
Zirconocengrundkörpers Cp2Zr unternommen. Hierzu wurde Zirconiumtetrachlorid
mit n-Butyllithium zum Dichlorid ZrCl2(THF)2 reduziert. Das Reduktionsprodukt
wurde mit Natriumtetra(isopropyl)cyclopentadienid, Natriumtri(tertbutyl)
cyclopentadienid oder Lithiumpenta(isopropyl)cyclopentadienid umgesetzt.
Die Ergebnisse zeigen keinen eindeutigen erhalt von Zirconocenen, jedoch wurde ein Tri(tert-butyl)cyclopentadienyllithium- salz erhalten, welches strukturell aufgeklärt werden konnte.
In 2022 verfehlten Gebäude- und Verkehrssektor die Klimaschutzziele in Deutschland. Im Gegensatz zum Verkehrssektor stehen im Gebäudesektor lange Lebensdauern schnellen Technologiewechseln entgegen, weshalb Strategien besonders frühzeitig umgesetzt werden müssen. Zudem ist der Gebäudebestand durch hohe Investitionskosten bei vergleichsweise geringen Treibhausgaseinsparungen je investiertem Euro geprägt. In Kombination erschweren diese Hemmnisse die Erreichung der Klimaschutzziele für den Wohngebäudebestand deutlich.
Ziel dieser Arbeit ist die Entwicklung eines Wohngebäudebestandsmodells, um Transformationspfade unter dem Einfluss variierender ökonomischer Rahmenbedingungen, wie z.B. dem Einfluss unterschiedlicher CO2-Preisverläufe und eine Reinvestition der CO2-Steuer in die Modernisierung der Gebäude, simulieren und analysieren zu können.
Im ersten Schritt wird ein Wohngebäudebestandsmodell bei Fortschreibung der ökonomischen Rahmenbedingungen im Startjahr entwickelt und angewendet. Hierzu werden wichtige Parameter des Gebäudebestands identifiziert und diese anhand des vergangenen Verlaufs analysiert sowie Szenarien und Prognosen betrachtet. Ergebnis sind Ausgangsbedingungen und Einflussfaktoren auf den weiteren Verlauf, die für die Modellierung genutzt werden. Im zweiten Schritt wird eine Systematik entwickelt, um Modernisierungsraten endogen bei Variation der ökonomischen Rahmenbedingungen berechnen zu können.
In der vorliegenden Arbeit wird ein Modell vorgestellt, dass die ökonomischen Rahmenbedingungen und das Kopplungsprinzip dynamisch bei der Simulation von Vollmodernisierungsraten berücksichtigt. Die Ergebnisse zeigen, dass Vollmodernisierungsraten von 2 %/a über längere Zeiträume extreme Rahmenbedingungen benötigen und unrealistisch sind. Haupthemmnisse sind der Sanierungsbedarf (Kopplungsprinzip), sinkende Energieeinsparpotenziale der jüngeren Baualtersklassen und Mitnahmeeffekte bei verbesserter Förderung. Da eine Erreichung der Klimaschutzziele nur durch Anpassung der CO2-Steuer (auch bei Reinvestition) nicht innerhalb realistischer Steuerhöhen im Modell möglich ist, wird stattdessen ein Maßnahmenpaket aus wirtschaftlichen und legislativen Rahmenbedingungen zur Zielerreichung vorgestellt.
Diese Dissertation erläutert die Umsetzung eines RAMI 4.0 konformen Marktplatz in der spanenden Bearbeitung. Ziel ist es einen Lösungsansatz zu definieren, in dem firmenübergreifende Prozessketten für kleine Losgrößen automatisiert identifiziert werden und die Fertigung eines individuellen Produktes realisiert wird. Die Extraktion von Produktinformationen, die Fertigung eines individualisierten Produktes sowie die Beschreibung der Informationen in den Verwaltungsschalen wird validiert. Vor allem stellt sich als Herausforderung für die Zukunft heraus, eine gemeinsame Semantik für die Beschreibung von Capabilities zu definieren. Diese würde ermöglichen, dass ein Matching zwischen proprietären Produktinformationen und Skills möglich wird.
Zeolithe werden seit Jahrzehnten als Katalysatoren in der chemischen Industrie und als Ionentauscher in Waschmitteln eingesetzt. Außerdem können Zeolithe als Trägermaterialien für Metalle, die durch Ionenaustausch oder Imprägnierung aufgebracht werden, eingesetzt werden. Ein neuartiges Anwendungsgebiet von Zeolithen ist die Verwendung als antimikrobielles Füllmaterial in Kunststoffen. Hierzu müssen die Zeolithe zuvor mit einem antimikrobiell wirkenden Metall wie z.B. Silber beladen werden. Dieser gefüllte Kunststoff kann zu Filamenten für den 3D-Druck weiterverarbeitet werden. Ein mögliches Anwendungsgebiet für die resultierenden Verbundmaterialien liegt im Bereich der Zahnmedizin in Form von Kronen oder dreigliedrigen Brücken. Ziel dieses Promotionsprojekts war die Modifikation der Zeolithe Beta und ZSM‑5 mit Silber, um die resultierenden Materialien als antimikrobielle Komponenten in einem Polymerverbundwerkstoff einzusetzen. Die beiden Zeolithe sollen mittels Ionenaustausch mit Silberionen beladen werden. Neben der Reaktionstemperatur und dem Gegenion im Zeolithgitter wurde auch die experimentelle Vorgehensweise des Ionenaustauschs (Dauer und Anzahl der Austauschzyklen) variiert, um eine möglichst hohe Beladung mit Silber zu erzielen. Durch die Kombination verschiedener Charakterisierungsmethoden wie Röntgenpulverdiffraktometrie (PXRD) und Festkörper-NMR-Spektrometrie (MAS-NMR) konnte der Erhalt der Zeolithstruktur nach dem Ionenaustausch bestätigt werden. Mittels Atomabsorptionsspektroskopie (AAS) wurde die Silbermenge im Zeolithgitter bestimmt. Da Zeolith ZSM-5 im Einkauf kostengünstiger ist als Zeolith Beta, wurde in den weiteren Schritten mit Silberionen ausgetauschtem Zeolith AgZSM-5 weitergearbeitet. Im nächsten Schritt wurde Zeolith AgZSM‑5 mit verschiedenen Verfahren modifiziert, um eine zeitlich steuerbare Freisetzung der Silberionen aus dem Zeolithgitter zu gewährleisten. Bei der Oberflächenpassivierung mittels Silylierung konnte mittels temperaturprogrammierter Desorption von Ammoniak (NH3-TPD) eine Abschwächung der Säurezentren nachgewiesen werden. Darüber hinaus wurde Zeolith AgZSM-5 noch mittels Imprägnierung mit Calcium bzw. Magnesium sowie durch Reduktion des Silbers im H2-Strom bei unterschiedlichen Temperaturen modifiziert. Bei der Reduktion des Silbers im H2-Strom konnte der Einfluss der Reduktionstemperatur auf die Kristallitgröße des Silbers gezeigt werden.
Cyber-physische Produktionssysteme (CPPS) ermöglichen die Herstellung kundenindividueller Produkte in kleinen Losgrößen durch Nutzung aktueller Entwicklungen der Informations- und Kommunikationstechnologien. Im Materialfluss in CPPS ist jedoch aufgrund unterschiedlicher physikalischer Eigenschaften der Fördergüter und dynamischer Prozesszuweisungen die Gefahr physikalisch bedingter Störungen erhöht. Diese Arbeit untersucht die Nutzung von Physiksimulation als Basis eines Digitalen Zwillings von Fördermitteln, um diesen Herausforderungen zu begegnen. Das Ziel besteht darin, durch die Simulation der physikalischen Phänomene einzelner Materialflussprozesse die negativen Einflüsse von Störungen zu verringern und somit die Leistungsfähigkeit des Produktionssystems zu erhöhen. Hierzu findet zunächst eine konzeptionelle Entwicklung des Digitalen Zwillings statt, die eine Analyse der beteiligten Systeme, eine Anforderungsdefinition, eine Festlegung von Aufbau- und Ablaufstruktur, sowie eine Formalisierung der einzelnen Funktionsbestandteile umfasst. Im Anschluss wird der Digitale Zwilling softwaretechnisch implementiert, mit einem exemplarischen Fördermittel vernetzt und prototypisch in Betrieb genommen. Die Ergebnisse zeigen die Eignung der Physiksimulation für den beschriebenen Zweck und die Wirksamkeit des Einsatzes auf Produktionssystemebene, indem Materialflussprozesse beschleunigt durchgeführt, überwacht und im Falle von Störungen nachträglich simulativ untersucht werden können.
Mit der vorliegenden Dissertation wurde ein Werkzeug für die Erstellung volldigitaler binnendifferenzierter Arbeitsblätter im Regelunterricht Chemie evaluiert und weiterentwickelt, das ein motivations- und interessensförderndes Potential aufweist. Es konnten Zusammenhänge zur Benutzbarkeit der Anwendung und zum Cognitive Load hergestellt werden. Die Ergebnisse stützen damit die Erkenntnisse im Bereich des Lernens mit digitalen Medien. Die Integration von digitalen Werkzeugen in den Lernprozess ist berechtigt. Sie zeigen einerseits für Schüler:innen ein motivationsförderndes Potential und andererseits für Lehrende praktische Vorteile, indem auf vielfältige Weise Informationen dargeboten werden können – zum Beispiel im Bereich der Differenzierung. Mit HyperDocSystems können binnendifferenzierte digitale Arbeitsblätter erstellt und bearbeitet werden. Diese so genannten HyperDocs können von Lehrenden mit Lernhilfen in verschiedenen Darstellungsformen angereichert und von Lernenden volldigital im Browser mit einem Stylus oder der Tastatur bearbeitet werden.
Im Rahmen einer quasi-experimentellen Feldstudie wurde der Einsatz dieser neuartigen HyperDocs erstmals unter Betrachtung der intrinsischen Motivation und des Interesses, der Usability sowie der Nutzung des multimedialen Differenzierungsangebots analysiert. Die Studie fand über vier Schulstunden im Regelunterricht Chemie der Mittelstufe (Gymnasium / Gesamtschule) und Oberstufe (Gymnasium) statt. Dabei wurden auch der Cognitive Load und die tabletbezogenen Kompetenzen der Lernenden berücksichtigt. Die Ergebnisse lassen auf ein motivationsförderndes Potential der HyperDocs gegenüber analogen Arbeitsblättern schließen. Dabei zeigen sich Unterschiede zwischen den Geschlechtern, die zum Teil auf den Cognitive Load zurückzuführen sind und abhängig vom Alter der Lernenden (Mittel- und Oberstufe) auftreten. Die Lernhilfen werden in diesem Zusammenhang häufig aus Interesse und Neugier verwendet. Schüler:innen nutzen insbesondere Lernhilfen in Form von Text und Bild. Die Nutzungshäufigkeit des Differenzierungsangebots gibt jedoch nicht unmittelbar Aufschlüsse über die Motivation oder den Cognitive Load der Lernenden. Bei der Usability handelt es sich um ein wichtiges Kriterium beim Einsatz von digitalen Lernprogrammen, da sich unter anderem ein Zusammenhang zu den Variablen der intrinsischen Motivation und zum Cognitive Load beim Lernen mit HyperDocs herstellen lässt. Die Usability ist dabei jedoch abhängig vom Messzeitpunkt. HyperDocs weisen eine hohe Usability auf und können daher uneingeschränkt in der Mittel- und Oberstufe eingesetzt werden.
Esse aut non esse - Affirmation und Subversion intergeschlechtlicher Existenzen in der Schule
(2024)
Am 10.10.17 beschloss das Bundesverfassungsgericht in Karlsruhe, ein sog. drittes Geschlecht für den Eintrag im Geburtenregister einzuführen. Intersexuellen Menschen sollte damit ermöglicht werden, ihre geschlechtliche Identität eintragen zu lassen und damit Teilhabe am gesellschaftlichen Leben zu ermöglichen. Zur Begründung verwies das Gericht auf das im Grundgesetz geschützte Persönlichkeitsrecht. Die aktuell geltende Regelung sei mit den grundgesetzlichen Anforderungen insoweit nicht vereinbar, als dass es neben „weiblich" oder „männlich" keine dritte Möglichkeit bietet, ein Geschlecht eintragen zu lassen. Der Gesetzgeber musste nun bis Ende 2018 eine Neuregelung schaffen, in der sie eine Bezeichnung für ein drittes Geschlecht aufnimmt – „divers“.
Schulen als bedeutende soziale Einrichtungen sind nun gefordert, will man die Leitperspektiven der Diversität im Bildungsbereich und damit in der Gesellschaft beibehalten. Schulen stellen Arbeitsfeld, Lebenswelt und Lernumfeld für viele Generationen dar und besitzen damit immer eine gesellschaftliche Vorbildfunktion, wobei Diversität zum stets allgegenwärtigen Imperativ geworden ist. Als Avantgarde müssen Schulen deshalb gerade in gesellschaftlichen Fragen voranschreiten und gleichsam Verantwortung für die Entwicklungen und Lösung wichtiger ethischer Fragen übernehmen ohne dabei die Vermittlung traditioneller Werte und Normen als eine ihrer zentralen Funktionen aufzugeben. Diesen anspruchsvollen Spagat zu vollziehen bleibt konstante Herausforderung der Schulentwicklung.
Mit Vielfalt umgehen bedeutet im schulischen Kontext vor allem neben gegenseitiger Anerkennung und Respekt auch, dass das Zusammenleben der Menschen durch die Eröffnung alternativer Wahrnehmungs-, Denk- und Handlungsansätze bereichert wird. Der Beschluss des Bundesverfassungsgerichts ist folglich in besonderer Weise an Schulen gerichtet.
Doch wie kann dieser Weg erfolgreich und nachhaltig eingeschlagen werden?
Bei Betrachtung der zahlreichen Publikationen zum Thema Gender und Schule sowie der wenigen Entwicklungen in den letzten Jahren wird augenscheinlich, dass das deutsche Schulsystem für die Umsetzung der Entscheidung des Bundesverfassungsgerichts vom 10.10.2017 (1BvR 2019/16) systemisch und strukturell nicht vorbereitet ist.
Daraus lassen sich die Forschungsfragen dieser Promotionsarbeit formulieren:
- Wie verhält sich Schule zum Diskurs des dritten Geschlechts?
- Was sind aus Sicht schulischer Akteure Gelingensbedingungen für eine erfolgreiche Sichtbarmachung des dritten Geschlechts an Schulen?
Es soll in der Arbeit mittels empirischer Untersuchungen eingehend verdeutlicht werden, welche Gelingens- bzw. Misslingensfaktoren bei der Implementierung eines dritten Geschlechts eine Rolle spielen und unter welchen Voraussetzungen überhaupt Schule als Organisation auf die Sichtbarmachung intergeschlechtlicher Kinder und Jugendliche vorbereit ist.
In dieser Arbeit wurde wurde das CASOCI-Programm[1], dessen Implementierung bereits Thema der Dissertation von Dr. Tilmann Bodenstein war und Gegenstand kontinuierlicher Weiterentwicklung in den Arbeitsgruppen Fink (Karlsruher Institut für Technologie) und van Wüllen ist, MPI/OpenMP Hybrid parallelisiert. Dieses wurde im Anschluss daran verwendet, um den fünfkernigen [Ni(tmphen)2]3[Os(CN)6]2- Komplex (tmphen = 3,4,7,8-Tetramethyl-1,10-Phenanthrolin) auf dessen magnetische Eigenschaften hin zu untersuchen. Dieser wurde in der Gruppe von Kim R. Dunbar durch χT-Messungen experimentell untersucht[2,3]. Durch diamagnetische Substitution wurden von diesem Komplex Varianten mir nur ein und zwei aktiven Zentren erzeugt. An diesen wurden CASOCI-Rechnungen durchgeführt und g-Tensoren, Austauschkopplungen, D-Tensoren sowie Tensoren für den anisotropen Austausch bestimmt. Mit Hilfe dieser Tensoren konnte eine χT-Kurve berechnet werden, die eine gute Übereinstimmung mit der aus Dunbars Arbeiten zeigt aufweist. Es konnte gezeigt werden, dass der anisotrope Austausch maßgeblich für den Kurvenverlauf ist und die Einzel-Ionen Nullfeldaufspaltung praktisch keine Rolle spielt.
[1] T. Bodenstein, A. Heimermann, K. Fink, C. van Wüllen, Chem. Phys. Chem. 2022, 23, e202100648.
[2] M. G. Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, Chem. Commun. 2008, 5752–5754.
[3]A.V.Palii,O.S.Reu,S.M.Ostrovsky,S.I.Klokishner,B.S.Tsukerblat,M.Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, J. Phys. Chem. A 2009, 113, 6886–6890.
In der heutigen Arbeitswelt stehen Organisationen vor der Herausforderung, sich kontinuierlich an Veränderungen anzupassen. Der demographische Wandel und steigende Zahlen von Arbeitsausfällen durch psychische Belastungen rücken das Wohlergehen und die Zufriedenheit von Mitarbeitenden am Arbeitsplatz in den Fokus. Die Mitarbeiterbefragung als Instrument der Organisationsentwicklung ist eine Möglichkeit Veränderungsprozesse so zu gestalten, dass betriebswirtschaftliche und gleichzeitig humanistische Ziele erreicht werden können. Bei der Umsetzung von Mitarbeiterbefragungen kommt es vor allem auf deren Folgeprozesse an, da hier aus den Ergebnissen einer Befragung Schlussfolgerungen gezogen und diese in Aktionen überführt werden. Der Blick in die Praxis zeigt jedoch, dass Erwartungen an Folgeprozesse und somit Mitarbeiterbefragungen, sowohl auf Seite von Unternehmen, als auch auf Seite von Mitarbeitenden, oft enttäuscht werden.
Die bisherige Forschung zeigt zwar allgemein den positiven Effekt von Mitarbeiterbefragungen und Folgeprozessen auf, jedoch bleibt unklar, wie einzelne Bestandteile eines Folgeprozesses und vor allem deren qualitative Durchführung wirken. Hierin liegt der erste Ansatzpunkt der vorliegenden Arbeit. Darüber hinaus soll die Rolle von Führungskräften in Folgeprozessen beleuchtet werden. Denn aus den vielen Überlegungen und Untersuchungen dazu, welche Aspekte Change-Prozesse beeinflussen, sticht oft die besondere Rolle von Führungskräften hervor. Dabei wird von den Führungskräften Verhalten gefordert, welches über ein klassisch rational-funktionales Verständnis von Führung hinausgeht und Mitarbeitende dazu anregt, sich offen und engagiert in Veränderungsprozessen zu verhalten. Einen Ansatz dies zu erreichen, stellt Positive Leadership dar. Hierbei werden Führungsverhaltensweisen an den Tag gelegt, die die Sinnhaftigkeit der Arbeit betonen, positive Beziehungen zu Mitarbeitenden fördern, Anerkennung und Wertschätzung zeigen, Stärkenorientierung praktizieren, für positives Arbeitsklima sorgen, positive Kommunikation beinhalten, die Mitarbeitenden in ihrer Entwicklung unterstützen und insbesondere Partizipation und Befähigung ermöglichen. Auch wenn sich das Konzept Positive Leadership immer größerer Beliebtheit erfreut, existiert noch keine klare Konzeption des Konstrukts und noch kein etabliertes Messinstrument. Darüber hinaus findet sich noch keine Anwendung des Konzepts im Kontext von Change-Prozessen allgemein und von Folgeprozessen von Mitarbeiterbefragungen im Speziellen.
Das Hauptziel der vorliegenden Arbeit besteht darin, Positive Leadership im Kontext von Folgeprozessen einer Mitarbeiterbefragung zu untersuchen. Dazu wurden vier Studien durchgeführt. In Studie 1 wurde durch teilstrukturierte Experten-Interviews (N = 22) exploriert, welche Schritte ein Folgeprozess einer Mitarbeiterbefragung beinhaltet und woran sich eine hohe Qualität in der Durchführung dieser Schritte festmachen lässt. In Studie 2 wurde in drei Teiluntersuchungen (N1 = 194, N2 = 201, N3 = 124) ein Messinstrument für Positive Leadership entwickelt und validiert.
In Studie 3 wurden in einer Fragebogenstudie an einer Stichprobe von Mitarbeitenden (N = 1302) und Führungskräften (N = 266) der Stellenwert einzelner Schritte des Folgeprozesses und der Qualität in der Durchführung aufgezeigt. Des Weiteren wurde der Einfluss von Positive Leadership auf die Qualität des Folgeprozesses und auch Arbeitsengagement und Arbeitszufriedenheit belegt. Dies galt sowohl für Mitarbeitende als auch für Führungskräfte selbst. Sowohl die Einhaltung und Qualität des Folgeprozesses als auch Positive Leadership wirkten sich zudem (zum Teil indirekt über die Zufriedenheit mit dem Folgeprozess vermittelt) auf die Veränderung in Arbeitsengagement und Arbeitszufriedenheit zwischen zwei Mitarbeiterbefragungen aus. Außerdem konnten an einer Stichprobe von 242 Dyaden aus Führungskraft und Mitarbeitendem die Auswirkungen von Diskrepanz und Kongruenz der Einschätzungen zu Positive Leadership oder dem Folgeprozess aufgezeigt werden. Zuletzt wurde untersucht, inwiefern die Attribution von Erfolgen und Misserfolgen im Folgeprozess durch Positive Leadership beeinflusst wird.
Studie 4 bestätigte in einem experimentellen Design (N = 420) unter Anwendung von Video-Vignetten die positiven Effekte einer hohen Qualität des Folgeprozesses und von Positive Leadership auf das Arbeitsengagement und die Arbeitszufriedenheit. Darüber hinaus konnten die vorigen Erkenntnisse um Aussagen über Interaktionen der untersuchten Faktoren erweitert werden. So zeigte sich, dass positives Führungsverhalten die Effekte mangelhafter Qualität im Folgeprozess oder geringer Einhaltung der Schritte des Folgeprozesses abfedern kann. Eine hohe Einhaltung der Schritte im Folgeprozess wirkte sich zudem nur positiv auf die Zufriedenheit mit dem Folgeprozess aus, wenn die Qualität der durchgeführten Schritte hoch war. Außerdem wurde in Studie 4 der Effekt von angenommenen Unterschieden in der Zufriedenheit mit dem Folgeprozess zwischen Mitarbeitenden und Führungskräften auf die Teilnahmeintention an einer nächsten Mitarbeiterbefragung, sowie der Arbeitszufriedenheit und dem Arbeitsengagement aufgezeigt. Abschließend wurden erneut die Auswirkungen von Positive Leadership auf die Attribution von Erfolgen und Misserfolgen im Folgeprozess analysiert. Zusätzlich wurden auch weiterführende Effekte der Attribution auf die Teilnahmeintention an nächsten Mitarbeiterbefragungen untersucht.
Die vorgestellten Studien der Dissertation werden theoretisch und methodisch diskutiert. Auf Basis der Ergebnisse werden praktische Empfehlungen zum verbesserten Umgang mit Folgeprozessen von Mitarbeiterbefragungen und Positive Leadership abgeleitet.
VR ist ein stetig wachsendes Forschungsgebiet, das die Perspektiven und Möglichkeiten der Mensch-Computer-Interaktion erweitert (Hassan & Hossain, 2022). Durch Studien konnte bereits vor dem aktiven Einsatz im Schulalltag eine Vielzahl an positiven Auswirkungen auf den Lernprozess durch die Nutzung von VR nachgewiesen werden (Chavez & Bayona, 2018). Das sogenannte Immersive Learning stellt damit einen Schlüsselbereich zur digitalen Transformation im Bildungsbereich dar. Um VR allerdings im Schulunterricht einsetzen zu können, bedarf es Lernumgebungen, die auf die örtlichen Gegebenheiten und alltäglichen Bedürfnisse eines praktischen Schulunterrichts angepasst sind. Solche Gestaltungsprinzipien sind allerdings im Bildungsbereich noch nicht vorhanden (Johnson-Glenberg, 2018). Diese Arbeit beschäftigt sich damit, Prinzipien aus der Theorie abzuleiten, diese mit Gestaltungskomponenten zu vereinen und darauf aufbauend eine VR-Lernumgebung zu gestalten und zu erforschen. Um eine Praxis-nähe bei der Entwicklung und Untersuchung zu gewährleisten, wurde ein Design-Based Research Ansatz gewählt. In aufeinander aufbauenden Mikrozyklen wurden die Gestaltungskomponenten evaluiert und daraus Gestaltungsprinzipien abgeleitet. Die Lernmaterialien wurden fächerübergreifend für die Fächer Chemie und Geografie konzipiert sowie praxisnah mit Teilnehmenden aus vier zehnten Klassen eines Gymnasiums in Rheinland-Pfalz evaluiert. Als Lerninhalt wurde der Kohlenstoffkreislauf gewählt und in den jeweiligen Curricula der Fächer verortet. Der Hauptfokus lag auf dem Fach Chemie, Themenfeld elf „Stoffe im Fokus von Um-welt und Klima“. Als virtueller Ort wurde die Nachbildung eines Abschnitts des außerschulischen Lernorts „Reallabor Queichland“ gewählt. Die Komponenten wurden in insgesamt sieben Mikrozyklen aufgeteilt, nummeriert von null bis sechs. Mikrozyklus null wird genutzt, um den Teilnehmenden den Umgang mit dem VR-System näher zu bringen und den Neuigkeitseffekt abzumildern. Mikrozyklus eins evaluiert die Grundfläche der VR-Lernumgebung mit dem Fokus auf den Realismus der Umgebung. Mikrozyklus zwei beschäftigt sich mit dem zu wählenden Bewegungsradius innerhalb der VR. Mikrozyklus drei untersucht den Effekt von realitätsnahen Hintergrundgeräuschen. Die Mikrozyklen vier bis sechs bestehen aus drei Lernstationen mit unterschiedlichen Interaktionsmöglichkeiten: realitätsnahe Interaktionen, realitätsferne Interaktionen sowie eine Mischung daraus. Erhoben wurden die Skalen räumliches Präsenzerleben, aktuelle Motivation, Realismus, wahrgenommene Bedienbarkeit, wahrgenommene Lerneffektivität und die VR-Skala. Ausgewertet wurden die Daten mit ANOVAs und Pfadanalysen sowie einer übergreifenden Analyse am Ende der Erhebung. Durch das Design der Komponenten konnte ein sehr hohes räumliches Präsenzerleben sowie ein sehr hoher wahrgenommener Realismus erzeugt werden. In den Lernstationen bewerteten die Teilnehmenden die wahrgenommene Lerneffektivität sowie Bedienbarkeit als auch den Zusammenhang von 3-D-Model-len, deren Manipulierbarkeit in VR und der damit verbundene Effekt auf die Lerneffektivität als sehr hoch. Insgesamt konnten aus den vorliegenden Daten zwölf Gestaltungsprinzipien generiert werden. Diese können dafür genutzt werden, neue VR-Lernumgebungen für den praktischen Einsatz im Schulunterricht zu erstellen. Es wurden theoretische Annahmen zur Respezifikation des Prozessmodells des räumlichen Präsenzerlebens getroffen und mit den erhobenen Daten geprüft. Die Anpassung des Modells an moderne VR-Brillen und kognitiv fordernde VR-Lernumgebungen stand dabei im Fokus und ergab sehr gute Modelfit-Werte. In weiterführen-den Studien sollten diese Annahmen mit größeren Stichproben überprüft werden.
Auf Grundlage normativer Regelungen, aktueller Forschungsvorhaben und deren Erkenntnisse (Kuhlmann u. a. 2008 und 2012) wurden experimentelle sowie numerische Untersuchungen an großen Ankerplatten mit mehr als der aktuell normativ zugelassenen Anzahl an Kopfbolzen durchgeführt. Ziel der Untersuchungen war es, einen Ansatz für die Tragfähigkeit großer nachgiebiger Ankerplatten mit Kopfbolzen zu entwickeln. Durch Variationen der maßgebenden Parameter wie der Ankerplattendicke, der Kopfbolzenlänge, des Grads der Rückhängebewehrung sowie des Zustands des Betons konnte anhand der experimentellen Untersuchungen ein Komponentenmodell verifiziert werden. Mögliche Versagensmechanismen, wie Stahlversagen der Kopfbolzen auf Zug, Fließen der Ankerplatte infolge der T-Stummelbildung, kegelförmiger Betonausbruch sowie Stahlversagen der Rückhängebewehrung, konnten mithilfe dieser Parameter abgebildet werden. Weiter hat sich beim Versagensmodus ‚kegelförmiger Betonausbruch‘ die Oberflächenbewehrung im Nachtraglastbereich als zusätzlicher Parameter herausgestellt.
Das auf Grundlage der DIN EN 1993-1-8 entwickelte Modell und die Berücksichtigung der Komponentensteifigkeiten ermöglichen die Bemessung starrer und nachgiebiger Ankerplatten. Durch den Einbezug der Steifigkeiten einzelner Komponenten kann die Gesamtsteifigkeit einer Anschlusskonfiguration berechnet werden, um ein duktiles Tragverhalten zu erhalten. Neben verschiedenen möglichen Fließzonen auf der Ankerplatte infolge unterschiedlicher Geometrien und Anordnungen der Verbindungsmittel werden kegelförmige Betonausbrüche in Abhängigkeit einer möglichen zusätzlichen Rückhängebewehrung im Modell berücksichtigt.
Das in dieser Arbeit beschriebene Modell für die sich bildende Zugseite starrer sowie nachgiebiger Ankerplatten mit mehr als aktuell nach Norm zulässigen Ver-bindungsmitteln konnte anhand experimenteller und numerischer Versuche verifiziert werden. Der plastische Bemessungsansatz zeigt, über alle Versuchsserien hinweg, eine gute Übereinstimmung mit den experimentellen Untersuchungen sowie den numerischen Parameterstudien.
In einem zweiten Schritt wurden Auswirkungen einer Kurzzeitrelaxation des Betons infolge Zwang auf große Ankerplatten in Verbindung mit Kopfbolzen untersucht. Mit dem in Anlehnung an die Komponentenmethode der DIN EN 1993-1-8 entwickelten Federmodell können zeitabhängige Verformungen von Beton infolge von Kriechen und Schwinden berücksichtigt werden. Mithilfe des anhand experimenteller und numerischer Versuche verifizierten Modells ist es möglich, Auswirkungen infolge Zwang auf Ankerplatten zu untersuchen.
In der vorliegenden Arbeit wird das Querkrafttragverhalten vorgefertigter Wand-elemente aus haufwerksporigem Leichtbeton (LAC) untersucht.
Leichtbeton mit haufwerksporigem Gefüge gilt als gut wärmedämmend und ressourcenschonend, weshalb er bei Verwendung in Fassadenelementen weiter an Bedeutung gewinnt. Allerdings führen unzureichende Erkenntnisse zum Querkraft-tragverhalten freitragender Wandbauteile ohne und mit Querkraftbewehrung zu normativen Einschränkungen in der konstruktiven Durchbildung und Herstellung der Fertigteile.
Das Ziel dieser Arbeit ist die Entwicklung eines Bemessungsmodells für freitragende Wandelemente aus LAC, das mit geeigneten Bewehrungskonstruktionen sowohl die einwandfreie Herstellung im üblichen Walzverfahren ermöglicht als auch die Tragfähigkeit der Elemente sicherstellt.
Zunächst werden experimentelle Untersuchungen zur Verdichtung von Elementen aus haufwerksporigem Leichtbeton durchgeführt. Darauf aufbauend ermöglichen Auszug-versuche mit einem modifizierten BeamEndTest eine Aussage über das Verbund- und Verankerungsverhalten von Bewehrungsstäben in LAC.
Mit den Ergebnissen der Auszugversuche werden Großversuche an Wandbauteilen konzipiert und durchgeführt, welche die Beurteilung der Querkrafttragfähigkeit von Bauteilen ohne und mit Querkraftbewehrung erlauben. Aus den experimentellen Untersuchungen wird ein an den Eurocode 2 und DIN EN 1520:2011-06 angelehnter Bemessungsvorschlag entwickelt, der unter anderem auch die Schubschlankheit der Elemente und die Verankerung der Querkraftbewehrung als Einflussparameter berücksichtigt.
Teile dieser Arbeit wurden im Forschungsvorhaben „Innovative Konstruktions- und Bemessungsregeln zur Optimierung der Querkraft- und Torsionstragfähigkeit von freitragenden Wandplatten aus LAC“ erarbeitet. Dabei handelt es sich um ein Kooperationsprojekt zwischen der Technischen Universität Kaiserslautern (Prof. Dr.-Ing. Matthias Pahn, Prof. Dr.-Ing. Jürgen Schnell), der Hochschule Koblenz (Prof. Dr.-Ing. Ralf Zeitler) und dem Bundesverband Leichtbeton e.V. (Dieter Heller). Das Projekt wurde gefördert durch das Bundesministerium fürWirtschaft und Energie.
Verbundträger stellen in der Regel aufgrund der Anordnung der Ausgangsmaterialien im System entsprechend den jeweils vorteilhaften Eigenschaften sehr wirtschaftliche Konstruktionen dar. Neben den enormen Steifigkeiten und Tragfähigkeiten im Vergleich zu losen aufeinanderliegenden Querschnitten und dem deutlichen Einsparen an Eigengewicht im Vergleich zu Massivkonstruktionen zeichnen sich Verbundträger aufgrund hoher Vorfertigungsgrade durch einen schnellen Bauablauf aus.
Da die Verbundfuge zwischen Träger und Betonplatte in der Regel nicht unendlich starr ausgeführt werden kann, treten unter Last Relativverschiebungen zwischen den Teilquerschnitten auf, welche das Trag- und Verformungsverhalten des Gesamtsystems maßgebend beeinflussen können. Zum detaillierten Abbilden des realen Last- Verformungs-Verhaltens ist eine Berücksichtigung der Nachgiebigkeit der Verbundfuge daher unerlässlich. Da die Wirtschaftlichkeit von Stahl-Beton-Verbundträgern, den „klassischen Verbundträgern“, maßgebend durch das Ausnutzen plastischer Tragreserven im Grenzzustand der Tragfähigkeit abhängt, werden im Rahmen vorliegender Arbeit Berechnungsverfahren untersucht, die sowohl das nichtlineare Materialverhalten der Teilquerschnitte als auch das nichtlineare Last-Verformungs- Verhalten der Verbundfuge berücksichtigen.
Der Fokus vorliegender Arbeit liegt auf statisch unbestimmten Systemen, da sich die äußeren Schnittgrößen und die Steifigkeitsverteilung entlang der Trägerlänge gegenseitig beeinflussen. Konkret erfolgt die Modellierung mit der Segment-Lamellen- Methode, welche aufbauend auf der Differentialgleichung des elastischen Verbundes über zahlreiche elastische Lastschritte unter Reduktion der Steifigkeit einzelner Querschnittsbereiche das nichtlineare Tragverhalten mit guter Näherung darstellen kann. Darüber hinaus wird eine Übertragung der im Holzbau üblichen Stabwerkmodelle durch Berücksichtigung nichtlinearen Materialverhaltens auf Stahl-Beton-Verbundträger gegeben.
Zur Kalibrierung der Modelle und um zusätzliche Erkenntnisse zum Trag- und Verformungsverhalten von Verbundträgern vor allem in der Verbundfuge zu erhalten, werden drei großmaßstäbliche, statisch unbestimmt gelagerte Stahl-Beton- Verbundträger mit unterschiedlicher Verbundwirkung experimentell untersucht. Als Besonderheit ist zu nennen, dass abweichend von der aktuellen Normenregelung sowohl im Feld- als auch im Stützbereich eine Teilverdübelung vorliegt. Zusätzlich werden drei Versuche an großmaßstäblichen statisch bestimmt gelagerten Holz-Beton- Verbundträgern durchgeführt.
Beim Vergleich der Versuchsergebnisse mit der Modellrechnung kann gezeigt werden, dass das globale Last- und Verformungsverhalten von Verbundträgern mit sehr guter Näherung abgebildet werden kann. Hierdurch eignen sich beide Modellrechnungen als Basis einer verformungsorientierten Bemessung, bei der die Traglast des Systems bei Erreichen von Grenzdehnungen der Teilquerschnitte oder der Grenzverformung in der Verbundfuge erreicht wird. Vorteilhaft bei dieser Bemessung ist, dass einerseits sowohl nichtlineares Materialverhalten als auch die Nachgiebigkeit der Verbundfuge bei der Bemessung berücksichtigt werden kann und andererseits der Verformungszustand unmittelbar bestimmt werden kann.
Die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine kann die erreichbare Bearbeitungsgenauigkeit spanender Bearbeitungsverfahren beeinflussen. Bei der spanenden Mikrobearbeitung sind die Größen- und Kraftverhältnisse zwischen Span, Werkzeug und Werkzeugmaschine im Vergleich zur spanenden Bearbeitung mit Werkzeuggrößen über einem Millimeter jedoch grundlegend unterschiedlich. Aufgrund dessen können dort gewonnene Erkenntnisse nicht ohne Weiteres für die spanende Mikrobearbeitung adaptiert werden. So gilt es für die spanende Mikrobearbeitung gesondert zu identifizieren, welche Effekte und Faktoren die erreichbare Bearbeitungsgenauigkeit beeinflussen. Die veränderten Größenverhältnisse, Eingriffsverhältnisse und eingesetzten Maschinenkomponenten erschweren jedoch eine experimentelle Untersuchung. Eine simulationsgestützte Analyse des Prozesses und der Maschinenkomponenten kann deshalb maßgeblich dazu beitragen, die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine bei der spanenden Mikrobearbeitung zu verstehen.
Diese Arbeit präsentiert simulationsgestützte Methoden zur Analyse der Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine bei der spanenden Mikrobearbeitung. Darauf aufbauend werden die Interaktion zwischen Spindelwelle und Elektromotor sowie die Interaktion zwischen Prozess, Werkzeug, Spindel und Maschine für das Mikrofräsen und Mikroschleifen untersucht. Zwischen der Spindelwelle und dem Elektromotor kann keine Interaktion identifiziert werden. Stattdessen liegt ein nicht vernachlässigbarer unidirektionaler Einfluss des Elektromotors auf die Spindelwelle vor. Ebenso konnte eine unidirektionale Beeinflussung des Werkzeugs durch die Werkzeugspindel ermittelt werden. Zwischen dem Prozess und dem Werkzeug kommt es zu einer Interaktion. Jedoch beschränkt sich diese Interaktion auf das Werkzeug, das heißt, die Spindelwelle wird nicht vom Werkzeug beeinflusst. Insgesamt zeigt sich, dass bei der spanenden Mikrobearbeitung nicht nur die Auftrennung der Werkzeugmaschine und des Spindel-Werkzeug-Systems zweckmäßig ist, sondern dass auch das Werkzeug und die Werkzeugspindel als separate Aspekte betrachtet werden müssen.
Die funktionale Wechselwirkung zwischen geometrischen Oberflächeneigenschaften und dem daraus resultierenden Haftreibwert wird in der vorliegenden Arbeit anhand von mechanisch bearbeiteten Stahloberflächen untersucht. Dabei wird der Fokus neben einer umfangreichen Analyse der Einflussfaktoren auf die Oberflächencharakterisierung gelegt. Basierend auf Drückversuchen und der Untersuchung der Oberflächendeformation wird eine Methode zur funktional relevanten Beschreibung der Oberfläche entwickelt. Die am Haftreibwert beteiligten Oberflächenanteile sind durch die Parameter Inselanzahl, projizierte Durchschnittsoberfläche und Durchschnittsmaterialvolumen beschrieben. Diese Kenngrößen fließen in eine mathema-tische Berechnung eines theoretischen Haftreibwertes ein. Es werden der theoretisch errech-nete und der aus einer statistischen Versuchsreihe ermittelte Haftreibwert miteinander vergli-chen. Statistische Untersuchungen sowie die Aufstellung eines Messunsicherheitsbilanz stüt-zen die Forschungsergebnisse. Damit leistet diese Arbeit nicht nur einen Beitrag zur funktion-sorientierten Oberflächenbeschreibung, sondern auch zur methodischen Korrelations-/ Re-gressionsanalyse und zur Integration geometrischer Oberflächenparameter in Haftreibwert-untersuchungen.
Die Studie begreift Schule und Unterricht mit Bourdieu als sprachlichen Markt, auf dem über den Wert und die Legitimität von Sprache(n) und Sprechen verhandelt wird. Anhand der Zuschreibung sprachbiografischer Merkmale und sprachlicher Kompetenzen sowie der Bewertung sprachlicher Leistungen konstruieren schulische Akteur:innen – Lehrkräfte wie auch Schüler:innen - Differenzen innerhalb schulischer Sprachmärkte. Hierdurch werden Sprecher:innen soziale Positionen in einem komplex strukturierten (Klassen-)Raum zugewiesen, der sich durch konkurrierende Diskurse um das richtige und angemessene Sprechen auszeichnet (Spotti 2013; Fürstenau & Niedrig 2011). Um das Phänomen sprachbezogener Differenzkonstruktion in Schule und Unterricht multiperspektivisch zu beleuchten und hierbei wirksame Language Policies (Shohamy 2006; Spolsky 2010) aufzudecken, nutzt die Studie die Nexus Analysis (Scollon & Scollon 2004) als Meta-Methodologie, die verschiedene Analysedimensionen vereint: Betrachtet und verknüpft werden schulische und außerschulische Erfahrungen schulischer Akteur:innen in Bezug auf Sprache(n) und Sprachgebrauch, schulische Diskurse über sprachliche Vielfalt und die Legitimität von Sprache(n), die Gestaltung und Wahrnehmung schulischer Sprachlandschaften (Linguistic Schoolscapes) sowie Konstruktionen sprachbezogener Differenz und damit einhergehende Selbst- und Fremdpositionierungen in Unterrichtsinteraktionen. Die Untersuchung stützt sich auf Datenmaterial aus sechs Schulklassen dreier rheinland-pfälzischer Grundschulen: 100 Schüler:innen der sechs Klassen nahmen an einer Fragebogenerhebung teil, drei Schulleitungen und sieben Lehrkräfte wurden im Rahmen von Leitfadeninterviews befragt. Über die sechs Klassenzimmer hinweg wurden 1.797 schriftsprachliche Artefakte fotografisch dokumentiert und mithilfe eines Kodiermanuals in der Tradition der Linguistic Landscape-Forschung ausgewertet. In allen sechs Schulklassen wurde Unterricht audiovisuell aufgezeichnet; insgesamt liegen Aufnahmen von 40 Unterrichtsstunden vor. Die Unterrichtsaufzeichnungen wurden interaktionsanalytisch untersucht, teils multimodal, um mikroanalytisch offenzulegen, wie Lehrkräfte und Schüler:innen in ihrem Unterrichtshandeln zur Konstruktion von Differenz beitragen, etwa indem sie Schüler:innen als Personen mit Migrationsbiografien und/oder als Sprecher:innen des Deutschen als Zweitsprache exponieren. Die Zusammenführung der vielfältigen Zugänge und Perspektiven führt die Spannungen und Ambivalenzen dynamischer schulischer Sprachmärkte vor Augen und belegt datenbasiert die Komplexität des Anforderungs- und Handlungsfelds Schule.
Der Klimawandel erfordert den Ausbau urbaner blau-grüner Infrastrukturen, was jedoch mit einem erheblichen Mehrbedarf an Wasser einhergeht. Zentrale Abwasserinfrastrukturen genügen nicht den Ansprüchen der Ressourceneffizienz und Nachhaltigkeit. Daher ist ein neuer Umgang mit Wasser im städtischen Kontext notwendig. Die getrennte Erfassung von schwach belastetem Grauwasser aus Duschen und Handwaschbecken bietet eine nahezu kontinuierliche, wenig verschmutzte Wasserressource zur Wiederverwendung. Naturnahe Verfahren wie Bodenfilter können zur Grauwasseraufbereitung eingesetzt werden; der hohe Flächenbedarf beschränkte jedoch bisher den Einsatz in dicht besiedelten Gebieten. In dieser Arbeit werden technologiebasierte und konzeptionelle Ansätze vorgestellt. Dabei wurden acht vertikal durchströmte Bodenfilter zur nutzungsorientierten Grauwasseraufbereitung im kleintechnischen und Pilotmaßstab untersucht und zusätzlich ein Excel-basiertes Instrument entwickelt, das die Auswirkungen der Grauwasserseparation auf konventionelle zentrale Kläranlagen bewertet. Die Ergebnisse zeigen schwankende Zusammensetzungen und Mengen von Grauwasser. Aufgrund begrenzter Datenverfügbarkeit in der Fachliteratur wird empfohlen, die hier ermittelten 85-Perzentilwerte von 13 g CSB (chemischer Sauerstoffbedarf) pro Einwohner (E) und Tag sowie 55 L/(E·d) für die Bemessung von Anlagen zur Behandlung von gesiebtem, schwach belastetem Grauwasser heranzuziehen. Die ermittelten Stickstofffrachten und -konzentrationen waren aufgrund von Urinkontamination um 60 – 130 % höher als bisher angenommen, während die Phosphorkonzentrationen gesetzlich bedingt um ca. 60 % niedriger lagen. Alle Vertikalfilter wiesen im Ablauf meist < 2,0 mg/l abfiltrierbare Stoffe (AFS) bzw. < 10 mg/l CSB auf (also Eliminationen von überwiegend > 98 % AFS bzw. > 97 % CSB). Der aufgeständerte Rheinsandfilter zeigte bei < 12°C eine eingeschränkte Nitrifikation, während der Lavasandfilter bei > 5°C vollständig nitrifizierte. Die Vertikalfilter entfernten bis zu 50 – 70 % Stickstoff bei Drainageeinstau und Nitratrückführung. Der Lavasandfilter hielt Phosphor weitestgehend zurück. Die Reduktion von Escherichia coli, Enterokokken und Gesamtcoliformen betrug > 3 log-Stufen, während organische Spurenstoffe meist zu > 85 % entfernt wurden. Durch gezielte Anpassungen im Aufbau und Betrieb wurden für verschiedene Nutzungszwecke (Bewässerung, Versickerung und Toilettenspülung) geeignete Qualitäten erreicht. Der erforderliche Flächenbedarf für Bodenfilter zur Behandlung von schwach belastetem Grauwasser wurde zu 0,4 m2/E bestimmt (bezogen auf 85-Perzentilwerte). Dem liegen eine CSB-Flächenbelastung von 32 g/(m2·d) und eine hydraulische Flächenbelastung von 130 L/(m2·d) zugrunde. Die Anwendung von Lavasandfiltern in aufgeständerter Bauweise erwies sich als praxistauglich. Damit wird die Ausweitung des Bodenfilterverfahrens auf den urbanen Raum gefördert. Die Bilanzierungen zeigen, dass die Abtrennung von bis zu 17 % des an die Kläranlage angeschlossenen Grauwassers förderlich für den Kläranlagenbetrieb ist. Bei höheren Abtrennungsraten könnte jedoch eine Stickstoffrückgewinnung/-entfernung aus stickstoffreichen Schlammströmen erforderlich werden. Die Trennung bzw. dezentrale Aufbereitung von Grauwasser hat Vorteile wie Verdunstungskühlung und Wasserwiederverwendung und unterstützt zentral die Transition zu ressourcenorientierten Sanitärsystemen. Insgesamt können betrieblich und baulich angepasste Bodenfilter eine wichtige Rolle in dieser Umstellung spielen und einen deutlichen Beitrag zum nachhaltigen Umgang mit Wasser im städtischen Bereich leisten.
Thermoplastische Faserkunststoffverbunde (TP-FKV) werden aufgrund ihres Leichtbaupotentials zusammen mit Metallen vermehrt in Multimaterialstrukturen eingesetzt [1, 2]. Der Einsatz TP-FKV ermöglicht das thermische Fügen, wobei die Benetzung der Metalloberfläche mit Polymer und hierdurch die Zug-Scher-Festigkeit der Verbindung mit steigendem Fügeweg ebenfalls ansteigt. Im Rahmen der Arbeit wurde der Fügeweg als Indikator für eine qualitätsgesicherte Fügung mittels induktiver Erwärmung validiert.
Der Fügeweg wird maßgeblich durch die Fügetemperatur, den Fügedruck und die verwendeten Materialien bestimmt. Um den im Prozess gemessenen Fügeweg als Qualitätssicherungsmerkmal nutzen zu können sind bei der Beurteilung der Messkurven auch mechanische und insbesondere thermische Dehnungen zu berücksichtigen. Diese Einflüsse konnten durch analytische Methoden erfasst, bewertet und bei der Beurteilung des Fügeweges entsprechend herausgerechnet werden.
Zur quantitativen Bewertung wurden TP-FKV/Stahl-Verbindungen durch induktives Fügen hergestellt und der Einfluss der Oberflächenvorbehandlung, Prozessparameter, Witterung und Wechsellasten auf die Verbindungsfestigkeit untersucht. Es konnte gezeigt werden, dass für alle untersuchten TP-FKV in Kombination mit einer laserstrukturierten Stahloberfläche Verbindungsfestigkeiten im Bereich von Referenzklebungen erreicht wurden. Durch den Einsatz von für das jeweilige Matrixpolymer optimierten Haftvermittlern auf den Stahloberflächen konnten ebenfalls gute Verbindungsfestigkeiten erreicht werden. Das Schädigungsverhalten der TP-FKV/Stahl-Verbindung nach Bewitterung beziehungsweise Wechsellasten wurde anhand von Schliffbildanalysen und Simulationen analysiert. Die Arbeit schließt mit der Implementierung des induktiven Fügens in eine Fertigungszelle.
Eine große Untergruppe der Soft Robotik sind die mehrkammerigen pneumatischen Biegeaktuatoren.Diese Arbeit beschäftigt sich mit der Modellierung dieser Art Aktuatoren mittels eines Balkenmodells und arbeitet speziell die Vorteile heraus, die sich aus einer Berücksichtigung der wechselseitigen Abhängigkeiten von Design und Modellierung ergeben. Die Verwendung eines Balkenmodells ist numerisch deutlich effizienter als die Simulation eines dreidimensionalen Körpers, trotzdem werden die Freiheitsgrade axiale Dehnung, Biegung, Scherung und Torsion vom verwendeten Cosserat-Balken berücksichtigt. Zunächst wird ein sinnvolles Design für mehrkammerige
Biegeaktuatoren durch systematische Untersuchung von Designaspekten und unter Berücksichtigung von Aspekten der Modellierung hergeleitet. Zur Modellierung der einzelnen Kammern des Biegeaktuators wird ein Ansatz mittels des Prinzips der virtuellen Arbeit gewählt. Das resultierende Modell erlaubt insbesondere Rückschlüsse auf die Sensitivität der Kammern gegenüber externen axialen Kräften. Dies ist ein wichtiger Aspekt, der bei der Modellierung des mehrkammerigen Biegeaktuators mittels Cosserat-Balken aufgegriffen wird. Dieses Modell wiederum nutzt das besonders gut zu modellierende Design des Aktuators, um einen Zusammenhang zwischen Dehn- und Biegesteifigkeit herzustellen, der, im Gegensatz zu bisherigen Modellen, auch Rücksicht auf die axiale Dehnung des Aktuators nimmt. So lassen sich dreidimensionale Simulationen einzig auf Grundlage axialer Parameteridentifikation durchführen. Die in dieser Arbeit hergeleiteten Zusammenhänge zwischen Design und Modellierung und die daraus entwickelten Methoden sind eine wichtige Grundlage für komplexere Anwendungen in der Zukunft.
Sub-zero Kühlschmierstoffe: Wirkmechanismen und Einsatzverhalten am Beispiel der Drehbearbeitung
(2023)
Die für die Kühlung und Schmierung eingesetzte Technologie ist für die Leistungsfähigkeit fertigungstechnischer Prozesse von hoher Bedeutung, sowohl für die Produktivität und Prozessstabilität als auch hinsichtlich der Qualität gefertigter Werkstücke. Beim Drehen werden dazu üblicherweise Emulsionen eingesetzt. Der Einsatz kryogener Medien weist zwar ein hohes Verbesserungspotential auf, wird aber bislang nur selten industriell eingesetzt. In dieser Arbeit wird auf Basis einer umfangreichen Analyse der strömungsmechanischen, thermodynamischen und tribologischen Vorgänge verschiedener Kühlschmierstrategien eine neuartige sub-zero Kühlschmierstrategie motiviert und entwickelt. Zu diesem Zweck werden sub-zero Kühlschmierstoffe formuliert, die einen Gefrierpunkt von weit unter 0 °C aufweisen und dadurch unter geringen Zufuhrtemperaturen in einem flüssigen stabilen Zustand eingesetzt werden können. In dieser Arbeit wird die sub-zero Kühlschmierstrategie ganzheitlich mit Blick auf die Strahlerzeugung, die Zufuhrmethodik sowie hinsichtlich der Kühl- und Schmierwirkung erforscht. Auf Basis dieser Erkenntnisse wird eine optimierte sub-zero Kühlschmierstrategie am Beispiel der Drehbearbeitung von Titanlegierungen und Stahlwerkstoffen analysiert. Im Vergleich zur Trockenzerspanung sowie der Verwendung kryogener und herkömmlicher KSS weist der neuartige sub-zero Ansatz ein hohes Potenzial auf. Die sub-zero Kühlschmierstrategie ist eine universell einsetzbare Kühlschmierstrategie, mit der die Vorteile der kryogenen Zerspanung mit den Vorteilen herkömmlicher Emulsion kombiniert werden können. Weitgehend unabhängig von dem zerspanten Werkstoff, der Werkstückgeometrie, den Zerspanungswerkzeugen oder den Stellgrößen wird der Drehprozess durch die Kombination aus hoher Kühl- und Schmierwirkung verbessert.
Eisen-Schwefel-(Fe/S)-Cluster-haltige Proteine sind in allen Domänen des Lebens vertreten und gehören zu den wichtigsten Metallocofaktoren. Eines der Hauptaufgabengebiete von Fe/S-Proteinen stellt der Elektronentransport dar. Sie sind aber auch an einer Vielzahl von enzymatischen oder regulatorischen Funktionen beteiligt. Bis heute sind ca. 90 Fe/S-Proteine im Menschen bekannt und es werden verschiedene, schwerwiegende Erkrankungen mit Defekten dieser Proteine oder deren Biogenese in Verbindung gebracht. In der Bäckerhefe S. cerevisiae sind nach der yeast genome database 39 Proteineinträge als Fe/S-Cluster bindend dotiert, jedoch sind bis heute noch etwa 10 % des Hefeproteoms nicht charakterisiert. Untersuchungen zu Fe/S-haltigen Proteinen im Modellorganismus Hefe können zum Verständnis komplexer Stoffwechselwege in höheren Eukaryoten einen entscheidenden Beitrag liefern. Die beiden [2Fe-2S]-Proteine Apd1 und Aim32 aus S. cerevisiae wurden mittels verschiedener in vivo resp. in vitro Methoden in dieser Arbeit näher untersucht. Im ersten Schritt wurden verschiedene Wachstumsexperimente zur Phänotypisierung von Δaim32 und Δapd1 durchgeführt. Durch zu Hilfenahme einer chemogenomischen Datenbank konnten für Δapd1-Hefezellen und durch weitere Modifikationen auch für Δaim32 Wachstumsbedingungen gefunden werden, unter denen diese Gene essenziell sind. Mittels einer Mutagenesestudie wurden mit dem angepassten chemogenomischen Screen die Liganden des [2Fe-2S]-Clusters für Aim32 und Apd1 in vivo identifiziert.
Bis heute ist der Zusammenhang zwischen der CIA-Maschinerie und dem Einbau von [2Fe 2S]-Clustern noch nicht aufgeklärt. Durch Ergebnisse dieser Arbeit konnten erstmals Hinweise auf den CIA-Maschinerie-abhängigen Einbau des [2Fe-2S]-Clusters durch die ESR-Spektroskopie gewonnen werden.
Das Protein Aim32 wurde nach heterologer Proteinexpression in E. coli spektroskopisch untersucht. Mößbauer- und ESR-Spektren wiesen eine hohe Similarität zu jenen von Apd1 auf und beide Proteine wurden Gründungsmitglieder einer neuen Klasse von [2Fe 2S]-Proteinen. Die Clusterliganden von Aim32 konnten in vitro identifiziert werden und durch Austausch der clusterbindenden Histidine zu Cysteinen wurde eine Änderung der ESR-Parameter detektiert, was zusammen mit den Mößbauerspektren des Proteins einen unabhängigen Nachweis für zwei Histidin-Reste in der Clusterkoordination darstellt.
Im letzten Teil der Arbeit wurde ein Protein aus Thermomonospora curvata näher untersucht. Das Protein zeichnet sich durch die Anwesenheit einer Sequenz des HXGGH-Motivs von Aim32/Apd1 aus, jedoch ist hier das zweite Histidin durch ein Aspartat ersetzt. UV/Vis-, ESR- und Mößbauerspektroskopie belegen die Einzigartigkeit dieses Proteins. Durch Mutagenese der clusterbindenden Aminosäuren in alternative Liganden konnte die Koordination eines [2Fe-2S]-Clusters durch zwei Cysteine, ein Aspartat und ein Histidin spektroskopisch belegt werden. Diese Arbeit lieferte grundlegende Erkenntnisse zu einer neuen Klasse von [2Fe-2S]-Proteinen mit flexibler Koordination.
Die vorliegende Arbeit beschreibt die Synthese und Charakterisierung von oktaedrischen Eisen(II)- und Co(II)-Komplexen der Form [M(L-N4R2)(Y)](X)2 (M = Fe, Co) mit den vierzähnigen Diazapyridinophanliganden L-N4R2 (R = Me, tBu), zweizähnigen Pyridin- bzw. Chinolinimidazolliganden (Y) und verschiedenen Gegenionen X (X = ClO4 , PF6 , BPh4 , OTf-). Hierbei wurde zunächst gezeigt, dass sich die Einführung von Substituenten auf die Ligandenfeldstärke auswirkt und somit die Komplexe unterschiedliche magnetische Eigenschaften zeigen können, wobei sowohl low-spin- als auch high-spin Komplexe erhalten wurden. Zusätzlich wurde in vielen Fällen Spin Crossover-Verhalten beobachtet. Hierbei findet meistens ein thermisch induzierter Übergang vom low-spin- in den high-spin-Zustand statt, weshalb solche Verbindungen auch als molekulare Schalter bezeichnet werden. Von besonderem Interesse waren photochemisch schaltbare Liganden. Diese zeichnen sich in dieser Arbeit durch zwei 2,5-Dimethylthienylsubstituenten in 4- und 5-Position am Imidazolring des Co-Liganden aus. Nach Einstrahlung von UV-Licht einer für die Verbindung charakteristischen Wellenlänge kann ein intramolekularer Ringschluss über eine neue C-C-Bindung erfolgen. Mit den Liganden 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-methyl-imidazol-2-yl]pyridin (dtpyim-m), 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-phenyl-imidazol-2-yl]pyridin (dtpyim-ph) und 2-[4,5-Bis(2,5-dimethyl-3-thienyl)-1-methyl-imidazol-2-yl]chinolin (dtchim-m) wurden erfolgreich Komplexe mit einem solchen Chromophor im Ligandenrückgrat synthetisiert. Die somit erhaltenen Verbindungen [Fe(L-N4Me2)(dtpyim-m)](PF6)2, [Fe(L-N4tBu2)(dtpyim-m](BPh4)2 · 2 MeCN, [Fe(L-N4tBu2)(dtpyim-ph](BPh4)2 · Et2O, [Fe(L-N4Me2)(dtchim-m](ClO4)2 · 1.5 DCM, [Co(L-N4Me2)(dtpyim-m)](ClO4)2, [Co(L-N4tBu2)(dtpyim-m)](BPh4)2 ∙ MeCN ∙ Et2O und [Co(L-N4Me2)(dtchim-m)](ClO4)2 ∙ 1.5 DCM wurden sowohl auf ihre magnetischen als auch photochemischen Eigenschaften untersucht. Von großem Interesse war hierbei ob durch die photochemisch initiierte Ringbildung die -Donor und -Akzeptoreigenschaften des Liganden so verändert werden können, dass der Spinzustand des Metallzentrums beeinflusst werden kann.
In der vorliegenden Dissertation wurde das Korrosionssystem verzinkter Stahl in alkalischen, zementbasierten Feststoffelektrolyten untersucht. Dabei kamen drei Zementarten mit je vier Chloridgehalten zur Anwendung. Neben dem Korrosionssystem lag das Augenmerk ebenso auf einer adäquaten Beschreibung der Elektrolyteigenschaften. Hierzu wurde die Masseänderung, die Änderung des elektrischen Mörtelwiderstandes und des IR-Drop über die Zeit sowie die Porosität und die Porenwasserzusammensetzung, um nur einige Kenngrößen zu nennen, untersucht.
Das Hauptaugenmerk ruht jedoch auf der Beschreibung des Korrosionssystems verzinkter Stahl in Mörtel. Dazu wurden die gebildeten Deckschichten und deren Einfluss auf den Korrosionsfortschritt in Abhängigkeit von der Zementart und des Chloridgehaltes sowie die daraus resultierenden elektrochemischen Kennwerte bestimmt.
Die aus den Untersuchungen hervorgehenden Ergebnisse ermöglichen es, die Korrosionssysteme in Abhängigkeit vom Chloridgehalt oder von geometrischen Inhomogenitäten, im Phasengrenzbereich Mörtel/verzinkter Stahl zu differenzieren. Dabei konnte unabhängig von den verwendeten Zementen eine Klassifizierung der Korrosionssysteme über den Phasenwinkel bei 0,1 Hz erfolgen. Klassifiziert wurden durchtrittskontrollierte und diffusionskontrollierte Korrosionssysteme, Mischsysteme, Übergangssysteme und Korrosionssysteme mit Spaltgeometrie.
Für diese Korrosionssysteme konnte festgestellt werden, welche Deckschichten maßgebenden Einfluss auf die Ausbildung eines durchtrittskontrollierten Korrosionssystem haben. Dazu gehören das bereits bekannte Simonkolleit und eine Deckschichtvariante, die bisher noch nicht in der Literatur als Deckschicht an verzinktem Betonstahl in Mörtel oder Beton beschrieben wurde.
Für die Mischsysteme erfolgte eine Darstellung der anteiligen Bedeckung mit Simonkolleit, um den Übergang zu einem durchtrittskontrollierten Korrosionssystemen zu beschreiben.
Neben der Klassifizierung der Korrosionssysteme kann über die Bestimmung des Phasenwinkels bei 0,1 Hz jedem Korrosionssystem nun auch ein spezifischer B-Wert zugewiesen werden. In Kombination mit der für diese Korrosionssysteme angepassten LPR-Messungen zur Bestimmung des Polarisationswiderstandes können Korrosionsraten ohne signifikante Beeinflussung des Korrosionssystems bestimmt werden.
Zur Abkehr von fossilen Rohstoffen, wird die Bedeutung der Produktion von
Kunststoffen aus alternativen Rohstoffquellen in den kommenden Jahrzehnten
zunehmen. In dieser Arbeit wurde daher ein Verfahren untersucht, bei dem
Primärschlamm (PS) einer kommunalen Kläranlage (KA) und Brauereiabwasser als
Rohstoffe zur Polymerproduktion dienen. Zur Anwendung kam dabei ein dreistufiges
Verfahren, mit dem Polyhydroxyalkanoate (PHA), eine Gruppe biologisch abbaubarer
Polymere, durch Bakterienmischkulturen wie Überschussschlamm (ÜSS) nach gezielter
Selektion und Akkumulation synthetisiert werden können. Als Substrat für diesen
Prozess dienen kurzkettigen organischen Säuren (VFA) aus der Versäuerung der
Abwasserströme. Das Ziel der Arbeit war, vorhandenes Grundlagenwissen zu
erweitern, um den PHA-Produktionsprozess in größere Produktionsmaßstäbe zu
skalieren und damit den Betrieb unter realen Bedingungen vorzubereiten. Zur
Erreichung dieser Ziele wurde die Arbeit in drei Teile untergliedert.
Im ersten Teil konnte im Labormaßstab anhand einer Voruntersuchung und
anschließenden Versäuerungsversuchen mit vier Lebensmittelabwässern aufgezeigt
werden wie die Eignung potentieller Abwasserströme zur VFA- und PHA-Produktion
überprüft werden kann und die Versäuerungsbedingungen in Abhängigkeit der
Substratzusammensetzung gezielt an das jeweilige Abwasser gewählt werden können.
In einem nächsten Schritt wurde nachgewiesen, dass gleichbleibende
Selektionsbedingungen auf ÜSS verschiedener KA zu einer vergleichbaren PHA-
Speicherfähigkeit führten. Eine bisher fehlende langfristige Stabilität relevanter
Betriebsparameter erfordert jedoch weitergehende Untersuchungen. Weiterhin
wurde am Beispiel von Brauereiabwasser gezeigt, dass durch die Anwendung einer
niedrigen Raumbelastung in der Selektion der Betrieb mit Abwässern mit einem
geringem CSB möglich ist.
Im zweiten Teil der Arbeit wurde eine Pilotanlage auf der KA Buchenhofen in
Wuppertal mit PS unter möglichst niedrigem Ressourceneinsatz betrieben. Dabei wies
der CSBVFA des versäuerten PS eine Jahreszeit-unabhängige große Spanne auf, dennoch
war eine ganzjährige Eignung zur PHA-Produktion gegeben. Die VFA-
Zusammensetzung war ganzjährig stabil und ermöglichte damit eine gleichbleibende
PHA-Zusammensetzung. Die PHA-Speicherfähigkeit konnte in einem Selektionsbetrieb
mit niedriger Raumbelastung nicht reproduziert werden. Es wird angenommen, dass
Unterschiede des VFA-Anteils im Substrat vorrangig ursächlich waren.
Für den dritten Teil der Arbeit wurde aufbauend auf den Ergebnissen des Pilotbetriebs,
unter Verzicht auf Hilfsströme, eine verfahrenstechnische Auslegung für die
Anschlussgröße der KA Buchenhofen mit 550.000 E durchgeführt. Mit den Ergebnissen
konnten die Dimensionen einer PHA-Produktionsanlage eingeordnet werden.
Weitergehend wurden bei der Auslegung Ansatzpunkte aufgedeckt, die im
versuchstechnischen Betrieb angepasst oder untersucht werden müssen, um eine
reale und wirtschaftliche Betriebsweise in der weiteren Prozessentwicklung zu
ermöglichen.
Verbundträger aus Stahlprofilen, die mit der Betonplatte der Decke schubfest verbunden sind, stellen eine besonders wirtschaftliche Bauweise dar. Bei den heute üblichen Bauteilen des Hoch- und Brückenbaus kommen mechanische Verbundmittel zum Einsatz, die zu hohen lokalen Beanspruchungen insbesondere des Betons führen.
Durch den Ersatz dieser mechanischen Verbundmittel durch die Klebtechnik können diese hohen lokalen Beanspruchungsspitzen vermieden werden. Zusätzlich ermöglicht die Klebtechnik neuartige Konstruktionen auch unter Verwendung neuartiger Materialien.
Die Dauerhaftigkeit der Verbindung unter klimatischen und thermischen Einflüssen sowie mechanischer Beanspruchung ist dabei für die Anwendbarkeit der Klebtechnik von entscheidender Bedeutung.
Fehlende Kenntnisse des Langzeitverhaltens von geklebten Verbindungen, insbesondere unter langen andauernden klimatischen Einwirkungen, stehen einer weitgehenden und über die Ausführung von Pilotprojekten hinausgehenden Anwendung struktureller Klebungen im Bauwesen zurzeit entgegen.
Deshalb sollen Erkenntnisse zum dauerhaften Tragverhalten der Verbundfuge zwischen Stahl und Beton unter Beachtung der Eigenspannungszustände in der Klebfuge gewonnen werden. Der Beschreibung des Klebstoffverhaltens und Beachtung der Eigenspannungszustände und der Einflüsse der behinderten Querdehnung kommt dabei eine besondere Bedeutung zu. Bei dieser Bewertung des Trag- und Verformungsverhaltens unter lang andauernden klimatischen Einwirkungen ist auch die Wechselwirkung des Klebstoffs mit den Fügepartnern Stahl und insbesondere Beton zu behandeln, da auch die mechanischen Eigenschaften dieser Substrate maßgebend für das Verhalten der Klebfuge werden können. Insbesondere der Fügepartner Beton mit seiner hohen Alkalität, seinem Wassergehalt und seiner Permeabilität für Feuchte steht dabei im Blickpunkt der Untersuchungen. Durch die Anwendung der Klebtechnik ergibt sich die Möglichkeit, neue Geometrien für Stahlverbundbauteile zu entwickeln, die nicht mehr auf die Randbedingungen der mechanischen Verbundmittel wie Mindestdicken, Mindestbreiten oder minimale Randabstände Rücksicht nehmen müssen.
Zur Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen unter Zugbeanspruchung
(2023)
Zur Realisierung von schlanken, weit gespannten Deckensystemen im Hochbau werden zunehmend einachsig und zweiachsig gespannte Hohlkörperdecken eingesetzt. Bei dieser Bauweise sind die Deckenquerschnitte im Vergleich zu massiven Stahlbetondecken planmäßig geschwächt. Gleichermaßen gilt dies für Stahlbetondecken, die als Installationsebene für Leitungen der Gebäudetechnik genutzt werden. In beiden Fällen führen die integrierten Hohlräume zu einer Minderung der Querkrafttragfähigkeit von nicht querkraftbewehrten Stahlbetondecken. An der TU Kaiserslautern wurde in den vergangenen Jahren die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen eingehend erforscht. Die entwickelten Bemessungskonzepte stehen der Baupraxis mit den nationalen Erläuterungen in DAfStb Heft 600 zu DIN EN 1992-1-1 zur Verfügung. Der Einfluss von Längszug auf die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen ist jedoch weitgehend unbekannt. In dieser Arbeit wird mit experimentellen Untersuchungen und numerischen Simulationen das Querkraftversagen von einachsig gespannten Stahlbetondecken mit integrierten Hohlräumen und Hohlkörpern unter Längszug erforscht. Die Arbeit gibt Aufschluss über das Tragverhalten geschwächter Stahlbetonbauteile unter Längszug infolge einer direkten Einwirkung. Die Versuchsergebnisse zeigen einen erwartungsgemäß ungünstigen Einfluss von Längszug auf die Querkrafttragfähigkeit massiver Stahlbetondecken. Im Gegensatz dazu zeigt sich bei Stahlbetondecken mit integrierten Hohlräumen und bei Stahlbetondecken mit integrierten Hohlkörpern ein deutlich geringerer, ungünstiger Einfluss von Längszug auf die Querkrafttragfähigkeit, der mit zunehmender Querschnittsschwächung deutlich zurückgeht. Auf Grundlage der Ergebnisse wird ein Vorschlag zur Erweiterung des bestehenden Bemessungskonzeptes nach Dafstb Heft 600 für die Bemessung der Querkrafttragfähigkeit von Stahlbetonbauteilen mit integrierten Hohlräumen unter Längszug erarbeitet. Gleichermaßen wird ein Vorschlag zur Erweiterung des Bemessungskonzeptes für die Querkrafttragfähigkeit von Hohlkörperdecken nach den allgemeinen bauaufsichtlichen Zulassungen für Hohlkörperdecken vom Typ Cobiax Eco-Line, Cobiax Slim-Line und Unidome XS unterbreitet.
Im Rahmen dieser Arbeit wurden chirale Liganden mit einem Rückgrat aus 2,6 Bis(pyrazol-1-yl)pyridin aus den Naturstoffen Campher, Menthon und Carvon dargestellt. Diese wurden mit Ruthenium(II)komplexvorstufen umgesetzt. Hierbei zeigte sich die Notwendigkeit einer dazu erforderlichen Vorkoordination durch räumliche Nähe eines π-Systems. Deshalb wurden durch Reduktion chiraler Ruthenium(III)vorläuferverbindungen weitere asymmetrische Rutheniumkomplexe dargestellt. Diese erwiesen sich als monokationische Verbindungen und wurden mittels Kristallstrukturanalyse verifiziert. Durch Einsatz der katalytisch aktiven Komplexe in der homogen katalysierten Transferhydrierung von Acetophenon wurden Enantiomerenüberschüsse des (S)-konfigurierten Alkohols festgestellt. Zusätzlich gelang die Darstellung weiterer chiraler 3d- und 4d-Übergangsmetallkomplexe. Weiterhin wurden dikationische Rutheniumkomplexe dargestellt, an welchen die Koordination kleiner Donormoleküle vorgenommen wurde, wodurch diese für die katalytische Ammoniaksynthese verwendet werden könnten. Außerdem wurden die signifikanten Eigenschaften intramolekular koordinierender Allylfunktionen des Liganden deutlich.
Die vorliegende Arbeit betrachtet die Eigenschaften eines tribologischen Kontaktes bei elektrischem Stromdurchgang. Diese unerwünschten Stromdurchgänge entstehen etwa durch die Kombination von unvermeidbaren parasitären Kapazitäten in einem Elektromotor unter dem Einsatz von schnellschaltenden Frequenzumrichtern mit steilen Spannungsflanken. Folge dieser Stromdurchgänge sind Schäden an den Kontaktpartnern als auch an dem dazwischen befindlichen Schmiermittel. Zur Vorhersage der Gefährdung eines Antriebsstrangs hinsichtlich parasitärem Stromdurchgang werden elektro-mechanische Simulationen eingesetzt. Diese erlauben eine Beurteilung des tribologisch-elektrischen Kontaktes hin auf seine Gefährdung gegen Stromdurchgang. Basierend hierauf können dann geeignete Abhilfemaßnahmen getroffen werden.
Zur weiteren Verbesserung solcher elektro-mechanischen Simulationen werden im ersten Teil der Arbeit experimentell die Durchschlagspannung als auch der Widerstand des Entladekanals ermittelt. Hierbei zeigt sich ein ausgeprägtes nichtlineares Verhalten des Entladewiderstands, welches in dieser Form nicht vollumfänglich mit den Kenntnissen aus der Hochspannungstechnik erklärt werden kann. Hierauf aufbauend werden die langzeitlichen Auswirkungen des parasitären Stromdurchgangs im definierten tribologischen Zustand der Mischreibung betrachtet. Zur Ermittlung von Wechselwirkungen werden umfangreiche Messgrößen aufgezeichnet und analysiert. Im abschließenden Teil der Arbeit werden die Auswirkungen des elektrischen Stromdurchgangs auf die Oberflächenrauheiten simulativ ermittelt.
In dieser Arbeit wird ein flexibles dimeres Ligandensystem basierend auf 2,6-Bis(1H-pyrazol-3-yl)pyridin (bpp) und 2,6-Bis(1H-5-butyl-pyrazol-3-yl)pyridin (bpp(n-bu)) vorgestellt. Dabei wurden je zwei Einheiten bpp/bpp(n-bu) über variable Bausteine miteinander verknüpft. Auf diese Weise wurden verschiede makrocyclische sowie offenkettige Liganden erhalten. Die Liganden kamen in der Synthese multinuklearer Komplexverbindungen zum Einsatz. Die Verwendung der 3d-Metallionen Eisen(II), Kobalt(II) und Kupfer(II) ermöglichte den Erhalt verschiedener homo- als auch heterobimetallischer Komplexe mit makrocyclischen Liganden. Die offenkettigen Liganden lieferten dabei selbstorganisiert homoleptische Komplexverbindungen unter Ausbildung einer helikalen Struktur. Einblick in das Verhalten der Komplexverbindungen in Lösung konnten Palladium(II)- und Platin(II)-Verbindungen geben. Hieran konnte gezeigt werden, dass die Art der Ligandenverknüpfung (makrocyclisch vs. offenkettig) ebenso die Spezifikation der verknüpfenden Einheit einen Einfluss auf die Eigenschaften der Komplexe in Lösung ausübt. Unter Einbau von Ruthenium(II)-Zentren wurden mononukleare Komplexe einer Reihe von substituierten bppn-bu-Derivaten erhalten. Hieran wurde der Einfluss des Substituenten auf die katalytische Aktivität der Verbindungen in der Transferhydrierung untersucht. Eine Übertragung des Strukturmotivs auf einen dimeren Liganden lieferte einen dinuklearen Komplex, dessen Aktivität jedoch durch die mononuklearen Verbindungen übertroffen wird.
Verschiedene Ereignisse, wie die Nuklearkatastrophe in Fukushima oder kürzlich die Corona Pandemie, haben gezeigt, dass globale Lieferketten immer anfälliger für Risiken und Unsicherheiten unterschiedlicher Art werden. Aus diesem Grund wird das Thema Supply Chain Resilience sowohl für Forscher als auch für Manager zunehmend wichtiger.
Da in der bestehenden Forschung häufig theoretisch-konzeptionelle Ansätze zuvorderst stehen, beschäftigt sich diese Arbeit unter Einnahme einer strukturationstheoretischen Perspektive mit der Frage, wie ein an Praktiken orientierter Ansatz zur Steigerung der Resilienz globaler Lieferketten aussehen kann.
Dazu bedient sich diese Arbeit einer vergleichenden qualitativen Fallstudie, bei der einerseits mehrere Unternehmen der deutschen Spielwarenbranche befragt und ein Großunternehmen der Elektroindustrie analysiert werden. Dazu werden mehrere qualitative Methoden eingesetzt, die Daten trianguliert und im Anschluss mittels qualitativer Inhaltsanalyse aufbereitet und interpretiert.
Als Ergebnis entsteht eine Sammlung von insgesamt 29 Praktiken, die entlang der drei Resilienzphasen Readiness, Response und Recovery eingeordnet werden können. Weiterhin zeigt sich, dass die identifizierten Praktiken ebenfalls anhand des Status der Implementierung kategorisiert werden können.
Aus dieser Erkenntnis ergibt sich eine Matrix, in der Resilienzpraktiken entlang beider Kategoriensysteme aufgetragen werden können und somit einen Überblick über den Status der Resilienz einer globalen Lieferkette liefert. Diese Matrix bildet die Grundlage für einen Supply Chain Resilience Management Ansatz, der im Rahmen dieser Arbeit entwickelt und erläutert wird. Dieser bietet eine Handlungsanleitung für Manager und unterstützt somit beim Streben nach mehr Resilienz entlang der Lieferkette.
Damit erweitert diese Arbeit nicht nur die bestehende Literatur zur Supply Chain Resilience um einen strukturationstheoretischen Ansatz, sondern liefert einen entscheidenden Beitrag zum Management globaler Lieferketten.
Die steigende Verfügbarkeit von Smartphones und Tablet-PCs in der Schule bieten neue methodische und mediale Wege der Unterrichtsgestaltung, die zur Beurteilung der Lernwirksamkeit eine wissenschaftliche Betrachtung erfordern. Während zahlreiche Publikationen zu Augmented Reality (AR) im Bildungskontext existieren, fehlt es an einer differenzierten Betrachtung der Lernwirksamkeit AR-typischer Merkmale sowie breit angelegter Untersuchungsdesigns. Ziel dieser Arbeit ist es, die Lernwirksamkeit von AR in authentischen biologischen Unterrichtsszenarien multiperspektivisch zu betrachten. Zur Beurteilung der Lernwirksamkeit wurden Daten zu Lernzuwachs (LZ), Cognitive Load (CL), Nutzungserlebnis (UX), empfundener Lernunterstützung (ELU) sowie zur Immersion gemessen. Die Forschungsfragen beziehen sich auf den Einfluss der Art des Mediums, der Steuerung, des Triggers und der medialen Repräsentation auf die Lernwirksamkeit.
Die Untersuchungen wurden mithilfe eigens entwickelnder AR-Apps mit 769 Teilnehmenden aus rheinland-pfälzischen Gymnasien und zwei Universitäten durchgeführt. Neben dem Nachweis theoretischer Zusammenhänge der untersuchten Parameter mittels Strukturgleichungsmodellierung konnten mehrheitlich signifikante Unterschiede im LZ zugunsten von AR festgestellt werden. Darüber hinaus zeigten die Studien dieser Arbeit einen positiven Einfluss von AR auf den CL, sodass sich der Einsatz von AR nicht nachteilig auf die kognitive Belastung auswirkt. Neben des überdurchschnittlich bis exzellenten Abschneidens der AR-Apps im Benchmark-Vergleich (Vergleichsgruppe n = 20190 (Schrepp, 2019)), konnten positive Effekte der UX-Dimension Stimulation auf die Reduktion des lernhinderlichen Extraneous Cognitive Loads und die Steigerung des lernförderlichen Germane Cognitive Loads nachgewiesen werden. Hinsichtlich der ELU zeigten sich verschiedene mediale Präferenzen der Teilnehmenden, sodass durch die Verwendung von AR im Sinne eines wechselnden Medieneinsatzes die Bedürfnisse aller Lernenden abgedeckt werden kann. Weiterhin erreichten die Teilnehmenden die höchste der drei Ebenen der Immersion, sodass die Art des Triggers die 21 Immersionsfaktoren von Georgiou und Kyza (2017a) ergänzt.
Die Arbeit leistet auf Grundlage der Identifikation von AR-typischen Merkmalen einen Beitrag zum besseren Verständnis der lernwirksamen Potenziale von AR-basierten Lernumgebungen und zeigt darüber hinaus theoriebildende Implikationen zur Messung des CL auf. Ob sich mithilfe von AR der CL senken lässt, bedarf es Untersuchungen in Lernsettings, die einen hohen CL aufweisen. Weiterhin bietet der ARI-Fragebogen einen geeigneten Ausgangspunkt zur Erforschung AR-typischer Immersionsfaktoren. Trotzdem bedarf es weiterer Studien zur Validierung des ARI-Fragebogens und zur systematischen Untersuchung der Lernwirksamkeit von AR-typischen Merkmalen.
Die vorliegende Arbeit thematisiert die rutheniumkatalysierte Oxidation von
(Fettsäure)alkoholen zu den in die korrespondierenden Carbonylverbindungen.
Fettsäurealdehyde sind von großem wissenschaftlichem und wirtschaftlichem Interesse, da
sie wertvolle Start- und Zwischenprodukte für viele Zweige der chemischen Industrie
darstellen. Der Einsatz von rutheniumhaltigen Verbindungen als Katalysatoren zeichnet sich
durch eine hohe Flexibilität und Anpassbarkeit der gewünschten Reaktivität, sowie durch ein
breitgefächertes Anwendungsgebiet aus. Die Oxidationsreaktionen im Rahmen dieser Arbeit
erfolgten sowohl homogen- als auch heterogenkatalytisch unter Verwendung verschiedener
rutheniumhaltiger Katalysatoren und Oxidationsmittel. Der homogenkatalytische Einsatz von
simplem RuCl3 ∙ (H2O)x führte mit tert-Butylhydroperoxid als Sauerstoffquelle zur Entwicklung
eines umweltfreundlichen und unter milden Bedingungen operierenden Systems für die
Oxidation sekundärer Alkohole, während Fettsäurealkohole unter Einsatz von Trimethylamin-
N-oxid als Oxidationsmittel in die korrespondierenden Aldehyde überführt werden konnten.
Die Heterogenisierung von RuCl3 ∙ (H2O)x erfolgte auf harnstofffunktionalisierten Kieselgelen,
welche auch als Trägermaterial für Rutheniumnanopartikel eingesetzt wurden. Diese
Kieselgelderivate wurden durch Kopplung von (3-Isocyanatopropyl)trialkoxysilylverbindungen
mit primären und sekundären Aminen und anschließendem Postgrafting der
resultierenden Silanprecursoren hergestellt. Für einen Teil der Materialien erfolgte zusätzlich
eine Desaktivierung der Silanolgruppen auf der Materialoberfläche durch Austausch der
Hydroxygruppen gegen Trimethylsilyloxyeinheiten. Die heterogenkatalytische Oxidation von
Alkoholen – sowohl mit RuCl3 ∙ (H2O)x als auch mit Rutheniumnanopartikeln - erfolgte
ebenfalls unter Verwendung von Trimethylamin-N-oxid als Sauerstoffquelle und zeigt
Potential für zukünftige Untersuchungen zur Wiederverwendbarkeit der Katalysatormaterialien.
Neben RuCl3 ∙ (H2O)x und Rutheniumnanopartikeln wurde auch ein
rutheniumhaltiges Polyoxometallat für die Oxidation von sekundären und primären Alkoholen
unter Verwendung von tert-Butylhydroperoxid bzw. Trimethylamin-N-oxid eingesetzt, wobei
die für RuCl3 ∙ (H2O)x optimierten Reaktionsbedingungen erneut angewandt wurden.
Wenn drei oder mehr rechtlich selbstständige Organisationen zusammenarbeiten, um nicht nur ihre eigenen Ziele, sondern auch gemeinsame Ziele auf Netzwerkebene zu erreichen, spricht man von einem Zusammenschluss in Form
eines inter-organisationalen Netzwerks. Diese Netzwerke gewinnen in letzter Zeit in den verschiedensten Bereichen enorm an Verbreitung und Bedeutung.
In der Praxis wird jedoch deutlich, dass für ein effektives Zusammenarbeiten der einzelnen Netzwerkmitglieder oft große Hürden genommen werden müssen, da inter-organisationale Netzwerke sehr komplexe Gebilde sind. Der Aufbau der
Netzwerksteuerung hat daher einen bedeutenden Einfluss auf den Erfolg des Netzwerks. In der Literatur finden sich allerdings noch keine empirischen Untersuchungen zum Aufbau von Netzwerksteuerung und förderlichen Bedingungen, die daraus abgeleitet werden können. Die vorliegende Arbeit setzt an diesem Punkt an und untersucht die Entstehung und Weiterentwicklung von
Netzwerksteuerungsmechanismen bei unterschiedlichen Arten von inter-organisationalen Netzwerken. Dazu wurden Daten in insgesamt acht Fallstudien
erhoben und mit Hilfe eines Multilevel-Ansatzes und einer
strukturationstheoretischen Perspektive analysiert.
Die Ergebnisse machen deutlich, dass Steuerungsmechanismen in inter-organisationalen Netzwerken durch die wiederkehrende Anwendung von drei Praktiken, „Bedarfsanalyse“, „Ausloten von Synergieeffekten“ und
„Formalisierung“, aufgebaut werden. Diese lassen Strukturen entstehen, die
ihrerseits eine Wirkung auf die Praktiken und den Aufbau weiterer Strukturen
entfalten. Die Strukturen ermöglichen den Übergang in drei unterschiedliche
Entwicklungsstadien. Dieser Aufbau wird in der vorliegenden Arbeit als ineinander verzahnte Metamorphose konzeptualisiert, die nie abgeschlossen ist. Unterschiede beim Aufbau von Steuerungsmechanismen lassen sich bei den beobachteten
Netzwerken insbesondere darin feststellen, ob sie staatlich initiiert wurden oder aus
einer Bedarfsfeststellung für eine Vernetzung in einem bestimmten gesellschaftlichen Bereich entstanden sind. Diese initialen Bedingungen
bestimmen darüber, welche Steuerungsformen im Verlauf angenommen werden.
Als förderliche Bedingungen arbeitet die vorliegende Arbeit heraus, dass
insbesondere die Bedarfsanalyse zu Anfang große Bedeutung hat. Bei dem Aufbau
von Netzwerken wird häufig nur auf den Bedarf für eine Vernetzung fokussiert, nicht
aber erhoben, welchen Bedarf das aufzubauende Netzwerk hat. Darüber hinaus spielt der Netzwerkmobilisierer oder die Netzwerkmobilisiererin eine große Rolle. Das Netzwerk kann in angedachter Form nur dann aufgebaut werden, wenn der
Netzwerkmobilisierer oder die Netzwerkmobilisiererin als Führungsperson so lange
erhalten bleibt, bis das dritte Entwicklungsstadium erreicht wird.
Die tribologische Untersuchung von mechanischen Kontaktproblemen nimmt im Maschinenbau
einen immer wichtigeren Platz ein. Sie ermöglicht ein tieferes Verständnis von Phänomenen
wie Reibung und Verschleiß auf der Mikroebene und trägt zur Optimierung von
Maschinenelementen bei. Eine große Herausforderung besteht darin, die Rechenzeit trotz
der hohen Auflösung gering zu halten. Dazu bieten die Randelementmethoden eine große
Rechenzeitoptimierung für eine Kategorie von Kontaktproblemen, die durch bestimmte
Annahmen definiert werden. Die auf der Halbraumtheorie basierende semi-analytische
Methode, die Gegenstand dieser Arbeit ist, gehört zu den Randelementmethoden. Die
Halbraumtheorie beruht auf Grundannahmen wie beispielsweise dem linearen elastischen
Materialverhalten oder der alleinigen Berücksichtigung lokaler Verformungsanteile. Diese
verhindern die Anwendbarkeit der Methode auf spezielle Fälle in der Dichtungstechnik
und im Wälzlager.
Im Rahmen dieser Arbeit soll ein am Institut bereits vorhandenes semi-analytisches Kontaktmodell
für den Normalkontakt mit linear elastischem Materialverhalten der Kontaktpaare
erweitert werden, um eine Anwendung in der Dichtungstechnik und in Wälzlagern
zu ermöglichen. Mit dem Modell sollen Reibung und Verschleiß im Dichtkontakt sowie
Plastizität (Kontaktpressung- und Oberflächenveränderungen sowie belastungsinduzierte
Eigenspannungen) und Materialinhomogenität im Wälzkontakt untersucht werden können.
Eine Modellvalidierung wird in den beiden Anwendungsfällen durch Vergleich mit experimentellen
Messergebnissen durchgeführt.
Die Trends und Entwicklungen, mit denen sich die Weinwirtschaft auf der Konsumentenseite konfrontiert sieht, sind vielfältig. Seit einigen Jahren lässt sich in Deutschland ein Rückgang des Pro-Kopf-Konsums alkoholischer Getränke beobachten. Ein weiterer Trend ist das zunehmende Gesundheitsbewusstsein in der Gesellschaft. Diese und weitere Entwicklungen treiben die Weinbranche an, alkoholfreie und alkoholreduzierte Weine als Produktinnovationen auf dem Markt zu positionieren. Die Dissertation widmet sich einer theoretischen und empirischen Analyse der Zielgruppen sowie der Einflussfaktoren der Innovationsadoption im Kontext alkoholfreier Weine. Sie ist thematisch in das Strukturförderungsprojekt „Weinnova: Innovative Produkte mit verringertem Alkoholgehalt im Segment Wein“ eingebettet, das durch die Europäische Innovationspartnerschaft für landwirtschaftliche Produktivität und Nachhaltigkeit (EIP-AGRI) als Teil des Maßnahmen- und Entwicklungsplans ländlicher Raum Baden-Württemberg (MEPL III) im Zeitraum 2019 bis 2022 gefördert wurde.
Ketten werden als Übertragungselement für Drehbewegungen und Zugkräfte in verschiedenen Anwendungen verbaut. Daher lassen sich Ketten in Abhängigkeit ihres mechanischen Aufbaus, der Verwendung und der Belastung der Kette unterscheiden. Die kommerziell relevanteste Kette ist die Rollenkette, die aus Innen- und Außengliedern im alternierenden Wechsel besteht. Diese sind durch ein Gelenk aus Bolzen und Hülse miteinander verbunden. Sie wird als Antriebselement im Maschinen- und Fahrzeugbau verwendet. Hinsichtlich Lebensdauer und Effizienz des Kettentriebs steht der tribologische Kontakt zwischen Bolzen und Hülse im Fokus der Entwicklung. Reduzierte Kettenlängung durch geminderten Verschleiß steigert die Gebrauchsdauer einer Rollenkette. Ein optimiertes Reibungsverhalten führt zu einer Senkung der Verlustleistung des Kettentriebs. Neben unterschiedlichen Kettenwerkstoff en, Oberflächenbehandlungen und Schmierstoff en wird an der Bauteilkontur der Gelenkkomponenten geforscht. Infolge von Betriebsbelastungen und elastischen sowie plastischen Verformungen im Montageprozess kommt es im Kettengelenk zu komplexen Lastverhältnissen mit sehr hohen Kontaktpressungen. Der Einfluss der beschriebenen Form- und Konturabweichungen auf das Verschleiß- und Reibungsverhalten wird in dieser Arbeit untersucht, wozu Ketten mit unterschiedlichen Hülseninnenkonturen miteinander verglichen werden. Kettengelenke, die Komponenten mit starker Abweichung von der idealen Zylinderkontur aufweisen, zeigen eine ausgeprägtere Verschleißneigung als Ketten mit optimierten Hülsen. Anstelle von herkömmlichen Bauteil- oder Aggregatsversuchen mit großem physischen Materialaufwand wird ein Bauteil-Tribometer, das Kettengelenktribometer verwendet. Mit Hilfe dieses Prüfstands wird ein einzelnes Kettengelenk über aus realen Kettentrieben abgeleiteten Lastkollektiven geprüft. Der Aufbau ermöglicht so eine realitätsnahe Untersuchung und liefert dabei im Betrieb Daten hinsichtlich des Gelenkverschleiß. Zudem können Reibungskenngrößen erfasst werden. Aus den Daten der experimentellen Untersuchungen und der Prüfkörper-Charakterisierung speist sich ein reibenergetischer Verschleißberechnungsansatz, der die tribologischen Gegebenheiten im Kettengelenk durch eine EHD-Kontaktsimulation darstellt. Der Simulationsansatz kann als Unterstützung im Entwicklungsprozess neuer Hülseninnenkonturen genutzt werden.
Im Rahmen dieser Dissertation wurden neuartige tetraamidomakrozyklische Liganden mit verschiedenen Strukturmotiven entlang mehrstufiger Syntheserouten analysenrein dargestellt. Zum einen wurden als neuartige Grundstrukturen 1,8‑Diaminonaphthalin sowie 2-Aminobenzylamin in das tetraamidomakrozyklische Ringsystem eingebaut, wodurch sich Makrozyklen mit 14 Ringatomen ergaben. Zum anderen wurde das gegenüberliegende Ligandenrückgrat durch Variation der Substituenten am α‑Kohlenstoffatom von Malonsäurederivaten verändert. Bei bereits literaturbekannten Liganden mit einer Größe von 13 Ringatomen konnte durch Variation einiger Reaktionsparameter eine Optimierung der Ausbeuten im Cyclisierungsschritt erfolgen. Im Anschluss daran wurden alle erhaltenen Liganden zu Eisen(III)komplexen mit axialen Wasserliganden mit Kaliumgegenionen umgesetzt. Eine Kristallisation vieler Eisen(III)komplexe wurde durch Ionenaustausch erreicht, wobei in den meisten Fällen reproduzierbar, zusätzlich zum Ionenaustausch, ein Ligandenaustausch des axialen Liganden zu Chlorid beobachtet wurde. Die Charakterisierung aller erhaltenen paramagnetischen Eisen(III)komplexe erfolgte mittels verschiedener analytischer Methoden. Weiterhin konnte festgestellt werden, dass alle neuartigen makrozyklischen Liganden mit 14 Ringatomen bei unterschiedlichen verwendeten Reaktionsbedingungen keine Cobalt(III)komplexe ausbildeten. Zusätzlich wurde im Rahmen dieser Arbeit erstmalig die Komplexierung des 4d-Metalls Molybdän in der Oxidationsstufe +V durch einen tetraamidomakrozyklischen Liganden beobachtet, was durch röntgenkristallographische Messungen belegt wurde. Die dargestellten Eisen(III)komplexe kamen schließlich bei der selektiven Oxidation von Cyclohexen zur Untersuchung ihrer homogenkatalytischen Aktivität zum Einsatz. Hierbei fanden verschiedene Aktivierungsmethoden Anwendung. Die Variation einiger Reaktionsparameter resultierte in guten Ausbeuten sowie hohen Selektivitäten bei der katalytischen Anwendung. Auch konnten Struktur- und Reaktivitätsbeziehungen der verschiedenen Komplexe abgeleitet werden. Abschließend erfolgten erste Versuche zur katalytischen Oxidation von Cumol.
Plattformarbeit gewinnt als neue Arbeitsform zunehmend an Bedeutung und bietet Vorteile bei der Vereinbarkeit von Erwerbs- und Privatleben. Allerdings können Steuerungselemente wie Algorithmen und Bewertungssysteme auch Risiken bergen. Aktuelle Forschung zur Diskriminierung von Frauen auf Online-Arbeitsmärkten gibt Hinweise auf eine mögliche Ungleichbehandlung. Bekannte Muster des traditionellen Arbeitsmarktes bei der Beauftragung und Preissetzung zeigen sich auch auf den Plattformen. Dies legt nahe, dass sich Geschlechterstereotype auf die Plattformökonomie übertragen. Welche Bedeutung dabei die plattformspezifischen Steuerungselemente haben stand bei bisherigen Untersuchungen nur selten im Fokus.
Diese Dissertation untersucht die Rolle von Geschlechterstereotypen und Algorithmen bei Beauftragung und Preissetzung auf einer der weltweit größten Freelancing-Plattformen, freelancer.com. Durch Web-Scraping wird ein einzigartiger Datensatz erstellt und mithilfe von Methoden des maschinellen Lernens aufbereitet. Mittels ökonometrischer Modelle wird die Fragestellung unter Berücksichtigung auftragsspezifischer Effekte untersucht.
Die Ergebnisse deuten darauf hin, dass Geschlechterstereotype bei der Beauftragungsentscheidung auf der Plattform keine Rolle spielen. Allerdings kommt dem Rankingalgorithmus der Plattform eine hohe Bedeutung zu. Ferner kann festgestellt werden, dass das Ranking der Freelancer:innen in Abhängigkeit vom Geschlecht unterschiedlichen Einfluss auf die Beauftragungswahrscheinlichkeit nimmt: Für Frauen ist der Rang in einem weiblich geprägten Tätigkeitsfeld weniger relevant als für Männer.
Geschlechterstereotype scheinen demnach auf der Freelancing-Plattform keine Relevanz zu haben. Frauen wird somit eine gendergerechtere Erwerbstätigkeit geboten. Jedoch bergen plattformspezifische Steuerungselemente wie der Rankingalgorithmus neue Potenziale zur Geschlechterdiskriminierung. Die Erkenntnisse tragen dazu bei, ein besseres Verständnis der Herausforderungen und Chancen der Plattformarbeit im Kontext der Geschlechtergleichstellung zu gewinnen.
Untersucht wurden im dargestellten Dissertationsprojekt Erklärungen von Grundschüler*innen der 4. Klassenstufe, die aus Sprachvergleichssituationen stammen. Ziel war es, die analysierten metasprachlichen Erklärungen in polythetische Subtypen auszudifferenzieren. Die darauf abzielende Sprachanalyse vereinte inhalts- und korpusanalytische Verfahren, deren jeweiligen Ergebnisse für die abschließende Typenbildung genutzt wurden.
Durch die Inhaltsanalyse konnten hinsichtlich des Explanans der untersuchten metasprachlichen Erklärungen die zwei Erklärschemata Verabsolutierendes Erklärschema und Präsumtives Erklärschema rekonstruiert werden. Beide unterscheiden sich bezogen auf den kommunikativen Zweck im epistemischen Modus. Auch konnten die sprachbezogenen Explananda näher spezifiziert werden (WAS-Explanandum, WIE-Explanandum, MISCH-Explanandum). Im Rahmen der Korpusanalyse wurden die in den Erklärschemata enthaltenen rekurrenten Wörter und Wortverbindungen als sprachliche Verfestigungen erfasst und statistisch geprüft. Die inhalts- sowie korpusanalytischen Befunde, vereint im Konstrukt metasprachlicher Erklärprozeduren, stellten die Grundlage und Voraussetzung für die Bestimmung der Merkmalsräume im Rahmen der Typenbildung dar. Mithilfe der Merkmalsräume lassen sich insgesamt vier polythetische Typen metasprachlicher Erklärungen voneinander abgrenzen (Typ A: Verabsolutierende metasprachliche WAS-Erklärung; Typ B: Verabsolutierende metasprachliche WIE-Erklärung; Typ C: Präsumtive metasprachliche WAS-Erklärung; Typ D: Präsumtive metasprachliche WIE-Erklärung).
Durch die kontextspezifische Sprachanalyse bietet die Studie strukturelle und fachdidaktisch anschlussfähige Einsichten zum metasprachlichen Erklärverhalten von Grundschüler*innen in Sprachvergleichssituationen.
Omics-basierte Untersuchungen zum Wirkmechanismus des makrozyklischen Lactons Oxacyclododecindion
(2023)
Die Suche nach neuen therapeutischen Wirkstoffen ist, aufgrund der geringen Erfolgsquote vor allem
in späteren Phasen der Zulassung, nach wie vor eine große Herausforderung. Für einen möglichst
effizienten Entwicklung- und Zulassungsprozess zu erhöhen, ist eine möglichst genaue
Charakterisierung des Moleküls und der davon ausgehenden biologischen Aktivität sinnvoll. Eine
wertvolle Quelle an potenziellen Wirkstoffen stellen Sekundärmetaboliten aus Bakterien, Algen,
Pflanzen oder Pilzen dar. Im Rahmen dieser Arbeit wurden verschiedene, aus Pilzen isolierte Stoffe
näher untersucht, die durch eine phänotypische Wirkstoffsuche gefunden wurden. Im Gegensatz zu
einer Target-basierten Wirkstoffsuche, wird sich bei dieser Methode nicht auf ein bestimmtes
Zielprotein fokussiert, sondern in einem zellbasierten System nach Stoffen gesucht, die einen
phänotypischen Effekt hervorrufen. Das genaue Target bleibt daher zunächst unbekannt.
Hauptsächlich wurde das Makrolacton Oxacyclododecindion (Oxa) bzw. dessen Derivate untersucht.
In phänotypischen Analysen stellte sich Oxa bereits in der Vergangenheit als vielversprechender
Wirkstoff zur Behandlung inflammatorischer und fibrotischer Erkrankungen heraus. Verschiedene
Derivate des Naturstoffs wurden durch die Abteilung für Organische Chemie der Johannes
Gutenberg-Universität Mainz synthetisiert und im Rahmen dieser Arbeit auf ihre biologische Aktivität
hin untersucht. So konnte der Einfluss verschiedener Derivatisierungen auf die biologische Aktivität
analysiert und mit bereits publizierten Derivaten verglichen werden. So konnte die optimale Position
für weitere Funktionalisierungen des Moleküls gefunden werden.
Neben der Analyse globaler Effekte auf BEAS-2B und HepG2 stand vor allem die Identifikation
möglicher Targets im Vordergrund. Dazu wurden zunächst verschiedene Ansätze zur Identifikation
von Proteinen, die an das besonders aktive Derivat 14-Deoxy-14-methyloxacyclododecindion (DM-Oxa) binden, durchgeführt. So konnten bereits erste Kandidaten, insbesondere das
Hitzeschockprotein HSP90, als mögliche Interaktoren identifiziert werden. Dieses Protein hat einen
zentralen Stellenwert in zahlreichen zellulären Prozessen, wodurch es bereits als mögliches Target
für verschiedene Erkrankungen bekannt ist.
Um erstmals einen Einblick in die globalen Effekte von DM-Oxa auf die Genexpression und das
Proteom in verschiedenen Zelltypen zu erhalten, wurden sowohl mRNA-Sequenzierungs- als auch
MS-Proteomics-Ansätze durchgeführt. Somit konnten bereits bekannte Charakteristika verifiziert und
neue Einblicke in beteiligte Signalwege gewonnen werden. Im Rahmen dieser Analysen konnten
potenzielle Zielproteine von DM-Oxa identifiziert werden. Darunter beispielsweise die zentralen
Transkriptionsfaktoren FOXO3 und AP-1.
Auch die Rolle von HSP90 als möglicher Interaktionspartner von DM-Oxa wurde weiter beleuchtet.
Dazu wurde eine Co-Immunpräzipitation mit HSP90 Antikörpern durchgeführt, um Veränderungen in
der Abundanz von Proteinen, die an HSP90 binden, festzustellen. Solche Veränderungen könnten
auf die Blockade von Bindestellen durch DM-Oxa hinweisen. Tatsächlich wurde die Abundanz von
100 bekannten Interaktionspartnern durch DM-Oxa Behandlung signifikant beeinflusst, sodass die
Rolle von HSP90 als Oxa-Target weiter ins Zentrum rückt.
Neben der Analyse von Oxacyclododecindion und verschiedenen Derivaten wurden zwei weitere
bisher unveröffentlichte Naturstoffe aus einem Pilz der Gattung Alternaria näher untersucht. Diese
gehören zu Klasse der Perylenchinone und zeigten zum Teil toxische und oxidative Wirkung in
BEAS-2B-Zellen, was durch verschiedene Versuchsansätze nachgewiesen werden konnte.
Bei den Flüssigimprägnierverfahren wird ein trockenes Textil mit einem Harzsystem imprägniert, wodurch Faser-Kunststoff-Verbunde hergestellt werden. Bei der Betrachtung von üblichen Faser-Kunststoff-Verbund-Bauteilen wie z. B. Motorhauben an Kraftfahrzeugen, Verkleidungsstrukturen für die Luft- und Raumfahrt oder Sportgeräte wie Ski wird deutlich, dass es sich meist um „schalenförmige“ Bauteile handelt. Hierdurch wird klar, dass bei einer Imprägnierung in transversaler Richtung, also senkrecht zur Bauteil- bzw. Textilebene, der Fließweg deutlich kürzer ist als in der Bauteilebene. Somit birgt eine transversale Imprägnierung ein großes Potenzial zur Fließweg- und somit zu einer Zykluszeitreduktion. Um das volle Potenzial bei einer Imprägnierung in transversaler Richtung nutzen zu können, müssen die Textileigenschaften für eine akkurate Prozessauslegung so genau wie möglich bekannt sein. Hierzu gehören die faservolumengehaltsabhängige Tränkbarkeit (Dickenpermeabilität), der Kapillardruck sowie die Kompaktierungseigenschaften von Textilien. Um diese Eigenschaften zu ermitteln, wurden im Zuge dieser Arbeit mehrere Bestimmungsmethoden entwickelt, realisiert und validiert. Kern dieser Bestimmungsmethoden ist ein System welches neben dem Sättigungsvorgang, die Dickenpermeabilität sowie die strömungsinduzierte Textildeformation aufzeichnen kann. Ersteres durch die Verfolgung des Fließfrontfortschritts und Letzteres durch Verfolgung der Gesamtdickenänderung des zu messenden Textilstapels als auch der Änderung der Position einer einzelnen Lage im Textilstapel. Zur Berechnung der Dickenpermeabilität werden zusätzlich noch Druck- und Volumenstrommessungen durchgeführt. Um die Validität von ungesättigten Permeabilitätsmessungen nachzuweisen, wurde ein Kapillardruckmesssystem für eine reine transversale Strömung entwickelt. Hier wird die Fließfront in Abhängigkeit der Zeit dazu genutzt um den Kapillardruck zu bestimmen. Alle Methoden und Verfahren ermöglichen ein tieferes Verständnis der Vorgänge bei einer transversalen Imprägnierung von Textilien. Die gewonnenen Daten können zusätzlich als Eingangsparameter für Prozesssimulationen genutzt werden. Die Grundlagen einer solchen Simulation wurden erfasst und erste Simulationen zur Ermittlung einer Umsetzbarkeit bei der ungesättigten Dickenpermeabilität sowie der hydrodynamischen Kompaktierung durchgeführt.
Beste mechanische Eigenschaften werden bei Faser-Kunststoff-Verbunden mit Hilfe von Endlosfaserverstärkungen erreicht. Die Fertigung von komplexen Strukturbauteilen mit Endlosfaserverstärkung ist jedoch ein aufwendiger Prozess, welcher zum Teil immer noch händisch erfolgt. In den bekannten automatisierten Prozessen werden die Endlosfasern für komplexe Bauteile häufig nicht optimal entlang der Lastpfade ausgerichtet und somit nicht effizient eingesetzt.
Im Rahmen dieser Arbeit wird ein neuartiges Verfahren vorgestellt, welches unter effizienter Ausnutzung der Endlosfasern eine automatisierte Fertigung von hochbelastbaren Strukturbauteilen ermöglicht. Dafür wird das roboterbasierte 3D-Faserwickeln mit vorimprägniertem, epoxidharzbasiertem und endloskohlenstofffaserverstärktem TowPreg, mit dem thermoplastischen, kurzglasfaserverstärkten Spritzgussverfahren kombiniert. Neben den Eigenschaften des zu bewickelnden Fadenträgers und eines eigens entwickelten Wickelkopfes, wird der Einfluss unterschiedlicher Fadenspannungen im Wickelprozess, mit Hilfe der roboterbasierten Fertigung von Druckprobekörpern in einem neuartigen Werkzeug, auf die mechanischen Eigenschaften untersucht. Dieser Einfluss konnte nicht nachgewiesen werden. Es wird des Weiteren, anhand eines Demonstrators (Brakebooster), die computerbasierte Erzeugung von Wickelmustern, sowie die Berechnung der optimalen Zusammensetzung dieser, für fachwerkartige Strukturen, entwickelt. Die Hybridisierung der duroplastischen (Epoxidharz), endlosfaserverstärkten Struktur mit kurzglasfaserverstärktem, thermoplastischem (Polyamid 6) Material wird über unterschiedliche Vorbehandlungsmethoden der gewickelten Struktur untersucht. Der Fokus wird hier vor allem auf die Behandlung im Niederdruckplasmaverfahren gelegt. Es wird ein Versuch entwickelt, mit dem die gewickelten und hybridisierten Proben im Bereich der Interface-Festigkeit charakterisiert werden können. Bei diesem Versuch konnte eine Interface-Festigkeiten von bis zu 𝜏 = 15,1 ± 1,1 MPa durch eine Vorbehandlung mit 45-minütigem Luftplasma nachgewiesen werden.
Die Ergebnisse werden abschließend an topologieoptimierten Demonstratoren angewendet. Diese werden als Wickelstruktur, in einer plasmabehandelten und nicht-vorbehandelten hybriden Variante und einer spritzgegossenen Variante getestet. Die spezifische Steifigkeit der plasmabehandelten, hybriden Brakebooster lag dabei auf dem Niveau der gewickelten Brakebooster und war mehr als doppelt so hoch, wie bei spritzgegossenen Brakeboostern. Auch konnte eine 23 % höher spezifische Steifigkeit durch die Niederdruckplasmabehandlung erreicht werden, als ohne Vorbehandlung.
Im Rahmen dieser Arbeit wurden Zink-Dipicolylamin-haltige Goldnanopartikeln zur Erkennung von anorganischen bzw. organischen Anionen synthetisiert. Im ersten Teil wurden funktionalisierte Goldnanopartikel entwickelt, mit denen anorganische Salze, insbesondere Natriumdiphosphat und Natriumtriphosphat, in einem Wasser/Methanol Gemisch nachgewiesen werden können. Dazu wurden gemischt-funktionalisierte Goldnanopartikel hergestellt, auf deren Oberfläche Triethylenglykol-haltige Liganden zur besseren Solubilisierung und funktionelle Zink-Dipicolylamin-haltige Liganden zum Anionennachweis immobilisiert wurden. Nach Zugabe von Natriumhydrogenphosphat, Natriumdiphosphat oder Natriumtriphosphat zu den Goldnanopartikellösungen kam es ab einer charakteristischen Salzkonzentration zu einer Aggregation der Nanopartikel. Dies steht im Einklang mit der Vorstellung, dass nach Zugabe des Analytsalzes aufgrund multivalenter und kooperativer Effekte, abrupt sehr große unlösliche Agglomerate ausgebildet werden. Die initial gebildeten Nanopartikelaggregate lösten sich bei weiterer Erhöhung der Salzkonzentration wieder auf, was wahrscheinlich auf den Übergang von 2:1 Komplexen zu 1:1 Komplexen zwischen den entsprechenden Anionen und den Erkennungseinheiten zurückzuführen ist. Die jeweiligen Grenzkonzentrationen sind zudem nicht nur für die Art des Anions spezifisch, sondern hängen auch von dem Anteil der auf der Goldnanopartikeloberfläche gebundenen Zink-Dipicolylamin Komplexen ab. Dabei führt ein geringerer Funktionalisierungsgrad zu einer höheren Empfindlichkeit der Goldnanopartikelsonden. Die grundsätzliche Eignung von mit Zink-Dipicolylamin Komplexen funktionalisierten Goldnanopartikeln wurde somit für den optischen Nachweis anorganischer Phosphate belegt. Im Rahmen des zweiten Teils der Arbeit wurde untersucht, ob sich Goldnanopartikel mit oberflächengebundenen Dipicolylamin-Zink Komplexen auch als optische Sonden zum Nachweis von Nukleotiden eignen. Die Bindungsstudien zeigten, dass die Nanopartikel auch in Gegenwart von Nukleotiden aggregieren, wobei die Empfindlichkeit für ATP im Vergleich zu ADP und AMP am größten war. Durch Zugabe von Natriumdiphosphat oder Natriumtriphosphat zu den ATP-haltigen Goldnanopartikellösungen konnte die Selektivität der Goldnanopartikellösungen umgekehrt werden, wodurch ein vielversprechendes Konzept zum selektiven AMP-Nachweis entwickelt wurde. Dieser AMP-Nachweis stellt einen vielversprechenden Ausgangspunkt für weitere Entwicklungen dar.
Veränderungen sind für dynamische Organisationen selbstverständlich. Das macht es nicht selten schwer, an bekannten Mustern wie bspw. vertrauten Führungskonzepten festzuhalten. Das Zeitalter von Digitalisierung verändert auch die Anforderungen für organisationale Führungsarbeit. Demgegenüber basieren die bestehenden Führungsmethoden meist auf strukturgebenden Handlungsanweisungen, welche im Rahmen von langen Planungshorizonten das gewünschte Ziel erreichbar werden lassen.
Das im Rahmen der Forschungsarbeit identifizierte Problem zeigt sich darin, dass Führungs-verantwortlichen Modelle bzw. Methoden für Ihre Führungsarbeit zur Verfügung stehen, die sich bei der Lösung von Aufgaben und Problemen vor allem linear-kausaler Handlungslogiken bedienen. Doch ist ein Führungsansatz, der sowohl Zweckorientierung als auch eine Wertorientierung beinhaltet, schwer umsetzbar, da (nach Geißler) wertorientierte Zugänge nicht zweckorientiert begründet werden können.
Dabei weist Arnold darauf hin, dass einige theoretische Ansätze vorzugsweise von der Idee ausgehen, dass Aufklärungs- und Lernprozesse sowie Identitätsentwicklung von außen durch professionelle Vermittlung, Begleitung oder Beratung intentional einigermaßen wirkungssicher gestaltet werden können. So bspw. die Bürokratietheorie, Entrepreneurship, Management als Prozess oder auch die Managementsoziologie. Dass dies Führungskräfte in ihrem Lernprozess im Umgang mit Veränderungen nicht unterstützt, wie bspw. bei der digitalen Transformation in Organisationen, zeigt u. a. auch, dass bisherige Ansätze, wie Checklisten und Methoden für die verschiedenen Phasen von Organisationsentwicklung, um nur zwei Beispiele zu nennen, ein Scheitern der betreffenden Vorhaben bzw. Prozesse nicht verhindern können (rund 70% der Veränderungsaktivitäten scheitern). Dabei haben Führungskräfte meist mit ihrer Rolle die Entscheidungsbefugnis und damit die strukturelle Überlegenheit in Organisationen. Damit sind sie durch und mit ihrer Führungsarbeit ein Ausgangspunkt für den Rahmen, in welchem Organisationsentwicklung stattfindet. Der Einbezug der Mitarbeiter steht häufig im Zentrum der verfügbaren Ansätze zu Führung in organisationalen Veränderungsprozessen. Individuelles und organisationales Lernen scheint bislang noch kein wirksamer Bestandteil in Organisationsentwicklungsprozessen zu sein. Führungskräfte sehen sich Komplexitäten gegenüber, welche sich mit linearen Modellen nur bedingt lösen lassen. Dem gegenüber könnte Führung im Kontext von Organisationsentwicklung mit einem reflexiven Ansatz mehr unterstützt werden. Dabei würde, Arnold folgend, anstelle einer systematischen Perspektive mit linearer Ausrichtung vielmehr ein systemischer Blickwinkel mit reflexivem Zugang erkennbar. Dabei zeigt sich die Ambivalenz der Führungskräfte, zwischen der Suche nach Sicherheit und Orientierung, was lineare Modelle mit Abstrichen bieten, und der Alternative, dass reflexive Sichtweisen hilfreich sein können. Mit dieser Alternative ließe sich dann das Erreichen des faktischen Zieles (bspw. Neustruktur eines Verantwortungsbereiches) und darüber hinaus individuelles und in der Folge kollektives Lernen ermöglichen. Der reflexive Ansatz, welcher sich über den Bildungsbegriff, im Sinne der selbstbestimmten Suche nach Vervollkommnung, definiert (der in linearen Modellen gerade keinen Raum findet) findet hier seinen Raum. Die Fähigkeit der Selbstreflexion und des sich selbst Hinterfragens der eigenen Wahrnehmung und Deutungsmuster von Führungskräften leistet möglicherweise einen Beitrag zu ihrem Lernen. Aus der Perspektive dieser Forschungsarbeit wird unter Annahme der vorangestellten Ausführungen dann die Handhabung von Führungsarbeit in organisationalen Veränderungen anders ermöglicht.
Damit steht die Auseinandersetzung mit Führung in organisationalen Veränderungen im Fokus der Forschungsarbeit. Dabei greift die Arbeit auf das Santiago-Prinzip von Arnold zurück. Ein wesentlicher Bestandteil dieses Prinzips liegt darin, dass die betreffenden Handelnden zunächst eigene Wahrnehmungs- und Deutungsmuster diskursiv hinterfragen. Dieser Diskurs soll den Akteuren einen macht- und sanktionsfreien Raum ermöglichen. Selbst wenn in einer Organisation dies zunächst eine Annahme ist. Habermas ist es bewusst, dass dieser Raum nicht real existiert und dennoch ist er notwendig, um Kommunikation innerhalb sozialer Systeme überhaupt stattfinden zu lassen.
Die Möglichkeit gemeinsamen Diskurs zu führen, erlaubt denen am Veränderungsgeschehen beteiligten Akteuren eine auf gemeinsam verhandelte Sinnzuweisungen getragene Form von individuellem Lernen. Dabei wird Lernen im Rahmen des dialogischen Verständnisses angenommen und unterstützt die Beteiligten, verschiedene Perspektiven einzunehmen und nicht den unreflektierten, eigenen Urteilen zu folgen. Damit wird ein diskursiver Zugang zu organisationalen Veränderungen ermöglicht. Hiermit kann ein Zusammenhang von Führung in bzw. von Organisationsentwicklungsprozessen und bildungsbezogener Entwicklung der beteiligten Akteure hergestellt werden.
Bildung als die selbstbestimmte Suche nach individueller Vervollkommnung ermöglicht den Beteiligten im Veränderungsprozess eine Weiterentwicklung auf persönlicher und interpersonaler Ebene.
Die Forschungsarbeit erweitert die bestehenden Erkenntnisse der linear-kausalen Ansätze zur Führungsarbeit in organisationalen Veränderungen mit dem Beitrag, dass durch den diskursiven Führungsansatz die gemeinsame, bewusste und abgestimmte Suche nach alternativen Perspektiven und Lösungsoptionen möglich ist.
Der Erkenntnisbeitrag dieser Forschungsarbeit liegt darin, dass innerhalb der Theorie ein eigener Zugang aufgezeigt wird, um die Lücken zu füllen, welche die bisherigen Modelle auf-weisen. Dies umfasst einen neuen Zugang zur Führungsarbeit in Organisationsentwicklungsprozessen, der den Akteuren eine gemeinsam entwickelte und abgestimmte Sinnzuweisung in organisationalen Veränderungen ermöglicht. Dabei stellt die (betriebs-)pädagogische Handlungslogik hier den Ausgangspunkt dar, um die Individuen in ihrer selbstbestimmten Suche nach Erkenntnis und Vervollkommnung einzubeziehen. In diesem Rahmen wird gewürdigt, dass soziale Systeme die Fähigkeit haben, aus sich selbst heraus neue Ordnungsformen zu entwickeln. Leitend für diesen alternativen Lösungsansatz ist der Mangel bestehender Führungsmodelle in Organisationsveränderungen. Diesem Lösungsansatz liegt ein dialogisch-diskursiver Zugang auf organisationale Veränderungsprozesse zugrunde, welcher einen neuen Erkenntnisbeitrag im Bereich der Organisationsentwicklung darstellt.
Gerade die Haltung der Akteure, sich kritisch-konstruktiv mit sich selbst auseinander zu setzen, eine Selbstreflexivität und die Wahrnehmung des Gegenübers mit einzubeziehen, erweitert ihnen den Möglichkeitsraum, Führung in Veränderungen von Organisationen nachhaltig zu gestalten.
Dieses Ziel soll mit Hilfe folgender Forschungsfragen erreicht werden:
In welcher Weise bewirkt eine diskursive Haltung, dass die Handlungen in organisationalen Veränderungen auf eine von den beteiligten und betroffenen Akteuren gemeinsam geteilte und getragene Verständnisbasis gestellt werden?
In welcher Weise können betroffene Akteure mit Hilfe von Diskursen ihr Handeln innerhalb der Organisationsentwicklung auf der Basis von gemeinsam geteiltem und getragenem Verständnis gestalten?
Dabei werden Hypothesen aufgestellt und empirisch überprüft. Für das empirische Vorgehen sind zwei Varianten eingesetzt worden, um damit Aussagen über Zusammenhänge zwischen Lücken bestehender Führungsmodelle und der gemeinsam geteilten und getragenen Verständnis- und Handlungsbasis treffen zu können:
online Befragung (22 Teilnehmer): Aufgrund der Samplegröße sind keine Rückschlüsse auf die Grundgesamtheit aller Führungskräfte möglich. Diese Daten dienen der Orientierung zu einfach beobachtbaren Phänomenen in organisationalen Veränderungsprozessen.
Experteninterviews (16 Interviews): Vertiefende Untersuchung der angenommenen Zusammenhänge bzgl. der Lücken zwischen den bestehenden Führungsmodellen und einem diskursiven Zugang in Organisationsentwicklungsprozessen. Die Auswertung erfolgt im Rahmen einer qualitativen Inhaltsanalyse.
Folgende Hypothesen werden untersucht:
Je mehr die Beteiligten eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis gestalten, desto wirkungsvoller lassen sich Lücken bestehender Führungsmodelle in der Organisationsentwicklung füllen.
Je mehr die Beteiligten ihre Führungsrolle auf eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis stellen, desto vielfältiger ermöglichen sie allen Beteiligten, Herausforderungen in Organisationsentwicklungsprozessen mitzugestalten.
Je häufiger Diskurs in Führungsbeziehungen ermöglicht wird, desto nachhaltiger entsteht eine gemeinsam geteilte und getragene Verständnis- und Handlungsbasis der Beteiligten in Organisationsentwicklungsprozessen.
Die Hypothesen basieren auf den Ansätzen zur Diskurstheorie bei Foucault und Habermas. Nach Foucault dient der Diskurs als Vorgang der Herausbildung von Wahrheiten, die auf Grundlage des Seins, der Erfahrungen der Diskursbeteiligten entstehen. Für Habermas stellt der Diskurs die notwendige Grundlage dar, allen am Diskurs beteiligten Akteuren einen Zugang zu Formen kommunikativer Vernunft zur ermöglichen. Über diesen Zugang gelangen die betreffenden Akteure zu neuen Erkenntnissen und vorläufigen Wahrheiten. Diese beiden Säulen des Diskurses werden mit dem Dialogischen Management Ansatz nach Petersen verbunden, um einen Erkenntniszuwachs im bestehenden Theoriefeld zu erreichen.
Damit soll diese Forschungsarbeit mit ihrem Bezug auf Diskurs und Lernen als Erfolgsfaktor für bewusste Wahrnehmung von Führungsaufgaben einen Beitrag für individuelle und organisationale Entwicklung leisten.
Analyse des Potenzials von Phasenwechselmaterialien im Einsatz bei mehrschichtigen Bauelementen
(2023)
Das letzte Jahrzehnt hat die menschliche Wahrnehmung von Klimawandel und Energieverbrauch dramatisch verändert. Es ist ersichtlich, dass der Mensch aufgrund der
CO2-Emissionen aus dem fossilen Energieverbrauch eine dominante Rolle im Klima-
wandel spielt. Es ist heute weitgehend Konsens, dass wir den Einsatz fossiler Brenn-
stoffe reduzieren müssen, um die Abhängigkeit von den Lieferländern zu verringern
und die CO2-Emissionen zu reduzieren. In dieser Hinsicht ist die beste Alternative die
Verwendung Erneuerbarer Energien.
Energie aus solarer Strahlung ist weder kontinuierlich noch vollständig steuerbar, aber
quasi kostenlos verfügbar. Um die nicht kontinuierliche, teilweise steuerbare Bereit-
stellung zu kompensieren, muss die Energie für ihre Nutzung möglichst effizient ge-
speichert werden. Aktuell werden Bauteile bereits passiv als Wärmespeicher genutzt
und decken einen Teil des Wärmebedarfs von Gebäuden. Für eine umfangreichere
Deckung dieses Bedarfs können Bauteile mittels thermischer Aktivierung aktiv beladen
werden. Darüber hinaus können Materialien eingesetzt werden, um die thermische
Speicherkapazität zu erhöhen. Besonders interessant sind Phasenwechselmaterialien
(PCM), welche ohne Temperaturanstieg Wärme speichern.
PCMs weisen ein nichtlineares Verhalten auf, was bei Simulationen oder Steuerungen
neue Herausforderungen bedeutet. Daher ist es unerlässlich, ihr Verhalten anhand ei-
ner numerischen Methode zu modellieren. In dieser Dissertation wird die Finite-Diffe-
renzen-Methode (FDM) zur Modellierung und Simulation des thermischen Verhaltens
von thermisch aktivierten Bauteilen, ausgestattet mit PCM, benutzt und zur Diskreti-
sierung der Differentialgleichungen wird das Crank-Nicolson-Verfahren eingesetzt. Au-
ßerdem wird zur Modellierung des latenten Verhaltens von PCM die Enthalpie-Me-
thode angewendet. Die Hysterese vom PCM ist auch modelliert. Für die Simulation der
aktivierten Bauteile wird das Stern-Dreieck-Transformationsverfahren genutzt. Basie-
rend auf den genannten Methoden und den dazugehörigen Gleichungen wird ein Code
im MATLAB Programm implementiert, mit dem das thermische Verhalten von ther-
misch aktivierten Bauteilen, ausgestattet mit PCM, untersuchen werden kann. Letzt-
endlich wird zur Validierung des numerischen Modells das komplexe Verhalten von
PCM untersucht und zusätzlich wird der entwickelte Code durch thermische Simulati-
onen einer genormten Wand in „ANSYS Workbench“ verifiziert. Nach der Validierung
des Codes und seiner Entwicklung als TRNSYS-Komponente wird die Parametrisie-
rung durchgeführt. Sein Zweck war es, unter Berücksichtigung der verschiedenen Pa-
rameter eine Außenwand zu entwerfen, die den Heizwärmebedarf des Referenzge-
bäudes, SFH30 nach IEA SHC Task32, maximal und gleichmäßig im Laufe der drei
aufeinanderfolgenden kältesten Tage in jedem Monat der Heizperiode abdecken kann.
Schließlich wird ein Optimierungscode mit Hilfe der Simulated Annealing Methode im
MATLAB Programm implementiert. Mit diesem Code wird die Wandkonstruktion be-
stimmt, welche den gesamten Heizwärmebedarf des Referenzgebäudes gleichmäßig
im Lauf der drei aufeinanderfolgenden kältesten Tage in jedem Monat der Heizperiode
abdecken kann.