Refine
Year of publication
- 2017 (42) (remove)
Document Type
- Doctoral Thesis (42) (remove)
Language
- German (42) (remove)
Has Fulltext
- yes (42)
Keywords
- Betriebliche Gesundheitsförderung (1)
- Betriebsfestigkeit (1)
- Blue Collar Worker (1)
- DGR (1)
- Datenbanken (1)
- Eisen(II)-Komplexe (1)
- Elektromobilität (1)
- Fahrgemeinschaft (1)
- Faltenbildung (1)
- Frischbetondruck (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (8)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (3)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Biologie (1)
- Kaiserslautern - Fachbereich Informatik (1)
Eisen-Schwefel-Cluster bilden eine Klasse der vielseitigsten anorganischen Cofaktoren in der Natur und sind in allen Domänen des Lebens zu finden. Sie erfüllen vielfältige Aufgaben in verschiedensten Bereichen, wie beispielsweise Elektronentransport, regulatorische Funktionen oder enzymatische Aktivität. Da verschiedene Krankheiten auf Defekte von Eisen-Schwefel-Proteinen oder deren Biogenese zurückgeführt werden können, ist es von größtem Interesse unbekannte Fe/S Proteine zu charakterisieren und ihre Wirkungsweisen zu erforschen.
In den beiden häufigsten Clustertypen (der rhombische [2Fe-2S]- und der kubische [4Fe 4S] Cluster) werden zur Koordination der Eisenionen neben anorganischen Sulfidionen in der Regel vier Cysteine des Proteins verwendet. Daneben existieren jedoch auch Proteine, in denen andere Aminosäuren als Liganden fungieren.
Für das Rieske-Protein, welches in dieser Arbeit als Referenzprotein fungierte, wurden Mössbauerspektren bei drei passenden pH-Werten aufgenommen. Dadurch konnten zum ersten Mal die drei verschiedenen Zustände des Clusters mit diprotonierten, monoprotonierten bzw. deprotonierten Histidinen mittels Mössbauerspektroskopie untersucht und die entsprechenden Parameter ermittelt werden.
Im Hauptteil dieser Arbeit wurden die beiden weitgehend unerforschten Proteine Apd1 und Aim32 aus Saccharomyces cerevisiae kloniert, heterolog in E. coli exprimiert und isoliert. Durch eine anschließende Charakterisierung mittels UV/Vis-, ESR- und Mössbauerspektroskopie konnte der enthaltene [2Fe 2S] Cluster identifiziert und eine Koordination durch zwei Cysteine und zwei Histidine festgestellt werden, wobei die Proteine keine Rieske-Faltung besitzen. Nach Entdeckung des hochkonservierten HXGGH-Motivs, welches an ähnlicher Stelle zum dritten und vierten Cystein in der Primärstruktur von TLF´s (thioredoxin-like ferredoxins) vorliegt, wurden Mutationen dieser Histidine durchgeführt. In Untersuchungen an diesen Mutanten konnten Änderungen in den UV/Vis , ESR- und Mössbauerspektren der variierten Fe/S Cluster beobachtet werden. Bei der pKS-Wert-Bestimmung wurde nach jeder Mutation der vorhandenen Histidine zu Cysteinen, jeweils ein (De-)Protonierungsschritt weniger detektiert. Ebenso zeigten die Mutanten niedrigere Redoxpotentiale als der Wildtyp, dessen Redoxpotential pH-abhängig ist. Es handelt sich hierbei also um eine neuartige Klasse von Proteinen, die eine C-terminale Domäne mit einer Faltung ähnlich zu TLF´s besitzt, die aber gleichzeitig ein Rieske-artiges Zentrum beinhaltet. Eine Funktion bei Elektronentransfers liegt deshalb nahe, allerdings ist dazu noch nichts genaueres bekannt. Die Identifikation der genauen Wirkweise sowie der Reaktionspartner der beiden Proteine ist also weiterhin ein spannendes Forschungsgebiet. Ebenso wird der Nachweis über die Art der Bindung der Histidine durch eine Kristallstruktur wichtige Erkenntnisse über die Proteinklasse liefern.
In der modernen Hubschrauberfertigung werden neben Rotorblättern auch tragende
Strukturteile aus kohlenstofffaserverstärkten Kunststoffen eingesetzt. Um dabei
einen möglichst hohen Leichtbaugrad zu erreichen, werden immer neue Design-
Konzepte entwickelt. Innovative Design-Lösungen sind aber nur dann in der Fertigung
umsetzbar, wenn sie effizient, kostengünstig und fehlerfrei gefertigt werden
können.
Ein wichtiger Baustein für die Produktion sind die Fertigungsvorrichtungen, auf
denen die Bauteile laminiert und ausgehärtet werden. Diese Vorrichtungen sind ein
maßgeblicher Faktor zum Erreichen der geforderten Bauteilqualität. Das Augenmerk
liegt hierbei auf der sogenannten tool-part-interaction, also der Interaktion zwischen
Fertigungsvorrichtung und Faserverbundmaterial. Diese hat einen großen Einfluss
auf das Aufheiz- und Verpressungsverhalten der Prepreg-Materialien und somit auch
direkt auf fertigungsinduzierte Schädigungen wie Faltenbildung und Verzug.
Aktuell kann der Vorrichtungsentwickler lediglich auf Erfahrungswerte zurückgreifen,
um ein gutes Aufheiz- und Verpressungsverhalten der Vorrichtung zu erreichen.
Zur Minimierung von Falten fehlt jedoch häufig sogar das nötige Hintergrundwissen
über die grundlegenden Mechanismen der Faltenbildung. Nur ein langwieriger
trial-and-error Prozess nach Produktion der Vorrichtung kann helfen, Faltenbildung
zu eliminieren oder zumindest zu reduzieren.
Zukünftig muss es ein primäres Ziel für den Vorrichtungsbau sein, Fertigungsmittel
gezielt auslegen und bereits im Rahmen der Konzeptentwicklung Aussagen
über die zu erwartende Bauteilgüte und das Fertigungsergebnis machen zu können.
Einen möglichen Weg stellt die Einführung einer Herstellprozesssimulation dar, da
sie bereits in einer frühen Entwicklungsphase das Aufheiz- und Verpressungsverhalten
eines Bauteils sowie den Einfluss der Fertigungsvorrichtung auf die Bauteilqualität
einschätzen kann. Fertigungsinduzierte Schädigungen, wie der prozessinduzierte
Verzug, lassen sich bereits mit Hilfe von kommerziell erhältlichen Software-Tools
vorhersagen. Um zukünftig auch die Faltenbildung bei der Prepreg-Autoklavfertigung
vorhersagbar zu machen, müssen zwei übergeordnete Fragestellungen bearbeitet
werden:Faltenbildung: Wie läuft die Faltenbildung in der Autoklavfertigung ab und
welche Mechanismen bzw. Einflussfaktoren müssen besonders beachtet werden?
Simulation: Wie muss eine Herstellprozesssimulation geartet sein, um den
Einfluss der Fertigungsvorrichtung auf die Faltenbildung vorhersagen zu können
und Vorrichtungen auf diese Weise zukünftig auslegbar zu machen?
Experimentelle Untersuchungen an Omega- und C-Profilen helfen, die Faltenbildung,
ihren primären Mechanismus und vor allem die verschiedenen Einflussfaktoren
zu verstehen und zu bewerten. Im Falle der vorliegenden Arbeit wurde besonders
die Kompaktierung des Laminates über einem Außenradius und die daraus entstehende
überschüssige Faser- bzw. Rovinglänge als primärer Faltenauslöser betrachtet.
Es konnte aus den Experimenten abgeleitet werden, dass besonders der
Verpressungsweg, die Bauteilgeometrie, das verwendete Faserhalbzeug (unidirektional
oder Gewebe), die tool-part-interaction und das interlaminare Reibverhalten für
den untersuchten Mechanismus von Bedeutung sind. Daraus lassen sich die Mindestanforderungen
an eine Herstellprozesssimulation zusammenstellen.
Eine umfassende Materialcharakterisierung inklusive der interlaminaren Reibung,
der Reibinteraktionen zwischen Bauteil und Fertigungsvorrichtung sowie des
Verpressungsverhaltens des Faserbettes sind der erste Schritt in der Entwicklung
einer industriell einsetzbaren Simulation.
Die Simulation selbst setzt sich aus einem thermo-chemischen und einem
Kompaktiermodul zusammen. Ersteres ermittelt das Aufheizverhalten der Vorrichtung
und des Bauteils im Autoklaven und stellt darüber hinaus Aushärtegrad und
Glasübergangstemperatur als Parameter für das zweite Simulationsmodul zur Verfügung.
Zur korrekten Bestimmung des Wärmeübergangs im Autoklaven wurde ein
semi-empirisches Verfahren entwickelt, das in der Lage ist, Strömungseffekte und
Beladungszustände des Autoklaven zu berücksichtigen. Das Kompaktiermodul umfasst
das Verpressungsverhalten des Faserbettes inklusive des Harzflusses, der toolpart-
interaction und der Relativverschiebung der Laminatlagen zueinander. Besonders
das Erfassen der Durchtränkung des Fasermaterials mittels eines phänomenologischen
Ansatzes und das Einbringen der Reibinteraktionen in die Simulation muss
als Neuerung im Vergleich zu bisherigen Simulationskonzepten gesehen werden. Auf
diese Weise ist die Simulation in der Lage, alle wichtigen Einflussfaktoren der Faltenbildung zu erfassen. Der aus der Simulation auslesbare Spannungszustand kann
Aufschluss über die Faltenbildung geben. Mit Hilfe eines im Rahmen dieser Arbeit
entwickelten (Spannungs-)Kriteriums lässt sich eine Aussage über das zu erwartende
Faltenrisiko treffen. Außerdem ermöglicht die Simulation eine genaue Identifikation
der Haupttreiber der Faltenbildung für das jeweilige Bauteil bzw. Fertigungskonzept.
Parameter- und Sensitivitätsstudien können dann den experimentellen Aufwand
zur Behebung der Faltenbildung deutlich reduzieren.
Die hier vorliegende Arbeit erweitert damit nicht nur das Wissen über die Faltenbildung
in der Prepreg-Autoklavfertigung und deren Einflussfaktoren, sondern gibt
dem Vorrichtungsentwickler auch eine Simulationsmethodik an die Hand, die ihn in
die Lage versetzt, Fertigungsvorrichtungen gezielt auszulegen und zu optimieren.
In addition to rotor blades, primary structural parts are also manufactured from
carbon fiber reinforced plastics in modern helicopter production. New design concepts
are constantly developed in order to reach a maximum degree of lightweight
design. However, innovative design solutions are only realizable, if they can be manufactured
efficiently, economically, and free from defects.
Molds for laminating and curing of composite parts are of particular importance.
They are a relevant factor for achieving the required part quality. The attention is directed
at the so-called tool-part-interaction, i.e. the interaction between tools and fiber
composite materials, which has a great influence on the heating and compaction
behavior of the prepreg materials and therefore also directly on manufacturing induced
damage such as wrinkling and warping.
At present, the tooling designer can only resort to his/her experience to achieve
a good heating and compaction behavior of the molds. However, the necessary background knowledge about the fundamental mechanisms of wrinkling is often lacking
and only a tedious trial-and-error process after the production of the mold can
help eliminate or at least reduce wrinkling.
In the future, the primary goal for tooling production must be to specifically design
the manufacturing equipment and to be able to already make a statement about
the expected part quality and production result during the conceptual stage. A possible
solution is the introduction of a manufacturing process simulation, because at an
early development stage it can estimate the heating and compaction behavior of a
part as well as the influence of the manufacturing equipment on part quality. Commercially
available software tools are already able to predict damage during production,
as e.g. process induced deformation. In order to make wrinkling predictable also,
two primary issues need to be dealt with: Wrinkling: How does wrinkling develop in autoclave manufacturing and which
mechanisms or influencing factors need to be particularly considered?
Simulation: What must be integrated into a manufacturing process simulation,
if it is to predict the influence of the mold on wrinkling and to ensure future
tooling improvement? Experimental examinations of omega and c-profiles help to understand and
evaluate wrinkling, its primary mechanism, and particularly the various influencing
factors. In the case of the present paper, the compaction of the laminate over a convex
radius and the resulting surplus roving length was especially examined as primary
cause for wrinkling. From the experiments could be deduced that the compaction,
the part geometry, the utilized semi-finished fabrics (unidirectional and woven), the
tool-part-interaction and the interlaminar friction are of importance for the examined
mechanism. These factors determine the minimum requirements for a manufacturing
process simulation.
A comprehensive material characterization including interlaminar friction, friction
interaction between part and tool as well as the compaction behavior of the fiber bed
are the first step toward the development of a simulation on an industrial scale. The
simulation consists of a thermochemical and a compaction module. The former determines
the heating behavior of the mold and the part in the autoclave and additionally
provides the degree of cure and the glass transition temperature as parameters
for the second simulation module. A semi-empirical method that is able to consider
flow effects and loading conditions of the autoclave was developed for the correct
determination of the heat transfer within the autoclave. The compaction module comprises
the compaction behavior of the fiber bed including resin flow, tool-partinteraction
and relative displacement of the layers. Especially the integration of the
saturation phase by means of a phenomenological approach and the inclusion of friction
interaction in the simulation must be seen as innovation in comparison to other
simulation concepts. The simulation is thus able to capture all the important influencing
factors of wrinkling. The state of stress that is retrieved from the simulation can
provide information about the formation of wrinkles. Furthermore, the simulation enables
an exact identification of the main drivers for the development of wrinkles in the
respective part or manufacturing concept. Parameters and sensitivity analyses can
then significantly reduce the experimental effort for the elimination of wrinkling.
The present study does therefore not only expand the knowledge about wrinkling
and its influencing factors in prepreg autoclave manufacturing, but also presents
the tooling designer with a simulation methodology that enables him/her to systematically
develop and optimize manufacturing equipment.
In der vorliegenden Arbeit wird die Entwicklung und Beurteilung einer alternativen
kontinuierlichen Preform-Technologie zur Vorstabilisierung von trockenen Kohlenstofffaserhalbzeugen
unter Verwendung der Ultraschall-Schweiß-Technologie für
Kunststoffe präsentiert. Aktuell verwendete Technologien für Großbauteile in der
Luftfahrt sind in der Regel diskontinuierlich und wenig produktiv. Zudem weisen sie
Probleme hinsichtlich des gewünschten Kompaktierungsgrades und der Oberflächenqualität
auf. Diesen Nachteilen soll durch den Einsatz des kontinuierlichen
Ultraschall-Preformens begegnet werden.
Innerhalb der Ausarbeitung wurde eine neue Funktionseinheit, die für die Anforderungen
in einem kontinuierlichen Preform-Prozess geeignet ist, entwickelt und mit
passender Sensorik und Steuerung in einen Versuchsstand integriert. Durch statische
Versuche konnte das halbzeugabhängige Aufheizverhalten untersucht
werden. Es zeigte sich, dass der Erwärmungsprozess durch Reibung zwischen den
Filamenten bestimmt wird und somit einen homogenen Prozess unterstützt.
Untersuchungen der Parameter führten zu diskreten und materialabhängigen Prozessfenstern
und einem tieferen Verständnis für die Einflüsse des Schweiß-Prozesses
auf das Preform-Verhalten. Durch die Betrachtung von Prozessgrenzen
konnten unerwünschte Strukturdefekte ausgeschlossen und das Potenzial für die
Nutzung verschiedener Materialien sowie für den Einsatz an komplexeren Bauteilen
aufgezeigt werden. Weiterhin wurde durch Permeabilitätsuntersuchungen gezeigt,
dass es einen materialabhängigen Einfluss des Prozesses auf die Infusionierbarkeit
gibt, der sich sowohl als eine Verbesserung als auch eine als Verschlechterung
darstellen kann. Durch vibrationsinduzierte Verdichtungsprozesse konnten höhere
Faservolumengehalte bei einer gesteigerten Produktivität erzielt werden. Auch eine
partielle Verbesserung der mechanischen Eigenschaften ist durch die Anwendung
des Ultraschall-Prefom-Verfahrens möglich. Für die Herstellung komplexerer Strukturen
eignet sich das Verfahren ebenso, wie an einem Demonstrator gezeigt werden
konnte. Geometrische Restriktionen grenzen die Anwendbarkeit allerdings ein.
Durch die Entwicklung der Technologie konnte eine vielversprechende Alternative
dargelegt werden, die Kosten sparen und Bauteileigenschaften verbessern kann.
Zunehmend strengere Regulierungen der CO2-Emissionen von Neuwagen seitens
der europäischen Union erfordern den Einsatz von Leichtbaukonzepten, welche für
die Massenproduktion geeignet sind. Dies erfordert den Einsatz leistungsstarker und
zugleich kostengünstiger Werkstoffe. Für den breiten Einsatz im Transportbereich
werden daher vermehrt kurzglasfaserverstärkte Thermoplaste zur Substitution
klassischer Metallkomponenten eingesetzt. Die geringen Werkstoffkosten, die stetig
weiterentwickelten mechanischen Eigenschaften sowie die Möglichkeit zur
Funktionsintegration aufgrund der hohen Formgebungsfreiheit des Spritzgussprozesses
sind entscheidende Vorteile dieser Werkstoffgruppe. Der Spritzgussprozess
führt zu einer lokal stark variierenden Faserorientierung. Die Werkstoffeigenschaften
hängen dabei entscheidend von der Faserorientierung ab. Besitzt der
Werkstoff parallel zur Faserrichtung seine höchste Steifig- und Festigkeit, sind diese
quer zur Faserorientierung am niedrigsten. Zusätzlich besitzt die thermoplastische
Matrix ein ausgeprägt nichtlineares Werkstoffverhalten, wodurch die strukturmechanische
Berechnung kurzfaserverstärkter Bauteile deutlich erschwert wird. Eine
geeignete Methodik zur Charakterisierung und numerischen Abbildung des
nichtlinearen anisotropen Werkstoffverhaltens mit anschließender Lebensdaueranalyse
ist zurzeit nicht vorhanden und bildet das Ziel dieser Arbeit.
Der untersuchte Werkstoff findet häufig Einsatz in strukturellen Komponenten im
Fahrwerks- und Motorbereich. In diesen Einsatzgebieten ist er zusätzlich zu den
mechanischen Lasten auch Umwelteinflüssen, wie beispielsweise Feuchtigkeit oder
Steinschlägen, ausgesetzt. Im Rahmen der durchgeführten experimentellen Arbeiten
wird der Einfluss dieser zusätzlichen einsatzbedingten Lasten auf die statischen
Eigenschaften und das Lebensdauerverhalten untersucht. Ist ein Fahrwerksbauteil
ganzjährig Wasser und Feuchtigkeit ausgesetzt, kann es in Winterzeiten auch zu
Kontakt mit Tausalzlösungen kommen. In Auslagerungsversuchen über einen
Zeitraum von etwa einem Jahr wird der Werkstoff folgenden Medien ausgesetzt:
Wasser, wässrigem Natriumchlorid und wässrigem Calciumchlorid. Zu verschiedenen
Expositionszeiten werden Proben entnommen und statischen Zugversuchen
unterzogen. Die Auslagerung bewirkt eine deutliche Verschlechterung der Werkstoffeigenschaften,
welche jedoch durch eine Rücktrocknung im Vakuumofen wieder
vollständig hergestellt werden kann.
Mithilfe eines speziell entwickelten Prüfstandes wird der Einfluss von Wasser und Calciumchlorid auf das zyklische Werkstoffverhalten untersucht. Dieser Prüfstand
erlaubt das Besprühen der Proben während eines Dauerschwingversuches. Eine
Reduktion der Lebensdauer aufgrund einer Exposition mit Calciumchlorid kann nicht
nachgewiesen werden. Zur Simulation von dauerhaften Mikro-Steinschlägen wird die
Oberflächenrauheit von Probekörpern künstlich mittels Sandstrahlen erhöht. Sowohl
in den statischen als auch zyklischen Versuchen unter Medieneinfluss kann nur eine
geringe Festigkeitsreduktion ermittelt werden. Dies ist auf die Duktilität des Werkstoffes
und der damit einhergehenden Unempfindlichkeit gegenüber Kerben
zurückzuführen.
Moderne Prozesssimulationen können die Faserverteilung in Bauteilen komplexer
Geometrie noch nicht realitätsnah abbilden, weshalb in dieser Arbeit die
experimentelle Orientierungsanalyse im Mikro-Computertomographen verwendet
wird. Neben Probekörpern wird auch eine komplette Fahrwerkskomponente im
Mikro-Computertomographen analysiert. Die Orientierungsinformationen finden zur
numerischen Beschreibung des Werkstoffverhaltens in der Finite-Elemente-Methode
Verwendung. Eine vollständige statische Werkstoffcharakterisierung dient als
Grundlage für die komplexe Werkstoffmodellierung. Zur Beschreibung des
Lebensdauerverhaltens werden umfangreiche Dauerschwing- und Restfestigkeitsversuche
für unterschiedliche Faserorientierungen und Spannungsverhältnisse
durchgeführt.
Selbstentwickelte Programmroutinen importieren den Faserorientierungstensor jedes
FE-Elementes und definieren in Abhängigkeit der Faserrichtung sowie der
Faseranteile in die jeweilige Richtung das Werkstoffmodell. Eine inkrementelle
Lebensdaueranalyse greift ebenfalls auf selbstentwickelte Routinen zurück und
berechnet die ertragbare Schwingspielzahl unter Berücksichtigung einer zyklischen
Steifigkeitsdegradation hochbelasteter Elemente und damit einhergehenden
Spannungsumlagerungen. Die Routine wird an den zyklisch geprüften Standard-
Probekörpern kalibriert und an der bereits erwähnten Fahrwerkskomponente
validiert. Für unterschiedliche Lastniveaus und Spannungsverhältnisse werden die
Versuchsergebnisse sehr gut durch die entwickelte Berechnungsmethodik
abgebildet. Sowohl die ertragbare Schwingspielzahl als auch das Schadensbild der
Simulation stimmen mit den Versuchen überein.
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
Das Methodenrepertoire der Stadt- und Umweltplanung befindet sich insbesondere durch den zunehmenden Einsatz von Geoweb-Methoden insgesamt in einem Umbruch hin zu einer „Smart urban Crowdsourcing“-Wissensgesellschaft [STREICH 2011: 236 F]. Kontinuierlich nimmt die An-zahl zur Verfügung stehenden Geoweb-Techniken zu, die auf ihren Einsatz in der Stadt- und Umweltplanung warten, sich in planerische Methoden integrieren oder zu solchen weiterentwickeln lassen. Am Beispiel des Verhältnisses von Planern gegenüber Bürgern werden die Veränderungen des planerischen Aufgabengebietes besonders dadurch deutlich, dass es sich hierbei nicht mehr um den reinen Transport von Informationen und gegebenenfalls eine Hilfestellung bei der Übersetzung dieser in einem klassischen Sender-Empfänger-Prinzip handelt. In einer, durch soziale Netzwerke und mobile Endgeräte, zunehmend digitalisierten Welt, ist es theoretisch möglich, dass jedem Bürger zu jeder Zeit an jedem Ort jede beliebige In-formation zum Abruf bereit steht. Auf diese Weise kann sich der Bürger informieren, seine eigene Meinung bilden und diese teilen. Da die ange-sprochenen mobilen Endgeräte zusätzlich mit Verortungstechnik ausgestat-tet sind und die geteilten Informationen um Angaben eines räumlichen Bezuges in Form von Geo-Koordinaten ergänzt werden können, bekommen die auf diesem Wege erstellten Datensätze auch zunehmend Aufmerksamkeit von Seiten der Raumplanung.
Durch die neu verfügbaren Techniken des Geowebs verändert sich auch das Aufgabengebiet von Stadt- und Umweltplanern: Um den jeweiligen „Stand der Technik“ hinsichtlich einer „smarten Planung“ [EXNER 2013] einsetzen zu können, werden sich Planer heute und auch zukünftig kontinuierlich über neue Techniken informieren müssen, diese auf ihre Einsatzpotentiale untersuchen, bestehende Planungsmethoden ergänzen und zum Einsatz bringen. Die Herausforderungen liegen dabei in der Prüfung der Geoweb-Techniken, deren Fortentwicklung sowie Integration in planerische Methoden. Beim Einsatz dieser neuen Methoden steht Generierung eines Mehrwertes für die von einer Planung betroffenen Menschen und die Planer selbst im Mittelpunkt. Mit dem Smartphone steht ein Werkzeug zur Verfügung, welches die Grundlage eines jeden, aktuell in Wissenschaft und Wirtschaft formulierten, „Smart-City“-Ansatzes bilden kann und zu dessen Umsetzung benötigt wird.
Nach einer theoretischen Behandlung des Aufgabengebietes der Stadt- und Umweltplanung und des Planungssystems in Deutschland, geht die vorliegende Arbeit zunächst auf die Genealogie des Internets und dessen Veränderungen der letzten Jahre ein. Neben der Entwicklung des Compu-tereinsatzes in der räumlichen Planung werden die neuen Möglichkeiten durch die Verbreitung von Smartphones behandelt. Außer den Potentialen wie der Erstellung raumbezogener Informationen durch den Einsatz der mobilen Endgeräte werden auch die dadurch verstärkt aufkommenden Themen des Datenschutzes und des Datenbewusstseins betrachtet.
Die Techniken und Methoden lassen sich den klassischen Aufgabenbereichen von Stadt- und Umweltplanern zuordnen. In der vorliegenden Arbeit erfolgt dieser Ansatz anhand der vier Bereiche der Strukturplanung, der Raumsensorik, der Gestaltungsplanung und den Kommunikationsplattformen entsprechend.
Das Kapitel zum Aufgabengebiet der Strukturplanung wird bei der zugehörigen Analyse nach den geometrischen Struktureinheiten punktueller, linien- und flächenhafter Informationen unterteilt. Der Bereich der Raumsensorik behandelt neben punktuell im Raum installierten Sensoren (wie z.B. Klimasensoren), die Ansätze der Humansensorik bzw. des „Menschen als Sensor im Raum“ [GOODCHILD 2007, RESCH ET AL. 2011, EXNER ET AL. 2012] und die Möglichkeiten optischer Sensortechniken, die mit unbemannten Luftfahrtgeräten nun auch als „fliegendes Auge“ zum Monitoring des Stadt- und Umweltraumes zum Einsatz gebracht werden können. Im klassischen Themengebiet der Gestaltungsplanung werden die Potentiale von virtuellen 3D-Welten in den Bereichen 3D-(Stadt-)Modelle, 360-Grad-Videos, Augmented Reality und Virtual Reality behandelt. Das den Hauptteil abschließende Kapitel rückt dagegen die Aspekte Information und Kommunikation noch einmal explizit in den Vordergrund. Hierbei wird unter anderem der Gedanke eines City-Dashboards hinsichtlich des damit zu erzielenden Mehrwertes fokussiert.
Neben der Erweiterungen hinsichtlich des Aufgabengebietes von Planern ändert sich auch dessen Rollenverständnis: In der Wissensgesellschaft befindet sich die Rolle des Planers zunehmend im Wandel und dieser nimmt eher die Rolle eines „Anwaltes in raumbezogenen Fragen“ der Bürger ein, berät diese, hilft bei der Formulierung deren Anliegen (beispielsweise auch durch die Zurverfügungstellung geeigneter Plattformen und Werkzeuge) und bringt deren Belange im Planungsprozess ein [STREICH 2014:167].
Die Auswirkungen auf das Selbstverständnis des Berufsbildes des Planers werden in einem abschließenden Fazit noch einmal aufgegriffen und zukünftige Themen im Ausblick und weiteren Forschungsbedarf thematisiert und skizziert.
Kurzusammenfassung
Molke gilt als Rohstoff, der ein in großen Mengen anfallendes Nebenprodukt der Käseindustrie ist. In den vergangenen Jahrzehnten wurde die wirtschaftliche Nutzung durch Wertschöpfung dieses kostengünstigen aber wertvollen Produktes intensiviert. Zu den drei wichtigsten Bestanteilen von Molke gehören Mineralien, Eiweiß und Lactose. Gerade der hohe physiologische Nährwert von Molke bei fast vollständiger Abwesenheit von Fett legt eine Anwendung in der Lebensmittelindustrie nahe. So werden inzwischen Bestandteile von Molke in Süßigkeiten, Diätetika, Tablettenfüll-stoffen, Verdickungsmitteln und Säuglingsernährung verwendet.
Vor der Verwendung von mikrobiellem Lab, welcher keine Spätblähung mehr verursacht, gab es ein Problem mit Nitratbelastung in der Molke durch Zugabe von Kalium- bzw. Natriumnitrat während der Käseherstellung zur Inhibition von Fehlgärungen. Bei Kleinkindern droht Lebensgefahr durch innere Erstickung, da das aus Nitrat gebildete Nitrit (durch Bakterien der Darmflora) Hämoglobin oxidiert. Daher wurden die Molkereien gezwungen sich mit dem Thema zu beschäftigen, um dieses Problem zu lösen. Für Erwachsene ist dies aber ungefährlich.
In dieser Arbeit wurde die Denitrifikation von Molkekonzentrat mit nativen Zellen und mit immobilisierten Zellen von Paracoccus denitrificans durchgeführt. Die indirekte Anwendung von dem Bakterium zur Nitratentfernung aus Molkekonzentrat befasst sich mit der Integration der Regeneration des Eluenten in den Prozess nach dem chromatographischen Verfahren. Das im Eluenten enthaltene Nitrat wird auch in Gegenwart von Natriumchlorid über mehrere Zwischenstufen zu elementarem Stickstoff reduziert. Somit wird der Eluent für eine weitere Regeneration wiederverwendbar und das Abwasseraufkommen des Gesamtprozesses stark reduziert. Eine kontinuierliche Denitrifikation des Eluenten mit einer Natriumchlorid-konzentration von 35 g/L wurde durch native Zellen realisiert. Als geeignete Denitrifikationsbedingungen wurden eine Temperatur von 37 °C, ein pH-Wert von 7,5 und die Zugabe von Acetat als Elektronendonor ermittelt.
Kontinuierliche Denitrifikationen mit nativen Zellen wurden in einer Laboratoriums- und Pilotanlage in Bioreaktoren mit einem Volumen von 5 L bzw. 25 L durchgeführt. Die Abtrennung der nativen Zellen zur Rückführung des Eluenten in die chroma-tographische Stufe erfolgte durch Cross-Flow-Filtration. Die vollständige Entfernung von Nitrat in Molkekonzentrat ist bis zu 450 Liter pro Tag im Pilotmaßstab möglich.
Im Falle immobilisierter Zellen wird die Zellabtrennung vereinfacht, da die Immobilisate 1,5-5 mm groß sind. Die Immobilisate konnten somit durch ein einfaches grobmaschiges Sieb zurückgehalten werden. Die Immobilisierung der Mikroorganis-men Paracoccus denitrificans wurde mit Hilfe des LentiKats® der Fa. genialLab GmbH hergestellt. Mit dem immobilisierten Verfahren wurde Nitrat im Eluent bzw. direkt in Molkekonzentrat denitrifiziert. Die Entfernung von Nitrat im Eluent ist bei gleichen Bedingungen wie mit nativen Zellen möglich. Allerdings zeichnen sich immobilisierte Mikroorganismen durch eine geringere Aktivität im Vergleich zu nativen Zellen aufgrund der Diffusionslimitierung, aus. So wurde durch immobilisierte Zellen eine Abbaugeschwindigkeit von v = 22,2 mgNitrat h-1∙g-1BTM im kontinuierlichen Betrieb erreicht, während durch Verwendung nativer Zellen Abbauraten von bis zu 32,4 mgNitrat h-1∙g-1BTM realisiert werden konnten. Der direkte Nitratabbau im Molkekonzentrat wurde bei Temperaturen von 10 °C bis zu 30 °C durchgeführt. Nach 1 h bei 30 °C konnte 90 mg/L Nitratkonzentrat vom Molkekonzentrat entfernt werden. Eine Akkumulierung von Nitrit ist nicht aufgetreten. Bei niedrigeren Temperaturen wurde der Nitratabbau geringer. Bei einer Temperatur von 10 °C ist es nicht mehr möglich Nitrat abzubauen. Die Untersuchung der wichtigen Inhaltstoffe, wie Protein, Mineralstoffe, Lactose, Glucose und Galactose im Molkekonzentrat wurde nach der Denitrifikation durchgeführt. Eine Änderung der Konzentration konnte nicht nachgewiesen werden.
Schlagworte: Molke, Molkeproteine, Denitrifikation, Nitrat, Immobilisierung, Paracoccus denitrificans
In den vergangenen Jahren hat sich der Bereich der Nanotechnologie zu einem fachübergreifenden Gebiet entwickelt. Nanopartikel besitzen aufgrund ihrer Größe und einem hohen Oberfläche zu Volumen Verhältnis besondere chemische und physikalische Eigenschaften, die sich von denen größerer Partikel unterscheiden. Das Forschungsinteresse der letzten Zeit liegt insbesondere auf deren magnetischem Charakter. Damit verbunden sind auch vielseitige industrielle Einsatzmöglichkeiten. Magnetische, nanostrukturierte Materialien werden in Bereichen wie der Chemie, der Physik sowie der Biomedizin untersucht und angewendet.
In der Chemie werden die Herstellung und die Untersuchung der katalytischen Eigenschaften von Nanopartikeln intensiv erforscht. Zu den zahlreichen Synthesemethoden von nanoskaligen Partikeln zählen zum Beispiel die thermische Zersetzung, die Mitfällung oder die Hydrothermalsynthese. Die katalytische Aktivität und die Selektivität dieser Materialien werden von der Partikelgröße, der Morphologie und der Anzahl an aktiven Oberflächenzentren beeinflusst. Die Entwicklung von stabilen Katalysatoren ist entscheidend für viele Anwendungen. Zur Stabilisierung und zum Schutz gegen Oxidation und Erosion werden oberflächenaktive Substanzen (z. B. Polymere, Tenside), anorganische oder poröse Trägermaterialien (Siliciumdioxid, Zeolithe) eingesetzt. Ein wichtiges Ziel für nachhaltige Prozesse sind leicht abtrennbare und wiederzuverwendende Nanopartikel. Dies ermöglichen zum Beispiel Kern-Schale-Katalysatoren, die eine katalytisch aktive Schale (Rh, Pt, Au) und einen magnetischen Kern aus Fe, Co, Ni besitzen. Verschiedene magnetische Nanopartikel wurden in zahlreichen Reaktionen (z. B. C-C-Kupplungen, Hydrierung von Olefinen, Hydroformylierung) getestet und zeichneten sich als katalytisch aktive und stabile Katalysatoren aus.
Im Bereich der Physik werden die magnetischen und die elektronischen Eigenschaften der Nanopartikel untersucht. Die magnetischen Einheiten werden im Forschungsgebiet der Informationstechnologie als Nanobauteile in Speichermedien eingesetzt. Die Verwendung basiert auf der Nutzung des ferromagnetischen Verhaltens einzelner Nanomaterialien in Speichereinheiten. Bei der Herstellung werden die elektrischen, optischen und magnetischen Eigenschaften der Nanopartikel beeinflusst. So tritt mit abnehmender Partikelgröße ein Übergang vom Ferromagnetismus zum Paramagnetismus auf. Außerdem beginnt die Magnetisierungsrichtung zeitlich und räumlich zu fluktuieren und die magnetisch
gespeicherten Informationen gehen verloren. Die Miniaturisierung der Komponenten (z. B. Computerchips) bei gleichzeitiger Vergrößerung der Datenspeicherdichte ist sehr wichtig. Einer der vielversprechenden Zusammensetzungen dafür sind FePt-Partikel, die auch nach Entfernen des externen elektrischen Feldes ihre Magnetisierungsrichtung nicht sofort verlieren.
Im biomedizinischen Bereich eröffnen magnetische Nanopartikel ebenfalls neue Möglichkeiten. Sie werden als spezielle Kontrastmittel für die bildgebenden Verfahren der Magnetresonanztomografie genutzt. Außerdem können funktionalisierte Partikel als Transportmittel für Wirkstoffe bei einer Krebstherapie eingesetzt werden. Eine gezielte Positionierung des mit Wirkstoff modifizierten magnetischen Nanopartikels im Körper ist dabei möglich. Die Bioverträglichkeit der Materialien wird durch eine Verkapselung der Nanopartikel mit biologisch nicht belastenden, nicht toxischen Substanzen (z. B. Polyvinylalkohol, Polyethylenglykol, Stärke oder Dextran) erreicht.
Eine Materialklasse, die Wissenschaft und Technologie vereinigt und die in den letzten Jahren immer mehr an Interesse gewonnen hat, stellen die Heusler-Verbindungen dar. Dies sind ternäre intermetallische Zusammensetzungen der Form X2YZ, die im Jahr 1903 von Fritz Heusler entdeckt und beschrieben wurden. X und Y stehen meistens für Übergangmetalle, wohingegen Z häufig ein Element der III. – V. Hauptgruppe darstellt. Eine Kombination der unterschiedlichen charakteristischen Merkmale (halbmetallischer Charakter, hohes magnetisches Moment, hohe Curie-Temperatur) in einer Verbindung ermöglicht vielseitige Anwendungen dieser Materialien. Die Eigenschaften der Heusler-Verbindungen können durch die Veränderung der Zusammensetzung (Elementenaustausch) oder durch die Variation der Stöchiometrie der kombinierten Elemente beeinflusst werden. Unter den Heusler-Materialien sind halbmetallische Ferromagneten, ferrimagnetische Zusammensetzungen, Halbleiter und Supraleiter vertreten. Die X2YZ-Kompositionen werden industriell als magneto-optische Materialien, als Formgedächtnislegierungen, in thermoelektrischen Elementen oder als topologische Isolatoren verwendet. Das
Augenmerk der Spintronik liegt bei der hohen Spinpolarisation der Heusler-Verbindungen. Effiziente Bauelemente mit einem hohen Riesenmagnetwiderstand oder einem hohen Tunnelmagnetwiderstand werden in Festplattenleseköpfen von Computern und in magnetischen Sensoren eingebaut. Mit den ersten katalytischen Experimenten an ternären intermetallischen Materialien von Hedvall und Hedin im Jahr 1935 wurde auf ein weiteres Forschungs- und Einsatzbereich für Heusler-Verbindungen hingewiesen.
Das Feld der Anionenerkennung ist ein stets wachsendes Forschungsgebiet, auch weil eine Vielzahl biochemischer Prozesse mit negativ geladenen Substraten und Co-Faktoren verbunden sind. Da solche Prozesse in wässrigem Milieu stattfinden, sind Verbindungen von besonderem Interesse, die Anionen in Wasser zu binden vermögen. Geeignete Rezeptoren zur Erkennung von Anionen sind die im Arbeitskreis Kubik entwickelten Cyclopeptide (CPs) und Bis(cyclopeptide) (BCPs).
Da die Anionenaffinität der in der Vergangenheit untersuchten BCPs nur in wenigen ausgesuchten Lösungsmittelgemischen und nie in reinem Wasser charakterisiert wurde, wurde im ersten Teil meiner Promotion ein BCP-Derivat entwickelt, mit dem kalorimetrische Bindungsstudien in einem breiten Spektrum von Lösungsmittelgemischen möglich waren. Die hierbei erhaltenen thermodynamischen Daten sollten Informationen über die Prinzipien geben, die der Anionenaffinität dieser Verbindungen zugrunde liegen. Es wurde zunächst die Synthese des bereits in meiner Diplomarbeit untersuchten BCP1 optimiert, dessen Wasserlöslichkeit durch insgesamt sechs Triethylenglycolreste vermittelt wird. Dieser Rezeptor erwies sich nach geeigneter Isolation ausreichend löslich, um Lösungen in Wasser mit einer Konzentration von bis zu 0.25 mM herzustellen. Es wurde ebenfalls das BCP2 mit einer zusätzlichen solubilisierenden Gruppe im Vergleich zu BCP1 synthetisiert, welches in bis zu 10 mM Konzentrationen in Wasser löslich ist. Mit beiden Rezeptoren wurden in Wasser, verschiedenen wässrigen Lösungsmittelgemischen und reinen organischen Lösungsmitteln Bindungsstudien durchgeführt, wodurch quantitative und qualitative Einblicke erhalten wurden, wie die Solvatisierung des Anions und des Rezeptors in den verschiedenen Lösungsmitteln die Anionenkomplexierung beeinflussen.
Im zweiten Teil dieser Arbeit wurde an der Entwicklung von CP-basierten chemischen Sensoren und Sonden gearbeitet, mit denen Anionen in Lösung detektiert werden können. In diesem Zusammenhang wurden Synthesen für zwei CPs entwickelt, die auf unterschiedliche Art auf Goldelektroden immobilisiert werden können. Diese Elektroden sollen für die elektrochemische Anionendetektion dienen. Im Bereich chemischer Sonden sollten mit CPs dekorierte Goldnanopartikel (Au-NPs) dargestellt werden, die nach Anionenzugabe agglomerieren. Die damit verbundene Farbveränderung der Lösung soll einen Anionennachweis mit bloßem Auge gestatten. Es wurden zwei CP-Grundstrukturen dargestellt, welche als anionenerkennende Liganden auf Au-NPs dienen können. Ebenfalls wurden erste Au-NPs synthetisiert, die eine Mischung oberflächengebundener inerter und CP-funktionalisierter Liganden enthielten.
Bei der Entwicklung moderner Landmaschinen besteht der Zielkonflikt zwischen Zuverlässigkeit und Dauerhaltbarkeit auf der einen Seite und Kosten- und Fahrzeugeffizienz auf der anderen Seite. Repräsentative Lastkollektive zur Beschreibung der Betriebsbelastungen im Nutzungsbetrieb sind dabei eine zentrale Forderung zur Dimensionierung von Bauteilen. Eine große Herausforderung besteht in der adäquaten Beschreibung der Nutzungsvariabilität einer Kundenpopulation und der Identifikation der kritischsten Kombination der Lastfälle.
Ziel der vorliegenden Arbeit ist die Ermittlung und Erprobung eines Verfahrens zur Beschreibung der wirkenden Belastungen von Traktoren im Anwendungsbetrieb. Im Fokus steht die Ableitung repräsentativer Lastkollektive, die als Grundlage für Betriebsfestigkeitsprüfungen dienen. Inhaltlich basiert das eingesetzte Verfahren auf der systematischen Trennung der auftretenden Betriebszustände (Faktormodell) und deren Einsatzverteilung im Kundenbetrieb (Nutzungsmodell). Die im Faktormodell identifizierten Betriebszustände werden dabei durch repräsentative Lastmessungen im Kundenbetrieb beschrieben. Mittels Monte-Carlo-Simulation erfolgt die Erzeugung einer beliebigen Anzahl virtueller Nutzer auf Basis der definierten Randbedingungen des Nutzungsmodells. Die erzeugten Nutzer besitzen jeweils eine individuelle Einsatzverteilung und das Verfahren ordnet ihnen abhängig von der vorgegebenen Nutzungsdauer die Lastdaten der korrespondierenden Betriebszustände zu. Die ausgewählten Lastdaten werden entsprechend der spezifischen Einsatzverteilung in Form von Pseudo-Schädigungszahlen für die Ziellebensdauer des Fahrzeugs aufsummiert. Die ermittelten Gesamtschädigungen sind dabei als Maß für die Härte der Belastungen im Anwendungsbetrieb zu verstehen. Auf Basis der Verteilung der Gesamtschädigungen einer Nutzerpopulation erfolgt die Identifikation des Referenz- oder Auslegungsnutzers (z. B.: 95% oder 99% Quantil). Die hinter dem ausgewählten Nutzer steckende Kombination der Lastfälle ermöglicht die Berechnung von repräsentativen Lastkollektiven. Das Verfahren ist zur Ermittlung von Eingangsbelastungen für Prüfprozeduren und die numerische Betriebsfestigkeitssimulation nutzbar. Es eignet sich weiterhin zur Durchführung von Sensitivitätsstudien bei der Entwicklung neuer Fahrzeuge wie auch zur Identifikation von marktspezifischem Kostenreduzierungspotential.
Die kollaborative Mobilität, unter der sinngemäß das Teilen von Mobilitätsangeboten („Nutzen statt Besitzen“) mit Unterstützung durch Location-Based-Services verstanden wird, stellt den theoretischen Überbau dieser Arbeit dar. Hierunter fallen auch bereits bekannte Mobilitätskonzepte, z. B. Fahrgemeinschaften, Mitfahrerparkplätze und Carsharing. Der Begriff Location-Based-Services umfasst zeit-räumliche Dienstleistungen auf Basis der Informations- und Kommunikationstechnologie (IKT).
Die Berufspendler mit Wohnort in ländlichen Räumen sind mit zunehmenden Mobilitätsproblemen, z. B. steigenden Mobilitätskosten und einem zunehmend unattraktiveren ÖPNV-Angebot konfrontiert. Gleichwohl sind soziale und berufliche Gründe sowie der Besitz von Immobilien die größten Hemmnisse, den Wohn- oder Arbeitsort zu wechseln. Die Koordination solcher Berufspendler stellt wegen des Wunsches nach Flexibilität und den zeitlich-räumlichen Gegebenheiten eine große Herausforderung dar.
Mit der Verbreitung von Smartphones, dem einhergehenden Mobilitätswandel im Sinne der kollaborativen Mobilität und den hiermit verknüpften Entwicklungen der Sharing-Economy liegen mithilfe von Location-Based-Services technische Rahmenbedingungen vor, mit denen auch eine spontane Koordination von Fahrgemeinschaften möglich ist („Fahrgemeinschaftsbörsen der dritten Generation“).
In der vorliegenden Arbeit werden daher die Potenziale und Ansatzpunkte für eine kollaborative Alltagsmobilität der PKW-Pendler am Beispiel von Mitfahrerparkplätzen, Fahrgemeinschaften und Location-Based-Services sowie die Wirkung der betrachteten Beispiele untersucht (Ziele).
Zur Eingrenzung werden als Untersuchungsgruppe die täglichen, berufsbedingten Autopendler im Bundesland Rheinland-Pfalz, das stark ländlich geprägt ist, herangezogen.
Hierzu werden Datengrundlagen zur Abschätzung eines Fahrgemeinschaftspotenzials der täglichen Autopendler in Rheinland-Pfalz geschaffen, ein zugehöriges Analysewerkzeug auf Basis einer GIS-Datenbank entwickelt und angewendet sowie eine Wirkungsanalyse von Mitfahrerparkplätzen und Location-Based-Services durchgeführt. Dazu werden auch eigene empirische Grundlagen mithilfe einer Internet-Befragung zur Exploration des Themenfeldes Pendlerverkehr sowie durch Pendlerinterviews und Verkehrsmengenerhebungen auf ausgewählten Mitfahrerparkplätzen in Rheinland-Pfalz erarbeitet.
Hiermit wird erstmals die Wirkung von Mitfahrerparkplätzen seit ihrer Einführung in Rheinland-Pfalz untersucht. Im Mittel weisen Mitfahrerparkplätze einen Einzugsbereich von rund 10 km auf, im Median von rund 7,4 km. Fahrgemeinschaften, die Mitfahrerparkplätze in Rheinland-Pfalz benutzen, umfassen im Mittel 3,15 Personen je PKW. Mitfahrerparkplätze und Fahrgemeinschaften werden bei langen Arbeitswegen im Bereich von 50 km (für den einfachen Weg) überdurchschnittlich genutzt. Dabei liegen die Mitfahrerparkplätze in der Regel innerhalb des ersten Fünftels der einfachen Fahrtstrecke.
Für den Bau von Wohn- und Gewerbegebäuden werden schon seit vielen Jahren
Wandelemente aus haufwerksporigem Leichtbeton verwendet. DieWandelemente werden
in Fertigteilwerken hergestellt und „just-in-time“ auf die Baustelle geliefert und aufgebaut.
Die Wandelemente sind zum Teil massiv hergestellt (Wohnungsbau) oder aber
mit einzelnen Dämmkernen versehen (gewerbliche Bauten). Als Zuschlagsstoffe kommen
überwiegend Naturbims oder Blähton zum Einsatz. Durch einen, im Vergleich zu
Normalbeton und gefügedichtem Leichtbeton, niedrigen Anteil an Zement, berühren
sich die Zuschlagskörner nur punktuell. Dadurch entsteht die haufwerksporige Struktur.
Durch diese Gefügestruktur und die Verwendung von porigen Leichtzuschlägen,
erzielt haufwerksporiger Leichtbeton sehr gute bauphysikalische Eigenschaften, wie z.
B. eine gute Wärmeleitfähigkeit. Den guten bauphysikalischen Eigenschaften stehen
niedrige Festigkeiten gegenüber. Daher wird haufwerksporiger Leichtbeton als wärmedämmender
Leichtbeton in der Regel nur für tragende Bauteile mit geringen Festigkeitsanforderungen
eingesetzt.
Gestiegene Anforderungen an den baulichen Wärmeschutz zwingen deutsche Hersteller
von Wandelementen aus haufwerksporigem Leichtbeton immer wieder zu Neuentwicklungen.
Im Rahmen der vorliegenden Arbeit wurde die Verwendung von haufwerksporigem
Leichtbeton in dreischichtigen Wandelementen (Sandwichelemente) untersucht.
Die Wandelemente bestehen dabei aus einer innenliegenden Tragschale, einer
außenliegenden Vorsatzschale und einer dazwischenliegenden Schicht aus Dämmstoff.
Die beiden Betonschalen werden durch entsprechende Verbindungselemente
verbunden. In dieser Arbeit wurden als Verbindungselement in der Bauindustrie gebräuchliche
Gitterträger gewählt.
In einer Vielzahl an Versuchen wurden unterschiedliche Erkenntnisse zum Tragverhalten
der Wandelemente gewonnen. An Vier-Punkt-Biegeversuchen wurde das allgemeine
Tragverhalten von bewehrten Platten untersucht. In Auszugversuchen wurde
die Tragfähigkeit von einbetonierten Gitterträgern bestimmt. Die Bestimmung des Last-
Verformungsverhaltens der Verbundfuge (Schicht aus Dämmung und Verbindungsmittel)
erfolgte anhand von Scherversuchen. An großformatigen Wandstreifen wurden zudem
Vier-Punkt-Biegeversuche durchgeführt. Diese Versuche wurden mit aus Literatur
entnommenen Berechnungsformeln für die Schnitt- und Verformungsgrößen aus
der Verbundtragwirkung nachgerechnet. Hierbei wurden sehr gute Übereinstimmungen
erreicht.
Der Einfluss der Gitterträger auf den Wärmedurchgangskoeffizienten (U-Wert) des
Wandquerschnittes wurde anhand von FE-Berechnungen untersucht. Aus den erzielten
Ergebnissen wurden Tabellen generiert, welche eine einfache Berechnung des
Wärmedurchgangskoeffizienten unter Berücksichtigung der Gitterträger ermöglicht.
Abschließend wird die Bemessung von dreischichtigenWandelemente aus haufwerksporigem
Leichtbeton und Gitterträger als Verbindungselement der beiden Betonschalen
nach DIN EN 1520 und den Erkenntnissen dieser Arbeit in einem Bemessungskonzept
vorgestellt.
Das Ziel der vorgelegten Dissertation bestand darin, eine eigenständige Methode zur Berechnung der Mößbauer Isomerieverschiebung δ und Quadrupolaufspaltung ∆EQ zu entwickeln und Rechenkonditionen zu formulieren, die eine optimale Übereinstimmung berechneter und gemessener Werte eben dieser Mößbauerparameter gewährleisten.
Die dafür eigenständig angefertigten Programme wurden innerhalb einer TURBO-MOLE Version implementiert, welche als Entwicklerversion in der Arbeitsgruppe von Prof. Dr. Christoph van Wüllen genutzt wird. Diese Programme ermöglichen die Anfertigung von quantenchemischen Rechnungen unter Berücksichtigung der Ausdehnung der Atomkerne, indem sie die Ladungsverteilung des Atomkerns über eine Gaußfunktion simulieren.
Auf Grundlage dieser expliziten Berücksichtigung der Kernladungsverteilung lässt sich ein Operator berechnen, der als Produkt mit der Elektronendichte am Atomkern die Berechnung der Isomerieverschiebung zulässt. Des Weiteren lässt sich der Elektrische Feldgradiententensor berechnen, welcher die räumliche Verteilung der Elektronendichte um ein Atom beschreibt und so zur Berechnung der Quadrupolaufspaltung dient.
Mit Hilfe dieser Programme wurden umfassende Rechnungen angefertigt, die sowohl den Einfluss der verwendeten Basis als auch des Funktionals auf die Güte der dichtefunktionaltheoretischen Rechnung ermitteln und bewerten können. Dazu wurde ein Katalog an Molekülen erstellt, der den gesamten möglichen Wertebereich experimenteller Daten abdeckt. Diese Moleküle wurden unter Verwendung einer Referenzbasis berechnet, die sämtliche theoretischen Anforderungen an eine zur optimalen Berechnung der Mößbauerparameter geeigneten Basis erfüllt. Die Ergebnisse dieser Rechnungen dienten als Referenzwerte, welche mittels linearer Regression mit den Ergebnissen verschiedener getesteter Basissätze verglichen wurden. Dieses Verfahren wurde durch den Abgleich der experimentellen Daten der zugehörigen Moleküle vervollständigt.
Das Ergebnis dieser Benchmarkingprozesse zeigt, dass die Beschreibung des Rumpfbereichs des Atoms maßgeblich die Güte der Ergebnisse beeinflusst. Basissätze mit voller Qualität in allen Orbitalen führen zu einer deutlich höheren Übereinstimmung der berechneten Daten mit sowohl den Referenz- als auch den experimentellen Daten. Sie sind solchen Basissätzen vorzuziehen, die nur die Va- lenzorbitale mit der vollen Qualität der Basis beschreiben.
Keilzinkenverbindungen als Fügetechnik für dünne Bauteile aus mikrobewehrtem Hochleistungsbeton
(2017)
Auf Grundlage von in erster Linie experimentellen Untersuchungen wurden im Rahmen
der Arbeit Keilzinkenverbindungen zum Fügen dünner Bauteile aus mikrobewehrtem
Hochleistungsbeton erforscht. Als Klebstoff kam hierbei ein rein zementgebundener
Hochleistungsmörtel zum Einsatz.
Die Entwicklung von Hochleistungsbetonen und neuartigen Bewehrungsformen, wie
Glas- oder Kohlefasergelegen, ermöglicht die Realisierung von sehr filigranen Konstruktionen.
Aus verschiedenen Gründen, beschränkt sich die Anwendung fast ausschließlich
auf werksmäßig hergestellte Fertigteile. Um daraus größere Strukturen
realisieren zu können, sind geeignete Fügetechniken erforderlich. Einen vielversprechenden
Ansatz stellen hier Klebverbindungen dar. Das Kleben als flächige Fügetechnik
zeichnet sich durch eine kontinuierliche Kraftübertragung und gleichmäßige
Materialauslastung aus.
Der große Vorteil von Zement-Klebstoffen im Vergleich zu Reaktionsharzklebstoffen
ist, dass sie weitestgehend unempfindlich gegenüber Umwelteinflüssen sind. Neben
zwei Hochleistungsmörteln, welche auf einer von Mühlbauer 2012 entwickelten Rezeptur
basieren, wurde ein kommerzieller Hochleistungsmörtel eingesetzt.
In einem ersten Schritt wurden verschiedene Voruntersuchungen durchgeführt. Im
Mittelpunkt standen dabei Tastversuche mit unterschiedlichen Fugenvarianten. Das
Versuchsprogramm sah verschiedene Fugengeometrien und Beanspruchungsarten
vor. Neben Mikrobewehrung kam hierbei auch Stabstahlbewehrung zum Einsatz. Als
besonders vorteilhaft hat sich die Keilgeometrie oder Keilzinkenverbindung, wie aus
dem Holzbau bekannt, herauskristallisiert. Neben einer hohen Traglast weist diese
weitere positive Eigenschaften auf, wie z.B. ein duktiles Tragverhalten.
Auf Grundlage von Kleinteilversuchen wurden in einem nächsten Schritt Bruchkriterien
entwickelt, die die Festigkeit der Klebfuge sowohl für eine kombinierte Schub-
Druck- als auch für eine Schub-Zugbeanspruchung beschreiben.
In einer umfangreichen Versuchsserie wurde schließlich das Tragverhalten von Keilzinkenverbindungen
detailliert untersucht. Neben Zugversuchen wurden dabei auch
Drei- und Vierpunktbiegeversuche durchgeführt. Das Versagen lässt sich vereinfachend
in ein Fugenversagen und ein Bewehrungsversagen unterteilen. Ziel einer
fachgerechten Konstruktion und Ausführung von Keilzinkenverbindungen muss ein
Bewehrungsversagen und damit ein duktiles Tragverhalten sein. Einflussfaktoren auf
das Tragverhalten sind der Flankenneigungswinkel, die Zahnlänge, der Bewehrungsgrad
des Bauteils sowie die Art der Klebflächenvorbereitung und der verwendete
Klebstoff.
Basierend auf den gewonnen Erkenntnissen wurde in einem letzten Schritt ein praxisgerechtes
Bemessungskonzept für zugbeanspruchte, biegebeanspruchte sowie
biege-querkraftbeanspruchte Keilzinkenverbindungen entwickelt.
NoSQL-Datenbanken werden als Alternative zu klassischen relationalen Datenbanksystemen eingesetzt, um die Herausforderungen zu meistern, die „Big Data“ mit sich bringt. Big Data wird über die drei V definiert: Es sind große Datenmengen („Volume“), die schnell anwachsen („Velocity“) und heterogene Strukturen haben („Variety“). NoSQL-Datenbanken besitzen zudem meist nur sehr einfache Anfragemethoden. Um auch komplexe Datenanalysen durchzuführen, kommen meist Datenverarbeitungsframeworks wie MapReduce, Spark oder Flink zum Einsatz. Diese sind jedoch schwieriger in der Benutzung als SQL oder andere Anfragesprachen.
In dieser Arbeit wird die Datentransformationssprache NotaQL vorgestellt. Die Sprache verfolgt drei Ziele. Erstens ist sie mächtig, einfach zu erlernen und ermöglicht komplexe Transformationen in wenigen Code-Zeilen. Zweitens ist die Sprache unabhängig von einem speziellen Datenbankmanagementsystem oder einem Datenmodell. Daten können von einem System in ein anderes transformiert und Datenmodelle dementsprechend ineinander überführt werden. Drittens ist es möglich, NotaQL-Skripte auf verschiedene Arten auszuführen, sei es mittels eines Datenverarbeitsungsframeworks oder über die Abbildung in eine andere Sprache. Typische Datentransformationen werden periodisch ausgeführt, um bei sich ändernden Basisdaten die Ergebnisse aktuell zu halten. Für solche Transformationen werden in dieser Arbeit verschiedene inkrementellen Ansätze miteinander verglichen, die es möglich machen, dass NotaQL-Transformationen die vorherigen Ergebnisse wiederbenutzen und Änderungen seit der letzten Berechnung darauf anwenden können. Die NotaQL-Plattform unterstützt verschiedene inkrementelle und nicht-inkrementelle Ausführungsarten und beinhaltet eine intelligente Advisor-Komponente, um Transformationen stets auf die bestmögliche Art auszuführen. Die vorgestellte Sprache ist optimiert für die gebräuchlichen NoSQL-Datenbanken, also Key-Value-Stores, Wide-Column-Stores, Dokumenten- und Graph-Datenbanken. Das mächtige und erweiterbare Datenmodell der Sprache erlaubt die Nutzung von Arrays, verschachtelten Objekten und Beziehungen zwischen Objekten. Darüber hinaus kann NotaQL aber nicht nur auf NoSQL-Datenbanken, sondern auch auf relationalen Datenbanken, Dateiformaten, Diensten und Datenströmen eingesetzt werden. Stößt ein Benutzer an das Limit, sind Kopplungen zu Programmiersprachen und existierenden Anwendungen mittels der Entwicklung benutzerdefinierter Funktionen und Engines möglich. Die Anwendungsmöglichkeiten von NotaQL sind Datentransformationen jeglicher Art, von Big-Data-Analysen und Polyglot-Persistence-Anwendungen bis hin zu Datenmigrationen und -integrationen.
Im Zentrum dieser Arbeit steht die theoretische Beschreibung der magnetischen Anisotropie des Rhenium(IV)ions unter Anwendung von Dichtefunktionaltheorie. Das Ziel ist die Untersuchung der Eignung ein- und zweikomponentiger Dichtefunktionalmethoden zur Berechnung der magnetischen Anisotropie von Rhenium(IV)komplexen sowie der Vorschlag eines Liganden, der einen dreikernigen MnReMn-Komplex ermöglicht, der Einzelmolekülmagnetcharakteristiken aufweist.
Zu Beginn sollen drei einkernige Komplexe mit ein- und zweikomponentigen Dichtefunktionalmethoden (1c-DFT und 2c-DFT) untersucht: [ReCl6]2–, [ReCl4ox]2– und [ReCl4(CN)2]2–. Im einkomponentigen erfolgt die Berücksichtigung der Spin-Bahn-Kopplung über Störungstheorie 2. Ordnung unter der Annahme, dass diese die führende Ordnung in der Spin-Bahn-Kopplung ist. Dabei wurde festgestellt, dass dies bei Rhenium(IV), anders als beispielsweise bei 3d-Ionen, nicht der Fall ist. Vielmehr besitzt die Spin-Bahn-Kopplung auch in 4. Ordnung einen nicht zu vernachlässigenden Einfluss. Deshalb ist Störungstheorie 2. Ordnung ungeeignet, um die magnetische Anisotropie von Re(IV)-Komplexen zu bestimmen.
Zudem werden Berechnungen am dreikernigen [(PY5Me2Mn)2ReCl4(CN)2]2+-Komplex vorgestellt, der bereits in der Literatur beschrieben und hinsichtlich seiner magnetischen Anisotropie experimentell untersucht wurde. Dieser besteht aus einem [ReCl4(CN)2]2– Kern und jeweils zwei Mangan(II)ionen, die durch eine fünfzähnige „Endkappe“ abgeschlossen werden. Sowohl experimentell als auch theoretisch wurde festgestellt, dass die Rhombizität des Komplexes hoch ist, obwohl die lokale Symmetrie in der ersten Koordinationssphäre des Rheniumions (nahezu) D4h entspricht. Die Manganionen erzeugen durch die nicht-lineare Anordnung der Mn-NC-Re-CN-Mn-Einheit eine trigonale Verzerrung der Elektronenverteilung, die wiederum die Rhombizität der magnetischen Anisotropie vergrößert. Es wurde durch Berechnungen festgestellt, dass eine lineare Anordnung die Rhombizität erniedrigt. Aufgrund dieser Beobachtungen wurde die Suche nach einem Liganden aufgenommen, der als fünfzähnige „Endkappe“ fungiert und dabei eine lineare Anordnung der Mn-NC-Re-CN- Mn-Einheit ermöglicht. Dies wurde durch den PyMeAm4-Liganden, der aus einer Pyridin- und vier Amideinheiten besteht, in silico erreicht.
Im Kontext des demographischen Wandels, insbesondere des steigenden Anteils älterer Menschen, verweisen Politik und Wissenschaft auf die Zivilgesellschaft, um Versorgungsdefizite auszugleichen. Die Nachbarschaft nimmt dabei eine zentrale Rolle ein. Nachbarschaftliche Beziehungen erscheinen als ideale Instanzen, um Unterstützungsbedarfe Älterer aufzufangen, aber auch als Kontexte, in denen das Engagement von „jungen Alten“ genutzt werden kann. Bislang ist allerdings unklar, wie Beziehungen zu Nachbarn von Älteren interpretiert werden und damit, welche Potenziale für Unterstützung vorliegen.
In der vorliegenden Arbeit wird mittels qualitativer Befragungen das subjektive Verständnis von Nachbarschaft und Nachbarschaftshilfe bei älteren Menschen untersucht, die zur Gruppe der „jungen Alten“ gezählt werden können, d.h. noch ein aktives und unabhängiges Leben führen. Die Konzepte, die es herauszuarbeiten gilt, werden den durch die Befragten berichteten Interaktionen und Formen des Kontakts gegenübergestellt. Dabei werden drei unterschiedliche Wohnkontexte berücksichtigt: Erstens Nachbarschaftsbeziehungen in städtischen Wohnlagen; zweitens in Einfamilienhaussiedlungen, in denen sog. Siedlergemeinschaften bestehen, in denen sich die Bewohnerinnen und Bewohner als Vereine zusammengeschlossen haben; drittens in gemeinschaftlichen Wohnprojekten, bei denen das nachbarschaftliche Miteinander einen Teil des Selbstverständnisses ausmacht.
Es wird der Frage nachgegangen, wie sich die subjektive Interpretationen und Argumentationen älterer Menschen in Wohnkontexten mit unterschiedlichen Formen der Organisation des Zusammenlebens in Bezug auf Nachbarschaftsbeziehungen und die darin stattfindenden Hilfeleistungen darstellen. Die Arbeit soll so zu einem besseren Verständnis von Nachbarschaft älterer Menschen beitragen. Schließlich soll damit ein Beitrag geleistet werden zur Klärung der Frage, ob und unter welchen Bedingungen Nachbarschaft „belastbar“ ist und somit Nachbarschaftshilfe ein Konzept darstellen kann, dass tragfähige Strukturen für gegenseitige Unterstützung bietet. Die Ergebnisse deuten darauf hin, dass Nachbarschaftsbeziehungen ein durchaus hohes Potenzial aufweisen können in Bezug auf kleine, alltagsunterstützende Leistungen. Dauerhafte und intensivere Formen der Unterstützung sind dagegen selten und bedürfen besonderer, individueller und/ oder struktureller Rahmenbedingungen.
Betonfertigteile mit integriertem Dämmstoff aus Polystyrol bieten eine ausgezeichnete Lösung zur baulichen Ausführung von Außenwandbauteilen. Die Vorteile gegenüber der Ortbetonbauweise, wie bspw. die Erfüllung hoher Qualitätsansprüche aufgrund der Vorfertigung im Fertigteilwerk oder das Entfallen von Arbeitsschritten auf der Baustelle, ermöglichen einen wirtschaftlichen Bauprozess. Bei der Halbfertigteilbauweise werden nur die äußeren Betonschalen vorgefertigt. Anschließend werden die Wände auf die Baustelle transportiert und mit Ortbeton zum Endquerschnitt verfüllt. Dies erspart den zeit- und kostenintensiven Schalungsvorgang und verringert gleichzeitig das Transportgewicht. Der beim Ausbetonieren der Halbfertigteile auftretende Frischbetondruck muss von Verbindungsmitteln, die zur Kopplung der Betonschalen dienen, mit ausreichender Sicherheit aufgenommen werden. Der Frischbetondruck ist derzeit nach DIN 18218 „Frischbetondruck auf lotrechte Schalungen“ anzunehmen. Die Beeinflussung durch einen integrierten Dämmstoff oder weitere Parameter einer Elementwand bleibt bisher allerdings unberücksichtigt. In Abhängigkeit der Randbedingungen wird der Frischbetondruck stark überschätzt, was zu einem unwirtschaftlichen Bemessungsergebnis im Bauzustand führt. Ziel der vorliegenden Arbeit ist die realitätsnahe Beschreibung des Frischbetondrucks in Elementwänden mit integriertem Dämmstoff.
Angesichts der Vielzahl an Einflussparametern werden die theoretischen und experimentellen Untersuchungen dieser Arbeit systematisch geplant und durchgeführt. In Voruntersuchungen werden bereits einflussschwache Einflussparameter ausgeschlossen und maßgebende Einflussparameter für weiterführende Untersuchungen bestimmt. Neben zahlreichen kleinmaßstäblichen Versuchsreihen, die größtenteils zur Analyse und Beschreibung von einzelnen geometrischen oder werkstoffspezifischen Eigenschaften dienen, werden auch großmaßstäbliche Elementwände untersucht. Diese verfolgen das Ziel, ein besseres Verständnis für die Entstehung des Frischbetondrucks unter Einbeziehung von bauausführungstechnischen Randbedingungen zu entwickeln.
Auf Grundlage der theoretisch und experimentell gewonnenen Erkenntnisse dieser Arbeit wird ein realitätsnahes Berechnungsmodell zur Ermittlung des horizontalen Frischbetondrucks in Elementwänden mit integriertem Dämmstoff abgeleitet. Nach Validierung des Modells an Großversuchen und vereinfachenden Annahmen für einen praxisgerechten Einsatz kann der Frischbetondruck analog zur DIN 18218 mithilfe von einfachen Gleichungen, Tabellen und Diagrammen ermittelt werden. Die Anwendung und der wirtschaftliche Vorteil des Berechnungsmodells werden am Ende der Arbeit anhand von zwei Berechnungsbeispielen demonstriert.
Neben der Beeinflussung des Frischbetondrucks wirkt sich die Umlagerung von Zementleim aus dem Frischbeton in den Dämmstoff auch auf die Eigenschaften des Ortbetons und des Dämmstoffs der Elementwand aus. Die Untersuchungsergebnisse zeigen, dass sich zwar die wärmedämmende Wirkung des Dämmstoffs verschlechtert, dies jedoch bei hohen Dämmstoffstärken zur Sicherstellung des Wärmeschutzes nach EnEV 2016 vernachlässigt werden kann. Die Druckfestigkeit des Ortbetons infolge des Zementleimentzugs wird durch die Verringerung des w/z-Werts und die nachbehandelnde Wirkung des feuchten Dämmstoffs positiv beeinflusst.
Im Rahmen dieser Arbeit wurden neue nachhaltige Methoden zur selektiven C−C Bindungsknüpfung ausgehend von Carbonsäuren entwickelt. Dabei wurden die Reaktionskonzepte der decarboxylierenden Biarylsynthese sowie der Carboxylat-dirigierten Arylierung verfolgt.
Geleitet von eingehenden DFT-Studien wurde ein Katalysatorsystem entwickelt, mit dem die Reaktionstemperatur der Kupfer/Palladium-katalysierten decarboxylierenden Kreuzkupplung von ursprünglich über 150 °C auf 100−120 °C abgesenkt werden konnte. Dazu wurden bidentate P,N-Liganden eingesetzt, die die Katalysatormetalle verbrückend koordinieren können und so die geschwindigkeitsbestimmende Transmetallierung erleichtern.
Daneben gelang es, ein bimetallisches Kupfer/Palladium Katalysatorsystem zu entwickeln, welches die Synthese 3-substituierter 2 (Hetero-)Arylpyridine bei nur 130 °C ermöglicht. Dies basierte auf der Entdeckung, dass ein Substituent ortho zur Carboxygruppe der Pyridin-2-carbonsäure ebenso wie im Fall von Benzoesäuren eine Decarboxylierung begünstigt.
Neben den decarboxylierenden ipso-Arylierungen wurden auch neue Protokolle für Carboxylat-dirigierte ortho-Arylierungen von Benzoesäuren entwickelt. So wurde diese erstmals mit Aryldiazoniumsalzen als Kupplungspartner realisiert. Das neue Protokoll unter Verwendung eines Iridium-basierten Katalysatorsystems gewährleistet eine Reaktionsführung unter vergleichsweise milden Bedingungen. Zudem wird eine Orthogonalität zu Kupplungen mit Arylhalogeniden geschaffen.
Daneben wurde ein Protokoll für die ortho-Arylierung von Benzoesäuren mit Arylhalogeniden entwickelt, welches erstmals auf kostengünstigen Ruthenium-Katalysatoren basiert.
Die Überlegenheit der Carboxylatgruppe im Vergleich zu anderen dirigierenden Gruppen konnte demonstriert werden, indem sie im Anschluss an die jeweilige ortho-Arylierung entfernt sowie als Ankerpunkt in weiteren Funktionalisierungen genutzt wurde.
Weiterhin gelang es, eine Kupfer/Palladium-katalysierte decarboxylierende Mizoroki-Heck-Reaktion von Zimtsäuren mit Arylhalogeniden zu entwickeln, welche selektiv 1,1 Diarylalkene zugänglich macht. Dabei agiert die Carboxylatgruppe als abfallende dirigierende Gruppe.
Das synthetische Potential der neu entwickelten Methoden wurde jeweils anhand eines diversen Substratspektrums demonstriert. Darüber hinaus lieferten mechanistische Studien zu den Carboxylat-dirigierten Transformationen Einblicke zum Ablauf der Reaktionen.