Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Has Fulltext
- yes (65)
Keywords
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- IR-MPD (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
The main purpose of the study was to improve the physical properties of the modelling of compressed materials, especially fibrous materials. Fibrous materials are finding increasing application in the industries. And most of the materials are compressed for different applications. For such situation, we are interested in how the fibre arranged, e.g. with which distribution. For given materials it is possible to obtain a three-dimensional image via micro computed tomography. Since some physical parameters, e.g. the fibre lengths or the directions for points in the fibre, can be checked under some other methods from image, it is beneficial to improve the physical properties by changing the parameters in the image.
In this thesis, we present a new maximum-likelihood approach for the estimation of parameters of a parametric distribution on the unit sphere, which is various as some well known distributions, e.g. the von-Mises Fisher distribution or the Watson distribution, and for some models better fit. The consistency and asymptotic normality of the maximum-likelihood estimator are proven. As the second main part of this thesis, a general model of mixtures of these distributions on a hypersphere is discussed. We derive numerical approximations of the parameters in an Expectation Maximization setting. Furthermore we introduce a non-parametric estimation of the EM algorithm for the mixture model. Finally, we present some applications to the statistical analysis of fibre composites.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Backward compatibility of class libraries ensures that an old implementation of a library can safely be replaced by a new implementation without breaking existing clients.
Formal reasoning about backward compatibility requires an adequate semantic model to compare the behavior of two library implementations.
In the object-oriented setting with inheritance and callbacks, finding such models is difficult as the interface between library implementations and clients are complex.
Furthermore, handling these models in a way to support practical reasoning requires appropriate verification tools.
This thesis proposes a formal model for library implementations and a reasoning approach for backward compatibility that is implemented using an automatic verifier. The first part of the thesis develops a fully abstract trace-based semantics for class libraries of a core sequential object-oriented language. Traces abstract from the control flow (stack) and data representation (heap) of the library implementations. The construction of a most general context is given that abstracts exactly from all possible clients of the library implementation.
Soundness and completeness of the trace semantics as well as the most general context are proven using specialized simulation relations on the operational semantics. The simulation relations also provide a proof method for reasoning about backward compatibility.
The second part of the thesis presents the implementation of the simulation-based proof method for an automatic verifier to check backward compatibility of class libraries written in Java. The approach works for complex library implementations, with recursion and loops, in the setting of unknown program contexts. The verification process relies on a coupling invariant that describes a relation between programs that use the old library implementation and programs that use the new library implementation. The thesis presents a specification language to formulate such coupling invariants. Finally, an application of the developed theory and tool to typical examples from the literature validates the reasoning and verification approach.
Due to tremendous improvements of high-performance computing resources as well
as numerical advances computational simulations became a common tool for modern
engineers. Nowadays, simulation of complex physics is more and more substituting a
large amount of physical experiments. While the vast compute power of large-scale
high-performance systems enabled for simulating more complex numerical equations,
handling the ever increasing amount of data with spatial and temporal resolution
burdens new challenges to scientists. Huge hardware and energy costs desire for
ecient utilization of high-performance systems. However, increasing complexity of
simulations raises the risk of failing simulations resulting in a single simulation to be
restarted multiple times. Computational Steering is a promising approach to interact
with running simulations which could prevent simulation crashes. The large amount
of data expands gaps in the amount of data that can be calculated and the amount of
data that can be processed. Extreme-scale simulations produce more data that can
even be stored. In this thesis, I propose several methods that enhance the process
of steering, exploring, visualizing, and analyzing ongoing numerical simulations.
Seit dem Beginn der Produktion und Veredelung von Nahrungsmitteln im großtechnischen
Maßstab steigen nicht nur die Mengen an den Hauptprodukten dieser Prozesse, sondern
auch die Mengen der dabei anfallenden Nebenprodukte. Die Entsorgung dieser Nebenprodukte
über Flüsse oder Kläranlagen stellte auf Grund deren BOD (biochemical oxygen
demand) zunehmend ein Problem dar, dessen Lösung unabdingbar wurde. Eines dieser
Nebenprodukte, welches in stets zunehmender Menge anfällt ist Molke, das Hauptnebenprodukt
der Käseherstellung. Die produzierte Jahresmenge betrug für das Jahr 2011 alleine in Deutschland geschätzte 11,80 Mio. Tonnen. Das einstige Abfallprodukt Molke wird seit den 1950er Jahren in zunehmendem Maß vorwiegend zu Molkekonzentrat, einer 5 bis
6-fach aufkonzentrierten Molkelösung, und Molkeproteinpulvern mit steigendem Proteinanteil
aufgearbeitet. In den 2000er Jahren kamen verstärkt Isolate einzelner Molkeproteine dieser Produktpalette hinzu. Bereits vor 15 Jahren wurde die weltweit produzierte Menge
an Molkeproteinkonzentrat auf über 140.000 Tonnen geschätzt. Molkeproteinpulver und alpha-Lactalbumin (ALA) wurden zu dieser Zeit in einer geschätzten Menge von 2.300 Tonnen bzw. 230 Tonnen jährlich hergestellt. Mit der zunehmenden Reinheit der Proteinfraktionen stieg auch deren Marktwert von etwa 1 $/kg für die ersten Molkeproteinpulver in den
1960er Jahren bis auf 600 $/kg für Fraktionen einzelner Proteine mit hoher Reinheit.
Die überwiegende Mehrheit dieser Produkte findet seinen Einsatz in der Nahrungsmittelindustrie,
wie beispielsweise bei der Produktion von Säuglingsnahrung, Sportlerernährung
oder als Texturbildner in verschiedensten Nahrungsmitteln des täglichen Konsums. Die am weitesten verbreiteten Prozesse zur großindustriellen Aufarbeitung von Molke sind
die Ultrafiltration und die Chromatographie. Andere Verfahren wie Fällungsprozesse oder
peptische Hydrolysen kommen mit steigender Prozessgröße immer seltener als alleiniges
Aufarbeitungsverfahren von Molke zum Einsatz. Viele der beschriebenen und angewendeten
Verfahren arbeiten in einem der ersten Schritte mit einer Modifikation des pH-Wertes
des Eduktes Molke. Dies ist in dem hier vorgestellten Verfahren nicht der Fall, das Edukt wird ohne Veränderungen oder Modifikationen eingesetzt. Es werden keine einzelnen Komponenten der Molke im Voraus entfernt oder durch z. B. peptische Hydrolyse zerstört. Die
eingesetzten Chemikalien sind ungiftig und müssen keinen kostenintensiven Entsorgungsverfahren
zugeführt werden. Im Gegensatz zu Verfahren mit Fällungssalzen können die
eingesetzten Chemikalien im Produkt durch Neutralisation einfach wieder entfernt werden
oder kommen in nur geringen Konzentrationen vor. Es treten im Gegensatz zu chromatographischen
Methoden nur geringe Fluidströme, z. B. Waschwasser, auf und der Prozess bedarf keiner massiven Temperaturerhöhung des Eduktes, um beispielsweise die Viskosität
zu erhöhen. Die eingesetzten Adsorbentien sind kostengünstig (unter 10 €/kg) und können im Fall von Siliziumdioxid als restproteinbeladener Tierfutterzusatz entsorgt werden. In dem vorgestellten Prozess können die Hauptkomponenten der Molke alpha-Lactalbumin
(ALA), beta-Lactoglobulin (BLG) und Lactose voneinander getrennt werden, was mit den
meisten Membranverfahren im industriellen Maßstab nicht oder nur ungenügend möglich
ist. Im Prozess werden lediglich einfache Rührkessel und Filtrationseinheiten eingesetzt. Des Weiteren ist der Prozess leicht in bestehende Aufarbeitungsverfahren integrierbar und/oder durch zusätzliche Verfahren, wie beispielsweise vor- oder nachgeschaltete Membranverfahren,
ergänzbar. Dadurch besitzt er ein hohes Potential zur Optimierung und weiteren Kostenersparnis. In dieser Arbeit werden zwei Ansätze zur Aufarbeitung verfolgt,
miteinander verglichen und ein Prozessentwurf mit Wirtschaftlichkeitsbetrachtung für den Batch-Ansatz vorgestellt. Für einen chromatographischen Ansatz wird ausgehend von Isothermen
und Adsorptions- und Desorptionsversuchen in einer Kleinsäule die Produktivität
für ein Material aus
gamma-Aluminiumoxid ermittelt. Für alle in dieser Arbeit verwendeten Materialien
aus Bentonit/Kieselsäure, Siliziumdioxid und
gamma-Aluminiumoxid werden die Permeabilität der Säulenpackung, deren maximale Bindekapazität und Stabilität angegeben. Der Einfluss einer Reduktion der Partikelgröße auf die Proteinbindekapazität daraus resultierender
Adsorbensschüttungen wird ebenfalls betrachtet. Eine gängige Betriebsweise
für viskose Fluide mit teilweise ungelöstem Feststoffanteil, wie Molkekonzentrat, stellt die
Expanded Bed Chromatographie dar. Eine rechnerische Abschätzung für das Material aus gamma-Aluminiumoxid ergänzt experimentelle Beobachtungen hinsichtlich der Eignung des Materials
für die Expanded Bed Chromatographie. Zur Trennung von ALA und BLG wird ein
Ansatz mittels selektiver Adsorption im Durchbruch mit einem Ansatz mittels selektiver Desorption in einem Stufengradienten aus Kaliumphosphat als Eluent verglichen. Für den
Batch-Ansatz wird aus den Ergebnissen von Adsorptionsisothermen und einstufigen Batchversuchen
eine Stoffstromsimulation auf Grundlage eines verfahrenstechnischen Fließbilds
erstellt. Der vorgestellte Prozess besteht aus 6 Rührkesselreaktoren, Filtrationsmodulen
zur Fest-Flüssig-Phasen Trennung und zwei Sprühtrocknungseinheiten. Eine Prüfung des
vorgestellten Prozesses auf seine Wirtschaftlichkeit wird vor dem Hintergrund möglicher
Produktpreise diskutiert.
This thesis deals with generalized inverses, multivariate polynomial interpolation and approximation of scattered data. Moreover, it covers the lifting scheme, which basically links the aforementioned topics. For instance, determining filters for the lifting scheme is connected to multivariate polynomial interpolation. More precisely, sets of interpolation sites are required that can be interpolated by a unique polynomial of a certain degree. In this thesis a new class of such sets is introduced and elements from this class are used to construct new and computationally more efficient filters for the lifting scheme.
Furthermore, a method to approximate multidimensional scattered data is introduced which is based on the lifting scheme. A major task in this method is to solve an ordinary linear least squares problem which possesses a special structure. Exploiting this structure yields better approximations and therefore this particular least squares problem is analyzed in detail. This leads to a characterization of special generalized inverses with partially prescribed image spaces.
Palladium-Catalyzed C–C Bond Formations via Activation of Carboxylic Acids and Their Derivatives
(2013)
Applications of carboxylic acids and their derivatives in transition metal-catalyzed cross-coupling reactions regio-selectively forming Csp3-Csp2, and Csp2-Csp2 bonds were explored in this thesis. Several important organic building blocks such as aryl acetates, diaryl acetates, imines, ketones, biaryls, styrenes and polysubstituted alkenes were successfully accessed from carboxylic acids and their derivatives by the means of C–H activation and decarboxylative cross-couplings.
An efficient and practical protocol for the synthesis of biologically important ethyl 2-arylacates through the dealkoxycarbonlative cross-coupling reaction between aryl halides and malonates was developed. Activation of the alpha-proton of alkyl esters by a copper catalyst allowed the deprotonation of esters even in the presence of mild bases, leading to a straightforward and efficient approach to alkyl alpha-diarylacetate from simple alkyl acetates and aryl halides.
The addition of a primary amine into the coupling reaction of alpha-oxocarboxylic acids and aryl halides led to an unprecedented low-temperature redox-neutral decarboxylative coupling process, providing a green and efficient method for the preparation of azomethines, in which all the three substituents can be independently varied. A minor modification of this protocol allowed us to easily access the corresponding ketones.
The decarboxylative coupling of robust aryl mesylates as well as polysubstituted alkenyl mesylates using our customized imidazolyl phosphine ligands was realized, further expanding the scope of carbon electrophiles in decarboxylative coupling reactions. Variation of the ligands led to two complementary protocols, providing the corresponding biaryls and polysubstituted olefins in high yields.
The use of a new class of pyrimidinyl phosphine ligands dramatically reduced the reaction temperatures of decarboxylative cross-coupling reactions between aromatic carboxylic acids and aryl or alkenyl triflates. The new catalyst system for the first time allowed the efficient decarboxylative biaryls synthesis at only 100 °C, representing a significant achievement in redox-neutral decarboxylative coupling reactions.
This thesis is divided into two parts. Both cope with multi-class image segmentation and utilize
non-smooth optimization algorithms.
The topic of the first part, namely unsupervised segmentation, is the application of clustering
to image pixels. Therefore, we start with an introduction of the biconvex center-based clustering
algorithms c-means and fuzzy c-means, where c denotes the number of classes. We show that
fuzzy c-means can be seen as an approximation of c-means in terms of power means.
Since noise is omnipresent in our image data, these simple clustering models are not suitable
for its segmentation. To this end, we introduce a general and finite dimensional segmentation
model that consists of a data term stemming from the aforementioned clustering models plus a
continuous regularization term. We tackle this optimization model via an alternating minimiza-
tion approach called regularized c-centers (RcC). Thereby, we fix the centers and optimize the
segment membership of the pixels and vice versa. In this general setting, we prove convergence
in the sense of set-valued algorithms using Zangwill’s Theory [172].
Further, we present a segmentation model with a total variation regularizer. While updating
the cluster centers is straightforward for fixed segment memberships of the pixels, updating the
segment membership can be solved iteratively via non-smooth, convex optimization. Thereby,
we do not iterate a convex optimization algorithm until convergence. Instead, we stop as soon as
we have a certain amount of decrease in the objective functional to increase the efficiency. This
algorithm is a particular implementation of RcC providing also the corresponding convergence
theory. Moreover, we show the good performance of our method in various examples such as
simulated 2d images of brain tissue and 3d volumes of two materials, namely a multi-filament
composite superconductor and a carbon fiber reinforced silicon carbide ceramics. Thereby, we
exploit the property of the latter material that two components have no common boundary in
our adapted model.
The second part of the thesis is concerned with supervised segmentation. We leave the area
of center based models and investigate convex approaches related to graph p-Laplacians and
reproducing kernel Hilbert spaces (RKHSs). We study the effect of different weights used to
construct the graph. In practical experiments we show on the one hand image types that
are better segmented by the p-Laplacian model and on the other hand images that are better
segmented by the RKHS-based approach. This is due to the fact that the p-Laplacian approach
provides smoother results, while the RKHS approach provides often more accurate and detailed
segmentations. Finally, we propose a novel combination of both approaches to benefit from the
advantages of both models and study the performance on challenging medical image data.
Die vorliegende Arbeit beschreibt die Entwicklung eines Konzeptes und einer Online-Plattform für die Integration von onlinegestütztem Peer Feedback in Präsenzlehrangeboten an der Technischen Universität Kaiserslautern.
Feedback ist ein wichtiges Instrument im Lernprozess, insbesondere im aktiven Lernen, das für eine moderne Didaktik kennzeichnend ist. Außerdem ist Feedbackgeben eine zentrale Aufgabe des professionellen Handelns als Lehrer, so dass sich Peer Feedback Prozesse auf natürliche Art kompetenzentwickelnd in die Lehrerbildung einbetten lassen.
Auf Grundlage der existierenden Literatur wurde ein onlinegestützter Peer Feedback Prozess entworfen, implementiert, in verschiedenen Veranstaltungen umgesetzt und zugleich qualitativ beforscht. Die Forschung orientierte sich dabei an der Methodik der Design Based Research, die eine iterative Entwicklungsforschung in komplexen Strukturen ermöglicht und dabei Raum für den Umgang mit emergenten Phänomenen lässt, zugleich aber eine Generalisierung aus den konkreten Artefakten anstrebt.
Es stellt sich heraus, dass Peer Feedback mit der Online-Plattform PeerGynt eine wertvolle Ergänzung für Präsenzseminare ist: Durch einen dedizierten zeitlichen und organisatorischen Raum wird Feedback aufgewertet und hilfreicher für die Teilnehmenden.
Durch das Vernähen trockener Faservorformlinge vor der Harzinjektion werden vielfältige
Möglichkeiten eröffnet, um Faser-Kunststoff-Verbund-Strukturen gewichtsoptimiert
und gleichzeitig kostengünstig herzustellen. Durch die im Vergleich zur
Prepreg-Technik innovativere Prozesskette sind auch komplexe Geometrien, wie sie
beispielsweise in Lasteinleitungsbereichen vorliegen, automatisiert fertigbar. Die Einbringung
von strukturellen Vernähungen in Laminatdickenrichtung kann insbesondere
in Strukturbereichen mit dreidimensionalen Spannungszuständen die Delaminationsgefahr
durch eine Steigerung der interlaminaren Eigenschaften abmindern
und die Schadenstoleranz steigern. Allerdings erfordert eine vermehrte Anwendung
der Nähtechnik in der industriellen Praxis auch die Bereitstellung dreidimensionaler
mechanischer Werkstoffkennwerte, die im Konstruktions- und Auslegungsprozess
benötigt werden.
Im Rahmen dieser Arbeit wurden kohlenstofffaserverstärkte Multiaxialgelege-Laminate,
die im Flugzeugbau angewandt werden, strukturell vernäht und die durch den
Nähprozess entstehenden Reinharzgebiete sowie die Veränderung des relativen Faservolumengehaltes
erfasst. Bei der Bestimmung von intralaminaren Zug- und
Druckkennwerten wurden die Auswirkungen der Vernähung auch auf die Kerbdruckeigenschaften
untersucht. Zur Bestimmung von Elastizitäts- und Festigkeitskenngrößen
bei einer Zugbelastung senkrecht zur Laminatebene wurde ein Versuchskonzept
erarbeitet und die Potentiale der eingebrachten strukturellen Vernähung
ermittelt. Darüber hinaus wurden die Auswirkungen der strukturellen Vernähung auf
die interlaminaren Schubfestigkeiten charakterisiert. Auch der Einfluss des Nähprozesses
auf die mechanischen Eigenschaften der verwendeten E-Glas-Garne
wurde experimentell erfasst.
Die Versuchsergebnisse zeigten Reduktionen der intralaminaren Kennwerte um bis
zu 12 %, bei den Kerbdruckversuchen wurden teilweise Steigerungen des Kerbfaktors
festgestellt, die bis zu 9 % betrugen. Der Zug-Elastizitätsmodul senkrecht zur
Laminatebene wurde generell gesteigert, im Maximum um 8 %. Für die Zugfestigkeit
wurden leichte Steigerungen um 4 %, aber auch Abnahmen um bis zu 12 % beobachtet.
Bei der interlaminaren Schubfestigkeit waren durchgehend Steigerungen
festzustellen, die maximal 11 % betrugen. Der Elastizitätsmodul und die Festigkeit
des Nähgarns wurden infolge des Nähprozess um bis 22 % bzw. 42 % verringert.
Der praxisgerechte Einsatz der strukturellen Nähtechnik erfordert neben fundierten
Werkstoffkennwerten auch Simulationswerkzeuge, die die Auswirkungen der 3DVerstärkung
abschätzen können. Somit könnte durch eine Vorauswahl geeigneter
Nähmuster der Aufwand für eine kosten- und zeitintensive Materialcharakterisierung
reduziert werden. Hierzu wurde auf ein parametrisch gesteuertes Finite-Elemente-
Einheitszellenmodell zur Vorhersage von intralaminaren Elastizitäts- und –Festigkeitskenngrößen
zurückgegriffen und dieses um die Vorhersage von Elastizitäts- und
Zugfestigkeitskenngrößen senkrecht zur Laminatebene erweitert. Im Rahmen der
Modellvalidierung und -kalibrierung wurden intensive Untersuchungen hinsichtlich
geeigneter Randbedingungen und mikromechanischer Ansätze zur Beschreibung der
unidirektionalen Einzelschicht des Laminats durchgeführt. Die mit dem weiterentwickelten
Einheitszellenmodell abgeschätzten mechanischen Kennwerte zeigten gute
Übereinstimmungen mit experimentellen Ergebnissen.
In recent years, recommender systems have been widely used for a variety of different kinds of items such as books, movies, and music. However, current recommendation approaches have often been criticized to suffer from overspecialization thus not enough considering a user’s diverse topics of interest. In this thesis we present a novel approach to extracting contextualized user profiles which enable recommendations taking into account a user’s full range of interests. The method applies algorithms from the domain of topic detection and tracking to automatically identify diverse user interests and to represent them with descriptive labels. That way manual annotations of interest topics by the users, e. g., from a predefined domain taxonomy, are no longer required. The approach has been tested in two scenarios: First, we implemented a content-based recommender system for an Enterprise 2.0 resource sharing platform where the contextualized user interest profiles have been used to generate recommendations with a high degree of inter-topic diversity. In an effort to harness the collective intelligence of the users, the resources in the system were described by making use of user-generated metadata. The evaluation experiments show that our approach is likely to capture a multitude of diverse interest topics per user. The labels extracted are specific for these topics and can be used to retrieve relevant on-topic resources. Second, a slightly adapted variation of the algorithm has been used to target music recommendations based on the user’s current mood. In this scenario music artists are described by using freely available Semantic Web data from the Linked Open Data cloud thus not requiring expensive metadata annotations by experts. The evaluation experiments conducted show that many users have a multitude of different preferred music styles. However a correlation between these music styles and music mood categories could not be observed. An integration of our proposed user profiles with existing user model ontologies seems promising for enabling context-sensitive recommendations.
Diversitätsgenerierende Retroelemente (DGRs) stellen einen neuen Typus Retroelement dar, die gezielt einen Teil einer codierenden Sequenz des Wirtsgenoms über einen Copy and Replace-Mechanismus hypermutieren und somit zur Erzeugung biologischer Diversität beitragen können. Trotz dieser einzigartigen Eigenschaften und dem potentiellen Wert dieser Elemente für Industrie und Forschung konzentrierten sich seit der Beschreibung des ersten DGRs vor über zehn Jahren die meisten Publikationen auf mechanistische Eigenschaften des Prototypen aus dem Bordetella Bakteriophagen. Allerdings sind zahlreiche Fragen zur Funktionsweise dieser Elemente noch immer ungeklärt. Ebenso wurden bisher extensivere, vergleichende Studien, die weitere Vertreter dieser Elemente berücksichtigen, noch nicht durchgeführt.
Die vorliegende Dissertation leistet einen wichtigen Beitrag zum tieferen Verständnis diversitätsgenerierender Retroelemente. Das eigens für diesen Zweck konzipierte Programm DiGReF erlaubte eine umfassende Analyse der Bestände öffentlicher Datenbanken auf DGRs in sequenzierten Genomen. Mit Hilfe dieser Daten konnten weitere Aspekte dieser Elemente aufgeklärt werden, die eine Analyse ihrer Verteilung, ihrer phylogenetischen Beziehungen, ihrer Struktur und eine Charakterisierung der einzelnen Elemente einer DGR-Kassette umfassten. So konnte gezeigt werden, dass das zuvor für wenige Elemente beschriebene Merkmal der Adeninsubstitution eine gemeinsame Eigenschaft aller DGRs ist, während keine C-, T- oder G-Substitionen auftreten. Ebenso fanden sich erste Belege dafür, dass die beiden essentiellen Elemente Template Repeat und reverse Transkriptase nicht notwendigerweise ein gemeinsames Transkript besitzen. Außerdem konnte erstmalig die Gruppe der weitgehend uncharakterisierten akzessorischen Proteine umfassender beschrieben und ein Consensusmotiv ermittelt werden. Für künftige Studien werden die DiGReF-Software und die Ergebnisse dieser Arbeit von grundlegender Bedeutung sein.
Der zweite Teil dieser Arbeit fokussierte sich auf die experimentelle Charakterisierung zweier Kernkomponenten von DGRs, der reversen Transkriptase und den akzessorischen Proteinen. Während die Aufreinigung einer DGR-assoziierten reversen Transkriptase noch weitere experimentelle Arbeiten erfordern wird, konnte das akzessorische Protein Alr3496 aus der Blaualge Nostoc sp. PCC 7120 erfolgreich in rekombinanter Form aufgereinigt werden. Es konnte weiterhin gezeigt werden, dass Alr3496 diverse Nucleinsäuresubstrate bindet, und in der Lage ist, die Hybridisierung von komplementären DNA-Strängen zu katalysieren. Dies legt nahe, dass akzessorische Proteine aus DGR-Elementen eine Rolle als Nucleinsäurechaperone übernehmen.
Experimentelle Untersuchung des Rissausbreitungsverhaltens von nanopartikelverstärktem Polyamid 66
(2013)
Die Nanotechnologie wird als eine der Schlüsseltechnologien des 21sten Jahrhunderts angesehen. Sie ermöglicht es Werkstoffeigenschaften gezielt zu verändern oder dem Werkstoff gänzlich neue Eigenschaften zu verleihen. So kann beispielsweise die Bruchzähigkeit von Polymeren durch Zumischung von wenigen Volumenanteilen Nanopartikel erheblich gesteigert werden. Dadurch wird auch das Energieabsorptionsvermögen dieser Werkstoffe verbessert.
Im Rahmen dieser Arbeit wurden TiO2- und SiO2-Nanokomposite auf Basis von Polyamid 66 in einem Zweischneckenextruder durch Direktmischen mit Füllgehalten von ½, 1, 2 und 4 Vol.-% hergestellt. Mit Zugversuchen (Prüfgeschwindigkeiten von 1 mm – 1000 mm/s) und Bruchuntersuchungen bei quasistatischer sowie kurzzeit-dynamischer Belastung wurden die mechanischen Eigenschaften charakterisiert. Mit vergleichenden Untersuchungen an einfach und zweifach extrudiertem ungefüllten Polyamid 66 (Referenzmaterial) konnte die Degradation des Polyamids durch den Extrusionsprozess ermittelt werden. Die TiO2- und SiO2-Nanokomposite wiesen deutliche Unterschiede in der Zähigkeit zueinander auf. Deshalb wurde ein Vergleich der plastischen Verformung bei Zugbeanspruchung der niedrig gefüllten Nanokomposite mittels einer Lichttransmissionsanalyse durchgeführt.
In den TiO2-Nanokompositen sind die Nanopartikel größtenteils in Form von Primärpartikeln homogen im Polyamid 66 verteilt. Die restlichen Nanopartikel fanden sich als Agglomerate unterschiedlicher Größen in der Matrix wieder. SiO2 Nanokomposite wiesen eine sehr geringe Anzahl an Agglomeraten auf. Stattdessen fanden sich die Nanopartikel vorwiegend homogen als Kleinstagglomerate verteilt vor. Übergreifend zeigten die untersuchten Nanokomposite bei niedrigen Füllgraden gegenüber dem Referenzmaterial die größten mechanischen Eigenschafts-steigerungen, welche mit steigendem Füllgehalt wieder abnahmen.
TiO2 Nanokomposite sind steifer und spröder als das Referenzmaterial. In den Zugversuchen bei geringen Prüfgeschwindigkeiten zeigten sie geringere Zugfestigkeiten und Duktilität. Mit steigender Belastungsrate wiesen alle untersuchten Materialien eine Versprödung auf, sodass bei den TiO2 Nanokompositen eine höhere Zugfestigkeit als die des Referenzmaterials bei hohen Prüfgeschwindigkeiten beobachtet wurde. Die Bruchzähigkeit der TiO2–Komposite war in den Bruchuntersuchungen sowohl bei quasistatischer als auch bei kurzzeitdynamischer Belastungsrate größer als bei dem Referenzmaterial.
Trotz gleicher Matrix zeigten die SiO2 Nanokomposite im Vergleich zu den TiO2-Nanokompositen ein anderes mechanisches Verhalten. Gegenüber dem Referenzmaterial wiesen sie in den Zugversuchen eine deutlich höhere Duktilität über alle untersuchten Prüfgeschwindigkeiten auf. Sie besaßen eine geringere Zugfestigkeit bei geringen Prüfgeschwindigkeiten. Bedingt durch die dehnratenabhängige Versprödung war die Zugfestigkeit bei der höchsten untersuchten Dehnrate größer als die der Referenz. Die SiO2 Nanokomposite hatten auch eine höhere Bruchzähigkeit bei quasistatischer und kurzzeitdynamischer Belastung, wobei sie einen geringeren Rissinitiierungswiderstand bei quasistatischer Prüfgeschwindigkeit aufwiesen.
Bezogen auf das Referenzmaterial zeigten die Nanokomposite ein Potential das Absorptionsvermögen von FKV zu steigern. Das Polyamid 66 im Referenzmaterial und in den Nanokompositen besaß eine vergleichbare Verarbeitungshistorie, welche sich auf die Materialeigenschaften ausgewirkt hat.
Gegenstand der vorliegenden Arbeit ist die Entwicklung neuartiger Anionenrezeptoren auf Basis von Cyclopeptiden und Bis(cyclopeptiden). Besonderer Augenmerk sollte hierbei auch auf der Verbesserung der synthetischen Zugänglichkeit dieser Rezeptoren liegen.
Gemeinsamer Baustein der verwendeten Cyclopeptide sind Dipeptide aus Boc-L-Hydroxy-prolin und geschützten Aminopicolinsäureuntereinheiten. Konventionell wird deren Synthese durch Einsatz von Kupplungsreagenzien realisiert. Aufgrund der Elektronenarmut der Amino-picolinsäureeinheit muss hierbei PyCloP als Kupplungsreagenz eingesetzt werden, welches vergleichsweise teuer ist. Außerdem kann es bei dieser Reaktionsführung zur Epimerisierung der chiralen Aminosäure kommen, so dass bei dieser Reaktion Optimierungsbedarf besteht. Durch Anwendung der Goldberg-Amidierung konnte ich die Effizienz der Dipeptidsynthese durch Einsatz günstiger Reagenzien sowie kommerziell erhältlicher Edukte steigern. Außerdem besteht bei dieser Reaktion keine Gefahr der Racemisierung.
In meiner Arbeit beschäftigte ich mich darüber hinaus mit der Synthese einer molekularen Kapsel auf Basis thiol-haltiger Cyclopeptide. Dieses dreifach verbrückte Bis(cyclopeptid) wird dabei mit Hilfe der dynamischen kombinatorischen Chemie unter Verwendung des Disulfidaustausches als reversibler Reaktion synthetisiert. Mir ist es gelungen, durch systematische Optimierung der Reaktionsbedingungen die Produktbildung positiv zu beeinflussen und die Aufarbeitung zu vereinfachen. Allerdings kam es bei der Isolierung des Bis(cyclopeptids) zu einer Oxidation der Disulfidbrücken, so dass das Produkt nicht analysenrein erhalten werden konnte.
Während meiner Arbeiten ist es mir ebenfalls gelungen, einen Zugang zu funktionalisierten Cyclopeptiden zu entwickeln. Dabei zeigte sich, dass die Einführung von Substituenten in den Prolineinheiten nach Aufbau des Cyclopeptids erfolgen muss. Das so erhaltene Cyclopeptid mit drei β-Alanin-Seitenketten trägt Ammoniumgruppen in der Peripherie. Mit Hilfe von pH-abhängigen potentiometrischen Titrationen konnten drei Protonierungskonstanten ermittelt werden. Diese zeigen, dass bei pH 7 immer noch 95 % der Moleküle vollständig protoniert sind. Dieses Cyclopeptid zeigte bezüglich der Anionenbindung einzigartige Eigenschaften So bindet es in gepufferten wässrigen Medien Sulfatanionen mit hoher Affinität, was mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie nach-gewiesen werden konnte. Die Sulfatbindung konnte darüber hinaus nicht nur in Essigsäure-/Acetat-Puffer sondern auch in reinem Phosphat-Puffer bei verschiedenen pH-Werten nachgewiesen werden. Damit wurde mit diesem Cyclopeptid ein effizienter Sulfatrezeptor entwickelt, der selektiv Sulfatanionen in Wasser zu binden vermag. Es zeigte sich, dass die Kombination der Anionenbindungsstelle des Cyclopeptids mit peripheren funktionellen Gruppen, die sich spezifisch an der Gastbindung beteiligen, eine geeignete Strategie darstellt, die Löslichkeits- und Bindungseigenschaften solcher Cyclopeptide gezielt zu verbessern.
Die Arbeit befasst sich mit parallelen Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems unter Verwendung von Grafikkarten. Hierbei werden durch die Analyse von lokalen Suchoperatoren und ihrer Ausführungen Gestaltungsempfehlungen gegeben, wie eine möglichst performante Implementierung auf der Grafikkarte aussehen kann. Weiterhin wird analysiert wie die einfache Nutzung lokaler Suchoperatoren im Kontext von Metaheuristiken mit State-of-the-Art-Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems konkurrieren kann. Dabei wird auch eine unterschiedlich starke Nutzung von der Grafikkarte und deren Auswirkung auf die Lösungsgüte berücksichtigt. Außerdem wird untersucht, inwiefern sich der Einsatz von Grafikkarten im Vergleich zur reinen CPU-Nutzung auf die Wirtschaftlichkeit auswirkt.
Die Verbesserung der aerodynamischen Komponenten einer Gasturbine lässt nur noch wenig Spielraum zu einer Effizienzsteigerung offen. Eine Erhöhung der maximalen Temperatur des thermodynamischen Prozesses bietet weiteres Potential zur Leistungssteigerung. Diese Maßnahme führt zu Turbineneintrittstemperaturen, die eine thermische Belastung für die Turbinenkomponenten darstellt, welche auch durch moderne Werkstoffe nicht ertragen werden kann. Um einer thermische Ermüdung vorzubeugen kann eine Filmkühlung appliziert werden.
Eine Filmkühlung hat zunächst eine Reduktion des thermischen Wirkungsgrades zur Folge. Der benötigte Luftmassenstrom muss daher minimiert werden. Um mit minimalem Luftmassenstrom eine ausreichende Kühlung zu erreichen, ist vor der Auslegung der Filmkühlung die Kenntnis des lokalen Wärmeübergangs in der Turbine notwendig. Dieser wird von der Strömung in der Turbine bestimmt. Insbesondere die entstehenden Wirbelstrukturen verursachen starke Temperaturfluktuationen über den Bauteiloberflächen. Hier ist an erster Stelle das Wirbelsystem im Eckbereich von Schaufeln und Seitenwänden zu nennen. Der Wärmeübergang kann hier um bis zu 300% gegenüber der ungestörten Anströmung erhöht sein. Weiterhin tritt das Wirbelsystem mit der vorhandenen Filmkühlung in Interaktion, was eine Reduzierung der Kühlleistung zur Folge hat.
Die experimentelle Evaluierung der lokalen Kühlleistung, bemessen durch die Filmkühleffektivität, ist mit einem hohen Maß an Aufwand verbunden. Eine numerische Bestimmung der Filmkühleffektivität ist eine kostengünstige Alternative, bietet jedoch aufgrund der benötigten Modellierung der Turbulenz und der räumlichen und zeitlichen Diskretisierung zwei Fehlerquellen, deren Einfluss auf das Ergebnis einer Beurteilung bedarf.
Mit Turbulenzmodellen niedrigen Modellierungsgrades ist eine Abbildung des instationären Wirbelsystems im Eckbereich in guter Übereinstimmung mit dem Experiment möglich. Diese erfordern ein hohes Maß an Ressourcen. Im Zuge der Notwendigkeit einer Ressourcenersparnis besteht der Wunsch das Wirbelsystem mit Modellen hohen Modellierungsgrades zu bestimmen. In dieser Arbeit wird daher herausgestellt, welchen Anspruch das Wirbelsystem tatsächlich an seine Modellierung stellt. Zu diesem Zweck werden nicht nur verschiedene Turbulenzmodelle variierenden Modellierungsgrades gegenübergestellt, sondern auch der notwendige räumliche und zeitliche Diskretisierungsgrad diskutiert.
Die Strömungskonfiguration einer Filmkühlung im Eckbereich vor der Schaufelvorderkante kann als Superposition zweier Strömungskonfigurationen betrachtet werden. Diese sind das Ausblasen von Kühlluft aus einer diskreten Bohrung und die Entwicklung des Wirbelsystems im Eckbereich vor der Vorderkante aufgrund einer Grenzschichtströmung. Zunächst werden die Ansprüche der Einzelkonfigurationen an Turbulenzmodellierung und Diskretisierung geklärt. Anschließend wird die Superposition beider Fälle untersucht. Im Vergleich zeigt sich der Einfluss von Turbulenzmodellierung und Diskretisierung auf die Ergebnisse der Einzelkonfigurationen und weiterhin, ob diese Erkenntnisse auf die Bestimmung der Superposition angewendet werden können. Die Zielgröße der Berechnungen ist die lokale Filmkühleffektivität, beziehungsweise, im Fall der Untersuchung des Wirbelsystems ohne Filmkühlung, der lokale Wärmeübergang in die Seitenwand. Für die drei untersuchten Strömungskonfigurationen stehen experimentelle Daten zur Validierung zur Verfügung.
Während das Ausblasen aus einer diskreten Bohrung mit einem RANS Modell, dem k-\epsilon Modell, gut abgebildet werden kann, ist die Entwicklung des Wirbelsystems im Eckbereich vor der Schaufelvorderkante und der damit einhergehende Wärmeübergang durch ein hybrides Modell, das DES Modell, gut repräsentiert. In Verbindung mit dem k-\epsilon Modell zeigt sich für die Untersuchung des Ausblasens eine grobe Diskretisierung bei stationärer Berechnung als förderlich für die Abbildung der experimentellen Filmkühleffektivität. Dies liegt in der vorhandenen numerischen Diffusion begründet.
Die Wiedergabe vorhandener Wirbelstrukturen ist essentiell zur Prognose der Filmkühleffektivitätsverteilung und des Wärmeübergangs im Eckbereich vor der Vorderkante. Dies bedarf der Verwendung eines geeigneten Modells in Verbindung mit einer ausreichenden Diskretisierung. Daher zeigt sich hier das DES Modell als geeignet.
Die Entwicklung der Filmkühleffektivität im Fall des Ausblasens von Kühlluft in ein bestehendes Wirbelsystem ist von den entstehenden Wirbelstrukturen bestimmt. Die Ergebnisse des DES Modells in Verbindung mit dem Netz größter Knotendichte weisen daher hier die beste Übereinstimmung mit dem Experiment auf.
Die vorliegende Dissertation umfasst die vier Themengebiete Cobalt(II)-Spincrossover-Verbindungen, Eisen(II)-Spincrossover-Verbindungen, Eisen(II)-Radikal-Komplexe und intermediate-spin-Eisen(III)-Komplexe.
Unter den 18 neuen Cobalt(II)-Verbindungen mit den Tetraazamakrozyklen N,N‘-Dimethyl- bzw. N,N‘-Di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophan als primäre Liganden, die synthetisiert und vollständig charakterisiert werden konnten, befinden sich 5 Komplexe, die einen Spinübergang im Feststoff zeigen. Dieser Spinübergang konnte für alle fünf Verbindungen mittels Röntgenstrukturanalysen bei verschiedenen Temperaturen sowie mittels SQUID-Messungen nachgewiesen werden. Dabei weisen die Verbindungen 7b, 8a und 16b einen graduellen, unvollständigen Spincrossover auf. Die Komplexe 17 und 18 zeigen einen Spinübergang mit einer Übergangstemperatur von 232 bzw. 135 K. Für die beiden letztgenannten Komplexe konnte der Spinübergang auch mittels Raman- und ESR-Spektroskopie nachgewiesen werden. 7 Verbindungen zeigen laut NMR-Evans-Messungen einen Spincrossover in Lösung, wobei dieser jeweils unvollständig ist und über einen weiten Temperaturbereich verläuft. Die Komplexe 7b und 16b weisen sowohl im Feststoff als auch in Lösung einen Spinübergang auf.
Der Vergleich der Cobalt(II)- mit analogen Eisen(II)-Verbindungen zeigt, dass für Cobalt(II)-Spincrossover-Verbindungen neben der Ligandenfeldstärke der koordinierenden Liganden auch die tetragonale Verzerrung der Umgebung des Cobaltions von großer Bedeutung ist. Diese ist für den tert-butylsubstituierten Makrozyklus deutlich stärker ausgeprägt als für das methylsubstituierte Derivat. So kann der low-spin-Zustand energetisch unter dem high-spin-Zustand liegen, obwohl die Ligandenfeldaufspaltung für L-N\(_4\)\(^t\)Bu\(_2\) beim idealen Oktaeder kleiner ist als für L-N\(_4\)Me\(_2\). Dadurch wiederum können die Spincrossover-Komplexe 16b und 18 bei tiefen Temperaturen den low-spin-Zustand erreichen, während die analogen Verbindungen 9 und 10 im high-spin-Zustand verbleiben.
Im Rahmen der Eisen(II)-Spincrossover-Verbindungen konnten 5 neue Komplexe synthetisiert und charakterisiert werden. Dabei handelt es sich einerseits um die Spincrossover-Verbindungen 22a, 23a und 24. Der erstgenannte Komplex zeigt in den SQUID-Messungen einen graduellen Spinübergang, wobei sich unterhalb von 75 K noch etwa 10 bis 15 % der Eisenionen im high-spin-Zustand befinden und bei der Höchsttemperatur von 400 K hauptsächlich der high-spin/high-spin/high-spin-Zustand besetzt ist. Für den Komplex 23a konnte ein gradueller Spincrossover mittels Röntgenstrukturanalysen, SQUID- und Mößbauer-Messungen nachgewiesen werden, die Übergangstemperatur wurde zu 200 K bestimmt. Die Verbindung 24 weist laut SQUID-Magnetometrie einen graduellen Spinübergang mit einer Übergangstemperatur von 245 K auf, und auch die Mößbauer-Spektren belegen einen Spincrossover. Andererseits konnten auch die Verbindung 25a sowie der zugehörige zweikernige Komplex 26a synthetisiert werden. Der mononukleare Komplex weist in Lösung einen Spinübergang auf, im Feststoff befindet sich das Eisen(II)-Ion im low-spin-Zustand. Die dinukleare Verbindung liegt überwiegend im high-spin/high-spin-Zustand vor.
Bei dem vorgestellten Eisen(II)-Radikal-Komplex 28 handelt es sich um eine Eisen(II)-Verbindung mit dem monoanionischen pi-Radikal von Biacetyl-bis-methylimin als Coligand. Sowohl die Röntgenstrukturanalyse als auch die SQUID- und Mößbauer-Messungen weisen darauf hin, dass das Eisen(II)-Ion im intermediate-spin-Zustand (S = 1) vorliegt. Als Nebenprodukt wird bei der Synthese der high-spin-Eisen(II)-Komplex 29 gebildet, welcher einfach deprotoniertes Biacetyl-bis-methylimin als Coligand enthält. Die Ausgangsverbindung 27 weist einen graduellen Spinübergang mit einer Übergangstemperatur von 385 K auf. Durch die Deprotonierung wird die Ligandenfeldstärke des Coliganden also schwächer. Die Auswirkung der Reduktion auf die Ligandenfeldstärke ist schwieriger zu beurteilen. Durch das Hinzufügen eines Elektrons wird der Coligand ein besserer \(\sigma\)- und \(\pi\)-Donor, während seine \(\pi\)-Akzeptor-Eigenschaften abnehmen. Insgesamt ist die reduzierte Spezies vermutlich ein schwächerer Ligand als der Neutralligand.
Mit Komplex 30b konnte eine Eisen(III)-Verbindung mit einem intermediate-spin-Grundzustand synthetisiert und untersucht werden. Der intermediate-spin-Zustand des Eisen(III)-Ions wurde mit Hilfe von Röntgenstrukturanalysen, SQUID-Messungen und Mößbauer- sowie ESR-Spektroskopie belegt. Grund für die Stabilisierung des relativ seltenen, reinen intermediate-spin-Zustandes ist die durch den Tetraazamakrozyklus hervorgerufene tetragonale Verzerrung zusammen mit den guten \(\sigma\)- und \(\pi\)-Donor-Eigenschaften des Coliganden 1,2-Ethandithiolat. Dadurch wird eine relativ große Aufspaltung der ursprünglichen \(e_g\)-Orbitale des Eisen(III)-Ions bewirkt. Dies wiederum führt zum Vorliegen der Elektronenkonfiguration \( (d_{xy})^2(d_{xz}d_{yz})^2(d_{z^2})^1(d_{x^2-y^2})^0\).
Die vorliegende Dissertation zeigt, dass die verwendeten tetraazamakrozyklischen Liganden geeignete Liganden sind, sowohl um mit Eisen(II)- und Cobalt(II)-Ionen Spinübergänge zu verwirklichen, als auch um den seltenen intermediate-spin-Zustand in Eisen(III)-Komplexen zu stabilisieren. Wichtig ist auch die Erkenntnis, dass diese Makrozyklen eine starke tetragonale Verzerrung des oktaedrischen Ligandenfeldes hervorrufen, was die Beobachtung von Spincrossoverprozessen mit Cobalt(II)-Verbindungen sowie von intermediate-spin-Eisen(III)-Komplexen ermöglicht.