Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Has Fulltext
- yes (65)
Keywords
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- IR-MPD (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
- UPnP (2)
- cobalt (2)
- dipeptide (2)
- metal (2)
- Adsorbermaterialien (1)
- Ahr Knockout Model (1)
- Analytical method (1)
- Anionenrezeptor (1)
- Aryl hydrocarbon Receptor (1)
- Baeocyte (1)
- Biogeographie (1)
- Biogeography (1)
- Bioinformatik (1)
- CFD (1)
- CID (1)
- Chroococcales (1)
- Chroococcidiopsis (1)
- Chroococcidiopsis cubana (1)
- Chroococcidiopsis thermalis (1)
- Chroococcidiopsisdaceae (1)
- Collision Induced Dissociation (1)
- Cyanobacteria (1)
- Cyanobakterien (1)
- Cyanobakterium (1)
- Cyclopeptide (1)
- DFG (1)
- DFT (1)
- DPN (1)
- Decarboxylierende Kupplungen (1)
- Dimethyldisulfid (1)
- Dimethylfumarat (1)
- Dioxin-like Compounds (1)
- Diskretisierung (1)
- Diversitätsgenerierende Retroelemente (1)
- Dreidimensionale Modellierung (1)
- Drilltragverhalten (1)
- Dsitribution (1)
- E-Learning (1)
- Ecology (1)
- Edwards Model (1)
- Empfehlungssysteme (1)
- Energie (1)
- Evolution (1)
- Exekutive Funktionen (1)
- Extended Mind (1)
- FT-MIR (1)
- Fertigteildecken mit Ortbetonergänzung (1)
- Feynman Integrals (1)
- Filmkühlung (1)
- Filtersubstrat Lavasand (1)
- Finite element method (1)
- Finite-Elemente-Methode (1)
- Fremdspracherwerb (1)
- Gast-Wirt-Beziehung (1)
- Genetik (1)
- Gesundheitszustand (1)
- Gitterträger (1)
- GlyHis (1)
- Grape Quality (1)
- H/D exchange (1)
- Hamiltonian Path Integrals (1)
- Hexenol (1)
- HisGly (1)
- Hochschuldidaktik (1)
- Honduras (1)
- Hufeisenwirbel (1)
- Human Liver Cell Models (1)
- Immersion (1)
- Imote2 (1)
- Infrared Multi Photon Dissociation (1)
- Jet in crossflow (1)
- Karhunen-Loève expansion (1)
- Knowledge Management (1)
- Kommunikation (1)
- Ligandenfeldstärke (1)
- Liver Toxicity (1)
- Manufacturing System (1)
- Materialcharakterisierung (1)
- Mehrskalenmodell (1)
- Memory Theory (1)
- Metabolomics (1)
- Metallorganische Chemie (1)
- Microarray (1)
- Mischsystem (1)
- Molkeproteine (1)
- Mood-based Music Recommendations (1)
- Morphologie (1)
- Morphology (1)
- Nostocales (1)
- PCDD/Fs PCBs (1)
- Palladium (1)
- Peer Feedback (1)
- Penicillin-Bindeprotein 2x (1)
- Pentenol (1)
- Peptidsynthese (1)
- Pflanzenkläranlage (1)
- Philosophy of Technology (1)
- Phylogenie (1)
- Phylogeny (1)
- Pleurocapsales (1)
- Primary human Hepatocytes (1)
- Proteinaufreinigung (1)
- Quartz (1)
- RKHS (1)
- Recommender Systems (1)
- Regelung (1)
- Relative effect potencies (REPs) (1)
- Ringversuch (1)
- Rückmeldung (1)
- S. pneumoniae (1)
- SDL (1)
- Sauerstoff (1)
- Scanning Electron Microscope (1)
- Scheduling (1)
- Serinprotease HtrA (1)
- Socio-Semantic Web (1)
- Soudness (1)
- Sound Simulation (1)
- Spaltströmung (1)
- Spincrossover (1)
- Sprachentwicklung (1)
- Stimmungsbasierte Musikempfehlungen (1)
- Sulfaterkennung (1)
- Supramolekulare Chemie (1)
- Systematics (1)
- Systematik (1)
- Tension-Stiffening (1)
- Tetrahydrofuran (1)
- Tetrahydropyran (1)
- Themenbasierte Empfehlungen von Ressourcen (1)
- Thylakoid (1)
- Tire-soil interaction (1)
- Topic-based Resource Recommendations (1)
- Traubenqualität (1)
- Vakuumpumpe (1)
- Virtual Reality (1)
- Visualization (1)
- White Noise Analysis (1)
- Wärmeübergang (1)
- Zweitspracherwerb (1)
- aerobe Oxidation (1)
- alkali (1)
- alternating optimization (1)
- anionic receptors (1)
- anserine (1)
- aquatic (1)
- aspartam (1)
- aspartame (1)
- benzene (1)
- benzol (1)
- biology of knowledge (1)
- carnosine (1)
- cluster (1)
- concurrent (1)
- continuum fracture mechanics (1)
- cyclic peptides (1)
- data-flow (1)
- deuteration (1)
- deuterierung (1)
- distributed (1)
- dynamic combinatorial chemistry (1)
- dysprosium (1)
- embedded (1)
- endolithic (1)
- fiber reinforced silicon carbide (1)
- finite element method (1)
- free-living (1)
- gas phase (1)
- gas phase reaction (1)
- gasphase (1)
- graph p-Laplacian (1)
- higher education (1)
- homogenization (1)
- homolytische Substitution (1)
- hypolithic (1)
- infrarot (1)
- intermediate-spin (1)
- inverses Pendel (1)
- lanthanide (1)
- lichen (1)
- life-strategy (1)
- manganese (1)
- mass spectrometry (1)
- message-passing (1)
- metal cluster (1)
- mixed multiscale finite element methods (1)
- molecular capsules (1)
- multi-class image segmentation (1)
- multi-level Monte Carlo (1)
- multi-phase flow (1)
- multicore (1)
- multifilament superconductor (1)
- multiscale methods (1)
- multithreading (1)
- naturnahe Abwasserreinigungsverfahren (1)
- niob (1)
- numerische Strömungssimulation (1)
- numerisches Verfahren (1)
- obere Eckbewehrung (1)
- out-of-order (1)
- parallel (1)
- phase field model (1)
- platin (1)
- platinum (1)
- radikalische Addition (1)
- reaction coordinate (1)
- reaction kinetics (1)
- reaktionskinetik (1)
- receptors for anions (1)
- round robin test (1)
- ruthenium (1)
- single molecule magnet (1)
- spectroscopy (1)
- stochastic coefficient (1)
- supramolecular chemistry (1)
- synchronous (1)
- tetragonale Verzerrung (1)
- thiol-disulfide exchange (1)
- total variation (1)
- transfer hydrogenation (1)
- transition metal (1)
- vertikale Elementfugen (1)
- wirklichkeitsnahe numerische Simulation (1)
- zinc (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
Durch das Vernähen trockener Faservorformlinge vor der Harzinjektion werden vielfältige
Möglichkeiten eröffnet, um Faser-Kunststoff-Verbund-Strukturen gewichtsoptimiert
und gleichzeitig kostengünstig herzustellen. Durch die im Vergleich zur
Prepreg-Technik innovativere Prozesskette sind auch komplexe Geometrien, wie sie
beispielsweise in Lasteinleitungsbereichen vorliegen, automatisiert fertigbar. Die Einbringung
von strukturellen Vernähungen in Laminatdickenrichtung kann insbesondere
in Strukturbereichen mit dreidimensionalen Spannungszuständen die Delaminationsgefahr
durch eine Steigerung der interlaminaren Eigenschaften abmindern
und die Schadenstoleranz steigern. Allerdings erfordert eine vermehrte Anwendung
der Nähtechnik in der industriellen Praxis auch die Bereitstellung dreidimensionaler
mechanischer Werkstoffkennwerte, die im Konstruktions- und Auslegungsprozess
benötigt werden.
Im Rahmen dieser Arbeit wurden kohlenstofffaserverstärkte Multiaxialgelege-Laminate,
die im Flugzeugbau angewandt werden, strukturell vernäht und die durch den
Nähprozess entstehenden Reinharzgebiete sowie die Veränderung des relativen Faservolumengehaltes
erfasst. Bei der Bestimmung von intralaminaren Zug- und
Druckkennwerten wurden die Auswirkungen der Vernähung auch auf die Kerbdruckeigenschaften
untersucht. Zur Bestimmung von Elastizitäts- und Festigkeitskenngrößen
bei einer Zugbelastung senkrecht zur Laminatebene wurde ein Versuchskonzept
erarbeitet und die Potentiale der eingebrachten strukturellen Vernähung
ermittelt. Darüber hinaus wurden die Auswirkungen der strukturellen Vernähung auf
die interlaminaren Schubfestigkeiten charakterisiert. Auch der Einfluss des Nähprozesses
auf die mechanischen Eigenschaften der verwendeten E-Glas-Garne
wurde experimentell erfasst.
Die Versuchsergebnisse zeigten Reduktionen der intralaminaren Kennwerte um bis
zu 12 %, bei den Kerbdruckversuchen wurden teilweise Steigerungen des Kerbfaktors
festgestellt, die bis zu 9 % betrugen. Der Zug-Elastizitätsmodul senkrecht zur
Laminatebene wurde generell gesteigert, im Maximum um 8 %. Für die Zugfestigkeit
wurden leichte Steigerungen um 4 %, aber auch Abnahmen um bis zu 12 % beobachtet.
Bei der interlaminaren Schubfestigkeit waren durchgehend Steigerungen
festzustellen, die maximal 11 % betrugen. Der Elastizitätsmodul und die Festigkeit
des Nähgarns wurden infolge des Nähprozess um bis 22 % bzw. 42 % verringert.
Der praxisgerechte Einsatz der strukturellen Nähtechnik erfordert neben fundierten
Werkstoffkennwerten auch Simulationswerkzeuge, die die Auswirkungen der 3DVerstärkung
abschätzen können. Somit könnte durch eine Vorauswahl geeigneter
Nähmuster der Aufwand für eine kosten- und zeitintensive Materialcharakterisierung
reduziert werden. Hierzu wurde auf ein parametrisch gesteuertes Finite-Elemente-
Einheitszellenmodell zur Vorhersage von intralaminaren Elastizitäts- und –Festigkeitskenngrößen
zurückgegriffen und dieses um die Vorhersage von Elastizitäts- und
Zugfestigkeitskenngrößen senkrecht zur Laminatebene erweitert. Im Rahmen der
Modellvalidierung und -kalibrierung wurden intensive Untersuchungen hinsichtlich
geeigneter Randbedingungen und mikromechanischer Ansätze zur Beschreibung der
unidirektionalen Einzelschicht des Laminats durchgeführt. Die mit dem weiterentwickelten
Einheitszellenmodell abgeschätzten mechanischen Kennwerte zeigten gute
Übereinstimmungen mit experimentellen Ergebnissen.
Experimentelle Untersuchung des Rissausbreitungsverhaltens von nanopartikelverstärktem Polyamid 66
(2013)
Die Nanotechnologie wird als eine der Schlüsseltechnologien des 21sten Jahrhunderts angesehen. Sie ermöglicht es Werkstoffeigenschaften gezielt zu verändern oder dem Werkstoff gänzlich neue Eigenschaften zu verleihen. So kann beispielsweise die Bruchzähigkeit von Polymeren durch Zumischung von wenigen Volumenanteilen Nanopartikel erheblich gesteigert werden. Dadurch wird auch das Energieabsorptionsvermögen dieser Werkstoffe verbessert.
Im Rahmen dieser Arbeit wurden TiO2- und SiO2-Nanokomposite auf Basis von Polyamid 66 in einem Zweischneckenextruder durch Direktmischen mit Füllgehalten von ½, 1, 2 und 4 Vol.-% hergestellt. Mit Zugversuchen (Prüfgeschwindigkeiten von 1 mm – 1000 mm/s) und Bruchuntersuchungen bei quasistatischer sowie kurzzeit-dynamischer Belastung wurden die mechanischen Eigenschaften charakterisiert. Mit vergleichenden Untersuchungen an einfach und zweifach extrudiertem ungefüllten Polyamid 66 (Referenzmaterial) konnte die Degradation des Polyamids durch den Extrusionsprozess ermittelt werden. Die TiO2- und SiO2-Nanokomposite wiesen deutliche Unterschiede in der Zähigkeit zueinander auf. Deshalb wurde ein Vergleich der plastischen Verformung bei Zugbeanspruchung der niedrig gefüllten Nanokomposite mittels einer Lichttransmissionsanalyse durchgeführt.
In den TiO2-Nanokompositen sind die Nanopartikel größtenteils in Form von Primärpartikeln homogen im Polyamid 66 verteilt. Die restlichen Nanopartikel fanden sich als Agglomerate unterschiedlicher Größen in der Matrix wieder. SiO2 Nanokomposite wiesen eine sehr geringe Anzahl an Agglomeraten auf. Stattdessen fanden sich die Nanopartikel vorwiegend homogen als Kleinstagglomerate verteilt vor. Übergreifend zeigten die untersuchten Nanokomposite bei niedrigen Füllgraden gegenüber dem Referenzmaterial die größten mechanischen Eigenschafts-steigerungen, welche mit steigendem Füllgehalt wieder abnahmen.
TiO2 Nanokomposite sind steifer und spröder als das Referenzmaterial. In den Zugversuchen bei geringen Prüfgeschwindigkeiten zeigten sie geringere Zugfestigkeiten und Duktilität. Mit steigender Belastungsrate wiesen alle untersuchten Materialien eine Versprödung auf, sodass bei den TiO2 Nanokompositen eine höhere Zugfestigkeit als die des Referenzmaterials bei hohen Prüfgeschwindigkeiten beobachtet wurde. Die Bruchzähigkeit der TiO2–Komposite war in den Bruchuntersuchungen sowohl bei quasistatischer als auch bei kurzzeitdynamischer Belastungsrate größer als bei dem Referenzmaterial.
Trotz gleicher Matrix zeigten die SiO2 Nanokomposite im Vergleich zu den TiO2-Nanokompositen ein anderes mechanisches Verhalten. Gegenüber dem Referenzmaterial wiesen sie in den Zugversuchen eine deutlich höhere Duktilität über alle untersuchten Prüfgeschwindigkeiten auf. Sie besaßen eine geringere Zugfestigkeit bei geringen Prüfgeschwindigkeiten. Bedingt durch die dehnratenabhängige Versprödung war die Zugfestigkeit bei der höchsten untersuchten Dehnrate größer als die der Referenz. Die SiO2 Nanokomposite hatten auch eine höhere Bruchzähigkeit bei quasistatischer und kurzzeitdynamischer Belastung, wobei sie einen geringeren Rissinitiierungswiderstand bei quasistatischer Prüfgeschwindigkeit aufwiesen.
Bezogen auf das Referenzmaterial zeigten die Nanokomposite ein Potential das Absorptionsvermögen von FKV zu steigern. Das Polyamid 66 im Referenzmaterial und in den Nanokompositen besaß eine vergleichbare Verarbeitungshistorie, welche sich auf die Materialeigenschaften ausgewirkt hat.
Sphärische keramische Nanopartikel können die Eigenschaften von Thermoplasten
signifikant positiv verändern. Eine gute Dispersität von Nanopartikeln in einer polymeren
Matrix ermöglicht z.B. eine außergewöhnliche Steigerung der Zähigkeit. Allerdings
neigen die Nanoadditive wegen ihrer großen spezifischen Oberfläche zur Agglomeration,
was der Verbesserung der Eigenschaften entgegenwirkt. Dies stellt eine der
größten Herausforderungen der Nanokompositforschung dar. Da industriell hergestellte
Nanokomposite von steigendem Interesse für vielerlei Anwendungen sind, ist es
ingenieurwissenschaftlich relevant, Prozess-Struktur-Eigenschaftsbeziehungen von Nanokompositen
mit kommerziell erhältlichen Nanopartikeln genauer zu verstehen. Dies
erlaubt eine gezielte Steuerung bzw. Einstellung der Materialeigenschaften.
In den bisherigen wissenschaftlichen Arbeiten zu thermoplastischen Nanokompositen
mit sphärischen keramischen Nanofüllstoffen ist die Dispersität der Nanokomposite
nicht hinreichend gut quantifiziert worden, was zur Folge hat, dass verschiedene Herstellungsmethoden
nicht miteinander verglichen werden können. Diese Arbeit zielt darauf
ab, thermoplastische Polyamid 6-Nanoverbundwerkstoffe mit guter Dispersität mittels
Extrusion herzustellen und zu untersuchen. Dabei werden drei Herstellungsmethoden
und die dabei erreichten Dispersionsqualitäten und Eigenschaftsprofile betrachtet. Dafür
werden Verbundwerkstoffe aus einer PA6-Matrix und keramischen Nanofüllstoffen (TiO2,
SiO2, BaSO4) - als Pulver oder als Nanopartikeldispersion - generiert. Die erzeugten
Komposite werden mit TEM-, REM- und μ-CT-Analysen morphologisch analysiert. Die
Materialeigenschaften werden durch DSC-, DMTA-, GPC-, Viskositätsuntersuchungen
erfasst. Weiterhin werden Kerbschlagbiege- und Zugversuche durchgeführt.
In einem ersten Schritt wird eine häufig angewendete Herstellungsmethode untersucht,
bei der Nanopartikelpulver zum Extrusionsprozess zugegeben werden. Es ist
nicht möglich alle Agglomerate durch die Bearbeitung im Extruder aufzubrechen. Die
Agglomeratfestigkeit für die verwendeten Partikel wird aus den Verläufen der Dispersität
bei mehrfacher Extrusion erfolgreich bestimmt. Die Untersuchung der Vorgänge
bei der Deagglomeration anhand eines Modells zeigt, dass das Verhältnis zwischen
Agglomeratbruch und Erosion von einzelnen Partikeln von der Oberfläche des Agglomerates
für die Materialeigenschaften von maßgeblicher Bedeutung ist. Trotz sehr guter
Dispersionsqualität der TiO2-Komposite und einer guten Partikel-Matrix-Anbindung lassen
sich nur die Festigkeit und Steifigkeit steigern, während die Kerbschlagzähigkeit nicht erhöht ist. Die TiO2-Nanopartikel weisen eine relativ geringe Agglomeratfestigkeit
(0,1 MPa) auf, und die Erosion spielt neben Bruch eine wichtige Rolle im Deagglomerationsmechanismus,
weshalb für diese Partikel die Zugabe als Pulver zu empfehlen
ist. Restagglomerate führen jedoch zu Spannungskonzentrationen im Material, was
eine Zähigkeitssteigerung verhindert. SiO2-Nanopartikel dagegen können bei den in
dieser Arbeit gewonnenen Erkenntnissen nicht als Füllstoffe empfohlen werden. Ihre
Agglomerate weisen eine so hohe Festigkeit auf, dass diese überwiegend zerbrechen.
BaSO4 sollte als Pulver nicht verwendet werden, denn es kann mittels Extrusion kaum
dispergiert werden.
In der zweiten Bearbeitungsphase werden die Materialeigenschaften bei der Zugabe
der Nanopartikel als wässrige Dispersion untersucht. Dabei wird die Partikeldispersion
drucklos zugegeben; das Dispersionsmedium kann an der Zugabestelle direkt verdampfen.
Zusammengefasst ist festzustellen, dass Agglomeration an der Zugabestelle zu
verschlechterten mechanischen Eigenschaften führt.
Im dritten Schritt werden wässrige Nanopartikeldispersionen unter Druck in den Extruder
gepumpt, um zu erreichen, dass sich eine Mischung aus flüssiger Dispersion und Polymerschmelze
bildet. Dabei tritt zum einen Diffusion der Partikel in die Polymerschmelze
auf, zum anderen kommt es zu Tropfenverkleinerung durch die Scherspannung im
Extruder. Bei der theoretischen Untersuchung der Zerkleinerung der Dispersionstropfen
wird festgestellt, dass das Verhältnis der Viskositäten der zu mischenden Medien, deren
Oberflächenspannungen und die Scherspannung im Extruder den Vorgang bestimmen.
Die so ermittelte Größe der kleinsten Agglomerate liegt nicht im Nanometerbereich.
Infolge der geringen Mischdauer nach der Verdunstung des Dispergiermediums sind die
Agglomerate schlecht an die Matrix angebunden. Weiterhin bilden sich sehr kompakte
Agglomerate. Aufgrund dessen steigert sich der E-Modul des Nanokomposits kaum
bei einer gleichzeitig reduzierten Zähigkeit. Als Dispersion zugegeben diffundieren die
SiO2-Partikel kaum und es bilden sich relativ große Agglomerate. Da insbesondere bei
TiO2 und BaSO4 außergewöhnlich kleine Agglomerate (<100 nm) bzw. sogar Primärpartikel
gefunden werden, ist davon auszugehen, dass für diese beiden Nanoadditive
auch Diffusion von Bedeutung ist. Nanokomposite mit diesen Füllstoffen sollten über
die Methode der Zugabe von wässrigen Dispersionen unter Druck hergestellt werden.
Diese Arbeit bildet mit systematischen Untersuchungen von industriell relevanten Prozessen
zur Herstellung von Nanokompositen, den Mechanismen, die dabei ablaufen,
und den erzielbaren Materialmorphologien und Materialeigenschaften die Grundlage
für maßgeschneiderte Nanokomposite.
This thesis provides a fully automatic translation from synchronous programs to parallel software for different architectures, in particular, shared memory processing (SMP) and distributed memory systems. Thereby, we exploit characteristics of the synchronous model of computation (MoC) to reduce communication and to improve available parallelism and load-balancing by out-of-order (OOO) execution and data speculation.
Manual programming of parallel software requires the developers to partition a system into tasks and to add synchronization and communication. The model-based approach of development abstracts from details of the target architecture and allows to make decisions about the target architecture as late as possible. The synchronous MoC supports this approach by abstracting from time and providing implicit parallelism and synchronization. Existing compilation techniques translate synchronous programs into synchronous guarded actions (SGAs) which are an intermediate format abstracting from semantic problems in synchronous languages. Compilers for SGAs analyze causality problems, ensure logical correctness and the absence of schizophrenia problems. Hence, SGAs are a simplified and general starting point and keep the synchronous MoC at the same time. The instantaneous feedback in the synchronous MoC makes the mapping of these systems to parallel software a non-trivial task. In contrast, other MoCs such as data-flow processing networks (DPNs) directly match with parallel architectures. We translate the SGAs into DPNs,which represent a commonly used model to create parallel software. DPNs have been proposed as a programming model for distributed parallel systems that have communication paths with unpredictable latencies. The purely data-driven execution of DPNs does not require a global coordination and therefore DPNs can be easily mapped to parallel software for architectures with distributed memory. The generation of efficient parallel code from DPNs challenges compiler design with two issues: To perfectly utilize a parallel system, the communication and synchronization has to be kept low, and the utilization of the computational units has to be balanced. The variety of hardware architectures and dynamic execution techniques in processing units of these systems make a statically balanced distributed execution impossible.
The synchronous MoC is still reflected in our generated DPNs, which exhibits characteristics that allow optimizations concerning the previously mentioned issues. In particular, we apply a general communication reduction and OOO execution to achieve a dynamically balanced execution which is inspired from hardware design.
Die vorliegende Dissertation umfasst die vier Themengebiete Cobalt(II)-Spincrossover-Verbindungen, Eisen(II)-Spincrossover-Verbindungen, Eisen(II)-Radikal-Komplexe und intermediate-spin-Eisen(III)-Komplexe.
Unter den 18 neuen Cobalt(II)-Verbindungen mit den Tetraazamakrozyklen N,N‘-Dimethyl- bzw. N,N‘-Di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophan als primäre Liganden, die synthetisiert und vollständig charakterisiert werden konnten, befinden sich 5 Komplexe, die einen Spinübergang im Feststoff zeigen. Dieser Spinübergang konnte für alle fünf Verbindungen mittels Röntgenstrukturanalysen bei verschiedenen Temperaturen sowie mittels SQUID-Messungen nachgewiesen werden. Dabei weisen die Verbindungen 7b, 8a und 16b einen graduellen, unvollständigen Spincrossover auf. Die Komplexe 17 und 18 zeigen einen Spinübergang mit einer Übergangstemperatur von 232 bzw. 135 K. Für die beiden letztgenannten Komplexe konnte der Spinübergang auch mittels Raman- und ESR-Spektroskopie nachgewiesen werden. 7 Verbindungen zeigen laut NMR-Evans-Messungen einen Spincrossover in Lösung, wobei dieser jeweils unvollständig ist und über einen weiten Temperaturbereich verläuft. Die Komplexe 7b und 16b weisen sowohl im Feststoff als auch in Lösung einen Spinübergang auf.
Der Vergleich der Cobalt(II)- mit analogen Eisen(II)-Verbindungen zeigt, dass für Cobalt(II)-Spincrossover-Verbindungen neben der Ligandenfeldstärke der koordinierenden Liganden auch die tetragonale Verzerrung der Umgebung des Cobaltions von großer Bedeutung ist. Diese ist für den tert-butylsubstituierten Makrozyklus deutlich stärker ausgeprägt als für das methylsubstituierte Derivat. So kann der low-spin-Zustand energetisch unter dem high-spin-Zustand liegen, obwohl die Ligandenfeldaufspaltung für L-N\(_4\)\(^t\)Bu\(_2\) beim idealen Oktaeder kleiner ist als für L-N\(_4\)Me\(_2\). Dadurch wiederum können die Spincrossover-Komplexe 16b und 18 bei tiefen Temperaturen den low-spin-Zustand erreichen, während die analogen Verbindungen 9 und 10 im high-spin-Zustand verbleiben.
Im Rahmen der Eisen(II)-Spincrossover-Verbindungen konnten 5 neue Komplexe synthetisiert und charakterisiert werden. Dabei handelt es sich einerseits um die Spincrossover-Verbindungen 22a, 23a und 24. Der erstgenannte Komplex zeigt in den SQUID-Messungen einen graduellen Spinübergang, wobei sich unterhalb von 75 K noch etwa 10 bis 15 % der Eisenionen im high-spin-Zustand befinden und bei der Höchsttemperatur von 400 K hauptsächlich der high-spin/high-spin/high-spin-Zustand besetzt ist. Für den Komplex 23a konnte ein gradueller Spincrossover mittels Röntgenstrukturanalysen, SQUID- und Mößbauer-Messungen nachgewiesen werden, die Übergangstemperatur wurde zu 200 K bestimmt. Die Verbindung 24 weist laut SQUID-Magnetometrie einen graduellen Spinübergang mit einer Übergangstemperatur von 245 K auf, und auch die Mößbauer-Spektren belegen einen Spincrossover. Andererseits konnten auch die Verbindung 25a sowie der zugehörige zweikernige Komplex 26a synthetisiert werden. Der mononukleare Komplex weist in Lösung einen Spinübergang auf, im Feststoff befindet sich das Eisen(II)-Ion im low-spin-Zustand. Die dinukleare Verbindung liegt überwiegend im high-spin/high-spin-Zustand vor.
Bei dem vorgestellten Eisen(II)-Radikal-Komplex 28 handelt es sich um eine Eisen(II)-Verbindung mit dem monoanionischen pi-Radikal von Biacetyl-bis-methylimin als Coligand. Sowohl die Röntgenstrukturanalyse als auch die SQUID- und Mößbauer-Messungen weisen darauf hin, dass das Eisen(II)-Ion im intermediate-spin-Zustand (S = 1) vorliegt. Als Nebenprodukt wird bei der Synthese der high-spin-Eisen(II)-Komplex 29 gebildet, welcher einfach deprotoniertes Biacetyl-bis-methylimin als Coligand enthält. Die Ausgangsverbindung 27 weist einen graduellen Spinübergang mit einer Übergangstemperatur von 385 K auf. Durch die Deprotonierung wird die Ligandenfeldstärke des Coliganden also schwächer. Die Auswirkung der Reduktion auf die Ligandenfeldstärke ist schwieriger zu beurteilen. Durch das Hinzufügen eines Elektrons wird der Coligand ein besserer \(\sigma\)- und \(\pi\)-Donor, während seine \(\pi\)-Akzeptor-Eigenschaften abnehmen. Insgesamt ist die reduzierte Spezies vermutlich ein schwächerer Ligand als der Neutralligand.
Mit Komplex 30b konnte eine Eisen(III)-Verbindung mit einem intermediate-spin-Grundzustand synthetisiert und untersucht werden. Der intermediate-spin-Zustand des Eisen(III)-Ions wurde mit Hilfe von Röntgenstrukturanalysen, SQUID-Messungen und Mößbauer- sowie ESR-Spektroskopie belegt. Grund für die Stabilisierung des relativ seltenen, reinen intermediate-spin-Zustandes ist die durch den Tetraazamakrozyklus hervorgerufene tetragonale Verzerrung zusammen mit den guten \(\sigma\)- und \(\pi\)-Donor-Eigenschaften des Coliganden 1,2-Ethandithiolat. Dadurch wird eine relativ große Aufspaltung der ursprünglichen \(e_g\)-Orbitale des Eisen(III)-Ions bewirkt. Dies wiederum führt zum Vorliegen der Elektronenkonfiguration \( (d_{xy})^2(d_{xz}d_{yz})^2(d_{z^2})^1(d_{x^2-y^2})^0\).
Die vorliegende Dissertation zeigt, dass die verwendeten tetraazamakrozyklischen Liganden geeignete Liganden sind, sowohl um mit Eisen(II)- und Cobalt(II)-Ionen Spinübergänge zu verwirklichen, als auch um den seltenen intermediate-spin-Zustand in Eisen(III)-Komplexen zu stabilisieren. Wichtig ist auch die Erkenntnis, dass diese Makrozyklen eine starke tetragonale Verzerrung des oktaedrischen Ligandenfeldes hervorrufen, was die Beobachtung von Spincrossoverprozessen mit Cobalt(II)-Verbindungen sowie von intermediate-spin-Eisen(III)-Komplexen ermöglicht.
An huge amount of computational models and programming languages have been proposed
for the description of embedded systems. In contrast to traditional sequential programming
languages, they cope directly with the requirements for embedded systems: direct support for
concurrent computations and periodic interaction with the environment are only some of the
features they offer. Synchronous languages are one class of languages for the development of
embedded systems and they follow the fundamental principle that the execution is divided into
a sequence of logical steps. Thereby, each step follows the simplification that the computation
of the outputs is finished directly when the inputs are available. This rigorous abstraction leads
to well-defined deterministic parallel composition in general, and to deterministic abortion
and suspension in imperative synchronous languages in particular. These key features also
allow to translate programs to hardware and software, and also formal verification techniques
like model checking can be easily applied.
Besides the advantages of imperative synchronous languages, also some drawbacks can
be listed. Over-synchronization is an effect being caused by parallel threads which have to
synchronize for each execution step, even if they do not communicate, since the synchronization
is implicitly forced by the control-flow. This thesis considers the idea of clock refinement to
introduce several abstraction layers for communication and synchronization in addition to the
existing single-clock abstraction. Thereby, clocks can be refined by several independent clocks
so that a controlled amount of asynchrony between subsequent synchronization points can be
exploited by compilers. The declarations of clocks form a tree, and clocks can be defined within
the threads of the parallel statement, which allows one to do independent computations based
on these clocks without synchronizing the threads. However, the synchronous abstraction is
kept at each level of the abstraction.
Clock refinement is introduced in this thesis as an extension to the imperative synchronous
language Quartz. Therefore, new program statements are introduced which allow to define
a new clock as a refinement of an existing one and to finish a step based on a certain clock.
Examples are considered to show the impact of the behavior of the new statements to
the already existing statements, before the semantics of this extension is formally defined.
Furthermore, the thesis presents a compile algorithm to translate programs to an intermediate
format, and to translate the intermediate format to a hardware description. The advantages
obtained by the new modeling feature are finally evaluated based on examples.
Die vorliegende Arbeit befasst sich mit der Frage nach der zukünftigen Gestalt schrumpfender Städte in untrennbarer Verbindung mit möglichen Entwicklungsrichtungen und daraus ableitbarer städtebaulicher Leitbilder mit dem Ziel, bisherige fachliche Erkenntnisse zusammenzuführen, den Überblick über die anstehenden Gestaltungsaufgaben aufzuzeigen sowie diese Aspekte in die vorhandene wissenschaftliche Methodik einer Stadtgestaltplanung zu überfuhren.
Im Ergebnis zeigt die vorliegende Arbeit die Einordnung der gestalterischen Aspekte und Problemfelder im Stadtumbau in eine entsprechende Stadtgestaltplanung unter Schrumpfungsbedingungen, die sich hinsichtlich ihrer Inhalte kaum von bisherigen Stadtbildplanungen von Michael Trieb oder Seog-Jeong Lee unterscheidet, schließlich steht sowohl für die Stadtentwicklung unter Wachstumsvorzeichen als auch unter Schrumpfungsbedingungen die Bewahrung der stadträumlichen Qualität der Europäischen Stadt im Vordergrund, die in der jeweiligen Stadtentwicklung stets Gefahr laufen, abgerissen oder überformt zu werden.
Schwerpunktmäßig kommt der Teilbereichsplanung eine primäre Bedeutung zu, um für Stadtteile mit
unterschiedlichen Entwicklungsperspektiven stadträumliche Qualitäten zu erhalten oder auszubilden.
Andererseits geht es allgemein in einer Gestaltungsaufgabe von Stadt um die Erhaltung, Erzeugung oder Weiterentwicklung eines identitätsstiftenden Stadtbildes. Die damit verbundenen Zielvorstellungen zukünftiger Stadtentwicklung zeigen eine verwirrende Vielfalt an Begriffen, die eine Stadtstruktur zwischen kompakter Europäischer Stadt und aufgelockerter, perforierter Zwischenstadt beschreiben. In der Stadtumbaupraxis wird die Umsetzung dieser Ziele, entsprechend der vorgefundenen stadtstrukturellen Ausgangslage bzw. besonderen örtlichen Rahmenbedingungen, meist in einer dualen und stadtgestalterisch nicht ins Letzte konsequenten Strategie der möglichst weitgehenden Erhaltung der historischen Stadtstrukturen bei gleichzeitiger Anerkennung der polyzentralen Entwicklung der vergangenen Jahrzehnte verfolgt. Die Konsequenz der parallelen Anwendung bisher gegensätzlicher Zielvorstellungen ist die Fortführung unscharfer Stadtbilder, die in Verbindung mit dem Bild der Stadt im Kopf meist nur in den historisch geprägten Innenstädten in eindeutige und ästhetisch ansprechende Erscheinungen konkretisiert werden können. So lasst sich die Gestalt der Stadt unter Schrumpfungsbedingungen charakterisieren als eine „perforierte bis fragmentierte Stadt mit historische Mitte und zukünftigen Konzentrationsinseln“ bzw. in Rückgriff auf bereits vorhandene Begriffe: „Zwischenstadt mit historischer Mitte“ bzw. „Zwischenstadt mit
Konzentrationsinseln“. Inwieweit das entstehende Stadtbild mit positiven Gestaltwahrnehmungen verknüpft sein wird, hängt davon ab, in welcher Intensität Schrumpfung bzw. Stadtumbau in den jeweiligen Stadtteilen zum Tragen kommen wird. Eine baulich geschlossene und kompakte Europäische Stadt kann, sofern sie das erhaltenswerte Gut bzw. städtebauliche Leitbild der zukünftigen Stadt darstellt, nur bewahrt werden, wenn Lücken und Rückbau beschrankt oder gar unterbunden werden. Das bedeutet angesichts negativer Entwicklungsperspektiven gleichzeitig verstärkter Ruckbau in den Bereichen der heutigen Zwischenstadt und die Akzeptanz entsprechend fragmentierten Stadtstrukturen, die zukünftig vor allem landschaftlich geprägt sein werden. Andersherum muss eine polyzentrale Entwicklung mit gleichzeitig fortschreitender
Außenentwicklung zu stadträumlichen Verlusten in den kompakten innerstädtischen Bereichen führen. Auch die Strategie des „sanften Stadtumbaus“, der den Rückbau auf historische und neuzeitliche Stadtstrukturen gemeinsam zu verteilen sucht, kann diesbezüglich zu keinen befriedigenden Losungen gelangen und verfestigt das Bild der Zwischenstadt auch in den bisher baulich-räumlich geschlossenen innerstädtischen Bereichen. Die Forderung einer Stadtstruktur, deren endgültige Bewertung noch immer aussteht und für deren schwer fassbares heterogenes Stadtbild aktuell Möglichkeiten zur positiven Wahrnehmung und Qualifizierung gesucht werden, kann jedoch eigentlich nicht das Ziel einer städtebaulichen Gestaltungsplanung im Rahmen der Stadtplanung sein. Die stadtgestalterische Herausforderung liegt neben einer eindeutigen Positionierung bezüglich eines städtebaulichen Leitbildes für die Stadtentwicklung in den
Rand- bzw. Grenzbereichen, den Schnittpunkten zwischen geschlossener historischer Struktur und
landschaftlich geprägter Zwischenstadt. Angesichts der Eingriffe in die Stadtstruktur und der drohenden Verfestigung bzw. räumlichen Vergrößerung der Zwischenstadt soll die hier vorliegende Auseinandersetzung mit der Gestalt der Stadt als ein Plädoyer für eine Stadtentwicklung unter Schrumpfungsbedingungen als verstärkt stadtgestalterische städtebauliche Aufgabe verstanden werden.
Traubenerzeugende Betriebe fordern eine faire Bezahlung, bei der arbeitsintensive qualitätsfördernde Maßnahmen honoriert werden und nicht ausschließlich hohe Erträge den betriebswirtschaftlichen Erfolg garantieren. Traubenabnehmer andererseits fordern nicht nur die Einhaltung vertraglich festgelegter Erträge und Qualitäten, sondern benötigen auch eine möglichst genaue analytische Charakterisierung des Leseguts, auf deren Basis eine differenzierte Auszahlung begründet und objektiv vorgenommen werden kann. Gängige und vor Ort rasch bestimmbare Parameter, wie etwa der Zuckergehalt, sind als alleinige Qualitätsparameter jedoch nicht in der Lage, die gesamte Komplexität der Traubenqualität ausreichend wiederzugeben. Auch die häufig zum Einsatz kommende visuelle Einschätzung greift zu kurz, da Qualitäts- mindernde Veränderungen, wie etwa ein Wachstum von Botrytis cinerea bzw. Sekundärinfektanten, oftmals erst bei Ausbildung der Fruchtstände erkennbar werden. Die Infrarotspektroskopie wässriger Proben ist, unter anderem aufgrund der raschen Durchführung der entsprechenden Analysen, eine Technik, die geeignet scheint, für diese Problemstellung einen entsprechenden Lösungsansatz zu bieten.
Vorliegende Arbeit beschreibt die umfangreiche Erstellung und Validierung einer FT-MIR Kalibrierung auf Basis mehrerer Jahrgänge deutscher Trauben- und Mostproben. Dabei werden insbesondere jene Parameter, welche unmittelbare Aussagen über den Reife- und Gesundheitszustand des Untersuchungsmaterials erlauben, identifiziert, charakterisiert und validiert. Dargestellt wird die Kalibration von Minor- und Majorbestandteilen sowie nachfolgend die Validierung mit den jeweiligen Folgejahrgängen. Ein Abgleich der in verschiedenen Genossenschaften ermittelten analytischen Kenndaten mit rein visuell ermittelten Qualitätseinschätzungen zeigt die Plausibilität und Validität der FT-MIR Analysendaten, wie auch die Limitationen der optischen Qualitätseinschätzung, klar auf. Ebenso werden auch die regional sehr unterschiedlichen Anforderungen bzw. Charakteristika deutlich. Um mögliche Geräte- spezifische Unterschiede zwischen den vor-Ort Messungen der einzelnen Anwender der Technik evaluieren zu können, werden als Abschluss und finaler „Proof-of-Concept“ der vorliegenden Arbeit Kenndaten von entsprechenden Ringversuchen mehrerer Jahrgänge dargestellt und bewertet. Ergänzend werden die ermittelten Kenndaten mit Kenndaten der wissenschaftlich publizierten Literatur abgeglichen, um die Leistungsfähigkeit für relevante Analysenparameter der wichtigsten Traubeninhaltsstoffe, aber auch für Minorbestandteile, aufzuzeigen.
Das übergeordnete Ziel der Arbeit stellt eine nachhaltige Qualitätsverbesserung der resultierenden Weine durch Honorierung guter Qualitäten des Ausgangs- Leseguts dar. Um letztlich die Umsetzbarkeit dieses Zieles zu belegen werden Berechnungsmodelle zur Gestaltung möglicher alternativer Auszahlungsmodelle auf Basis realer Datensätze Süddeutscher Genossenschaften vorgestellt und evaluiert.
The noise issue in manufacturing system is widely discussed from legal and health aspects. Regarding the existing laws and guidelines, various investigation methods are implemented in industry. The sound pressure level can be measured and reduced by using established approaches in reality. However, a straightforward and low cost approach to study noise issue using existing digital factory models is not found.
This thesis attempts to develop a novel concept for sound pressure level investigation in a virtual environment. With this, the factory planners are able to investigate the noise issue during factory design and layout planning phase.
Two computer aided tools are used in this approach: acoustic simulation and virtual reality (VR). The former enables the planner to simulate the sound pressure level by given factory layout and facility sound features. And the latter provides a visualization environment to view and explore the simulation results. The combination of these two powerful tools provides the planners a new possibility to analyze the noise in a factory.
To validate the simulations, the acoustic measurements are implemented in a real factory. Sound pressure level and sound intensity are determined respectively. Furthermore, a software tool is implemented using the introduced concept and approach. With this software, the simulation results are represented in a Cave Automatic Virtual Environment (CAVE).
This thesis describes the development of the approach, the measurement of sound features, the design of visualization framework, and the implementation of VR software. Based on this know-how, the industry users are able to design their own method and software for noise investigation and analysis.
Backward compatibility of class libraries ensures that an old implementation of a library can safely be replaced by a new implementation without breaking existing clients.
Formal reasoning about backward compatibility requires an adequate semantic model to compare the behavior of two library implementations.
In the object-oriented setting with inheritance and callbacks, finding such models is difficult as the interface between library implementations and clients are complex.
Furthermore, handling these models in a way to support practical reasoning requires appropriate verification tools.
This thesis proposes a formal model for library implementations and a reasoning approach for backward compatibility that is implemented using an automatic verifier. The first part of the thesis develops a fully abstract trace-based semantics for class libraries of a core sequential object-oriented language. Traces abstract from the control flow (stack) and data representation (heap) of the library implementations. The construction of a most general context is given that abstracts exactly from all possible clients of the library implementation.
Soundness and completeness of the trace semantics as well as the most general context are proven using specialized simulation relations on the operational semantics. The simulation relations also provide a proof method for reasoning about backward compatibility.
The second part of the thesis presents the implementation of the simulation-based proof method for an automatic verifier to check backward compatibility of class libraries written in Java. The approach works for complex library implementations, with recursion and loops, in the setting of unknown program contexts. The verification process relies on a coupling invariant that describes a relation between programs that use the old library implementation and programs that use the new library implementation. The thesis presents a specification language to formulate such coupling invariants. Finally, an application of the developed theory and tool to typical examples from the literature validates the reasoning and verification approach.
Polychlorinated dibenzo-p-dioxins, dibenzofurans, and polychlorinated biphenyls are persistent environmental pollutants which ubiquitously occur as complex mixtures and accumulate in the food and feed chain due to their high lipophilic properties. Of the 419 possible congeners, only 29 share a common mechanism of action and cause similar effects, the so called dioxin-like compounds. Dioxin-like compounds evoke a broad spectrum of biochemical and toxic responses, i.e. enzyme induction, dermal toxicity, hepatotoxicity, immunotoxicity, carcinogenicity as well as adverse effects on reproduction, development, and the endocrine system in laboratory animals and in humans. Most, if not all, of the aforementioned responses, are mediated by the aryl hydrocarbon receptor. In the present work, the elicited biochemical effects of a selection of dioxin-like compounds and the non dioxin-like PCB 153 were examined in mouse (in vivo) and in human liver cell models (in vitro). Emphasis was given to the main contributors to the total toxic equivalents in human blood and tissues TCDD, 1-PnCDD, 4-PnCDF, PCB 118, PCB 126, and PCB 156, which likewise contribute about 90 % to the dioxin-like activity in the human food chain.
Three mouse in vivo studies were carried out aiming to characterize the alterations in hepatic gene expression as well as the induction of hepatic xenobiotic metabolizing enzymes after single oral dose. Based on the results obtained from mouse 3-day and 14-day studies, the seven test compounds can be categorized into three classes; the ones which are 'pure' AhR ligands (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) or solely CAR inducers (PCB 153), and the ones which are AhR/CAR mixed-type inducers (PCB 118, PCB 156). Moreover, the analysis of hepatic gene expression patterns after a single oral dose of either TCDD or PCB 153 revealed that the altered genes fundamentally differed. Profiling of significantly altered genes led to the conclusion that changes in gene expression were associated with different signalling pathways, in fact by AhR and CAR.
For investigating the role of the AhR in mediating biological responses, several experimental approaches were carried out, such as the analysis of blood plasma metabolites in Ahr knockout and wild-type mice. Genotype specifics and similarities were determined by HPLC-MS/MS analysis. Several plasma metabolites could be identified in both genotypes, but also differences were detected. Furthermore, an in vivo experiment was performed aiming to characterize AhR-dependent and -independent effects in female Ahr knockout and wild-type mice. For this purpose, mice received a single oral dose of TCDD and were killed 96 h later. Microarray analysis of mouse livers revealed that although the Ahr gene was knocked out in Ahr-/- mice, the quantity of affected genes were in the same order of magnitude as for Ahr+/+ mice, but the pattern of altered genes distinctly differed. In addition, the relative liver weights of TCDD-treated Ahr+/+ mice were significantly increased which led to the conclusion, that TCDD induced the development of hepatic steatosis in female Ahr wild-type.
The performed in vitro experiments aimed to characterize the effects elicited by selected DLCs and PCB 153 in human liver cell models by the use of HepG2 cells and primary human hepatocytes. In general, primary human hepatocytes were less responsive than HepG2 cells. This was not only observed in EC values derived from EROD assay, but also regarding microarray analysis in terms of differently regulated genes. In vitro REPs gained from both liver cell models widely confirmed the current TEFs, but some deviations occurred. The comparison of the TCDD-altered genes in both human cell types revealed that only a considerably small number of genes was in common up regulated by both human liver cell models, such as the established AhR-regulated highly inducible cytochrome P450s 1A1, 1A2, and 1B1 as well as other AhR target genes. Although the overlap was rather small, the TCDD-induced genes could be consistently associated with the broad spectrum of established dioxin-related biological responses. The gene expression pattern in primary human hepatocytes after treatment with selected DLCs (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) and PCB 153 was additionally characterized by microarray analysis. The highest response in terms of significantly altered genes was determined for TCDD, followed by 4-PnCDF, 1-PnCDD, and PCB 126, whereas exposure to PCB 153 did not evoke any significant changes in gene expression. The pattern of significantly altered genes was very homogenous among the four congeners. Genes associated with well-established DLC-related biological responses as well as novel dioxin-inducible target genes were identified, whereby an extensive overlap in terms of up regulated genes by all four DLCs occurred. In conclusion, the results from the in vitro experiments performed in primary human hepatocytes provided fundamental insight into the congeners' potencies and caused alterations in gene expression patterns. The obtained findings implicate that although the extent of enzyme inducibilities varied, the gene expression patterns are coincidental. Microarray analysis identified species-specific (mouse vs. human) as well as model-specific (in vitro vs. in vivo and transformed cells vs. untransformed cells) differences. In order to identify novel biomarkers for AhR activation due to treatment with dioxin-like compounds, five candidates were selected based on the microarray results i.e. ALDH3A1, TIPARP, HSD17B2, CD36, and AhRR. Eventually, ALDH3A1 turned out to be the most reliable and suitable marker for exposure to DLCs in both human liver cell models eliciting the highest mRNA inducibility among the five chosen candidates. In which way these species- and cell type-specific markers are involved in the dioxin-elicited toxic responses should be further characterized in vivo and in vitro.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der "Plug and Play"-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein "FMControl" demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins "FMControl" können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Die Auslegung trockenverdichtender Schraubenvakuumpumpen erfordert die genaue Kenntnis der schädlichen Rückströmung über die inneren Maschinenspalte. Eine herausragende Bedeutung kommt aufgrund der großen Querschnittsfläche dem Gehäusespalt zu. Zusätzlich stellt dieser eine relativ große Oberfläche für den Wärmeaustausch mit dem durchströmenden Gas zur Verfügung, was für das thermische Verhalten der Maschine wichtig ist.
In der vorliegenden Arbeit wird anhand eines vereinfachten Ersatzspaltes ein Modell entwickelt, das die Berechnung des Spaltmassenstroms und der resultierenden Wärmeströme an Rotor- und Gehäuseseite ermöglicht.
Durch die Analyse der in Schraubenvakuumpumpen typischerweise auftretenden Größenverhältnisse und Drücken wird gezeigt, dass die Strömungsform im Spalt von viskoser, schwach turbulenter bis hin zur molekularen Strömung reichen kann. Da der Gehäusespalt von zwei Maschinenteilen gebildet wird, weisen beide Spaltberandungen i.A. deutlich verschiedene Temperaturen auf, was für die Modellierung des Wärmeübergangs berücksichtigt werden muss.
Um das Modell allgemeingültig zu gestalten, wird die Analyse auf der Basis von dimensionslosen Werten für die Wandreibung und die Wärmeströme durchgeführt. Zur Bestimmung werden im Bereich der viskosen Strömung CFD- Methoden eingesetzt, die eine detaillierte Auswertung der Reibwert- und Wärmestromverläufe ermöglichen. Zur Modellierung der turbulenten bzw. transitionellen Strömung kommt in dieser Arbeit das SST-Turbulenzmodell unter Anbindung eines Transitionsmodells zum Einsatz.
Für verdünnte Strömungen sind diese Methoden nicht einsetzbar; es kann jedoch gezeigt werden, dass hier die Einlauf- und Kompressibilitätseffekte nur eine untergeordnete Rolle spielen. Dies erlaubt eine einfache Modellierung durch Anpassung des Reibungsgesetzes und der effektiven Wärmeleitfähigkeit des Gases als Funktion der Gasverdünnung.
Mit den für alle Strömungsbereiche bekannten Reib- und Wärmeübertragungsgesetzen wird ein Berechnungsalgorithmus formuliert, der unter Vorgabe von Gasart, Spaltgeometrie, Druck vor und hinter dem Spalt sowie der Temperaturen eine effektive Berechnung des gesuchten Spaltmassenstroms sowie der Wärmestromverläufe in die Bauteile ermöglicht.
Die Validierung des entwickelten Modells erfolgt anhand von Versuchen mit einem Spaltkonturkörper, der zwischen zwei Rezipienten mit unterschiedlichen Drücken positioniert wird. Die Oberflächen des Konturkörpers sind ungleich temperiert und mit Wärmestromsensoren ausgestattet. Der Abgleich der gemessenen mit den berechneten Werte zeigt für alle Strömungsbereiche gute Übereinstimmung, was die Gültigkeit des vorgestellten Modells belegt.
This thesis is divided into two parts. Both cope with multi-class image segmentation and utilize
non-smooth optimization algorithms.
The topic of the first part, namely unsupervised segmentation, is the application of clustering
to image pixels. Therefore, we start with an introduction of the biconvex center-based clustering
algorithms c-means and fuzzy c-means, where c denotes the number of classes. We show that
fuzzy c-means can be seen as an approximation of c-means in terms of power means.
Since noise is omnipresent in our image data, these simple clustering models are not suitable
for its segmentation. To this end, we introduce a general and finite dimensional segmentation
model that consists of a data term stemming from the aforementioned clustering models plus a
continuous regularization term. We tackle this optimization model via an alternating minimiza-
tion approach called regularized c-centers (RcC). Thereby, we fix the centers and optimize the
segment membership of the pixels and vice versa. In this general setting, we prove convergence
in the sense of set-valued algorithms using Zangwill’s Theory [172].
Further, we present a segmentation model with a total variation regularizer. While updating
the cluster centers is straightforward for fixed segment memberships of the pixels, updating the
segment membership can be solved iteratively via non-smooth, convex optimization. Thereby,
we do not iterate a convex optimization algorithm until convergence. Instead, we stop as soon as
we have a certain amount of decrease in the objective functional to increase the efficiency. This
algorithm is a particular implementation of RcC providing also the corresponding convergence
theory. Moreover, we show the good performance of our method in various examples such as
simulated 2d images of brain tissue and 3d volumes of two materials, namely a multi-filament
composite superconductor and a carbon fiber reinforced silicon carbide ceramics. Thereby, we
exploit the property of the latter material that two components have no common boundary in
our adapted model.
The second part of the thesis is concerned with supervised segmentation. We leave the area
of center based models and investigate convex approaches related to graph p-Laplacians and
reproducing kernel Hilbert spaces (RKHSs). We study the effect of different weights used to
construct the graph. In practical experiments we show on the one hand image types that
are better segmented by the p-Laplacian model and on the other hand images that are better
segmented by the RKHS-based approach. This is due to the fact that the p-Laplacian approach
provides smoother results, while the RKHS approach provides often more accurate and detailed
segmentations. Finally, we propose a novel combination of both approaches to benefit from the
advantages of both models and study the performance on challenging medical image data.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der „Plug and Play“-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein „FMControl“ demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins „FMControl“ können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
In the last few years a lot of work has been done in the investigation of Brownian motion with point interaction(s) in one and higher dimensions. Roughly speaking a Brownian motion with point interaction is nothing else than a Brownian motion whose generator is disturbed by a measure supported in just one point.
The purpose of the present work is the introducing of curve interactions of the two dimensional Brownian motion for a closed curve \(\mathcal{C}\). We will understand a curve interaction as a self-adjoint extension of the restriction of the Laplacian to the set of infinitely often continuously differentiable functions with compact support in \(\mathbb{R}^{2}\) which are constantly 0 at the closed curve. We will give a full description of all these self-adjoint extensions.
In the second chapter we will prove a generalization of Tanaka's formula to \(\mathbb{R}^{2}\). We define \(g\) to be a so-called harmonic single layer with continuous layer function \(\eta\) in \(\mathbb{R}^{2}\). For such a function \(g\) we prove
\begin{align}
g\left(B_{t}\right)=g\left(B_{0}\right)+\int\limits_{0}^{t}{\nabla g\left(B_{s}\right)\mathrm{d}B_{s}}+\int\limits_{0}^{t}\eta\left(B_{s}\right)\mathrm{d}L\left(s,\mathcal{C}\right)
\end{align}
where \(B_{t}\) is just the usual Brownian motion in \(\mathbb{R}^{2}\) and \(L\left(t,\mathcal{C}\right)\) is the connected unique local time process of \(B_{t}\) on the closed curve \(\mathcal{C}\).
We will use the generalized Tanaka formula in the following chapter to construct classes of processes related to curve interactions. In a first step we get the generalization of point interactions in a second step we get processes which behaves like a Brownian motion in the complement of \(\mathcal{C}\) and has an additional movement along the curve in the time- scale of \(L\left(t,\mathcal{C}\right)\). Such processes do not exist in the one point case since there we cannot move when the Brownian motion is in the point.
By establishing an approximation of a curve interaction by operators of the form Laplacian \(+V_{n}\) with "nice" potentials \(V_{n}\) we are able to deduce the existence of superprocesses related to curve interactions.
The last step is to give an approximation of these superprocesses by a sytem of branching particles. This approximation gives a better understanding of the related mass creation.
The research presented in this PhD thesis is a contribution to the field of anion recognition in competitive aqueous solvent mixtures. Neutral anion receptors having a cage-type architecture have been developed on the basis of triply-linked bis(cyclopeptides) and their binding properties toward various inorganic anions have been studied.
The synthetic approaches chosen to assemble the targeted container molecules rely on dynamic chemistry under the template effects of anions such as sulfate and halides. As reversible reactions metal-ligand exchange and thiol-disulfide exchange were used. Disulfide exchange has previously provided singly- and doubly-linked bis(cyclopeptide) receptors whose anion affinities in 2:1 acetonitrile/water mixtures approached the nanomolar range. Metal-ligand interactions have so far not been used to assemble bis(cyclopeptides) in our group. The cyclopeptide building blocks required for both approaches, namely cyclic hexapeptides containing alternating 6-aminopicolinic acid and either (2S,4S)-4-cyanoproline or (2S,4S)-4-thioproline subunits could be synthesized successfully.
Self-assembly of the bis(cyclopeptide) held together by coordinative interactions has been attempted by treating the cyclopeptide trinitrile with square-planar palladium (II) complexes. The reaction was followed with different NMR spectroscopic techniques. Unfortunately, none of the experiments provides conclusive evidence that the targeted triply-linked cage was indeed formed.
Bis(cyclopeptides) containing three dithiol derived linkers between the cyclopeptide rings could be synthesizes successfully. Two complexes were isolated, albeit in small amounts, one containing linkers derived from 1,2-ethanedithiol and the other one from 1,3-benzenedithiol that contain a sulfate anion incorporated in the cavity between the cyclopeptide rings. Formation of triply-linked bis(cyclopeptides) containing different types of linkers could be achieved by performing the synthesis in the presence of different dithiols. Unfortunately, the two C3 symmetrical bis(cyclopeptides) containing a single linker type could not be isolated in analytically pure form so that only qualitative binding studies could be performed. Investigations in this context indicate extraordinary sulfate affinity for these bis(cyclopeptides). In particular, affinity of the receptor containing the 1,2-ethanedithiol linkers for sulfate anions is so high that is even able to dissolve barium sulfate under appropriate conditions and presumably exceeds the sulfate affinity of the doubly-linked bis(cyclopeptides). The sulfate anion present in the cavity of this bis(cyclopeptide) can be replaced by a large number of other anions, i.e. by selenate, perrhenate, nitrate, tetrafluoroborate, hexafluorophosphate and halides. None of these complexes proved to be as stable as the corresponding sulfate complex. In addition, 1H-NMR spectroscopic investigations provided information about the solution structure of the bis(cyclopeptide) anion complexes. Sulfate release from the cavity of the receptor is a slow process while exchange of other anions is significantly faster. Another interesting feature that has been observed for sulfate and selenate complexes of the 1,2-ethanedithiol-containing bis(cyclopeptide) is the very slow H/D rate with which protons on amide groups located inside the cavity of the cage are replaced by deuterium atoms in protic deuterated solvents. This effect in combination with the observation that the different deuterated bis(cyclopeptide) species exhibit individual amide NH signals in the 1H-NMR spectrum are indicative for well defined complex geometries with strong hydrogen-bonding interactions between the anion and the amide NH groups of the receptor. Following the H/D exchange rate in the presence of various salts indicated that anion exchange proceeds via the dissociated complex and not by direct replacement of one anion by another one.
Auf dem Weg zu einer nachhaltigen Entwicklung spielen die Unternehmen eine wichtige Rolle durch ihren großen und zum Teil internationalen Einfluss. Dabei ist es jedoch für jedes Unternehmen eine Herausforderung, sich von dem rein ökonomischen Denken und Handeln zu lösen und zusätzlich die Vorteile in der Unterstützung und Nachverfolgung der beiden anderen Säulen der Nachhaltigkeit, nämlich dem ökologischen und sozialen Aspekt, zu sehen. Denn Investitionen z.B. in Mitarbeiter, als ein sozialer Bereich, oder in umwelttechnische Innovationen bieten ebenso Chancen für den Wettbewerb und ermöglichen eine langfristige Sicherung des Unternehmenserfolgs.Ziel dieser Arbeit ist es herauszufinden, inwieweit die von den Mitarbeitern wahrge-nommene Nachhaltigkeit ihres Standortes von dem veröffentlichten Nachhaltigkeitsbericht des gesamten Unternehmens abweicht und wie der aktuelle Status der Berichterstattung unter Berücksichtigung aller drei Aspekte der Nachhaltigkeit ist.
Tire-soil interaction is important for the performance of off-road vehicles and the soil compaction in the agricultural field. With an analytical model, which is integrated in multibody-simulation software, and a Finite Element model, the forces and moments generated on the tire-soil contact patch were studied to analyze the tire performance. Simulations with these two models for different tire operating conditions were performed to evaluate the mechanical behaviors of an excavator tire. For the FE model validation a single wheel tester connected to an excavator arm was designed. Field tests were carried out to examine the tire vertical stiffness, the contact pressure on the tire – hard ground interface, the longitudinal/vertical force and the compaction of the sandy clay from the test field under specified operating conditions. The simulation and experimental results were compared to evaluate the model quality. The Magic Formula was used to fit the curves of longitudinal and lateral forces. A simplified tire-soil interaction model based on the fitted Magic Formula could be established and further applied to the simulation of vehicle-soil interaction.