Refine
Year of publication
- 2017 (139) (remove)
Document Type
- Doctoral Thesis (84)
- Periodical Part (15)
- Working Paper (13)
- Master's Thesis (9)
- Article (5)
- Preprint (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Habilitation (2)
- Conference Proceeding (1)
Has Fulltext
- yes (139)
Keywords
- Angebotsentwicklung (5)
- Bedarfserschließung (5)
- Hochschulforschung (5)
- Wissenschaftliche Weiterbildung (4)
- Erwachsenenbildung (3)
- Schule (3)
- E-HRM (2)
- MINT (2)
- Mathematische Modellierung (2)
- Pflegewissenschaft (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (27)
- Kaiserslautern - Fachbereich Sozialwissenschaften (22)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (10)
- Kaiserslautern - Fachbereich Informatik (8)
- Distance and Independent Studies Center (DISC) (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Universität (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Universitätsbibliothek (1)
Manifolds
(2017)
Diversitätsgenerierende Retroelemente (DGRs) wurden im Jahre 2002 in Bordetella‐Phagen entdeckt
und stellen eine einzigartige Klasse unter den Retroelementen dar. Durch einen speziellen „Copy‐and‐
Replace“ Mechanismus sind sie in der Lage ein bestimmtes Zielgen zu hypermutieren. Bei diesem
Mutagenic Homing‐Prozess wird die RNA der Templat‐Region (TR) durch die elementeigene reverse
Transkriptase (RT) transkribiert. Die dabei entstandene mutierte cDNA wird anschließend in die
variable Region (VR) des Zielgens inkorporiert und dieses somit diversifiziert. Hierbei steht der
experimentelle Nachweis für die Hypermutation durch die RT noch aus. Zudem spielt das akzessorische
Protein (Avd) eine weitere wichtige Rolle im Mutagenic Homing Prozess, wobei dessen tatsächliche
Funktion noch nicht charakterisiert werden konnte. Bis dato gibt es vor allem Analysen in Bezug auf
das Bordetella‐Phagen DGR, womit sich die Frage nach anderen Systemen und allgemeiner
Anwendbarkeit stellt. Daher war die Analyse des Nostoc sp. PCC 7120 DGR Hauptgegenstand dieser
Arbeit, wobei der Fokus auf der Untersuchung der reversen Transkripase (nRT), sowie der
Charakterisierung des akzessorischen Proteins (nAvd) aus dem Nostoc sp. PCC 7120 DGR lag.
Die nRT konnte überexprimiert werden, wobei sie nur teilweise löslich vorlag. Eine effektive
Aufreinigung der nRT konnte mit den hier getesteten Methoden nicht erzielt werden, sodass andere
Aufreinigungsmethoden erprobt werden müssen. Zudem war die nRT nicht lagerfähig, wodurch eine
regelmäßige neue Proteinpräparation nötig war. In Aktivitätsstudien konnten erste Hinweise auf eine
Aktivität der nRT erhalten werden. Dabei konnten die entstandenen Nukleinsäuren nicht nur
detektiert, sondern auch mittels analytischem Verdau als DNA identifiziert werden. Darüber hinaus
konnte die synthetisierte cDNA mittels PCR amplifiziert und die PCR‐Produkte anschließend
sequenziert werden. Hierbei wurden jedoch keine Adenin‐spezifischen oder sonstigen Mutationen
beobachtet. Somit konnte kein Nachweis für Hypermutation durch die RT erbracht werden. Bei
Untersuchungen bezüglich einer möglichen Interaktion zwischen nRT und nAvd konnte keine erhöhte
nRT‐Aktivität durch die nAvd festgestellt werden.
Die Untersuchungen der nAvd zeigten, dass diese Nukleinsäuren bindet. Hierbei waren Präferenzen
gegenüber verschiedenen Nukleinsäuren zu beobachten. Vor allem RNA/DNA‐Hybride zeigt die
höchste Affinität gegenüber der nAvd, während dsDNA eine höhere Affinität zur nAvd aufweist als
ssRNA. Zudem ist die nAvd in der Lage Nukleinsäuren zu hybridisieren. Hierbei hybridisiert sie ATreiche
DNA‐Moleküle von mittlerer Länge (48 bp) am effizientesten. Ein von der nAvd katalysierter
Strangaustausch konnte nicht beobachtet werden. Weiter konnte gezeigt werden, dass die nAvd selbst
bis 95 °C hitzestabil ist und im Anschluss an Hitzestress weiterhin Nukleinsäuren hybridisieren kann.
Darüber hinaus ist sie befähigt Nukleinsäuren unter Hitzestress zu stabilisieren. Diese Ergebnisse lassen
auf eine Rolle der nAvd als Lotse oder zur Stabilisierung von Nukleinsäuren schließen.
Elektromobilität ist in den letzten Jahren ein wichtiges Thema in der Automobilindustrie, der Politik und den Medien geworden. Die Innovation Elektromobilität hat das Potential die gesamte Automobilindustrie und ihre Innovationssysteme zu revolutionieren. Ziel dieser Arbeit ist es den Strukturwandel der Branche und in deren Innovationssystemen zu analysieren. Ein besonderer Fokus liegt dabei auf den Interaktionen und Beziehungen zwischen Organisationen der Wirtschaft, Wissenschaft und Politik. Es wird den Fragen nachgegangen, wie die Innovationssysteme der Branche auf die Veränderungen reagieren, wie diese Veränderungen aufgenommen und verarbeitet werden sowie wer an den Innovationsprozessen der Elektromobilität beteiligt ist.
Dazu werden zunächst die theoretischen Grundlagen des Strukturwandels von Innovationssystemen erarbeitet. Den Ausgangspunkt bilden die begrifflichen und konzeptionellen Grundlagen von Innovationen und Innovationsprozessen. Verschiedene Konzepte von Innovationssystemen gehen davon aus, dass es sich bei Innovationen um Leistungen eines Systems handelt. Innovationssysteme können als soziale Systeme definiert werden, die sich durch die Interaktion von Organisationen bilden und in denen sich Strukturwandel evolutionär vollzieht.
Auf die Untersuchung der theoretischen Grundlagen folgt eine Beschreibung der Akteure der deutschen Automobilindustrie, deren wesentlichen Merkmale und aktuellen Situation. Als Ursachen für die Forderung nach alternativen Antriebskonzepten werden Klimawandel und CO2-Emissionen einerseits und Ölabhängigkeit und Ressourcenverknappung andererseits thematisiert. Die Einführung von Elektromobilität ist mit der Diversifizierung und Elektrifizierung des automobilen Antriebssystems verbunden und kann unterschiedliche Strategien umfassen.
Die Einführung von Elektromobilität führt zu strukturellen Veränderungen in den Innovationssystemen der Automobilindustrie. Der Strukturwandel im Wirtschafts- und Wissenschaftssystem vollzieht sich dabei koevolutionär. In den Innovationssystemen entstehen neue Beziehungen zwischen Organisationen aus der Wirtschaft, Wissenschaft und Politik. In dieser Arbeit werden die Beziehungen in den Projekten der Förderprogramme „Modellregionen für Elektromobilität“ und „Schaufenster Elektromobilität“ genauer analysiert. In den als Triple-Helix-Kooperationen bezeichneten Kooperationen zwischen Wirtschaft, Wissenschaft und Politik lässt sich vor allem eine starke Heterogenität der Akteure beobachten.
Als Ergebnis der Arbeit werden die Folgen von Elektromobilität für die Innovationssysteme der deutschen Automobilindustrie diskutiert. Wesentliche Herausforderungen stellen die zunehmende Komplexität der Innovationssysteme und die Beschleunigung der Innovationsprozesse dar. Die beteiligten Akteure haben verschiedene Strategien zu deren Bewältigung entwickelt. Abschließend werden Empfehlungen zum Umgang mit dem Strukturwandel durch Elektromobilität in den verschiedenen, betroffenen Systemen gegeben.
Im Rahmen dieser Dissertationsschrift wurden erstmals gezielt Eisen(II)-SCO-Komplexe mit einem derivatisierten Diazapyridinophanliganden (L-N4Bz2) hergestellt. Die charakteristischen strukturellen Parameter für die high-spin- und low-spin-Zustände konnten bestimmt werden und können für zukünftige Experimente als Referenz verwendet werden. Der thermisch induzierte, isotrope SCO-Prozess in [Fe(L-N4Bz2)(NCS)2] (2.3) konnte mit einer Vielzahl an strukturellen, magnetochemischen und spektroskopischen Methoden nachgewiesen werden.
Weiterhin konnte zum ersten Mal gezeigt werden, dass sich redoxkontrollierte Veränderungen eines koordinierten Liganden zunutze gemacht werden können, um SCO-Eigenschaften in einem Eisen(II)-Komplex zu etablieren. Dazu wurde der der Einfluss einer ligandzentrierten Reduktion auf die Ligandenfeldstärke in verzerrt oktaedrischen Komplexen untersucht, indem drei Redoxpaare mit Eisen(II)-, Cobalt(II)- bzw. Nickel(II)-Zentralionen mit gleicher Ligandumgebung synthetisiert und durch strukturelle, magnetochemische und spektroskopische Untersuchungen charakterisiert wurden. Ausgehend vom LS-Eisen(II)-Komplex [Fe(L-N4Me2)(bian)](ClO4)2 (3.1b) werden im π-Radikalkomplex [Fe(L-N4Me2)(bian1-)](ClO4) (3.3) SCO-Eigenschaften eingeschaltet. Für [Co(L-N4Me2)(bian1-)](ClO4) (3.4), wird durch die Reduktion des Liganden bian zu bian1- ein Spinzustandswechsel des Co(II)-Ions vom LS-Zustand in [Co(L-N4Me2)(bian)]2+ (3.2) zum HS-Zustand in 3.4 ausgelöst. In den Nickel(II)-Komplexen sind π-Bindungen hingegen nur schwach ausgeprägt und somit hat die ligandbasierte Reduktion geringere Auswirkungen.
Durch kleine chemische Modifikationen konnte der SCO in Radikalkomplexen des Typs [Fe(L-N4Me2)(Rbian1-)](X) in entscheidendem Maße beeinflusst werden. Dies wurde dazu ausgenutzt, um eindeutig zu beweisen, dass die Präsenz eines direkt an das Metallion koordinierten π-Radikalliganden den Eisen(II)-SCO-Prozess entscheidend gegenüber closed-shell-Liganden beschleunigt, wie die temperaturabhängigen mößbauerspektroskopischen Untersuchungen an den einzigartigen Verbindungen [Fe(L-N4Me2)(OMebian1-)](OTf) (3.6a) und [Fe(L-N4Me2)(OMebian1-)](ClO4) ∙ MeCN (3.6b) zeigen. Zusätzlich konnte der für 3.3 ausschließlich in Lösung erreichte antiferromagnetisch gekoppelte HS-Sges = 3/2-Zustand in den Feststoffen 3.6a bzw. 3.6b bestätigt werden.
Redox-neutral decarboxylative coupling reactions have emerged as a powerful strategy for C-C bond formation. However, the existing reaction conditions possess limitations, such as the coupling of aryl halides restricted to ortho-substituted benzoic acids; alkenyl halides were not applicable in decarboxylative coupling reaction. Within this thesis, the developments of Pd/Cu bimetallic catalyst systems are presented to overcome the limitations.
In the first part of the PhD work, a customized bimetallic PdII/CuI catalyst system was successfully developed to facilitate the decarboxylative cross-coupling of non-ortho-substituted aromatic carboxylates with aryl chlorides. The restriction of decarboxylative cross-coupling reactions to ortho-substituted or heterocyclic carboxylate substrates was overcome by holistic optimization of this bimetallic Cu/Pd catalyst system. All kinds of benzoic acids regardless of their substitution pattern now can be applied in decarboxylative cross-coupling reaction. This confirms prediction by DFT studies that the previously observed limitation to certain activated carboxylates is not intrinsic. The catalyst system also presents higher performance in the coupling of ortho-substituted benzoates, giving much higher yields than those previously reported. ortho-Methyl benzoate and ortho-phenyl benzoate which have never before been converted in decarboxylative coupling reactions, gave reasonable yields. These together further confirm the superiority of the new protocol.
In the second part of the PhD work, arylalkenes syntheses via two different Pd/Cu bimetallic-catalyzed decarboxylative couplings have been developed. This part consists of two projects: 2a) decarboxylative coupling of alkenyl halides; 2b) decarboxylative Mizoroki-Heck coupling of aryl halides with α,β-unsaturated carboxylic acids.
In project 2a, widely available, inexpensive, bench-stable aromatic carboxylic acids are used as nucleophile precursors instead of expensive and sensitive organometallic reagents that are commonly used in previously reported transition-metal catalyzed cross-couplings of alkenyl halides. With this protocol, alkenyl halides for the first time are used in decarboxylative coupling reaction, allowing regiospecific synthesis of a broad range of (hetero)arylalkenes in high yields. Unwanted double bond isomerization, a common side reaction in the alternative Heck reactions especially in the coupling of cycloalkenes or aliphatic alkenes, did not take place in this decarboxylative coupling reaction. Polysubstituted alkenes that hard to access with Heck reaction are also produced in good yields. The reaction can easily be scaled up to gram scale. The synthetic utility of this reaction was also demonstrated by synthesizing an important intermediate of fungicidal compound in high yield within 2 steps.
In project 2b, a Cu/Pd bimetallic catalyzed decarboxylative Mizoroki-Heck coupling of aryl halides with α, β-unsaturated carboxylic acids was successfully developed in which the carboxylate group directs the arylation into its β-position before being tracelessly removed via protodecarboxylation. It opens up a convenient synthesis of unsymmetrical 1,1-disubstituted alkenes from widely available precursors. This reaction features good regioselectivity, which is complementary to that of traditional Heck reactions, and also presents excellent functional group tolerance. Moreover, a one-pot 3-step 1,1-diarylethylene synthesis from methyl acrylate was achieved, where solvent changes or isolation of intermediates are not required. This subproject presents an example of carboxylic acids utility in synthesizing valuable compounds which are hard to access via conventional methodologies.
Wie Proteine sich innerhalb weniger Millisekunden korrekt falten können, ist eine der fundamentalen Fragen in der Biochemie. Ein beim Faltungsprozess durchlaufener Übergangszustand ist der molten globule Zustand (MG Zustand), der sich unter bestimmten Bedingungen stabilisieren und untersuchen lässt. In diesem Zustand ähnelt die Sekundärstruktur dem nativen Zustand, während die Tertiärstruktur eher dem vollständig entfalteten Zustand entspricht. In dieser Arbeit wurde der MG Zustand am Beispiel des Maltose bindenden Proteins (MBP) untersucht. Dazu wurde MBP bei pH 3,2 im MG-Zustand stabilisiert und dies mittels Fluoreszenz Spektroskopie bestätigt. Die Abstände zwischen definierten Aminosäuren im MG Zustand wurden durch Spinlabels, die an gezielt mutierten Cysteinpaaren angebracht wurden, mittels Elektronenspinresonanz (EPR) gemessen und mit den Abständen derselben Aminosäuren im nativen Zustand verglichen. Anhand von sieben verschiedenen Doppelmutanten wurde die periphere Struktur mittels gepulster EPR analysiert, zwei weitere Doppelmutanten dienten dazu, die Struktur der molekularen Bindungstasche von MBP mittels CW EPR zu untersuchen. Die Anwesenheit von Maltose führte im MG Zustand zu einer deutlichen Veränderung der Abstände bestimmter Spinlabels in der peripheren Struktur. Dies deutet darauf hin, dass MBP Maltose sogar im MG Zustand binden kann. Durch isotherme Titrationskalorimetrie (ITC) wurde diese Vermutung bestätigt: die Ergebnisse zeigen jedoch, dass der Bindungsprozess zwischen MBP und Maltose im MG Zustand mit 11 fach geringerer Bindungsenthalpie erfolgt wie im nativen Zustand. Die Abstände der Spinlabel Paare neben der Bindungstasche von MBP unterschieden sich im MG Zustand vom nativen Zustand weder mit noch ohne Maltose. Diese Ergebnisse weisen darauf hin, dass MBP im MG Zustand rund um die Bindungstasche bereits eine klar ausgebildete Tertiärstruktur besitzt. Um diese Befunde zu bestätigen, sollten nun Untersuchungen anhand weiterer Doppelmutanten und mittels empfindlicherer Messungen wie z.B. DQC durchgeführt werden.
A Multi-Sensor Intelligent Assistance System for Driver Status Monitoring and Intention Prediction
(2017)
Advanced sensing systems, sophisticated algorithms, and increasing computational resources continuously enhance the advanced driver assistance systems (ADAS). To date, despite that some vehicle based approaches to driver fatigue/drowsiness detection have been realized and deployed, objectively and reliably detecting the fatigue/drowsiness state of driver without compromising driving experience still remains challenging. In general, the choice of input sensorial information is limited in the state-of-the-art work. On the other hand, smart and safe driving, as representative future trends in the automotive industry worldwide, increasingly demands the new dimensional human-vehicle interactions, as well as the associated behavioral and bioinformatical data perception of driver. Thus, the goal of this research work is to investigate the employment of general and custom 3D-CMOS sensing concepts for the driver status monitoring, and to explore the improvement by merging/fusing this information with other salient customized information sources for gaining robustness/reliability. This thesis presents an effective multi-sensor approach with novel features to driver status monitoring and intention prediction aimed at drowsiness detection based on a multi-sensor intelligent assistance system -- DeCaDrive, which is implemented on an integrated soft-computing system with multi-sensing interfaces in a simulated driving environment. Utilizing active illumination, the IR depth camera of the realized system can provide rich facial and body features in 3D in a non-intrusive manner. In addition, steering angle sensor, pulse rate sensor, and embedded impedance spectroscopy sensor are incorporated to aid in the detection/prediction of driver's state and intention. A holistic design methodology for ADAS encompassing both driver- and vehicle-based approaches to driver assistance is discussed in the thesis as well. Multi-sensor data fusion and hierarchical SVM techniques are used in DeCaDrive to facilitate the classification of driver drowsiness levels based on which a warning can be issued in order to prevent possible traffic accidents. The realized DeCaDrive system achieves up to 99.66% classification accuracy on the defined drowsiness levels, and exhibits promising features such as head/eye tracking, blink detection, gaze estimation that can be utilized in human-vehicle interactions. However, the driver's state of "microsleep" can hardly be reflected in the sensor features of the implemented system. General improvements on the sensitivity of sensory components and on the system computation power are required to address this issue. Possible new features and development considerations for DeCaDrive are discussed as well in the thesis aiming to gain market acceptance in the future.
Der Regionalmonitor Hochschulbildung (folgend Regionalmonitor genannt) trägt als interaktive webbasierte Datenbank dazu bei, den Übergang von einer angebotsorientierten zu einer be- darfsorientierten Entwicklung von Studienangeboten im Bereich der wissenschaftlichen Weiterbildung praktisch umzusetzen.. Das Ziel liegt in der Bereitstellung empirischer Daten zur demographischen und wirtschaftlichen Entwicklung in der Region, um die Gestaltung von Studienangeboten stärker als bisher an derzei- tigen und zukünftigen Bedarfen zu orientieren. Der Bericht gibt eine Übersicht über die verwendeten Daten und die technische Umsetzung des Monitors
Annual Report 2016
(2017)
This dissertation describes an indoor localization system based on oscillating magnetic fields and the underlying processing architecture. The system consists of several fixed anchor points, generating the magnetic fields (transmitter), and wearable magnetic field measurement units, whose position should be determined (receiver). The system is evaluated in different environments and application areas. Additionally, various fields of application are discussed and assessed in ubiquitous and pervasive computing and Ambient Assisted Living. The fusion of magnetic field-based distance information and positions derived from LIDAR distance measurements is described and evaluated.
The system architecture consists of three layers, a physical layer, a layer for position and distance estimation between a magnetic field transmitter and a receiver, and a layer which uses several measurements to different transmitters to estimate the overall position of a wearable measurement unit.
Each layer covers different aspects which have to be taken care of when magnetic field information is processed. Especially the properties of the generated magnetic field information are considered in the processing algorithms.
The physical layer covers the magnetic field generation and magnetic Field-Based information transfer, synchronization of a transmitter and the receivers and the description of the locally measured magnetic fields on the receiver side. After a transfer of this information to a central processing unit, the hardware specific signal levels are transformed to the levels of the theoretical magnetic field models. The values are then used to estimate candidate positions and distances. Due to symmetrical effects of the magnetic fields, it is only possible to reduce the receiver position to 8 points around the transmitter (one position in each of the octants of the coordinate system). The determined positions have a mean error of 108 cm, the average error of the distance is 40 cm.
On top of this, the distance and position information against different transmitters are fused, this covers clock synchronization of transmitters, triggering and scheduling sequences and distance and position based localization and tracking algorithms. The magnetic-field-based indoor localization system has been evaluated in different applications and environments; the mean position error is 60 cm to 70 cm depending on the environment. A comparison against an RF-based indoor localization system shows the robustness of magnetic fields against RF shadows caused by big metal objects.
We additionally present algorithms for regions of interest detection, working on raw magnetic field information and transformed position and distance information. Setups in larger areas can distinguish regions which are further than 50 cm apart, small scale coil setups (3 transmitters in 2m^3) allow to resolve regions below 20 cm.
In the end, we describe a fusion algorithm for a wearable localization system based on 4 LIDAR distance measurement units and magnetic field-based distance estimation. The magnetic field indoor localization system provides distance proximity information which is used to resolve ambiguous position estimates of the LIDAR system. In a room (8m × 10m), we achieve a mean error of 8 cm.
Urbane Ernährungsstrategien decken eine Bandbreite an Wirkungsfeldern im Gefüge einer Stadt und dem dazugehörigen Nahrungssystem ab. Sie sind unter anderem in der Lage, für sicheren Zugang zu gesunden Lebensmitteln zu sorgen, lokale Wirtschaftskreisläufe zu fördern, relevante Stakeholder zusammen zu führen oder auch negative Umwelteinflüsse einzudämmen. Mithilfe digitaler Lösungen lassen sich effiziente und nachhaltige Ansätze für die raumplanerischen Herausforderungen im Zusammenhang mit urbanen Ernährungsstrategien finden.
Urbane Ernährungsstrategien als auch digitale Methoden repräsentieren wissenschaftliche Forschungsschwerpunkte mit vielfältigen Potentialen, deren Symbiose eine Bandbreite an Multiplikatoreffekten herzustellen vermag. So können entsprechende Strategien wesentlich von digitalen Herangehensweisen wie Echtzeitvisualisierung, Crowdmapping, Online-Verkaufsplattformen, urbane Emotionsmessung etc. profitieren.
Anhand von verschiedenen digitalen Methoden werden in dieser Arbeit die Möglichkeiten für deren Einsatz im Rahmen von urbanen Ernährungsstrategien untersucht und darüber hinaus wird diskutiert, inwieweit ein Mehrwert für letztere entstehen kann.
Die wissenschaftliche Auseinandersetzung mit dieser Thematik ist von besonderer fachlicher Relevanz, da die beiden noch jungen Forschungsdisziplinen in Kombination bislang unzureichende Aufmerksamkeit erhalten haben. Untermauert wird diese Erkenntnis durch die mangelhafte Datenlage zu diesem thematischen Zweiklang.
Mithilfe entsprechender digitaler Lösungsansätze können Planer mit verhältnismäßig geringem Aufwand nachhaltigen Mehrwert bewirken und zielgerichtet qualitativ hochwertige Maßnahmen im Zusammenhang mit urbanen Ernährungsstrategien durchführen. Dies wird zudem durch einen auf die Bedürfnisse der urbanen Ernährungsstrategien und digitalen Methoden abgestimmten Workflow gewährleistet.
Novel Pseudocyclopeptides Containing 1,4-Disubstituted 1,2,3-Triazole Subunits for Anion Recognition
(2017)
Anion recognition is one of the most rapidly growing areas in the field of Supramolecular Chemistry due to the vital role of anions in the environment, in biology and in industry. The development of new anion binding motifs that can also be combined with known ones in a novel receptor is a timely topic. In this context, we have synthesized three cyclic pseudopeptides 16, 17 and 18, containing conventional H-bond donors (amide) in combination with, respectively, triazole C–H or triazole C–I functions.
All three receptors were synthesized by using a combination of peptide and click chemistry. Structural studies show that all three pseudopeptides adopt conformations with the triazole C-H or C-I groups pointing into the cavity center to allow them to contribute to binding. Quantitative binding studies showed that the cyclic pseudohexapeptide 1 coordinates to oxoanions (sulfate, dihydrogenphosphate, and hydrogenpyrophosphate) with different binding strengths and complex stoichiometries in 2.5 vol% water/DMSO.
Anion selectivity of 16 significantly changes when the cavity size of this pseudopeptide is increased to obtain the larger analog 17. This pseudooctapeptide forms well defined complexes with protonated phosphate anions. The complexation involves sandwiching of a cyclic tetramer of dihydrogenphosphate or a dimer of dihydrogenpyrophosphate anions by two pseudopeptide rings. Both complexes were characterized structurally in the solid state. They are stable in solution (2.5 vol% water/DMSO) as result of the interaction between hydrogen bond donors of 17 and the oxygen atoms of the anionic aggregates. The complexes can also be transferred to the gas phase without decomposition.
Anion selectivity of 16 was further altered by introducing iodine atom in the C5 position of the 1,4-disubstituted 1,2,3-triazole units. The corresponding cyclic pseudohexapeptide 18 features a smaller cavity diameter than 17 as a result of the iodide atoms and was therefore found to only coordinate to smaller spherical anions such as chloride. It forms 1:1 complexes with chloride, bromide and iodide in 2.5 vol% water/DMSO. Among the halides, 18 has highest affinity for chloride followed by bromide and iodide. The same stability trend was also observed in the gas phase by ESI/MS.
Concluding, I prepared three new macrocyclic pseudopeptides during my PhD and characterized their complexes with anions in terms of structure and affinity. All of these pseudopeptides were shown to interact with phosphate-derived anions, which renders them unique among the anion receptors developed in the Kubik group before.
Betonfertigteile mit integriertem Dämmstoff aus Polystyrol bieten eine ausgezeichnete Lösung zur baulichen Ausführung von Außenwandbauteilen. Die Vorteile gegenüber der Ortbetonbauweise, wie bspw. die Erfüllung hoher Qualitätsansprüche aufgrund der Vorfertigung im Fertigteilwerk oder das Entfallen von Arbeitsschritten auf der Baustelle, ermöglichen einen wirtschaftlichen Bauprozess. Bei der Halbfertigteilbauweise werden nur die äußeren Betonschalen vorgefertigt. Anschließend werden die Wände auf die Baustelle transportiert und mit Ortbeton zum Endquerschnitt verfüllt. Dies erspart den zeit- und kostenintensiven Schalungsvorgang und verringert gleichzeitig das Transportgewicht. Der beim Ausbetonieren der Halbfertigteile auftretende Frischbetondruck muss von Verbindungsmitteln, die zur Kopplung der Betonschalen dienen, mit ausreichender Sicherheit aufgenommen werden. Der Frischbetondruck ist derzeit nach DIN 18218 „Frischbetondruck auf lotrechte Schalungen“ anzunehmen. Die Beeinflussung durch einen integrierten Dämmstoff oder weitere Parameter einer Elementwand bleibt bisher allerdings unberücksichtigt. In Abhängigkeit der Randbedingungen wird der Frischbetondruck stark überschätzt, was zu einem unwirtschaftlichen Bemessungsergebnis im Bauzustand führt. Ziel der vorliegenden Arbeit ist die realitätsnahe Beschreibung des Frischbetondrucks in Elementwänden mit integriertem Dämmstoff.
Angesichts der Vielzahl an Einflussparametern werden die theoretischen und experimentellen Untersuchungen dieser Arbeit systematisch geplant und durchgeführt. In Voruntersuchungen werden bereits einflussschwache Einflussparameter ausgeschlossen und maßgebende Einflussparameter für weiterführende Untersuchungen bestimmt. Neben zahlreichen kleinmaßstäblichen Versuchsreihen, die größtenteils zur Analyse und Beschreibung von einzelnen geometrischen oder werkstoffspezifischen Eigenschaften dienen, werden auch großmaßstäbliche Elementwände untersucht. Diese verfolgen das Ziel, ein besseres Verständnis für die Entstehung des Frischbetondrucks unter Einbeziehung von bauausführungstechnischen Randbedingungen zu entwickeln.
Auf Grundlage der theoretisch und experimentell gewonnenen Erkenntnisse dieser Arbeit wird ein realitätsnahes Berechnungsmodell zur Ermittlung des horizontalen Frischbetondrucks in Elementwänden mit integriertem Dämmstoff abgeleitet. Nach Validierung des Modells an Großversuchen und vereinfachenden Annahmen für einen praxisgerechten Einsatz kann der Frischbetondruck analog zur DIN 18218 mithilfe von einfachen Gleichungen, Tabellen und Diagrammen ermittelt werden. Die Anwendung und der wirtschaftliche Vorteil des Berechnungsmodells werden am Ende der Arbeit anhand von zwei Berechnungsbeispielen demonstriert.
Neben der Beeinflussung des Frischbetondrucks wirkt sich die Umlagerung von Zementleim aus dem Frischbeton in den Dämmstoff auch auf die Eigenschaften des Ortbetons und des Dämmstoffs der Elementwand aus. Die Untersuchungsergebnisse zeigen, dass sich zwar die wärmedämmende Wirkung des Dämmstoffs verschlechtert, dies jedoch bei hohen Dämmstoffstärken zur Sicherstellung des Wärmeschutzes nach EnEV 2016 vernachlässigt werden kann. Die Druckfestigkeit des Ortbetons infolge des Zementleimentzugs wird durch die Verringerung des w/z-Werts und die nachbehandelnde Wirkung des feuchten Dämmstoffs positiv beeinflusst.
The thesis studies change points in absolute time for censored survival data with some contributions to the more common analysis of change points with respect to survival time. We first introduce the notions and estimates of survival analysis, in particular the hazard function and censoring mechanisms. Then, we discuss change point models for survival data. In the literature, usually change points with respect to survival time are studied. Typical examples are piecewise constant and piecewise linear hazard functions. For that kind of models, we propose a new algorithm for numerical calculation of maximum likelihood estimates based on a cross entropy approach which in our simulations outperforms the common Nelder-Mead algorithm.
Our original motivation was the study of censored survival data (e.g., after diagnosis of breast cancer) over several decades. We wanted to investigate if the hazard functions differ between various time periods due, e.g., to progress in cancer treatment. This is a change point problem in the spirit of classical change point analysis. Horváth (1998) proposed a suitable change point test based on estimates of the cumulative hazard function. As an alternative, we propose similar tests based on nonparametric estimates of the hazard function. For one class of tests related to kernel probability density estimates, we develop fully the asymptotic theory for the change point tests. For the other class of estimates, which are versions of the Watson-Leadbetter estimate with censoring taken into account and which are related to the Nelson-Aalen estimate, we discuss some steps towards developing the full asymptotic theory. We close by applying the change point tests to simulated and real data, in particular to the breast cancer survival data from the SEER study.
In the present work the concept of decarboxylative couplings and the strategy to use carboxylates as directing groups for C-H functionalizations have been decisively improved in three ways. These concepts emphasize the multifaceted nature of aromatic carboxylic acids as expedient starting materials in homogeneous catalysis to construct highly desirable molecular scaffolds in a straightforward fashion.
In the first project, the restriction of decarboxylative biaryl synthesis to exclusively couple aryl halides with ortho-substituted benzoic acids has been overcome by a holistic optimization of a Cu/Pd bimetallic catalyst system. Long ago postulated, this is now the proof that decarboxylative cross-couplings are not intrinsically limited to different decarboxylation propensities of benzoic acids or hampered by excess halides, accessing for the first time the entire spectrum of aromatic carboxylic acids as starting materials for the decarboxylative biaryl synthesis. The second project uses the carboxyl moiety as directing group for the ortho-arylation with aryl bromides and -chlorides catalyzed by comparatively inexpensive ruthenium. The carboxylic acid group remains untouched after the ortho-functionalization giving the possibility to a wealth of further diversifications via decarboxylative ipso-substitutions. Within the same project, a Cu/Ru bimetallic catalyst system was found to be able to switch the decarboxylative biaryl coupling from the ipso- to the ortho-position, complementing the Cu/Pd system developed in the first project. In a third project, a redox neutral C-C bond formation revealed the full synthetic potential of the carboxyl group. The COOH moiety acts as a classical directing group for the C-H hydroarylation of internal alkynes to form highly desirable 2-vinyl benzoic acids. With propargylic alcohols the hydroarylation is followed by an in situ esterification, showing that after easing the C-H cleavage, the directing group can be transformed into another functional group, thus, acting as a transformable directing group. Most importantly, a new fascinating reaction mode is activated by embedding the decarboxylation within the C-H functionalization event. This mode of action is capable to solve regioselectivity issues that inherently occur when dealing with carboxylates as directing groups. A so-called deciduous directing group is cast off simultaneously within the C-H functionalization event, resulting in an inherently monoselective pathway.
These methods were developed with the permanent goal of ensuring high sustainability. They do require neither pre-functionalized starting materials nor additional oxidants and provide access to a number of chemically relevant molecules from abundant, inexpensive and toxicologically innocuous educts.
Im Kontext des demographischen Wandels, insbesondere des steigenden Anteils älterer Menschen, verweisen Politik und Wissenschaft auf die Zivilgesellschaft, um Versorgungsdefizite auszugleichen. Die Nachbarschaft nimmt dabei eine zentrale Rolle ein. Nachbarschaftliche Beziehungen erscheinen als ideale Instanzen, um Unterstützungsbedarfe Älterer aufzufangen, aber auch als Kontexte, in denen das Engagement von „jungen Alten“ genutzt werden kann. Bislang ist allerdings unklar, wie Beziehungen zu Nachbarn von Älteren interpretiert werden und damit, welche Potenziale für Unterstützung vorliegen.
In der vorliegenden Arbeit wird mittels qualitativer Befragungen das subjektive Verständnis von Nachbarschaft und Nachbarschaftshilfe bei älteren Menschen untersucht, die zur Gruppe der „jungen Alten“ gezählt werden können, d.h. noch ein aktives und unabhängiges Leben führen. Die Konzepte, die es herauszuarbeiten gilt, werden den durch die Befragten berichteten Interaktionen und Formen des Kontakts gegenübergestellt. Dabei werden drei unterschiedliche Wohnkontexte berücksichtigt: Erstens Nachbarschaftsbeziehungen in städtischen Wohnlagen; zweitens in Einfamilienhaussiedlungen, in denen sog. Siedlergemeinschaften bestehen, in denen sich die Bewohnerinnen und Bewohner als Vereine zusammengeschlossen haben; drittens in gemeinschaftlichen Wohnprojekten, bei denen das nachbarschaftliche Miteinander einen Teil des Selbstverständnisses ausmacht.
Es wird der Frage nachgegangen, wie sich die subjektive Interpretationen und Argumentationen älterer Menschen in Wohnkontexten mit unterschiedlichen Formen der Organisation des Zusammenlebens in Bezug auf Nachbarschaftsbeziehungen und die darin stattfindenden Hilfeleistungen darstellen. Die Arbeit soll so zu einem besseren Verständnis von Nachbarschaft älterer Menschen beitragen. Schließlich soll damit ein Beitrag geleistet werden zur Klärung der Frage, ob und unter welchen Bedingungen Nachbarschaft „belastbar“ ist und somit Nachbarschaftshilfe ein Konzept darstellen kann, dass tragfähige Strukturen für gegenseitige Unterstützung bietet. Die Ergebnisse deuten darauf hin, dass Nachbarschaftsbeziehungen ein durchaus hohes Potenzial aufweisen können in Bezug auf kleine, alltagsunterstützende Leistungen. Dauerhafte und intensivere Formen der Unterstützung sind dagegen selten und bedürfen besonderer, individueller und/ oder struktureller Rahmenbedingungen.
Congress Report 2017.05-08
(2017)
Im Zentrum dieser Arbeit steht die theoretische Beschreibung der magnetischen Anisotropie des Rhenium(IV)ions unter Anwendung von Dichtefunktionaltheorie. Das Ziel ist die Untersuchung der Eignung ein- und zweikomponentiger Dichtefunktionalmethoden zur Berechnung der magnetischen Anisotropie von Rhenium(IV)komplexen sowie der Vorschlag eines Liganden, der einen dreikernigen MnReMn-Komplex ermöglicht, der Einzelmolekülmagnetcharakteristiken aufweist.
Zu Beginn sollen drei einkernige Komplexe mit ein- und zweikomponentigen Dichtefunktionalmethoden (1c-DFT und 2c-DFT) untersucht: [ReCl6]2–, [ReCl4ox]2– und [ReCl4(CN)2]2–. Im einkomponentigen erfolgt die Berücksichtigung der Spin-Bahn-Kopplung über Störungstheorie 2. Ordnung unter der Annahme, dass diese die führende Ordnung in der Spin-Bahn-Kopplung ist. Dabei wurde festgestellt, dass dies bei Rhenium(IV), anders als beispielsweise bei 3d-Ionen, nicht der Fall ist. Vielmehr besitzt die Spin-Bahn-Kopplung auch in 4. Ordnung einen nicht zu vernachlässigenden Einfluss. Deshalb ist Störungstheorie 2. Ordnung ungeeignet, um die magnetische Anisotropie von Re(IV)-Komplexen zu bestimmen.
Zudem werden Berechnungen am dreikernigen [(PY5Me2Mn)2ReCl4(CN)2]2+-Komplex vorgestellt, der bereits in der Literatur beschrieben und hinsichtlich seiner magnetischen Anisotropie experimentell untersucht wurde. Dieser besteht aus einem [ReCl4(CN)2]2– Kern und jeweils zwei Mangan(II)ionen, die durch eine fünfzähnige „Endkappe“ abgeschlossen werden. Sowohl experimentell als auch theoretisch wurde festgestellt, dass die Rhombizität des Komplexes hoch ist, obwohl die lokale Symmetrie in der ersten Koordinationssphäre des Rheniumions (nahezu) D4h entspricht. Die Manganionen erzeugen durch die nicht-lineare Anordnung der Mn-NC-Re-CN-Mn-Einheit eine trigonale Verzerrung der Elektronenverteilung, die wiederum die Rhombizität der magnetischen Anisotropie vergrößert. Es wurde durch Berechnungen festgestellt, dass eine lineare Anordnung die Rhombizität erniedrigt. Aufgrund dieser Beobachtungen wurde die Suche nach einem Liganden aufgenommen, der als fünfzähnige „Endkappe“ fungiert und dabei eine lineare Anordnung der Mn-NC-Re-CN- Mn-Einheit ermöglicht. Dies wurde durch den PyMeAm4-Liganden, der aus einer Pyridin- und vier Amideinheiten besteht, in silico erreicht.
Das Ziel der vorgelegten Dissertation bestand darin, eine eigenständige Methode zur Berechnung der Mößbauer Isomerieverschiebung δ und Quadrupolaufspaltung ∆EQ zu entwickeln und Rechenkonditionen zu formulieren, die eine optimale Übereinstimmung berechneter und gemessener Werte eben dieser Mößbauerparameter gewährleisten.
Die dafür eigenständig angefertigten Programme wurden innerhalb einer TURBO-MOLE Version implementiert, welche als Entwicklerversion in der Arbeitsgruppe von Prof. Dr. Christoph van Wüllen genutzt wird. Diese Programme ermöglichen die Anfertigung von quantenchemischen Rechnungen unter Berücksichtigung der Ausdehnung der Atomkerne, indem sie die Ladungsverteilung des Atomkerns über eine Gaußfunktion simulieren.
Auf Grundlage dieser expliziten Berücksichtigung der Kernladungsverteilung lässt sich ein Operator berechnen, der als Produkt mit der Elektronendichte am Atomkern die Berechnung der Isomerieverschiebung zulässt. Des Weiteren lässt sich der Elektrische Feldgradiententensor berechnen, welcher die räumliche Verteilung der Elektronendichte um ein Atom beschreibt und so zur Berechnung der Quadrupolaufspaltung dient.
Mit Hilfe dieser Programme wurden umfassende Rechnungen angefertigt, die sowohl den Einfluss der verwendeten Basis als auch des Funktionals auf die Güte der dichtefunktionaltheoretischen Rechnung ermitteln und bewerten können. Dazu wurde ein Katalog an Molekülen erstellt, der den gesamten möglichen Wertebereich experimenteller Daten abdeckt. Diese Moleküle wurden unter Verwendung einer Referenzbasis berechnet, die sämtliche theoretischen Anforderungen an eine zur optimalen Berechnung der Mößbauerparameter geeigneten Basis erfüllt. Die Ergebnisse dieser Rechnungen dienten als Referenzwerte, welche mittels linearer Regression mit den Ergebnissen verschiedener getesteter Basissätze verglichen wurden. Dieses Verfahren wurde durch den Abgleich der experimentellen Daten der zugehörigen Moleküle vervollständigt.
Das Ergebnis dieser Benchmarkingprozesse zeigt, dass die Beschreibung des Rumpfbereichs des Atoms maßgeblich die Güte der Ergebnisse beeinflusst. Basissätze mit voller Qualität in allen Orbitalen führen zu einer deutlich höheren Übereinstimmung der berechneten Daten mit sowohl den Referenz- als auch den experimentellen Daten. Sie sind solchen Basissätzen vorzuziehen, die nur die Va- lenzorbitale mit der vollen Qualität der Basis beschreiben.
In der vorliegenden Arbeit wurden 18 Saccharomyces-Hefestämme sowie zwei Stämme der Nichtsaccharomyces-Hefen Torulaspora delbruckii und Metschnikowia pulcherrima und ein Enzympräparat aus Aspergillus niger in Gärungen im Labor- und Praxismaßstab sowie in betriebsüblichen Wein- und Sektgärungen bezüglich ihres Potentials zur Freisetzung von glycosidisch gebundenen Aromastoffen charakterisiert. Die Untersuchungen wurden in drei Jahrgängen für die Rebsorten Chardonnay, Riesling und Muskateller durchgeführt. Hierbei wurden die Verfahren der Traubenverarbeitung zur Intensivierung der unterschiedlichen Ausgangsgehalte an Aromastoffvorläufern variiert. Zusätzlich wurden in Mosten der Rebsorten Riesling, Muskateller und Gewürztraminer die Einflussfaktoren Maischestandzeit und Pressung auf den Ausgangsgehalt an Aromastoffvorläufern untersucht. Alle Moste, hergestellten Weine, Grundweine und Sekte sind aromachemisch mittels SPE/GC-MS sowie die Weine und Sekte sensorisch durch die deskriptive Analyse untersucht worden. Anhand multivariater Statistik wurden die Datensätze modelliert. Die 18 eingesetzten Saccharomyces-Hefestämme sowie zusätzlich zwei Laborstämme der Art Debaromyces hansenii und Pichia anomala wurden mittels Plattentests unter Verwendung von YNB-Mangelmedium bei Zugabe der Substrate Arbutin und Cellobiose als Kohlenstoff-Quelle sowie mittels pNPG-Assay quantitativ auf Glycosidase-Aktivität getestet. Das Enzympräparat wurde ebenfalls mit dem Assay untersucht. Mittels qPCR erfolgte die Analyse der relativen Genexpression der mit der Glycosidase-Aktivität von Saccharomyces-Hefen in Verbindung stehenden Gene EXG1, SPR1 und YIR007W über den Verlauf einer Gärung. Die Analyse der Aromastoffvorläufer wurde mittels einer im Zuge der Arbeit etablierten SPE/GC-MS-Methode für die Injektion großer Probenvolumina durchgeführt. Anhand dieser Analytik als Referenzmethode sollte eine Schnellanalytik mittels FT-MIR entwickelt werden.
Die Untersuchungen zur Variation der Traubenverarbeitung demonstrierten einen signifikanten Einfluss auf die Aromastoffvorläufer-Gehalte im Most. Erstmalig konnte in dieser Arbeit verdeutlicht werden, dass eine verlängerte Maischestandzeit sowie gesteigerter Pressdruck bis hin zum fertigen Wein und Sekt als signifikanter Einflussfaktor sowohl auf die Gehalte der Aromastoffvorläufer als auch auf die Sensorik bestehen bleibt. Die Auswahl des Saccharomyces-Hefestammes hingegen konnte nicht als signifikanter, maximal als marginaler Einflussfaktor auf die Freisetzung der Aromastoffvorläufer oder die Sensorik der finalen Weine, Grundweine und Sekte identifiziert werden. Es wurden selbst bei weitestgehendem Ausschluss anderer mikrobiologischer Einflussfaktoren keine reproduzierbaren Unterschiede zwischen den untersuchten Hefestämmen nachgewiesen, wodurch kein prognostizierbarer Effekt ermittelt werden konnte. Dieses Ergebnis konnte durch die Charakterisierung der Enzymausstattung und aktivität der Hefen erklärt werden. Die Hefen konnten in den Plattentests die glycosidische Bindung der Substrate Arbutin und Cellobiose nicht spalten. Da Arbutin als spezifisch zum Nachweis des Enzyms 1,4 β Glucosidase gilt, kann davon ausgegangen werden, dass das Enzym in den Saccharomyces-Hefen nicht exprimiert wurde. Detektierbar mittels pNPG-Assay war hingegen eine basale Glycosidase-Aktivität, welche vermutlich auf die Nebenaktivität der exo 1,3 β Glucanase Exg1p zurückzuführen ist. Für das korrespondierende Gen EXG1 wurde mittels qPCR über den Verlauf einer Gärung proportional zum Abbau der Glucose eine ansteigende relative Expression bestimmt. Glucose scheint als Hemmstoff für die Genexpression von EXG1 zu wirken. Mit dem Anstieg der Genexpression ging die Abnahme der glycosidisch gebundenen Aromastoffvorläufer einher. Zwischen den untersuchten Saccharomyces-Hefestämmen bestanden dabei keine Unterschiede. Die Analyse der Sekte ergab nach neunmonatiger zweiter Gärung signifikante Unterschiede zwischen den regulär mit Hefe hergestellten Sekten und den ausschließlich unter Säureeinfluss stehenden Varianten ohne Hefezugabe. Damit konnte verdeutlicht werden, dass Saccharomyces-Hefen eine Glycosidase-Aktivität ausbilden, da sie im Vergleich zur ausschließlichen säurehydrolytischen Wirkung signifikant erhöht Aromastoffvorläufer freigesetzt hatten. Die Verwendung verschiedener Hefestämme führte hingegen nicht zu konsistenten Unterschieden in der Freisetzung der Aromastoffvorläufer und blieb ohne bemerkenswerte Auswirkungen auf die Sensorik der Grundweine und Sekte. Die im Praxismaßstab hergestellten Weine bestätigten diese Beobachtungen. Das aus Aspergillus niger stammende Enzympräparat AR2000 zeichnete sich hingegen in der Quantifizierung der Glycosidase-Aktivität mit ca. 1000fach erhöhter Aktivität gegenüber den Hefen aus. Dementsprechend setzte das Enzym in den Gärungen signifikant erhöht Aromastoffvorläufer frei und führte zu veränderten sensorischen Profilen der Weine und Sekte. Die weiterhin in die Versuche einbezogenen Nichtsaccharomyces-Hefen wurden teilweise positiv auf das Enzym β Glucosidase getestet und waren, insbesondere im Fall des Pichia anomala Stammes, auch durch eine signifikant erhöhte quantitative Enzymaktivität charakterisiert. Durch die umfassende Charakterisierung der Saccharomyces-Hefen im Vergleich mit Nichtsaccharomyces-Hefen und Enzympräparat wurde deutlich, dass die Glycosidase-Aktivität der Saccharomyces-Hefen nicht ausreicht, um das Aromapotential während der Wein- und Sektbereitung bedeutend ausschöpfen zu können.
Die in dieser Arbeit etablierte large volume injection GC-MS-Methode wurde validiert und gilt als eine stabile Methode mit hohen Wiederfindungsraten und guter Reproduzierbarkeit. Aufgrund von probenabhängigen Verlusten durch die SPE und die möglicherweise unvollständige enzymatische Spaltung der Aromastoffvorläufer bleibt der Gesamtmethode vermutlich ein systematischer Fehler der absoluten Aromastoffvorläufer-Gehalte zueigen, vergleichende Analysen sind jedoch problemlos möglich. Zum jetzigen Kenntnisstand existiert keine alternative Analysemethode. Die Unschärfe der SPE/GC-MS-Analytik pflanzte sich entsprechend bei der Entwicklung der Schnellmethode zur Quantifizierung der Aromastoffvorläufer mittels FT-MIR fort, welche mit der GC-MS-Methode als Referenzmethode etabliert werden sollte. Im Zuge der Methodenentwicklung am Gerät FT 120 Winescan (Foss) wurde zunächst die Signalintensität der Analyten in den Spektren verbessert, da Aromastoffvorläufer in Most und Wein unterhalb der üblichen Nachweisgrenze der MIR Spektroskopie liegen. Diese Erhöhung der Signalintensität wurde durch eine Vergrößerung der Küvettenstärke auf 150 µm und durch Verwendung der Lösungsmittel Dimethylsulfoxid oder Methanol erreicht. Für beide Küvetten-Lösungsmittel-Kombinationen wurde jeweils eine Basiskalibration mit einem Probensatz aus 37 heterogenen Most- und Weinproben verschiedener Rebsorten und Herkunft erstellt. Die Kalibrationen waren durch vielversprechende statistische Vorhersageparameter charakterisiert. Der Validierung mit unabhängigen Datensätzen konnten beide Kalibrationen aber bisher nicht standhalten.
In change-point analysis the point of interest is to decide if the observations follow one model
or if there is at least one time-point, where the model has changed. This results in two sub-
fields, the testing of a change and the estimation of the time of change. This thesis considers
both parts but with the restriction of testing and estimating for at most one change-point.
A well known example is based on independent observations having one change in the mean.
Based on the likelihood ratio test a test statistic with an asymptotic Gumbel distribution was
derived for this model. As it is a well-known fact that the corresponding convergence rate is
very slow, modifications of the test using a weight function were considered. Those tests have
a better performance. We focus on this class of test statistics.
The first part gives a detailed introduction to the techniques for analysing test statistics and
estimators. Therefore we consider the multivariate mean change model and focus on the effects
of the weight function. In the case of change-point estimators we can distinguish between
the assumption of a fixed size of change (fixed alternative) and the assumption that the size
of the change is converging to 0 (local alternative). Especially, the fixed case in rarely analysed
in the literature. We show how to come from the proof for the fixed alternative to the
proof of the local alternative. Finally, we give a simulation study for heavy tailed multivariate
observations.
The main part of this thesis focuses on two points. First, analysing test statistics and, secondly,
analysing the corresponding change-point estimators. In both cases, we first consider a
change in the mean for independent observations but relaxing the moment condition. Based on
a robust estimator for the mean, we derive a new type of change-point test having a randomized
weight function. Secondly, we analyse non-linear autoregressive models with unknown
regression function. Based on neural networks, test statistics and estimators are derived for
correctly specified as well as for misspecified situations. This part extends the literature as
we analyse test statistics and estimators not only based on the sample residuals. In both
sections, the section on tests and the one on the change-point estimator, we end with giving
regularity conditions on the model as well as the parameter estimator.
Finally, a simulation study for the case of the neural network based test and estimator is
given. We discuss the behaviour under correct and mis-specification and apply the neural
network based test and estimator on two data sets.
We discuss the portfolio selection problem of an investor/portfolio manager in an arbitrage-free financial market where a money market account, coupon bonds and a stock are traded continuously. We allow for stochastic interest rates and in particular consider one and two-factor Vasicek models for the instantaneous
short rates. In both cases we consider a complete and an incomplete market setting by adding a suitable number of bonds.
The goal of an investor is to find a portfolio which maximizes expected utility
from terminal wealth under budget and present expected short-fall (PESF) risk
constraints. We analyze this portfolio optimization problem in both complete and
incomplete financial markets in three different cases: (a) when the PESF risk is
minimum, (b) when the PESF risk is between minimum and maximum and (c) without risk constraints. (a) corresponds to the portfolio insurer problem, in (b) the risk constraint is binding, i.e., it is satisfied with equality, and (c) corresponds
to the unconstrained Merton investment.
In all cases we find the optimal terminal wealth and portfolio process using the
martingale method and Malliavin calculus respectively. In particular we solve in the incomplete market settings the dual problem explicitly. We compare the
optimal terminal wealth in the cases mentioned using numerical examples. Without
risk constraints, we further compare the investment strategies for complete
and incomplete market numerically.
Kurzfassung
Der zunehmende internationale Wettbewerb bewirkt, dass Unternehmen und auch öffentliche Einrichtungen/Institutionen ihr technisches Know-how bzw. ihre Innovationsvorsprünge gegenüber Dritten absichern müssen. Dies führt zwangsläufig dazu, dass die charakteristischen Merkmale innovativer Technologien vermehrt zum Patent angemeldet werden. Eine systematisierte, digitale Erfassung und Auswertung eingegangener Ideen, Erfindungen/Technologien und deren Koordinierung trägt in erheblichem Maße zur Steigerung der Effizienz und Effektivität des Innovations- und Technologiemanagements im Unternehmen bei. Jedoch sind die Chancen und Risiken bezüglich der gewerblichen Anwendung, die technische Funktionalität sowie die Erteilungswahrscheinlichkeit eines Patents in diesem frühen Stadium der Entwicklung meist sehr schwer zu prognostizieren. In Anbetracht dessen stehen die jeweiligen Entscheidungsträger vor dem Problem, ein für die Bewertung geeignetes Verfahren und das dazugehörige Werkzeug zu wählen, welche die Anforderungen an eine prozessbegleitende und umfassende Bewertung von patentrelevanten Innovationsvorhaben erfüllt. Eine prozessbegleitende Bewertung ist zudem mit einer kontinuierlichen, zum Teil rapiden Änderung der bewertungsrelevanten Parameter im Laufe der Entwicklung verbunden. Eine dynamische Evaluierung des Erfolgs- und des Risikopotenzials von Innovationsvorhaben ist daher von entscheidender Bedeutung. Nur so ist eine projektweite Transparenz des Gesamtprojektstatus gegeben und eine präventive Projektkoordinierung uneingeschränkt möglich.
Ziel dieser Arbeit ist daher die Entwicklung eines einheitlichen, aussagekräftigen und nachvollziehbaren Bewertungsverfahrens zur prozessbegleitenden und umfassenden Bewertung von Patenten und patenrelevanten Innovationsvorhaben. Hierbei werden interdisziplinäre Schwerpunkte und deren Parameter in ein dynamisches, homogenes und transparentes Bewertungsmodell zusammengeführt. Darüber hinaus soll ein fachkundiger Bewerter die Möglichkeit erhalten, auf Basis des Bewertungsergebnisses phasenabhängig geeignete Handlungs-empfehlungen abzugeben, die für eine ganze Reihe wichtiger Entscheidungen und Vorgehensweisen im Innovations- und Technologiemanagement von zentraler Bedeutung sind. Als Bewertungsobjekte kommen Ideen, virtuelle Modelle, prototypisch umgesetzte Teilsysteme, Produkte oder Verfahren, Patentanmeldungen, Patente etc. in Betracht.
Bei bisherigen Verfahren zur Bewertung von Patenten und patentrelevanten Innovationsvorhaben liegt die Problematik in der schwierigen Erfassung und Quantifizierung der zukünftigen Potenziale und der damit einhergehenden Risiken von innovativen Technologien und der daraus resultierenden Prognose. Dabei zeigte sich, dass keines der vorhandenen Bewertungsverfahren im Stande ist, bereits in den frühen Phasen des Innovationsprozesses eine aussagefähige und umfassende gesamtwirtschaftliche Betrachtung von Innovationsvorhaben und Patenten zu ermöglichen und zugleich die Anforderungen der DIN 77100 und die Grundsätze des IDW-Standards zu erfüllen. Eine Bewertung von patentrelevanten Innovationsvorhaben gemäß der DIN 77100 und dem IDW-Standard erfordert die Berücksichtigung qualitativer und quantitativer rechtlicher, technischer, wirtschaftlicher und monetärer Einflussfaktoren im Bewertungsalgorithmus. Dies setzt einen klar strukturierten, transparenten und nachvollziehbaren Bewertungsprozess voraus. Ferner soll das zu entwickelnde Modell im Stande sein, den monetären Wert aus den verschiedenen Blickwinkeln der Verwertung, z. B. Herstellung und Vertrieb, Lizenzierung, Verkauf usw. darzustellen bzw. zu berechnen.
Der Bewertungsvorgang der hier entwickelten Bewertungsmethode besteht im Wesentlichen aus den drei Teilschritten ‚Potenzial- und Risikoanalyse‘, ‚Festlegung der Bedingungen für die monetäre Wertermittlung‘ und ‚Wirtschaftlichkeitsanalyse und monetäre Wertermittlung‘. Zentraler Bestandteil der Potenzial- und Risikoanalyse ist eine „dynamische“ Nutzwertanalyse, mit deren Hilfe die Erfolgswahrscheinlichkeiten des Projektes nach zuvor definierten qualitativen und quantitativen Bewertungskriterien errechnet und damit vergleichbar gemacht werden. Dadurch ist es möglich, beschreibende und oft auch pauschal und qualitativ gehaltene Informationen in quantitativ verwertbare Größen zu transformieren und das Projektpotenzial und –risiko in Zahlenwerten auszudrücken. Die Nutzwertanalyse ihrerseits besteht aus den drei Modulen ‚Patentrechtliche Analyse‘, ‚Technische Analyse‘ und ‚Wirtschaftliche Analyse‘, in denen die rechtlichen, technischen und wirtschaftlichen Bewertungskriterien und deren entsprechende Ausprägungen enthalten sind. Durch die Modifizierung der Nutzwertanalyse mit dynamischen Checklisten, die eine unmittelbare Anpassung der Parameter an die vorliegenden Projektbedingungen erlauben, ist es erstmals möglich, eine quantitative Aussage zu den erreichten Zielerfüllungsgraden und den damit verbundenen Projektrisiken zu jedem Zeitpunkt des Innovationsprozesses zu treffen. Die Potenzial- und Risikoanalyse wird durch ein modifiziertes dynamisches Investitionsrechenverfahren ergänzt, so dass eine gesamtwirtschaftliche Betrachtung des Bewertungsobjektes aus verschiedenen Blickwinkeln möglich ist.
Weitere bedeutungsvolle Bestandteile der Bewertungsmethode sind die Wirtschaftlichkeitsanalyse und die montäre Wertermittlung des Bewertungsgegenstandes. Zur Durchführung der Wirtschaftlichkeitsanalyse, die ein wichtiger Teil der monetären Wertermittlung ist, werden die bewertungsrelevanten Parameter, wie beispielsweise das Projektpotenzial, der Diskontierungszins, die prognostizierten Umsatz-/Absatzzahlen und Aufwendungen, der Lizenzsatz, der Ziel-verkaufspreis etc., ermittelt und/oder festgelegt. Um eine frühzeitige aussagefähige Beurteilung des Innovationsvorhabens zu gewährleisten, wurde die Investitionsrecheneinheit mit der Destatis-Datenbank des Statistischen Bundesamtes für Produktionsgüter im verarbeitenden Gewerbe verknüpft. Die aus der statistischen Datenbank ermittelten Umsatz- und Absatzzahlen werden anschließend in eine Produktzyklusrecheneinheit übertragen. Dem Produktlebenszyklus wird dabei ein Umsatzverlauf in Form der Gaußschen Normalverteilung (Glockenkurve) zugrunde gelegt. Für die Modellierung des Umsatzverlaufes im Rahmen einer Innovations- und Patentbewertung wurden die entsprechenden Parameter an den mathematischen Ansatz der Kurvenfunktion angepasst. Dadurch können bereits in den frühen Phasen des Innovationsprozesses Umsatz- und Absatzsimulationen zu verschiedenen Szenarien (Worst-Case- oder Best-Case-Szenario) durchgeführt werden. Des Weiteren ist die Investitionsrecheneinheit derart gestaltet, dass neben den statistischen Daten auch eigene Umsatzerwartungen erfasst und mit den statistischen Ergebnissen verglichen werden können. Werden die prognostizierten Umsätze den zu erwartenden Ausgaben gegenübergestellt und auf den Betrachtungszeitraum diskontiert, kann der monetäre Wert des Innovationsvorhabens/des Patentes ermittelt werden.
Die Bewertung von Innovationsvorhaben und Patenten erfolgt aus unterschiedlichen Bewertungs-anlässen mit dem grundlegenden Ziel, eine fundierte Entscheidungsgrundlage zu schaffen, um im Hinblick auf ein festgelegtes Ziel nachvollziehbare Entscheidungen zu ermöglichen. Bewertungs-anlässe können u. a. die Selektion patentfähiger und erfolgversprechender Ideen aus einem Ideenpool, die Überwachung des Projektstatus zur Festlegung strategischer Maßnahmen, die Technologie- und Patentwertbestimmung für Bilanzierungszwecke, die Kreditsicherung und die Festlegung von Lizenzkonditionen sein. Insbesondere Letzteres (Lizenzierung an Dritte) ist für Universitäten und außeruniversitäre Forschungseinrichtungen sowie Privatpersonen, mit Ausnahme von Ausgründungen, in vielen Fällen der einzige Weg, eine innovative Technologie erfolgreich zu verwerten. Die Berechnung des Erfindungswertes erfolgt hierbei auf Basis der Lizenzpreis-analogiemethode. Als Grundlage für die Berechnung der Lizenzzahlungen wird meist ein „marktüblicher“ Lizenzsatz herangezogen, der sich aufgrund verschiedener Faktoren jedoch oftmals nur schwer ermitteln lässt. Ein Schwerpunkt der vorliegenden Arbeit war es, diesen Sachverhalt zu analysieren und hierfür eine Lösung bereitzustellen. Unter Berücksichtigung der Knoppe-Regel und des wirtschaftlichen Potenzials des Innovationsvorhabens konnte ein nachvollziehbarer Bewertungsalgorithmus zur Ermittlung eines „fairen“ Lizenzsatzes erarbeitet werden. Der mittels einer fairen Gewinnaufteilung kalkulierte Lizenzsatz ist daher einem Ansatz von angeblich „marktüblichen“ Lizenzsätzen, die aus Vergleichen mit möglichst ähnlichen Lizenzabschlüssen hergeleitet werden, vorzuziehen.
Das erarbeitete Bewertungskonzept wurde bereits zur Bewertung von realen Innovationsvorhaben eingesetzt und dabei einer kritischen Überprüfung unterzogen. Dies geschah einerseits mit bereits auf dem Markt befindlichen Innovationen und andererseits mit innovativen Technologien, die sich noch in der Entwurfs- und Entwicklungsphase befanden. Der wesentliche Teil der zur Berechnung notwendigen Informationen und Angaben können aus den detaillierten Beschreibungen der Innovationsvorhaben und aus öffentlichen Datenbanken entnommen werden. Informationen, die darüber hinaus noch benötigt werden, haben die jeweiligen Mitarbeiter der beteiligten Firmen beigesteuert. Die Berechnung des idealtypischen Produktlebenszyklus beruht auf veröffentlichten statistischen Daten. Aufgrund des hohen Detaillierungs- und Strukturierungsgrades, der guten Verfügbarkeit der benötigten Informationen, der hohen Relevanz und der guten Einschätzbarkeit des deutschen Marktes, wurden zur Ermittlung der Umsatzzahlen Daten vom Statistischen Bundesamt für Produktionsgüter im verarbeitenden Gewerbe herangezogen.
Zusammenfassend kann festgehalten werden, dass die im Rahmen dieser Arbeit entwickelte Bewertungsmethode im Stande ist, sämtliche bewertungsrelevanten Kenngrößen, die sowohl qualitativer als auch quantitativer Natur sind, zu erfassen und im Rahmen einer gesamtwirtschaftlichen Betrachtung zu evaluieren. Dadurch können transparente und belastbare Aussagen zum Chancen-/Risikopotenzial, zum Marktvolumen, zu Umsatz-/Absatzzahlen, zum Gewinn, zum monetären Zeitwert des Innovationsvorhabens bzw. des Patentes sowie zu angemessenen Lizenzsätzen gemacht werden.
Das übergeordnete Ziel dieser Arbeit war die Synthese eines auxochrom-substituierten Derivats von p-Nitrostilbennitron (PNSN), sowie dessen biologische Anwendung als fluoreszierende spin trap, zur Identifikation und Lokalisation von zellulär gebildeten ROS.
Zunächst wurden von Hauck et al. (2009) veröffentlichte Syntheseschritte zur Darstellung von PNSN optimiert. Die Synthese der dazu korrespondierenden Aldehydvorstufe, konnte zunächst auch im Rahmen dieser Arbeit nicht auf auxochrom-funktionalisierte Nitrostilbenaldehyde übertragen werden. Deshalb wurde die dazu verwendete Heck-Matsuda-Reaktion einem Screening unterzogen (8 Ansätze). Die effektivste Umsetzung erfolgte durch das Erhöhen der gesamten Reaktionszeit bei einer initialen Kühlung. Anschließend wurde gezeigt, dass sich die optimierten Bedingungen auch zur Darstellung anderweitig-substituierter Stilbenaldehyde eignen (9 Ansätze). Auch zur Synthese der entsprechenden Stilbennitrone musste die publizierte Methode stark modifiziert werden und resultierte in teils quantitativen Ausbeuten.
Alle dargestellten Stilbennitronderivate wurden ausgiebig in Modelsystemen auf ihre optischen Eigenschaften, ihre Fähigkeit zum spin trapping und einer potentiellen, damit einhergehenden Fluoreszenzabnahme untersucht. In der Summe aller Untersuchungen stellte das p-Nitro-o-methoxystilbennitron (PNOMSN) das einzige der synthetisierten spin traps dar, welches verbesserte Eigenschaften bzgl. PNSN aufwies. Aus diesem Grund wurde PNOMSN in vitro auf seine biologische Anwendbarkeit überprüft (3 Zelllinien). Mittels eines SRB-Tests wurde zunächst dessen Atoxizität nachgewiesen. Danach wurde via konfokaler Laser-scanning-Mikroskopie (cLSM) eine mitochondriale Akkumulation von PNOMSN verfolgt und unter Zugabe von Atmungsketteninhibitoren festgestellt, dass auch auf zellulärer Ebene dessen Fluoreszenz innerhalb weniger Sekunden gequencht wird. In einer weiteren Studie wurden die entsprechenden Spin-Addukte aus Zellen extrahiert und EPR-spektroskopisch vermessen. Zudem wurde gezeigt, dass stabile Nitroxylradikale auch aus Kunststoffverbrauchsmaterialien (oxidierte HALS; TEMPO-Derivate) extrahiert werden und solche Messungen verfälschen können.
Außerdem konnte Fluorescein in ortho-Position formyliert und somit weiter zu einem Nitron funktionalisiert werden. Analog zu den Stilbennitronen wurde auch das dargestellte Fluoresceinnitron in Modelsystemen untersucht.
Nach Hauck (2007) wurde die cyclische spin trap EMPO synthetisiert. Zudem gelang es NBD-Chlorid und Dansylchlorid kovalent daran zu koppeln.
Kurzfassung:
Die Arbeit befasst sich mit einem Thema, das an der Schnittstelle zwischen klassischer Rechtsberatung in vornehmlich projektorientierten Bebauungsplanverfahren, Bauleitplanung und Projektsteuerung angesiedelt ist und behandelt den Aspekt, dass sich der Ablauf derartiger Verfahren hin zu ständig steigender Komplexität entwickelt.
Eine in das Thema einführende Analyse stellt dar, dass diese Komplexität nicht nur auf das eigentliche Planaufstellungsverfahren zurück zu führen ist, sondern ihre Ursache auch im zunehmenden Einfluss europarechtlicher Vorgaben, in kontinuierlich stärker ausdifferenzierten Vorgaben der Raumordnung und verschiedener Gegenstände des besonderen Verwaltungsrechts, die bei der Planaufstellung jeweils in unterschiedlicher Weise zu beachten sind, findet.
An diese einführende Analyse schließt sich eine kurze Darstellung der methodischen Ansätze unterschiedlicher Verfahrensbeschleunigungsversuche der Vergangenheit sowie ein kursorischer Überblick über den Ablauf eines Bauleitplan-verfahrens an, bevor die als Reaktion auf die dargestellten Entwicklungen erarbeitete Methode der Verfahrensorganisation und –steuerung (Verfahrensmanagement) komplexer Bauleitplanverfahren aufgezeigt wird.
Die Methodik des Verfahrensmanagements und dessen Stellung in einem Bauleitplanverfahren wird mit Blick auf bestehende gesetzliche Regelungen zum Verfahrensmanagement zum Teil aus jüngster Vergangenheit und unter Verwendung zahlreicher Beispiele aus der Praxis beschrieben. Dabei wird auch aufge-zeigt, wo und in wie weit Anleihen beim klassischen Projektmanagement gemacht und auf die speziellen Erfordernisse öffentlich-rechtlicher Planungs- und Verwaltungsverfahren zugeschnitten wurden. Dieser beschreibende Teil der Arbeit zeigt auf, dass sich die Tätigkeit der Verfahrenssteuerung nicht auf die Verfahrensplanung, -organisation und -kontrolle beschränkt sondern gleichgewichtig die Beratung und Begleitung der formellen und materiell-rechtlichen Inhalte und Abhängigkeiten der jeweiligen Verfahren mit umfasst.
Es werden die Mechanismen und Abhängigkeiten beschrieben, die mit die Führung der unterschiedlichen Beteiligten eines solchen Prozesses in Form eines Verfahrensmanagements angesichts der Heterogenität der Aufgaben, Ausbildung und Berufserfahrung der Mitwirkenden unter Berücksichtigung der Tatsache, dass hierarchische Führungsmethoden nicht zu Gebote stehen, verbunden sind. In diesem Zusammenhang werden die wiederkehrenden Abläufe bei der Bildung von Projektgruppen, die Gesetzmäßigkeiten der Zusammenarbeit in solch heterogenen Gruppen und deren Bedeutung für das Gelingen oder Scheitern solcher Projekte dargestellt.
Die Arbeit enthält ferner einen Exkurs, der die Überschneidungen aber auch die Abgrenzung der Aufgaben des Verfahrensmanagements von der klassischen Mediation aufzeigt und schließt einem Vorschlag zur Standardisierung der Abläufe des Verfahrensmanagements sowie zu möglichen weiteren Anwendungsbereiche dieser Methode. Sie enthält außerdem zwei Mustervorlagen, die den Aufbau eines Verfahrensmanagements erleichtern sollen.
This thesis is concerned with different null-models that are used in network analysis. Whenever it is of interest whether a real-world graph is exceptional regarding a particular measure, graphs from a null-model can be used to compare the real-world graph to. By analyzing an appropriate null-model, a researcher may find whether the results of the measure on the real-world graph is exceptional or not.
Deciding which null-model to use is hard and sometimes the difference between the null-models is not even considered. In this thesis, there are several results presented: First, based on simple global measures, undirected graphs are analyzed. The results for these measures indicates that it is not important which null-model is used, thus, the fastest algorithm of a null-model may be used. Next, local measures are investigated. The fastest algorithm proves to be the most complicated to analyze. The model includes multigraphs which do not meet the conditions of all the measures, thus, the measures themselves have to be altered to take care of multigraphs as well. After careful consideration, the conditions are met and the analysis shows, that the fastest is not always the best.
The same applies for directed graphs, as is shown in the last part. There, another more complex measure on graphs is introduced. I continue testing the applicability of several null-models; in the end, a set of equations proves to be fast and good enough as long as conditions regarding the degree sequence are met.
The development of autonomous mobile robots is a major topic of current research. As those robots must be able to react to changing environments and avoid collisions also with moving obstacles, the fulfilment of safety requirements is an important aspect. Behaviour-based systems (BBS) have proven to meet several of the properties required for these kindsof robots, such as reactivity, extensibility and re-usability of individual components. BBS consist of a number of behavioural components that individually realise simple tasks. Their interconnection allows to achieve complex robot behaviour, which implies that correct
connections are crucial. The resulting networks can get very large making them difficult to verify. This dissertation presents a novel concept for the analysis and verification of complex autonomous robot systems controlled by behaviour-based software architectures with special focus on the integration of environmental aspects into the processes.
Several analysis techniques have been investigated and adapted to the special requirements of BBS. These include a structural analysis, which is used to find constraint violations and faults in the network layout. Fault tree analysis is applied to identify root causes of hazards and the relationship of system events. For this, a technique to map the behaviour-based control network to the structure of a fault tree has been developed. Testing and data analysis are used for the detection of failures and their root causes. Here, a new concept that identifies patterns in data recorded during test runs has been introduced.
All of these methods cannot guarantee failure-free and safe robot behaviour and can never prove the absence of failures. Therefore, model checking as formal verification technique that proves a property to be correct for the given system, has been chosen to complement the set of analysis techniques. A novel concept for the integration of environmental influences into the model checking process is proposed. Environmental situations and the sensor processing chain are represented as synchronised automata similar to the modelling of the behavioural network. Tools supporting the whole verification process including the creation of formal queries in its environment have been developed.
During the verification of large behavioural networks, the scalability of the model checking approach appears as a big problem. Several approaches that deal with this problem have been investigated and the selection of slicing and abstraction methods has been justified. A concept for the application of these methods is provided, that reduces the behavioural network to the relevant parts before the actual verification process.
All techniques have been applied to the behaviour-based control system of the autonomous outdoor robot RAVON. Its complex network with more than 400 components allows for demonstrating the soundness of the presented concepts. The set of different techniques provides a fundamental basis for a comprehensive analysis and verification of BBS acting in changing environments.
Im Rahmen dieser Doktorarbeit wurden neue effiziente Katalysatorsysteme für nachhaltige Transformationen entwickelt. Im ersten Projekt meiner Doktorarbeit wurde ein neuer und nachhaltiger Weg zur Synthese von 1,4-Butandiol aus Acetylen und CO2 entwickelt. Mit einer anorganischen Base und Kupferiodid als Katalysator konnte Acetylen mit einer TON von 90 zum Dikaliumacetylendicarboxylat umgesetzt werden. Die anschließende Hydrierung der Dreifachbindung gelang in quantitativen Ausbeuten. Der entscheidende Schritt war nun die direkte Veresterung des Kaliumsuccinats mit Methanol zum Dimethylsuccinat, da eine direkte Hydrierung des Kaliumsuccinats zum entsprechenden Alkohol thermodynamisch nicht möglich ist. Hierzu wurde die Reaktionslösung mit CO2-Druck begast und somit die notwendige Acidität für die Veresterung mit Methanol erzielt. Eine anschließende Hydrierung des Esters zum 1,4-Butandiol wurde in sehr guten Ausbeuten erreicht. Somit wurde erstmals eine Methode für die Synthese der wichtigen Basischemikalie 1,4-Butandiol aus Acetylen und CO2 ermöglicht. Im zweiten Teilprojekt dieser Arbeit wurde ein neuer nachhaltiger Zugang zu biologisch aktiven (E)-β-Alkoxyacrylaten ermöglicht. Hierbei wurde eine metallfreie, basenkatalysierte Carboxylierung mit anschließender Alkoxylierung terminaler Alkine mittels einfacher Dialkylcarbonate entwickelt. Für aromatische Substrate konnte mit Hilfe katalytischer Mengen Kaliummethoxid die entsprechenden Acrylate schon bei Raumtemperatur erzielt werden. Aliphatische Alkine wurde mit der stärkere Base Kalium-tert-butoxid in äquivalenten Mengen bei 90°C erfolgreich umgesetzt. Die Atomökonomie für diese Reaktion beträgt optimale 100 %. Im dritten Teilprojekt dieser Doktorarbeit wurde eine selektive Hydrierung von Fettsäuren, Fettsäureestern und Triglyceriden in Gegenwart von Alkoholen zu den entsprechenden unsymmetrischen Ethern entwickelt. Somit gelang es uns einen neuen, nachhaltigen Zugang zu langkettigen unsymmetrischen Alkylethern aus nachwachsenden Rohstoffen zu erzielen. Diese haben aufgrund ihres niedrigen Schmelzpunktes und der geringen Viskosität eine hohe Anwendungsbreite in Schmiermitteln, Tensiden und Kosmetika. Mit diesem Protokoll konnten sowohl Fettsäuren als auch Ester in reiner Form oder auch in Mischungen umgesetzt werden. Auch Triglyceride aus Rapsöl wurden erfolgreich ohne weitere Aufreinigung umgesetzt. Im letzten Teilprojekt erfolgte die Entwicklung einer Einschritt Sandmeyer-analogen Trifluormethylierung und Trifluormethylthiolierung. Hierbei werden Diazoniumsalze in situ aus den Anilinen generiert und anschließend direkt mit dem in situ generierten Cu-CF3 aus dem Ruppert-Prakash-Reagens und CuSCN umgesetzt. Aus dem Reaktiosgemisch werden die entsprechenden Benzotrifluoride gebildet und als einziges Nebenprodukt wird Stickstoff freigesetzt. Wird zu der Reaktionsmischung zusätzlich NaSCN als Schwefelquelle hinzugegeben werden hierbei die entsprechenden Trifluormethylthiolverbindungen erhalten.
Magnetic and Structural Characterization of Isolated Gaseous Ions by XMCD and IRMPD Spectroscopy
(2017)
This thesis comprises four independent research studies on the magnetic and structural characterization of isolated ions in the gas phase. The electrospray ionization (ESI) technique is used for the transfer of (multi-)metallic complexes and organic molecules from solution into the gas phase. The subsequent storage of molecular ions in ion traps allows for a variety of spectroscopic methods in order to investigate the intrinsic properties of the isolated species void of solvent, crystal lattice, bulk or supporting surface effects. The magnetic properties of metal complexes are elucidated by gas phase X-ray magnetic circular dichroism (XMCD) spectroscopy. The element selective technique in combination with sum rule analysis allows for a separate determination of spin and orbital magnetic moments at different metal centers. Structural investigations on isolated molecular ions in terms of coordination sphere, binding motifs and hydrogen bonds are conducted using infrared multiple photon dissociation (IRMPD) spectroscopy. A resonant two color IRMPD technique serves to increase fragmentation yields, overcome dissociation bottlenecks and reveal otherwise dark bands. Comparison of experimental IRMPD spectra with calculated harmonic absorption spectra by density functional theory (DFT) provides structural assignments for a profound understanding of intra- and intermolecular interactions.
”In contemporary electronics 80% of a chip may perform digital functions but the 20%
of analog functions may take 80% of the development time.” [1]. Aggravating this, the
demands on analog design is increasing with rapid technology scaling. Most designs
have moved away from analog to digital domains, where possible, however, interacting
with the environment will always require analog to digital data conversion. Adding to
this problem, the number of sensors used in consumer and industry related products are
rapidly increasing. Designers of ADCs are dealing with this problem in several ways, the
most important is the migration towards digital designs and time domain techniques.
Time to Digital Converters (TDC) are becoming increasingly popular for robust signal
processing. Biological neurons make use of spikes, which carry spike timing information
and will not be affected by the problems related to technology scaling. Neuromorphic
ADCs still remain exotic with few implementations in sub-micron technologies Table 2.7.
Even among these few designs, the strengths of biological neurons are rarely exploited.
From a previous work [2], LUCOS, a high dynamic range image sensor, the efficiency
of spike processing has been validated. The ideas from this work can be generalized to
make a highly effective sensor signal conditioning system, which carries the promise to
be robust to technology scaling.
The goal of this work is to create a novel spiking neural ADC as a novel form of a
Multi-Sensor Signal Conditioning and Conversion system, which
• Will be able to interface with or be a part of a System on Chip with traditional
analog or advanced digital components.
• Will have a graceful degradation.
• Will be robust to noise and jitter related problems.
• Will be able to learn and adapt to static errors and dynamic errors.
• Will be capable of self-repair, self-monitoring and self-calibration
Sensory systems in humans and other animals analyze the environment using several
techniques. These techniques have been evolved and perfected to help the animal sur-
vive. Different animals specialize in different sense organs, however, the peripheral
neural network architectures remain similar among various animal species with few ex-
ceptions. While there are many biological sensing techniques present, most popularly
used engineering techniques are based on intensity detection, frequency detection, and
edge detection. These techniques are used with traditional analog processing (e.g., colorvi
sensors using filters), and with biological techniques (e.g. LUCOS chip [2]). The local-
ization capability of animals has never been fully utilized.
One of the most important capabilities for animals, vertebrates or invertebrates, is the
capability for localization. The object of localization can be predator, prey, sources of
water, or food. Since these are basic necessities for survival, they evolve much faster
due to the survival of the fittest. In fact, localization capabilities, even if the sensors
are different, have convergently evolved to have same processing methods (coincidence
detection) in their peripheral neurons (for e.g., forked tongue of a snake, antennae of
a cockroach, acoustic localization in fishes and mammals). This convergent evolution
increases the validity of the technique. In this work, localization concepts based on
acoustic localization and tropotaxis are investigated and employed for creation of novel
ADCs.
Unlike intensity and frequency detection, which are not linear (for e.g. eyes saturate in
bright light, loose color perception in low light), localization is inherently linear. This
is mainly because the accurate localization of predator or prey can be the difference
between life and death for an animal.
Figure 1 visually explains the ADC concept proposed in this work. This has two parts.
(1) Sensor to Spike(time) Conversion (SSC), (2) Spike(time) to Digital Conversion(SDC).
Both of the structures have been designed with models of biological neurons. The
combination of these two structures is called SSDC.
To efficiently implement the proposed concept, a comparison of several biological neural
models is made and two models are shortlisted. Various synapse structures are also
studied. From this study, Leaky Integrate and Fire neuron (LIF) is chosen since it
fulfills all the requirements of the proposed structure. The analog neuron and synapse
designs from Indiveri et. al. [3], [4] were taken, and simulations were conducted using
cadence and the behavioral equivalence with biological counterpart was checked. The
LIF neuron had features, that were not required for the proposed approach. A simple
LIF neuron stripped of these features and was designed to be as fast as allowed by the
technology.
The SDC was designed with the neural building blocks and the delays were designed
using buffer chains. This SDC converts incoming Time Interval Code (TIC) to sparse
place coding using coincidence detection. Coincidence detection is a property of spiking
neurons, which is a time domain equivalent of a Gaussian Kernel. The SDC is designed to
have an online reconfigurable Gaussian kernel width, weight, threshold, and refractory
period. The advantage of sparse place codes, which contain rank order coding wasvii
Figure 1: ADC as a localization problem (right), Jeffress model of sound localization
visualized (left). The values t 1 and t 2 indicate the time taken from the source to s1 and
s2 respectively.
described in our work [5]. A time based winner take all circuit with memory was created
based on a previous work [6] for reading out of sparse place codes asynchronously.
The SSC was also initially designed with the same building blocks. Additionally, a
differential synapse was designed for better SSC. The sensor element considered wasviii
a Wheatstone full bridge AMR sensor AFF755 from Sensitec GmbH. A reconfigurable
version of the synapse was also designed for a more generic sensor interface.
The first prototype chip SSDCα was designed with 257 modules of coincidence detectors
realizing the SDC and the SSC. Since the spike times are the most important information,
the spikes can be treated as digital pulses. This provides the capability for digital
communication between analog modules. This creates a lot of freedom for use of digital
processing between the discussed analog modules. This advantage is fully exploited
in the design of SSDCα. Three SSC modules are multiplexed to the SDC. These SSC
modules also provide outputs from the chip simultaneously. A rising edge detecting fixed
pulse width generation circuit is used to create pulses that are best suited for efficient
performance of the SDC. The delay lines are made reconfigurable to increase robustness
and modify the span of the SDC. The readout technique used in the first prototype is
a relatively slow but safe shift register. It is used to analyze the characteristics of the
core work. This will be replaced by faster alternatives discussed in the work. The area
of the chip is 8.5 mm 2 . It has a sampling rate from DC to 150 kHz. It has a resolution
from 8-bit to 13-bit. It has 28,200 transistors on the chip. It has been designed in 350
nm CMOS technology from ams. The chip has been manufactured and tested with a
sampling rate of 10 kHz and a theoretical resolution of 8 bits. However, due to the
limitations of our Time-Interval-Generator, we are able to confirm for only 4 bits of
resolution.
The key novel contributions of this work are
• Neuromorphic implementation of AD conversion as a localization problem based
on sound localization and tropotaxis concepts found in nature.
• Coincidence detection with sparse place coding to enhance resolution.
• Graceful degradation without redundant elements, inherent robustness to noise,
which helps in scaling of technologies
• Amenable to local adaptation and self-x features.
Conceptual goals have all been fulfilled, with the exception of adaptation. The feasibility
for local adaptation has been shown with promising results and further investigation is
required for future work. This thesis work acts as a baseline, paving the way for R&D
in a new direction. The chip design has used 350 nm ams hitkit as a vehicle to prove
the functionality of the core concept. The concept can be easily ported to present
aggressively-scaled-technologies and future technologies.
Im Rahmen dieser Dissertation wurde ein Verfahren entwickelt, dass es kleinen Gemeinden erlaubt, selbstständig die siedlungsökologische Situation innerhalb ihrer Siedlung zu analysieren. Das entwickelte Matrix-Verfahren beruht dabei nicht auf der Messung oder Simulation der Klimaparameter, sondern auf der Abschätzung der Eintrittswahrscheinlichkeit in Abhängigkeit von verschiede-nen siedlungsklimarelevanten Indikatoren. Dabei werden die Indikatoren nicht isoliert betrachtet, sondern paarweise in einer Matrix gegenübergestellt. An-hand der Ausprägungsintensität der Indikatoren kann aus dieser Matrix die Ein-trittswahrscheinlichkeit eines Stadtklimaphänomens abgeschätzt werden. Durch Anwendung des entwickelten Verfahrens können die für kleine Siedlun-gen relevanten Themenbereiche „urbane Überwärmung“, „urbane Frisch- und Kaltluftversorgung“ und „urbaner Wasserhaushalt“ untersucht werden.
Eng mit der Entwicklung der Matrix-Methode verknüpft, wurde parallel ein Be-standsaufnahmeverfahren entwickelt, dass für die Erfassung der Indikatoren genutzt wird. Für die Bestandsaufnahme vor Ort wurde die Android-App „ÖkoHaSie“ entwickelt, die den Anwender Schritt-für-Schritt durch die Be-standsaufnahme leitet.
Die Kombination aus den beiden entwickelten Komponenten „Matrix-Methode“ und „ÖkoHaSie“ ermöglicht es Gemeinden schnell und selbstständig siedlungsökologische Risiko- und Potenzialflächen zu identifizieren. Durch den im Vergleich zu anderen Siedlungsklimaanalysemethoden geringen Arbeits-aufwand und die deutlich günstigeren Anschaffungskosten von technischen Geräten und Softwarelizenzen kann die Matrix-Methode als einzige „low-cost“-Lösung angesehen werden, die es Gemeinden ermöglicht, selbstständig die siedlungsökologische Situation vor Ort zu analysieren.
In this thesis viscoelastic material models are established to investigate the nature of continuous calving processes at Antarctic ice shelves. Physics-based descriptions of calving require appropriate fracture criteria to separate icebergs from the remaining ice shelf. Hence, criteria of the stress, the strain, and the self-similarity criterion are considered within finite-element computations. Crucial parameters in the models to determine the position of calving are the accurate knowledge of the geometry, especially the freeboard height, while the material parameters mainly influence the time span between two successive calving events. The extension to nonlinear material models is necessary to properly analyze the internal forces also for large deformations that occur for longer times of the viscous ice flow.
Im Rahmen dieser Arbeit wurden neue nachhaltige Methoden zur selektiven C−C Bindungsknüpfung ausgehend von Carbonsäuren entwickelt. Dabei wurden die Reaktionskonzepte der decarboxylierenden Biarylsynthese sowie der Carboxylat-dirigierten Arylierung verfolgt.
Geleitet von eingehenden DFT-Studien wurde ein Katalysatorsystem entwickelt, mit dem die Reaktionstemperatur der Kupfer/Palladium-katalysierten decarboxylierenden Kreuzkupplung von ursprünglich über 150 °C auf 100−120 °C abgesenkt werden konnte. Dazu wurden bidentate P,N-Liganden eingesetzt, die die Katalysatormetalle verbrückend koordinieren können und so die geschwindigkeitsbestimmende Transmetallierung erleichtern.
Daneben gelang es, ein bimetallisches Kupfer/Palladium Katalysatorsystem zu entwickeln, welches die Synthese 3-substituierter 2 (Hetero-)Arylpyridine bei nur 130 °C ermöglicht. Dies basierte auf der Entdeckung, dass ein Substituent ortho zur Carboxygruppe der Pyridin-2-carbonsäure ebenso wie im Fall von Benzoesäuren eine Decarboxylierung begünstigt.
Neben den decarboxylierenden ipso-Arylierungen wurden auch neue Protokolle für Carboxylat-dirigierte ortho-Arylierungen von Benzoesäuren entwickelt. So wurde diese erstmals mit Aryldiazoniumsalzen als Kupplungspartner realisiert. Das neue Protokoll unter Verwendung eines Iridium-basierten Katalysatorsystems gewährleistet eine Reaktionsführung unter vergleichsweise milden Bedingungen. Zudem wird eine Orthogonalität zu Kupplungen mit Arylhalogeniden geschaffen.
Daneben wurde ein Protokoll für die ortho-Arylierung von Benzoesäuren mit Arylhalogeniden entwickelt, welches erstmals auf kostengünstigen Ruthenium-Katalysatoren basiert.
Die Überlegenheit der Carboxylatgruppe im Vergleich zu anderen dirigierenden Gruppen konnte demonstriert werden, indem sie im Anschluss an die jeweilige ortho-Arylierung entfernt sowie als Ankerpunkt in weiteren Funktionalisierungen genutzt wurde.
Weiterhin gelang es, eine Kupfer/Palladium-katalysierte decarboxylierende Mizoroki-Heck-Reaktion von Zimtsäuren mit Arylhalogeniden zu entwickeln, welche selektiv 1,1 Diarylalkene zugänglich macht. Dabei agiert die Carboxylatgruppe als abfallende dirigierende Gruppe.
Das synthetische Potential der neu entwickelten Methoden wurde jeweils anhand eines diversen Substratspektrums demonstriert. Darüber hinaus lieferten mechanistische Studien zu den Carboxylat-dirigierten Transformationen Einblicke zum Ablauf der Reaktionen.
In the present work, the interaction of diatomic molecules with charged transition metal clusters and complexes was investigated. Temperature controlled isothermal kinetic studies served to elucidate the adsorption behavior of transition metal clusters. Infrared multiple photon dissociation (IR-MPD) experiments in conjunction with density functional theory (DFT) computations enabled the analysis of adsorbate induced changes on the structure and spin multiplicity of transition metal cores. A tandem cryo trap setup was used for the kinetic and spectroscopic investigations of the given compounds as isolated species in the gas phase. The presented investigations enabled insight into the metal-adsorbate bonding and provided cluster size and adsorbate coverage dependent information on cluster surface morphologies.
Die vorliegende Arbeit befasst sich mit der Untersuchung von Absorptionseigenschaften und elektronischer Kurzzeit-Dynamik von organischen Farbstoffmolekülen und supramolekularen Photokatalysatoren in der Gasphase. Dabei wurde erstmals sehr intensiv ein eine relativ unbekannte experimentelle Methode eingesetzt, nämlich die zeitaufgelöste, pump-probe (Anregung-Abfrage) Photofragmentations-Spektroskopie. Die Kombination eines kommerziellen Quadrupol Ionenfallen Massenspektrometers mit einem Femtosekunden Lasersystem erlaubt es die intrinsischen, elektronischen Eigenschaften molekularer, ionischer Systeme abzubilden. Neben Populationsdynamik angeregter Zustände wurden erstmals Schwingungs- und Rotationswellenpaket-Dynamik mit dieser Methode beobachtet und dokumentiert.
Im ersten Teil der Arbeit werden die Ergebnisse der Untersuchungen an einigen ausgewählten Fluoresecein-Derivaten und eines Carbocyanin-Farbstoffes präsentiert. Obwohl diese Modellsysteme zunächst nur dem Zweck dienen sollten die Möglichkeiten des experimentellen Aufbaus zu evaluieren, ergaben die Untersuchungen weiterhin tiefgreifende Einblicke in die elektronische Struktur isolierter organischer Farbstoffe, die bis heute in Literatur nicht dokumentiert worden sind.
Der zweite Teil befasst sich mit der Untersuchung an drei supramolekularen, ionischen Systemen zur photokatalytischen Wasserstofferzeugung. Dabei dienten wieder zwei der Systeme dem Zweck den experimentellen Aufbau zu evaluieren. Neben der elektronischen Populationsdynamik wurde mittels polarisationsabhängiger Messungen weitere Einblicke in den Elektronentransferprozess erhalten – ein Kernpunkt in der Wirkweise supramolekularer Katalysatoren. Die neugewonnen Erkenntnisse wurden schließlich verwendet um einen neuartigen Katalysator zu untersuchen. Dabei stellte sich heraus, dass die Labilität der Ligandensphäre am katalytischen Metallzentrum Untersuchungen am intakten System in Lösung stark beeinträchtigt und somit nur aussagekräftige Ergebnisse mittels einer Gasphasen Methode, einer wie der hier verwendeten, erhalten werden können.
Die experimentellen Ergebnisse werden unterstützt durch quantenchemische Berechnungen von energetischen Minimum-Strukturen, den Strukturen von Übergangszuständen, sowie der Berechnung von Schwingungs- und UV/Vis-Absorptionsspektren mittels (zeitabhängiger) Dichtefunktionaltheorie (DFT & TD-DFT).
Das homotetramere, cytosolische Chaperon SecB spielt eine entscheidende Rolle in der Proteintranslokation von Escherichia coli beim Transport von Proteinen über die Cytoplasmamembran in den periplasmatischen Raum der Zelle. Es bindet währenddessen naszierende Polypeptide, hält diese in einem entfalteten, translokationskompeteten Zustand und transportiert sie zur Translokationsmaschinerie an die Cytoplasmamembran. In vitro wechselwirkt SecB mit einer Reihe von entfalteten Proteinen, beispielsweise dem Bovine Pancreatic Trypsin Inhibitor (BPTI) oder in vivo mit dem Vorläuferprotein des Maltosebindungsproteins (preMBP). Frühere Untersuchungen lieferten Hinweise auf eine Konformationsänderung des Chaperons hervorgerufen durch eine Substratbindung des Modellsubstrats BPTI. Der Fokus der vorliegenden Arbeit liegt auf Untersuchungen zur Komplexbildung zwischen dem natürlichen Substrat preMBP und SecB sowie auf weiteren Untersuchungen zur Konformationsänderung hervorgerufen durch die Substratbindung.
Um die Aufreinigung der Chaperone zeiteffizienter zu gestalten und die Reinheit weiter zu steigern, erfolgte eine Umklonierung der verschiedenen SecB-Gene in pET20b(+)-Expressionsvektoren. Im Zuge dieser Einklonierung wurden die SecB-Sequenzen mit einer Thrombinschnittstelle und einem His-Tag fusioniert. Weiterhin wurden zwei neue SecB-Mutanten (C109 und C113) generiert.
Die Untersuchung des preMBP-SecB-Komplexes mit Hilfe der HPLC zeigte, dass 2 M GdnHCl ausreichend ist, um das preMBP zu entfalten und entfaltetes preMBP schneller von der Säule eluiert als rückgefaltetes. Weiterhin konnte nachgewiesen werden, dass die Rückfaltung von preMBP durch Verringerung der GdnHCl-Konzentration von 3 M auf 0,1 M innerhalb weniger Sekunden abgeschlossen ist. Die Komplexbildung erfolgte nur, wenn das Chaperon vorlegt wurde und preMBP anschließend hinzugegeben wurde. Die anschließende Analyse zeigte eine Koelution beider Proteine.
Für die EPR-spektroskopischen Untersuchungen wurden die SecB-Mutanten mit den Spinlabeln MTS und IOPI gelabelt. Die cw-EPR-Messungen bei Raumtemperatur zeigten, dass die Beweglichkeit des Spinlabels am Wildtyp-Protein deutlich stärker eingeschränkt ist als an Aminosäureposition 90. Die cw-EPR-Messungen am Wildtyp-Chaperon bei 180 K gaben erste Hinweise darauf, dass sich benachbarte Spinlabel in einem Abstand von weniger als 20 Å befinden. Der Vergleich mit den berechneten Abstandsdaten aus dem Molecular Modeling zeigte, dass es sich bei den gemessenen Entfernungen um die kurzen Abstände zwischen den Cysteinen benachbarter Untereinheiten handeln muss. Weiterhin konnte nachgewiesen werden, dass sich das Spinlabel an Aminosäureposition 312 des preMBPs in einer Entfernung von maximal 20 Å befindet.
Die DEER-Messungen ergaben Abstände zwischen den Aminosäurepositionen 97 am SecB von 19,3 Å für die kurzen Entfernungen zwischen direkt benachbarten Untereinheiten und 51,2 Å für die langen Entfernungen. Durch die Substratbindung von BPTI an das Chaperon konnte eine doppelscherenartige Aufweitung zwischen den Dimeren im Bereich der Substratbindungstasche belegt werden. Auch die Abstandsdaten von Aminosäureposition 90 bestätigten die Aufweitung der Bindungstasche.
Bulk-boundary correspondence in non-equilibrium dynamics of one-dimensional topological insulators
(2017)
Dynamical phase transitions (DPT) are receiving a rising interest. They are known to behave analogously to
equilibrium phase transitions (EPT) to a large extend. However, it is easy to see that DPT can occur in finite
systems, while EPT are only possible in the thermodynamic limit. So far it is not clear how far the analogy of
DPT and EPT goes. It was suggested, that there is a relation between topological phase transitions (TPT)
and DPT, but many open questions remain.
Typically, to study DPT, the Loschmidt echo (LE) after a quench is investigated, where DPT are visible as
singularities. For one-dimensional systems, each singularity is connected to a certain critical time scale, which
is given by the dispersion in the chain.
In topological free-fermion models with winding numbers 0 or 1, only the LE in periodic boundary conditions
(PBC) has been investigated. In open boundary conditions (OBC), these models are characterized by symmetry
protected edge modes in the topologically non-trivial phase. It is completely unclear how these modes affect
DPT. We investigate systems with PBC governed by multiple time scales with a Z topological invariant. In
OBC, we provide numerical evidence for the presence of bulk-boundary correspondence in DPT in quenches
across a TPT.
In the recent years small towns have experienced several negative developments. Especially in rural areas there are demographic problems and in the sector of retailing. Reforms in state administration resulted in the reduction of county administration seats. Also professional health care services are being reduced.
The thesis explores the effectiveness of three middle order centres (which in two cases are formed by more than one town) to fulfil their respective functions for their regions (complementary regions).
The spatial dominance of these towns in the sectors of jobs and services (retailing, secondary education – up to college level – health and entertainment) is surveyed.
The analysis is done with statistical material already collected by various institutions and by several own surveys. Interviews were done with experts.
Thus each middle order center and its complementary region is evaluated.
Haslach/Hausach/Wolfach performs best, albeit their demographic development is not dynamic. Bad Krozingen/Staufen has some shortcomings in its performance by the most dynamic demographic development of the three entities. Titisee-Neustadt's performance can be ranked second.
In a final chapter further research topics are listed.
Die langfristige Integration der rund 1,2 Millionen Asylsuchenden, die laut BAMF 2015 und 2016 nach Deutschland kamen, stellt große Herausforderungen an die aufnehmende deutsche Gesellschaft. Während sich staatliche Organe gerade in der Ankunftsphase überfordert zeigten, hat die Zivilgesellschaft mit großem Engagement die Aufnahme der Geflüchteten ermöglicht und führt dies in zahllosen Integrationsprojekten fort. Dabei leistet sie einen großen Beitrag zu einer nachhaltigen Entwicklung, über den bisher noch wenig debattiert wurde – nämlich zur sozialen Nachhaltigkeit.
Dafür werden zunächst die wesentlichen Problemstellungen der Flüchtlingsintegration und der Stellenwert des zivilgesellschaftlichen Engagements dargestellt (1). Darauf folgt eine theoretische Begründung von Integration im Kontext sozial nachhaltiger Entwicklung (2). Kapitel (3) zeigt auf, wie speziell neue Formen des zivilgesellschaftlichen Engagements, die Aspekte sozialer Nachhaltigkeit beinhalten, zur Integration von Geflüchteten beitragen können. Abschließend werden konkrete ehrenamtliche Einsatzfelder für Geflüchtete in den Blick genommen, ausführlicher das Nürnberger Befragungsprojekt „Nicht mit leeren Händen“(4). Das abschließende Kapitel versucht zu systematisieren, inwiefern ehrenamtliche Projekte zu nachhaltiger Integration beitragen und welche Rolle der kommunalen Politik dabei zukommt (5). Ein Ausblick (6) zeigt Perspektiven für eine nachhaltige Integration auf.
Kurzkettige Olefine wie Ethen, Propen und Butene haben eine große Bedeutung als Basisbausteine der chemischen Industrie. Vor allem der Bedarf an Propen ist in den letzten Jahren deutlich gewachsen. Bislang wird Propen primär im Steamcracker (SC) und im "Fluid Catalytic Cracking" (FCC) gewonnen. Allerdings kann der zukünftige Bedarf durch diese beiden Prozesse alleine nicht gedeckt werden. Neue, sogenannte "on-Purpose"-Propen-Technologien müssen daher etabliert werden. Dabei werden unterschiedliche Möglichkeiten verfolgt, etwa der "Methanol-to-Olefins" (MTO) Prozess, die Propandehydrierung und die Metathese von Ethen und 2-Buten. Ein weiterer möglicher Ansatz ist die zusätzliche Steigerung der Ausbeute an leichten Olefinen im FCC-Prozess. Ein wichtiger Schritt auf diesem Wege war die kommerzielle Nutzung des mittelporigen Zeoliths ZSM-5 als Additiv zum Basiskatalysator ab 1983. Dieser ermöglicht eine deutlich gesteigerte Ausbeute an leichten Olefinen gegenüber dem bis dato genutzten unmodifizierten Crackkatalysator, welcher auf dem weitporigen Zeolith Y basiert.
Ziel dieser Arbeit war die Untersuchung anderer mittelporiger Zeolithe hinsichtlich ihrer Aktivität und Selektivität beim katalytischen Cracken von n-Octan, welches als Modellkohlenwasserstoff für Naphtha verwendet wurde. Dabei sollten drei wichtige Charakteristika der Zeolithe untersucht werden: Der Einfluss der Porenarchitektur, des n(Si)/n(Al)-Verhältnisses sowie der Morphologie und der Kristallitgröße. Zuletzt wurde die Auswirkung einer Imprägnierung mit Phosphor untersucht, einer gängigen Methode zur Stabilisierung von Zeolith ZSM-5 gegen eine Dealuminierung im FCC-Prozess.
Im ersten Teil dieser Arbeit wurden fünf unterschiedliche mittelporige Zeolithe hergestellt und mittels Ionenaustausch in ihre Brønsted-saure Form überführt. Charakterisiert wurden die Katalysatoren mittels Pulver-Röntgendiffraktometrie, Stickstoff-Physisorption, Atom-absorptionsspektroskopie, Rasterelektronenmikroskopie und Festkörper-MAS-NMR-Spektroskopie (1H, 27Al, 29Si, 31P). Gegenstand waren die drei eindimensionalen Porensysteme der Zeolithe ZSM-22 (TON), ZSM-23 (MTT) und EU-1 (EUO) sowie Zeolith ZSM-57 (MFS) mit einem zweidimensionalen Porensystem. Zeolith ZSM-5 (MFI), welcher ein dreidimensionales Porensystem aufweist, wurde als Referenzmaterial benutzt. Alle Zeolithe wurden zwecks guter Vergleichbarkeit mit ähnlichem n(Si)/n(Al)-Verhältnis von circa 20 bis 30 hergestellt, mit Ausnahme von Zeolith HZSM-23 der im n(Si)/n(Al)-Verhältnis 45 synthetisiert wurde. Es zeigte sich, dass die vergleichsweise engen eindimensionalen Porensysteme der Zeolithe HZSM-22 und HZSM-23 eine höheren Anteil an monomolekularen Cracken gegenüber bimolekularen Cracken aufweisen. Damit erbrachten sie eine gesteigerte Selektivität zu leichten Olefinen. Bei vergleichbaren Aktivitäten der beiden Katalysatoren mit denjenigen von Zeolith HZSM-5 wurde eine deutliche Steigerung der Ausbeute an Propen und Butenen beobachtet. Daneben ergaben beide Katalysatoren gegenüber Zeolith HZSM-5 deutlich geringere Ausbeuten an Aromaten. Diese entstehen zu großen Teilen durch Dehydrocyclisierung von Propen und Butenen. Daher kann eine niedrige Selektivität zu Aromaten die Selektivität zu Olefinen weiter erhöhen. Auch Zeolith HZSM-57 zeigte aufgrund seines zweidimensionalen 10 x 8-Porensystems eine Steigerung der Ausbeute an leichten Olefinen, wenngleich diese deutlich geringer ausfiel im Vergleich zu den Zeolithen HZSM-22 und HZSM-23. Im Falle des Zeoliths HEU-1 wurde im Gegensatz dazu eine Verringerung der Ausbeute an leichten Olefinen beobachtet. Die großen 12-Ring-Seitentaschen dieser Struktur bieten genug Raum für bimolekulare Reaktionen, unter anderem für die im bimolekularen Crackmechanismus nötigen Hydridtransfer-Reaktionen. Zudem wirken diese Seitentaschen als "trapping cages". Größere Produkte werden zwar gebildet, diese können den Zeolith durch die deutlich kleineren 10-Ring-Poren aber nicht mehr verlassen und verbleiben daher als Koksablagerung in den Seitentaschen. Letztendlich führte dies zu einer äußerst zügigen Desaktivierung des Katalysators bei den durchgeführten Laufzeitmessungen. Allgemein stellt die deutlich schneller fortschreitende Desaktivierung der eindimensionalen Porensysteme von Zeolith HZSM-22 und Zeolith HZSM-23 einen Nachteil dar gegenüber dem laufzeitstabileren Zeolith HZSM-5 mit seinem dreidimensionalen Porensystem. Dennoch konnte durch die engere Porenarchitektur der eindimensionalen Porensysteme letztendlich eine deutliche Steigerung der Ausbeute an leichten Olefinen bei einer vergleichbaren Aktivität beobachtet werden.
Im zweiten Teil dieser Arbeit wurde der Einfluss des n(Si)/n(Al)-Verhältnisses untersucht und damit verbunden auch die Anzahl an aktiven Zentren im Zeolith. Dabei wurden Zeolith HZSM-22, welcher sich in der Untersuchung unterschiedlicher Porenarchitekturen als bester Katalysator herausstellte sowie Zeolith HZSM-5 als Referenz in unterschiedlichen n(Si)/n(Al)-Verhältnissen von 25 bis 100 synthetisiert. Es zeigte sich, dass die Aktivität für Zeolith HZSM-5 mit steigendem n(Si)/n(Al)-Verhältnis zwar leicht abnimmt, der Zeolith aber selbst mit niedrigerem Aluminiumgehalt noch eine hohe Aktivität aufweist. Zusätzlich stieg die Selektivität zu leichten Olefinen mit steigendem n(Si)/n(Al)-Verhältnis kontinuierlich an, wohingegen die Selektivität zu Aromaten deutlich zurückging. Somit ergab sich ein Optimum im n(Si)/n(Al)-Verhältnis für eine maximale Ausbeute an Propen. Im vorliegenden Fall befand sich dieses bei ca. 76. Im Falle von Zeolith HZSM-22 wurde ein stärkerer Rückgang der Aktivität mit sinkendem Aluminiumgehalt beobachtet. Dies führte zu einem deutlichen Rückgang der Ausbeuten an Ethen und Propen. Im Gegensatz dazu blieb die Ausbeute an Butenen in einem gewissen n(Si)/n(Al)-Bereich trotz des sinkenden Umsatzes annähernd konstant. Aufgrund des deutlichen Rückgangs der Aktivität mit steigendem n(Si)/n(Al)-Verhältnis kann festgehalten werden, dass Zeolith HZSM-22 die höchste Ausbeute an leichten Olefinen mit den niedrigsten hier untersuchten n(Si)/n(Al)-Verhältnissen von 26 bzw. 35 erbrachte.
Im dritten Teil dieser Arbeit wurden verschiedene Methoden zur Variation der Kristallitgröße für Zeolith HZSM-22 untersucht sowie der Einfluss der sich daraus ergebenden unterschiedlichen Morphologie auf das katalytische Cracken. Durch Variation der Base (engl. "Mineralizer"), des eingesetzten Templates, der Kristallisationsbedingungen sowie durch die Verwendung von Triethanolamin als keimbildungshemmendem Additiv (engl. "nucleation suppressing agent") konnte Zeolith HZSM-22 in n(Si)/n(Al)-Verhältnissen von 30 und 100 mit unterschiedlichen Kristallitgrößen von <0,5 µm bis >10 µm synthetisiert werden. Die Charakterisierung ergab Hinweise darauf, dass die unterschiedlichen Modifikationen der Synthese Einfluss auf die relative Verteilung des Aluminiums auf die kristallographisch unterschiedlichen T-Positionen im Zeolith haben können. Eine möglicherweise ebenso vorliegende inhomogene Verteilung des Aluminiums im Zeolithkristallit (engl. "Zoning") konnte dabei ebenfalls nicht ausgeschlossen werden. Grundsätzlich zeigten die größeren Kristallite eine schnellere Desaktivierung des Katalysators gegenüber den kleineren Kristalliten. Hervorgerufen wird dies unter anderem durch die geringere spezifische äußere Oberfläche und damit verbunden der geringeren Anzahl an Poreneingängen pro Masse an Katalysator. Dadurch wirkte sich die Blockierung der Poreneingänge durch Ablagerungen an Koks deutlicher auf die Abnahme der Aktivität aus. Trotz teilweise unterschiedlicher Aktivität zeigten alle Katalysatoren eine vergleichbare Selektivität für die verschiedenen Produkte. Ein signifikanter Einfluss der Kristallitgröße auf die Produktverteilung konnte nicht beobachtet werden. Tendenziell schienen größere Kristallite aber eine höhere Selektivität für Aromaten aufzuweisen, was sich durch eine gestiegene Verweilzeit innerhalb des Zeoliths aufgrund der längeren Diffusionswege erklären lässt. Mögliche Folgereaktionen der gebildeten Olefine werden scheinbar durch die gestiegene Verweilzeit im Katalysator gefördert.
Im letzten Teil dieser Arbeit wurde der Einfluss einer Imprägnierung des Zeoliths mit Phosphor auf die Aktivität und Selektivität von HZSM-22 und HZSM-5 untersucht. Hierbei lag der Fokus auf der Auswirkung einer Imprägnierung mit Phosphor auf die Aktivität und Selektivität der Katalysatoren zu Beginn ihrer Verwendung, das heißt als frisch eingesetzter Katalysator. Für Zeolith HZSM-5 zeigte sich, dass bis zu einer gewissen Beladung mit Phosphor die Aktivität des Katalysators größtenteils erhalten blieb. Zeitgleich stieg die Selektivität zu leichten Olefinen deutlich an, während die Selektivität zu Aromaten abnahm. Erst bei höheren Beladungen verringerte sich die Aktivität zusehends und damit auch die Ausbeute an leichten Olefinen. Grund hierfür ist die teilweise Dealuminierung des Zeoliths durch die eingebrachten Phosphatgruppen. Diese wurde insbesondere mittels 27Al-MAS-NMR-Spektroskopie erfasst, welche die massive Abnahme tetraedrisch-koordinierten Aluminiums bei steigender Beladung mit Phosphor anzeigt. Es ist aus der Literatur bekannt, dass je nach gewähltem n(Si)/n(Al)-Verhältnis ein Optimum an Aktivität und Selektivität bei einer bestimmten Beladung mit Phosphor zu erwarten ist. Im vorliegenden Fall mit n(Si)/n(Al) = 30 lag dieses im Bereich von 2 Gew.-% Phosphor. Im Falle von Zeolith HZSM-22 zeigte die Charakterisierung, dass selbst bei einer relativ geringen Beladung mit 0,5 bzw. 1 Gew.-% Phosphor offenbar die Poreneingänge des Zeoliths durch die eingebrachten Phosphatgruppen bereits weitgehend blockiert bzw. stark verengt wurden. Dies ging insbesondere aus der durchgeführten Stickstoff-Physisorption (BET) hervor, welche deutlich gesunkene spezifische Oberflächen und spezifische Porenvolumina für die modifizierten Katalysatoren ergaben. Sowohl die Pulver-Röntgendiffraktogramme als auch die Analyse durch MAS-NMR-Spektroskopie zeigte, dass die modifizierten Katalysatoren Großteils in ihrer Struktur erhalten blieben. Jedoch verdeutlichten die 27Al-MAS-NMR-Spektren auch hier eine zunehmende Dealuminierung des Zeoliths mit steigender Phosphorbeladung. Die Blockierung bzw. Verengung der Poreneingänge sorgte aufgrund des eindimensionalen Porensystemes für einen deutlichen Rückgang der Aktivität durch die P-Modifikation und damit verbunden auch der Ausbeute an leichten Olefinen. Für beide untersuchten Zeolithe HZSM-5 und HZSM-22 zeigte der Vergleich der Ergebnisse mit den jeweiligen Ergebnissen aus der Untersuchung verschiedener n(Si)/n(Al)-Verhältnisse, dass bei vergleichbaren Umsätzen die P-modifizierten und die nicht-modifizierten Katalysatoren ähnliche Produktverteilungen aufwiesen. Die veränderte Selektivität durch die Imprägnierung mit Phosphor scheint folglich zu einem gewissen Teil auch auf der niedrigeren Aktivität und der sinkenden Anzahl an Aluminium-T-Positionen bzw. aktiver Zentren zu basieren. Jedoch scheint auch die veränderte Säurestärke und die Verringerung des im Zeolith zur Verfügung stehenden Raumes durch die sperrigen Phosphatgruppen einen zusätzlichen Effekt auf die Produktverteilung zu haben.
Transversales Imprägnierverhalten textiler Verstärkungsstrukturen für Faser-Kunststoff-Verbunde
(2017)
Bei Harzinjektionsverfahren wird eine trockene Faserstruktur mit einem reaktiven
Harzsystem imprägniert, um einen Faser-Kunststoff-Verbund herzustellen. Dabei
gewinnen Verfahren an Bedeutung bei denen die Imprägnierung hauptsächlich
transversal, also senkrecht zur Bauteil- und Textilebene, stattfindet. Sie bergen im
Vergleich zur Imprägnierung in der Ebene ein großes Potenzial zur Fließweg- und
damit Zykluszeitreduktion. Allerdings behindern strömungsinduzierte Textildeformationen
die volle Ausschöpfung dieses Potenzials. Im Rahmen der Arbeit wurde ein
neues Messsystem entwickelt, welches die gezielte Untersuchung des transversalen
Imprägnierverhaltens von Textilien ermöglicht. Erstmalig wurde eine Dickenpermeabilitätsmessung
mit einer simultanen Echtzeiterfassung der strömungsinduzierten
Textilkompaktierung kombiniert. So konnte das Textilverhalten prozessnah untersucht
werden. Mit dem neuen Messsystem wurden anhand exemplarischer Textilien
(Glasfasergewebe und –gelege) zahlreiche Einflüsse auf das transversale Imprägnierverhalten
identifiziert. Diese ergeben sich aus dem Prozess (z. B. Injektionsdruck),
der Textilarchitektur (z. B. Garntiter) und dem Preforming (z. B. Bindern).
Vor allem konnte gezeigt werden, dass eine Erhöhung des Injektionsdrucks, aufgrund
von Textildeformationen, nicht zwingend zu einer Imprägnierzeitreduktion
führt. Unkenntnis über das transversale Imprägnierverhalten von Textilien stellt daher
ein großes Risiko für die Prozesseffizienz und –robustheit dar, denn meist werden
nicht die zykluszeitoptimalen Parameter gewählt. Hingegen kann entsprechendes
Know-How zur gezielten Parameterfestlegung genutzt werden. Die Parameterstudie
zeigt weiterhin auf, wie das transversale Imprägnierverhalten durch Anpassung der
Textilarchitektur oder gezieltes Preforming hinsichtlich einer minimalen Imprägnierzeit
optimiert werden kann. Die Ergebnisse wurden in Richtlinien für die Definition
von Prozess- und Materialparametern sowie für die Nutzung von Preformingtechnologie
für transversale Imprägnierprozesse zusammengefasst. Abschließend wurden
die entwickelten Richtlinien validiert, indem exemplarisch ein für Strukturbauteile typischer
Lagenaufbau anhand der Richtlinien angepasst wurde, um ihn hinsichtlich
des transversalen Imprägnierverhaltens zu optimieren.
In den vergangenen Jahren hat sich der Bereich der Nanotechnologie zu einem fachübergreifenden Gebiet entwickelt. Nanopartikel besitzen aufgrund ihrer Größe und einem hohen Oberfläche zu Volumen Verhältnis besondere chemische und physikalische Eigenschaften, die sich von denen größerer Partikel unterscheiden. Das Forschungsinteresse der letzten Zeit liegt insbesondere auf deren magnetischem Charakter. Damit verbunden sind auch vielseitige industrielle Einsatzmöglichkeiten. Magnetische, nanostrukturierte Materialien werden in Bereichen wie der Chemie, der Physik sowie der Biomedizin untersucht und angewendet.
In der Chemie werden die Herstellung und die Untersuchung der katalytischen Eigenschaften von Nanopartikeln intensiv erforscht. Zu den zahlreichen Synthesemethoden von nanoskaligen Partikeln zählen zum Beispiel die thermische Zersetzung, die Mitfällung oder die Hydrothermalsynthese. Die katalytische Aktivität und die Selektivität dieser Materialien werden von der Partikelgröße, der Morphologie und der Anzahl an aktiven Oberflächenzentren beeinflusst. Die Entwicklung von stabilen Katalysatoren ist entscheidend für viele Anwendungen. Zur Stabilisierung und zum Schutz gegen Oxidation und Erosion werden oberflächenaktive Substanzen (z. B. Polymere, Tenside), anorganische oder poröse Trägermaterialien (Siliciumdioxid, Zeolithe) eingesetzt. Ein wichtiges Ziel für nachhaltige Prozesse sind leicht abtrennbare und wiederzuverwendende Nanopartikel. Dies ermöglichen zum Beispiel Kern-Schale-Katalysatoren, die eine katalytisch aktive Schale (Rh, Pt, Au) und einen magnetischen Kern aus Fe, Co, Ni besitzen. Verschiedene magnetische Nanopartikel wurden in zahlreichen Reaktionen (z. B. C-C-Kupplungen, Hydrierung von Olefinen, Hydroformylierung) getestet und zeichneten sich als katalytisch aktive und stabile Katalysatoren aus.
Im Bereich der Physik werden die magnetischen und die elektronischen Eigenschaften der Nanopartikel untersucht. Die magnetischen Einheiten werden im Forschungsgebiet der Informationstechnologie als Nanobauteile in Speichermedien eingesetzt. Die Verwendung basiert auf der Nutzung des ferromagnetischen Verhaltens einzelner Nanomaterialien in Speichereinheiten. Bei der Herstellung werden die elektrischen, optischen und magnetischen Eigenschaften der Nanopartikel beeinflusst. So tritt mit abnehmender Partikelgröße ein Übergang vom Ferromagnetismus zum Paramagnetismus auf. Außerdem beginnt die Magnetisierungsrichtung zeitlich und räumlich zu fluktuieren und die magnetisch
gespeicherten Informationen gehen verloren. Die Miniaturisierung der Komponenten (z. B. Computerchips) bei gleichzeitiger Vergrößerung der Datenspeicherdichte ist sehr wichtig. Einer der vielversprechenden Zusammensetzungen dafür sind FePt-Partikel, die auch nach Entfernen des externen elektrischen Feldes ihre Magnetisierungsrichtung nicht sofort verlieren.
Im biomedizinischen Bereich eröffnen magnetische Nanopartikel ebenfalls neue Möglichkeiten. Sie werden als spezielle Kontrastmittel für die bildgebenden Verfahren der Magnetresonanztomografie genutzt. Außerdem können funktionalisierte Partikel als Transportmittel für Wirkstoffe bei einer Krebstherapie eingesetzt werden. Eine gezielte Positionierung des mit Wirkstoff modifizierten magnetischen Nanopartikels im Körper ist dabei möglich. Die Bioverträglichkeit der Materialien wird durch eine Verkapselung der Nanopartikel mit biologisch nicht belastenden, nicht toxischen Substanzen (z. B. Polyvinylalkohol, Polyethylenglykol, Stärke oder Dextran) erreicht.
Eine Materialklasse, die Wissenschaft und Technologie vereinigt und die in den letzten Jahren immer mehr an Interesse gewonnen hat, stellen die Heusler-Verbindungen dar. Dies sind ternäre intermetallische Zusammensetzungen der Form X2YZ, die im Jahr 1903 von Fritz Heusler entdeckt und beschrieben wurden. X und Y stehen meistens für Übergangmetalle, wohingegen Z häufig ein Element der III. – V. Hauptgruppe darstellt. Eine Kombination der unterschiedlichen charakteristischen Merkmale (halbmetallischer Charakter, hohes magnetisches Moment, hohe Curie-Temperatur) in einer Verbindung ermöglicht vielseitige Anwendungen dieser Materialien. Die Eigenschaften der Heusler-Verbindungen können durch die Veränderung der Zusammensetzung (Elementenaustausch) oder durch die Variation der Stöchiometrie der kombinierten Elemente beeinflusst werden. Unter den Heusler-Materialien sind halbmetallische Ferromagneten, ferrimagnetische Zusammensetzungen, Halbleiter und Supraleiter vertreten. Die X2YZ-Kompositionen werden industriell als magneto-optische Materialien, als Formgedächtnislegierungen, in thermoelektrischen Elementen oder als topologische Isolatoren verwendet. Das
Augenmerk der Spintronik liegt bei der hohen Spinpolarisation der Heusler-Verbindungen. Effiziente Bauelemente mit einem hohen Riesenmagnetwiderstand oder einem hohen Tunnelmagnetwiderstand werden in Festplattenleseköpfen von Computern und in magnetischen Sensoren eingebaut. Mit den ersten katalytischen Experimenten an ternären intermetallischen Materialien von Hedvall und Hedin im Jahr 1935 wurde auf ein weiteres Forschungs- und Einsatzbereich für Heusler-Verbindungen hingewiesen.
For many years, most distributed real-time systems employed data communication systems specially tailored to address the specific requirements of individual domains: for instance, Controlled Area Network (CAN) and Flexray in the automotive domain, ARINC 429 [FW10] and TTP [Kop95] in the aerospace domain. Some of these solutions were expensive, and eventually not well understood.
Mostly driven by the ever decreasing costs, the application of such distributed real-time system have drastically increased in the last years in different domains. Consequently, cross-domain communication systems are advantageous. Not only the number of distributed real-time systems have been increasing but also the number of nodes per system, have drastically increased, which in turn increases their network bandwidth requirements. Further, the system architectures have been changing, allowing for applications to spread computations among different computer nodes. For example, modern avionics systems moved from federated to integrated modular architecture, also increasing the network bandwidth requirements.
Ethernet (IEEE 802.3) [iee12] is a well established network standard. Further, it is fast, easy to install, and the interface ICs are cheap [Dec05]. However, Ethernet does not offer any temporal guarantee. Research groups from academia and industry have presented a number of protocols merging the benefits of Ethernet and the temporal guarantees required by distributed real-time systems. Two of these protocols are: Avionics Full-Duplex Switched Ethernet (AFDX) [AFD09] and Time-Triggered Ethernet (TTEthernet) [tim16]. In this dissertation, we propose solutions for two problems faced during the design of AFDX and TTEthernet networks: avoiding data loss due to buffer overflow in AFDX networks with multiple priority traffic, and scheduling of TTEthernet networks.
AFDX guarantees bandwidth separation and bounded transmission latency for each communication channel. Communication channels in AFDX networks are not synchronized, and therefore frames might compete for the same output port, requiring buffering to avoid data loss. To avoid buffer overflow and the resulting data loss, the network designer must reserve a safe, but not too pessimistic amount of memory of each buffer. The current AFDX standard allows for the classification of the network traffic with two priorities. Nevertheless, some commercial solutions provide multiple priorities, increasing the complexity of the buffer backlog analysis. The state-of-the-art AFDX buffer backlog analysis does not provide a method to compute deterministic upper bounds
iiifor buffer backlog of AFDX networks with multiple priority traffic. Therefore, in this dissertation we propose a method to address this open problem. Our method is based on the analysis of the largest busy period encountered by frames stored in a buffer. We identify the ingress (and respective egress) order of frames in the largest busy period that leads to the largest buffer backlog, and then compute the respective buffer backlog upper bound. We present experiments to measure the computational costs of our method.
In TTEthernet, nodes are synchronized, allowing for message transmission at well defined points in time, computed off-line and stored in a conflict-free scheduling table. The computation of such scheduling tables is a NP-complete problem [Kor92], which should be solved in reasonable time for industrial size networks. We propose an approach to efficiently compute a schedule for the TT communication channels in TTEthernet networks, in which we model the scheduling problem as a search tree. As the scheduler traverses the search tree, it schedules the communication channels on a physical link. We presented two approaches to traverse the search tree while progressively creating the vertices of the search tree. A valid schedule is found once the scheduler reaches a valid leaf. If on the contrary, it reaches an invalid leaf, the scheduler backtracks searching for a path to a valid leaf. We present a set of experiments to demonstrate the impact of the input parameters on the time taken to compute a feasible schedule or to deem the set of virtual links infeasible.
Kurzusammenfassung
Molke gilt als Rohstoff, der ein in großen Mengen anfallendes Nebenprodukt der Käseindustrie ist. In den vergangenen Jahrzehnten wurde die wirtschaftliche Nutzung durch Wertschöpfung dieses kostengünstigen aber wertvollen Produktes intensiviert. Zu den drei wichtigsten Bestanteilen von Molke gehören Mineralien, Eiweiß und Lactose. Gerade der hohe physiologische Nährwert von Molke bei fast vollständiger Abwesenheit von Fett legt eine Anwendung in der Lebensmittelindustrie nahe. So werden inzwischen Bestandteile von Molke in Süßigkeiten, Diätetika, Tablettenfüll-stoffen, Verdickungsmitteln und Säuglingsernährung verwendet.
Vor der Verwendung von mikrobiellem Lab, welcher keine Spätblähung mehr verursacht, gab es ein Problem mit Nitratbelastung in der Molke durch Zugabe von Kalium- bzw. Natriumnitrat während der Käseherstellung zur Inhibition von Fehlgärungen. Bei Kleinkindern droht Lebensgefahr durch innere Erstickung, da das aus Nitrat gebildete Nitrit (durch Bakterien der Darmflora) Hämoglobin oxidiert. Daher wurden die Molkereien gezwungen sich mit dem Thema zu beschäftigen, um dieses Problem zu lösen. Für Erwachsene ist dies aber ungefährlich.
In dieser Arbeit wurde die Denitrifikation von Molkekonzentrat mit nativen Zellen und mit immobilisierten Zellen von Paracoccus denitrificans durchgeführt. Die indirekte Anwendung von dem Bakterium zur Nitratentfernung aus Molkekonzentrat befasst sich mit der Integration der Regeneration des Eluenten in den Prozess nach dem chromatographischen Verfahren. Das im Eluenten enthaltene Nitrat wird auch in Gegenwart von Natriumchlorid über mehrere Zwischenstufen zu elementarem Stickstoff reduziert. Somit wird der Eluent für eine weitere Regeneration wiederverwendbar und das Abwasseraufkommen des Gesamtprozesses stark reduziert. Eine kontinuierliche Denitrifikation des Eluenten mit einer Natriumchlorid-konzentration von 35 g/L wurde durch native Zellen realisiert. Als geeignete Denitrifikationsbedingungen wurden eine Temperatur von 37 °C, ein pH-Wert von 7,5 und die Zugabe von Acetat als Elektronendonor ermittelt.
Kontinuierliche Denitrifikationen mit nativen Zellen wurden in einer Laboratoriums- und Pilotanlage in Bioreaktoren mit einem Volumen von 5 L bzw. 25 L durchgeführt. Die Abtrennung der nativen Zellen zur Rückführung des Eluenten in die chroma-tographische Stufe erfolgte durch Cross-Flow-Filtration. Die vollständige Entfernung von Nitrat in Molkekonzentrat ist bis zu 450 Liter pro Tag im Pilotmaßstab möglich.
Im Falle immobilisierter Zellen wird die Zellabtrennung vereinfacht, da die Immobilisate 1,5-5 mm groß sind. Die Immobilisate konnten somit durch ein einfaches grobmaschiges Sieb zurückgehalten werden. Die Immobilisierung der Mikroorganis-men Paracoccus denitrificans wurde mit Hilfe des LentiKats® der Fa. genialLab GmbH hergestellt. Mit dem immobilisierten Verfahren wurde Nitrat im Eluent bzw. direkt in Molkekonzentrat denitrifiziert. Die Entfernung von Nitrat im Eluent ist bei gleichen Bedingungen wie mit nativen Zellen möglich. Allerdings zeichnen sich immobilisierte Mikroorganismen durch eine geringere Aktivität im Vergleich zu nativen Zellen aufgrund der Diffusionslimitierung, aus. So wurde durch immobilisierte Zellen eine Abbaugeschwindigkeit von v = 22,2 mgNitrat h-1∙g-1BTM im kontinuierlichen Betrieb erreicht, während durch Verwendung nativer Zellen Abbauraten von bis zu 32,4 mgNitrat h-1∙g-1BTM realisiert werden konnten. Der direkte Nitratabbau im Molkekonzentrat wurde bei Temperaturen von 10 °C bis zu 30 °C durchgeführt. Nach 1 h bei 30 °C konnte 90 mg/L Nitratkonzentrat vom Molkekonzentrat entfernt werden. Eine Akkumulierung von Nitrit ist nicht aufgetreten. Bei niedrigeren Temperaturen wurde der Nitratabbau geringer. Bei einer Temperatur von 10 °C ist es nicht mehr möglich Nitrat abzubauen. Die Untersuchung der wichtigen Inhaltstoffe, wie Protein, Mineralstoffe, Lactose, Glucose und Galactose im Molkekonzentrat wurde nach der Denitrifikation durchgeführt. Eine Änderung der Konzentration konnte nicht nachgewiesen werden.
Schlagworte: Molke, Molkeproteine, Denitrifikation, Nitrat, Immobilisierung, Paracoccus denitrificans
Das Methodenrepertoire der Stadt- und Umweltplanung befindet sich insbesondere durch den zunehmenden Einsatz von Geoweb-Methoden insgesamt in einem Umbruch hin zu einer „Smart urban Crowdsourcing“-Wissensgesellschaft [STREICH 2011: 236 F]. Kontinuierlich nimmt die An-zahl zur Verfügung stehenden Geoweb-Techniken zu, die auf ihren Einsatz in der Stadt- und Umweltplanung warten, sich in planerische Methoden integrieren oder zu solchen weiterentwickeln lassen. Am Beispiel des Verhältnisses von Planern gegenüber Bürgern werden die Veränderungen des planerischen Aufgabengebietes besonders dadurch deutlich, dass es sich hierbei nicht mehr um den reinen Transport von Informationen und gegebenenfalls eine Hilfestellung bei der Übersetzung dieser in einem klassischen Sender-Empfänger-Prinzip handelt. In einer, durch soziale Netzwerke und mobile Endgeräte, zunehmend digitalisierten Welt, ist es theoretisch möglich, dass jedem Bürger zu jeder Zeit an jedem Ort jede beliebige In-formation zum Abruf bereit steht. Auf diese Weise kann sich der Bürger informieren, seine eigene Meinung bilden und diese teilen. Da die ange-sprochenen mobilen Endgeräte zusätzlich mit Verortungstechnik ausgestat-tet sind und die geteilten Informationen um Angaben eines räumlichen Bezuges in Form von Geo-Koordinaten ergänzt werden können, bekommen die auf diesem Wege erstellten Datensätze auch zunehmend Aufmerksamkeit von Seiten der Raumplanung.
Durch die neu verfügbaren Techniken des Geowebs verändert sich auch das Aufgabengebiet von Stadt- und Umweltplanern: Um den jeweiligen „Stand der Technik“ hinsichtlich einer „smarten Planung“ [EXNER 2013] einsetzen zu können, werden sich Planer heute und auch zukünftig kontinuierlich über neue Techniken informieren müssen, diese auf ihre Einsatzpotentiale untersuchen, bestehende Planungsmethoden ergänzen und zum Einsatz bringen. Die Herausforderungen liegen dabei in der Prüfung der Geoweb-Techniken, deren Fortentwicklung sowie Integration in planerische Methoden. Beim Einsatz dieser neuen Methoden steht Generierung eines Mehrwertes für die von einer Planung betroffenen Menschen und die Planer selbst im Mittelpunkt. Mit dem Smartphone steht ein Werkzeug zur Verfügung, welches die Grundlage eines jeden, aktuell in Wissenschaft und Wirtschaft formulierten, „Smart-City“-Ansatzes bilden kann und zu dessen Umsetzung benötigt wird.
Nach einer theoretischen Behandlung des Aufgabengebietes der Stadt- und Umweltplanung und des Planungssystems in Deutschland, geht die vorliegende Arbeit zunächst auf die Genealogie des Internets und dessen Veränderungen der letzten Jahre ein. Neben der Entwicklung des Compu-tereinsatzes in der räumlichen Planung werden die neuen Möglichkeiten durch die Verbreitung von Smartphones behandelt. Außer den Potentialen wie der Erstellung raumbezogener Informationen durch den Einsatz der mobilen Endgeräte werden auch die dadurch verstärkt aufkommenden Themen des Datenschutzes und des Datenbewusstseins betrachtet.
Die Techniken und Methoden lassen sich den klassischen Aufgabenbereichen von Stadt- und Umweltplanern zuordnen. In der vorliegenden Arbeit erfolgt dieser Ansatz anhand der vier Bereiche der Strukturplanung, der Raumsensorik, der Gestaltungsplanung und den Kommunikationsplattformen entsprechend.
Das Kapitel zum Aufgabengebiet der Strukturplanung wird bei der zugehörigen Analyse nach den geometrischen Struktureinheiten punktueller, linien- und flächenhafter Informationen unterteilt. Der Bereich der Raumsensorik behandelt neben punktuell im Raum installierten Sensoren (wie z.B. Klimasensoren), die Ansätze der Humansensorik bzw. des „Menschen als Sensor im Raum“ [GOODCHILD 2007, RESCH ET AL. 2011, EXNER ET AL. 2012] und die Möglichkeiten optischer Sensortechniken, die mit unbemannten Luftfahrtgeräten nun auch als „fliegendes Auge“ zum Monitoring des Stadt- und Umweltraumes zum Einsatz gebracht werden können. Im klassischen Themengebiet der Gestaltungsplanung werden die Potentiale von virtuellen 3D-Welten in den Bereichen 3D-(Stadt-)Modelle, 360-Grad-Videos, Augmented Reality und Virtual Reality behandelt. Das den Hauptteil abschließende Kapitel rückt dagegen die Aspekte Information und Kommunikation noch einmal explizit in den Vordergrund. Hierbei wird unter anderem der Gedanke eines City-Dashboards hinsichtlich des damit zu erzielenden Mehrwertes fokussiert.
Neben der Erweiterungen hinsichtlich des Aufgabengebietes von Planern ändert sich auch dessen Rollenverständnis: In der Wissensgesellschaft befindet sich die Rolle des Planers zunehmend im Wandel und dieser nimmt eher die Rolle eines „Anwaltes in raumbezogenen Fragen“ der Bürger ein, berät diese, hilft bei der Formulierung deren Anliegen (beispielsweise auch durch die Zurverfügungstellung geeigneter Plattformen und Werkzeuge) und bringt deren Belange im Planungsprozess ein [STREICH 2014:167].
Die Auswirkungen auf das Selbstverständnis des Berufsbildes des Planers werden in einem abschließenden Fazit noch einmal aufgegriffen und zukünftige Themen im Ausblick und weiteren Forschungsbedarf thematisiert und skizziert.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
This paper presents a case study of duty rostering for physicians at a department of orthopedics and trauma surgery. We provide a detailed description of the rostering problem faced and present an integer programming model that has been used in practice for creating duty rosters at the department for more than a year. Using real world data, we compare the model output to a manually generated roster as used previously by the department and analyze the quality of the rosters generated by the model over a longer time span. Moreover, we demonstrate how unforeseen events such as absences of scheduled physicians are handled.
Eisen-Schwefel-Cluster bilden eine Klasse der vielseitigsten anorganischen Cofaktoren in der Natur und sind in allen Domänen des Lebens zu finden. Sie erfüllen vielfältige Aufgaben in verschiedensten Bereichen, wie beispielsweise Elektronentransport, regulatorische Funktionen oder enzymatische Aktivität. Da verschiedene Krankheiten auf Defekte von Eisen-Schwefel-Proteinen oder deren Biogenese zurückgeführt werden können, ist es von größtem Interesse unbekannte Fe/S Proteine zu charakterisieren und ihre Wirkungsweisen zu erforschen.
In den beiden häufigsten Clustertypen (der rhombische [2Fe-2S]- und der kubische [4Fe 4S] Cluster) werden zur Koordination der Eisenionen neben anorganischen Sulfidionen in der Regel vier Cysteine des Proteins verwendet. Daneben existieren jedoch auch Proteine, in denen andere Aminosäuren als Liganden fungieren.
Für das Rieske-Protein, welches in dieser Arbeit als Referenzprotein fungierte, wurden Mössbauerspektren bei drei passenden pH-Werten aufgenommen. Dadurch konnten zum ersten Mal die drei verschiedenen Zustände des Clusters mit diprotonierten, monoprotonierten bzw. deprotonierten Histidinen mittels Mössbauerspektroskopie untersucht und die entsprechenden Parameter ermittelt werden.
Im Hauptteil dieser Arbeit wurden die beiden weitgehend unerforschten Proteine Apd1 und Aim32 aus Saccharomyces cerevisiae kloniert, heterolog in E. coli exprimiert und isoliert. Durch eine anschließende Charakterisierung mittels UV/Vis-, ESR- und Mössbauerspektroskopie konnte der enthaltene [2Fe 2S] Cluster identifiziert und eine Koordination durch zwei Cysteine und zwei Histidine festgestellt werden, wobei die Proteine keine Rieske-Faltung besitzen. Nach Entdeckung des hochkonservierten HXGGH-Motivs, welches an ähnlicher Stelle zum dritten und vierten Cystein in der Primärstruktur von TLF´s (thioredoxin-like ferredoxins) vorliegt, wurden Mutationen dieser Histidine durchgeführt. In Untersuchungen an diesen Mutanten konnten Änderungen in den UV/Vis , ESR- und Mössbauerspektren der variierten Fe/S Cluster beobachtet werden. Bei der pKS-Wert-Bestimmung wurde nach jeder Mutation der vorhandenen Histidine zu Cysteinen, jeweils ein (De-)Protonierungsschritt weniger detektiert. Ebenso zeigten die Mutanten niedrigere Redoxpotentiale als der Wildtyp, dessen Redoxpotential pH-abhängig ist. Es handelt sich hierbei also um eine neuartige Klasse von Proteinen, die eine C-terminale Domäne mit einer Faltung ähnlich zu TLF´s besitzt, die aber gleichzeitig ein Rieske-artiges Zentrum beinhaltet. Eine Funktion bei Elektronentransfers liegt deshalb nahe, allerdings ist dazu noch nichts genaueres bekannt. Die Identifikation der genauen Wirkweise sowie der Reaktionspartner der beiden Proteine ist also weiterhin ein spannendes Forschungsgebiet. Ebenso wird der Nachweis über die Art der Bindung der Histidine durch eine Kristallstruktur wichtige Erkenntnisse über die Proteinklasse liefern.
The cytosolic Fe65 adaptor protein family, consisting of Fe65, Fe65L1 and Fe65L2 is involved in many intracellular signaling pathways linking via its three interaction domains a continuously growing list of proteins by facilitating functional interactions. One of the most important binding partners of Fe65 family proteins is the amyloid precursor protein (APP), which plays an important role in Alzheimer Disease.
To gain deeper insights in the function of the ubiquitously expressed Fe65 and the brain enriched Fe65L1, the goal of my study was I) to analyze their putative synaptic function in vivo, II) to examine structural analysis focusing on a putative dimeric complex of Fe65, III) to consider the involvement of Fe65 in mediating LRP1 and APP intracellular trafficking in murine hippocampal neurons. By utilizing several behavioral analyses of Fe65 KO, Fe65L1 KO and Fe65/Fe65L1 DKO mice I could demonstrate that the Fe65 protein family is essential for learning and memory as well as grip strength and locomotor activity. Furthermore, immunohistological as well as protein biochemical analysis revealed that the Fe65 protein family is important for neuromuscular junction formation in the peripheral nervous system, which involves binding of APP and acting downstream of the APP signaling pathway. Via Co-immunoprecipitation analysis I could verify that Fe65 is capable to form dimers ex vivo, which exclusively occur in the cytosol and upon APP expression are shifted to membrane compartments forming trimeric complexes. The influence of the loss of Fe65 and/or Fe65L1 on APP and/or LRP1 transport characteristics in axons could not be verified, possibly conditioned by the compensatory effect of Fe65L2. However, I could demonstrate that LRP1 affects the APP transport independently of Fe65 by shifting APP into slower types of vesicles leading to changed processing and endocytosis of APP.
The outcome of my thesis advanced our understanding of the Fe65 protein family, especially its interplay with APP physiological function in synapse formation and synaptic plasticity.
We continue in this paper the study of k-adaptable robust solutions for combinatorial optimization problems with bounded uncertainty sets. In this concept not a single solution needs to be chosen to hedge against the uncertainty. Instead one is allowed to choose a set of k different solutions from which one can be chosen after the uncertain scenario has been revealed. We first show how the problem can be decomposed into polynomially many subproblems if k is fixed. In the remaining part of the paper we consider the special case where k=2, i.e., one is allowed to choose two different solutions to hedge against the uncertainty. We decompose this problem into so called coordination problems. The study of these coordination problems turns out to be interesting on its own. We prove positive results for the unconstrained combinatorial optimization problem, the matroid maximization problem, the selection problem, and the shortest path problem on series parallel graphs. The shortest path problem on general graphs turns out to be NP-complete. Further, we present for minimization problems how to transform approximation algorithms for the coordination problem to approximation algorithms for the original problem. We study the knapsack problem to show that this relation does not hold for maximization problems in general. We present a PTAS for the corresponding coordination problem and prove that the 2-adaptable knapsack problem is not at all approximable.
Ein Flüchtlingscamp als Raum konstituierter Sichtbarkeit: Shatila. 1949 für Vertriebene der nördlichen Palästinensergebiete erbaut, in den südlichen Vororten der libanesischen Hauptstadt Beirut angesiedelt, Ort eines Genozids in den 80er Jahren und, in der Syrienkrise, Symbol von nationalem und internationalem gesellschaftlich-politischen Versagens, visualisiert es den tatsächlichen, aber auch mentalen Kampf der Bewohner mit der oktroyierten und begrenzten Sphäre. Die territoriale, politische und gesellschaftliche Limitierung der (mittlerweile nicht nur) palästinensischen Bevölkerung in Beirut führen zur Grundidee einer kritischen Raumforschung: Der Mikrokosmos des Camps wird als fragiler aber beständiger Ausnahmezustand wahrgenommen und dient als Untersuchungsgegenstand, um gesellschaftliche und kulturelle Prozesse in diskursive Raumbeziehungen zu setzen. Die Grundlage der Untersuchung bildet die von Foucault stark beeinflusste ‚Neue Kulturgeographie‘ und deren zweite Phase der Hinwendung zur Sichtbarkeit und Re-Materialisierung. Es wird dann ein Verbleichen von Strukturen und kartesischen Rastern zugelassen, um den geographischen Raum in unterschiedliche Systeme zu übersetzten, die sich differenzierten wissenschaftlichen Ansätzen bedienen, um so schlussendlich individuelle und kollektive Rückschlüsse über die Bedeutung von Raum in einer anthropogenen Katastrophe zu generieren.
The proliferation of sensors in everyday devices – especially in smartphones – has led to crowd sensing becoming an important technique in many urban applications ranging from noise pollution mapping or road condition monitoring to tracking the spreading of diseases. However, in order to establish integrated crowd sensing environments on a large scale, some open issues need to be tackled first. On a high level, this thesis concentrates on dealing with two of those key issues: (1) efficiently collecting and processing large amounts of sensor data from smartphones in a scalable manner and (2) extracting abstract data models from those collected data sets thereby enabling the development of complex smart city services based on the extracted knowledge.
Going more into detail, the first main contribution of this thesis is the development of methods and architectures to facilitate simple and efficient deployments, scalability and adaptability of crowd sensing applications in a broad range of scenarios while at the same time enabling the integration of incentivation mechanisms for the participating general public. During an evaluation within a complex, large-scale environment it is shown that real-world deployments of the proposed data recording architecture are in fact feasible. The second major contribution of this thesis is the development of a novel methodology for using the recorded data to extract abstract data models which are representing the inherent core characteristics of the source data correctly. Finally – and in order to bring together the results of the thesis – it is demonstrated how the proposed architecture and the modeling method can be used to implement a complex smart city service by employing a data driven development approach.
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
The present situation of control engineering in the context of automated production can be described as a tension field between its desired outcome and its actual consideration. On the one hand, the share of control engineering compared to the other engineering domains has significantly increased within the last decades due to rising automation degrees of production processes and equipment. On the other hand, the control engineering domain is still underrepresented within the production engineering process. Another limiting factor constitutes a lack of methods and tools to decrease the amount of software engineering efforts and to permit the development of innovative automation applications that ideally support the business requirements.
This thesis addresses this challenging situation by means of the development of a new control engineering methodology. The foundation is built by concepts from computer science to promote structuring and abstraction mechanisms for the software development. In this context, the key sources for this thesis are the paradigm of Service-oriented Architecture and concepts from Model-driven Engineering. To mold these concepts into an integrated engineering procedure, ideas from Systems Engineering are applied. The overall objective is to develop an engineering methodology to improve the efficiency of control engineering by a higher adaptability of control software and decreased programming efforts by reuse.
Annual Report 2017
(2017)
Congress Report 2017.09-10
(2017)
Computational simulations run on large supercomputers balance their outputs with the need of the scientist and the capability of the machine. Persistent storage is typically expensive and slow, its peformance grows at a slower rate than the processing power of the machine. This forces scientists to be practical about the size and frequency of the simulation outputs that can be later analyzed to understand the simulation states. Flexibility in the trade-offs of flexibilty and accessibility of the outputs of the simulations are critical the success of scientists using the supercomputers to understand their science. In situ transformations of the simulation state to be persistently stored is the focus of this dissertation.
The extreme size and parallelism of simulations can cause challenges for visualization and data analysis. This is coupled with the need to accept pre partitioned data into the analysis algorithms, which is not always well oriented toward existing software infrastructures. The work in this dissertation is focused on improving current work flows and software to accept data as it is, and efficiently produce smaller, more information rich data, for persistent storage that is easily consumed by end-user scientists. I attack this problem from both a theoretical and practical basis, by managing completely raw data to quantities of information dense visualizations and study methods for managing both the creation and persistence of data products from large scale simulations.
In this thesis we address two instances of duality in commutative algebra.
In the first part, we consider value semigroups of non irreducible singular algebraic curves
and their fractional ideals. These are submonoids of Z^n closed under minima, with a conductor and which fulfill special compatibility properties on their elements. Subsets of Z^n
fulfilling these three conditions are known in the literature as good semigroups and their ideals, and their class strictly contains the class of value semigroup ideals. We examine
good semigroups both independently and in relation with their algebraic counterpart. In the combinatoric setting, we define the concept of good system of generators, and we
show that minimal good systems of generators are unique. In relation with the algebra side, we give an intrinsic definition of canonical semigroup ideals, which yields a duality
on good semigroup ideals. We prove that this semigroup duality is compatible with the Cohen-Macaulay duality under taking values. Finally, using the duality on good semigroup ideals, we show a symmetry of the Poincaré series of good semigroups with special properties.
In the second part, we treat Macaulay’s inverse system, a one-to-one correspondence
which is a particular case of Matlis duality and an effective method to construct Artinian k-algebras with chosen socle type. Recently, Elias and Rossi gave the structure of the inverse system of positive dimensional Gorenstein k-algebras. We extend their result by establishing a one-to-one correspondence between positive dimensional level k-algebras and certain submodules of the divided power ring. We give several examples to illustrate
our result.
Am 30.11.2017 veranstalteten das Fachgebiet Siedlungswasserwirtschaft und tectraa, Zentrum für innovative AbWassertechnologien an der Technischen Universität Kaiserslautern die Fachtagung „Kläranlagen in der Energiewende: Faulung optimieren & Flexibilität wagen“ als gemeinsame Abschlussveranstaltung der Forschungsprojekte arrivee und ZEBRAS.
Das BMBF-Verbundprojekt „Abwasserreinigungsanlagen als Regelbaustein in intelligenten Verteilnetzen mit erneuerbarer Energieerzeugung – arrivee“ wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme ERWAS gefördert. Projektpartner waren neben dem FG Siedlungswasserwirtschaft die Wupperverbandsgesellschaft für integrale Wasserwirtschaft mbH (WiW), der Wupperverband, Becker Büttner Held (BBH), die Bergische Universität Wuppertal, die iGas energy GmbH, die Stadtwerke Radevormwald GmbH sowie die Transferstelle Bingen (TSB).
Das Projekt „Zukunftsorientierte Einbindung der Faulung und Faulgasverwertung in die Verfahrenskette der Abwasserreinigung, Schlammbehandlung und -verwertung in Rheinland-Pfalz – ZEBRAS“ wurde im Auftrag des Ministeriums für Umwelt, Energie, Ernährung und Forsten Rheinland-Pfalz (MUEEF) von FG Siedlungswasserwirtschaft und tectraa gemeinsam mit der Universität Luxemburg und der Ingenieurgesellschaft Dr. Siekmann + Partner mbH bearbeitet.
This thesis presents research studies on the fundamental interplay of diatomic molecules with transition metal compounds under cryogenic conditions. The utilized setup offers a multitude of opportunities to study isolated ions: The ions can either be generated by an ElectroSpray Ionization (ESI) source or a Laser VAPorization (LVAP) cluster ion source. The setup facilitates kinetic investigations of the ions with different reaction gases under well-defined isothermal conditions. Moreover it enables cryo InfraRed (Multiple) Photon Dissociation (IR-(M)PD) spectroscopy in combination with tunable OPO/OPA laser systems. In conjunction with density functional theory (DFT) modelling, the IR(M)-PD spectra allow for an assignment of geometric minimum structures. Furthermore DFT modelling helps to identify possible reaction pathways. Altogether the presented methods allow to gain fundamental insights into molecular structures and reactivity of the investigated systems.
The first part of this thesis focuses on the interplay of N2 with different transition metal clusters (Con+, Nin+, and Fen+) by cryo IR spectroscopy and cryo kinetics. In conjunction with DFT modelling the N2 coordination was elucidated (Con+), structures were assigned (Nin+), the concept of structure related surface adsorption behavior was introduced (Nin+), and the a first explanation for the inertness if Fe17+ was given (Fen+). Furthermore this thesis provides for a case study on the coadsorption of H2 and N2 on Ru8+ that elucidates the H migration on the Ru cluster. The last part of the thesis addresses the IR spectra of in vacuo generated [Hemin]+ complexes with N2, O2, and CO. Structures and spin states were assigned with the help of DFT modelling.
Das Feld der Anionenerkennung ist ein stets wachsendes Forschungsgebiet, auch weil eine Vielzahl biochemischer Prozesse mit negativ geladenen Substraten und Co-Faktoren verbunden sind. Da solche Prozesse in wässrigem Milieu stattfinden, sind Verbindungen von besonderem Interesse, die Anionen in Wasser zu binden vermögen. Geeignete Rezeptoren zur Erkennung von Anionen sind die im Arbeitskreis Kubik entwickelten Cyclopeptide (CPs) und Bis(cyclopeptide) (BCPs).
Da die Anionenaffinität der in der Vergangenheit untersuchten BCPs nur in wenigen ausgesuchten Lösungsmittelgemischen und nie in reinem Wasser charakterisiert wurde, wurde im ersten Teil meiner Promotion ein BCP-Derivat entwickelt, mit dem kalorimetrische Bindungsstudien in einem breiten Spektrum von Lösungsmittelgemischen möglich waren. Die hierbei erhaltenen thermodynamischen Daten sollten Informationen über die Prinzipien geben, die der Anionenaffinität dieser Verbindungen zugrunde liegen. Es wurde zunächst die Synthese des bereits in meiner Diplomarbeit untersuchten BCP1 optimiert, dessen Wasserlöslichkeit durch insgesamt sechs Triethylenglycolreste vermittelt wird. Dieser Rezeptor erwies sich nach geeigneter Isolation ausreichend löslich, um Lösungen in Wasser mit einer Konzentration von bis zu 0.25 mM herzustellen. Es wurde ebenfalls das BCP2 mit einer zusätzlichen solubilisierenden Gruppe im Vergleich zu BCP1 synthetisiert, welches in bis zu 10 mM Konzentrationen in Wasser löslich ist. Mit beiden Rezeptoren wurden in Wasser, verschiedenen wässrigen Lösungsmittelgemischen und reinen organischen Lösungsmitteln Bindungsstudien durchgeführt, wodurch quantitative und qualitative Einblicke erhalten wurden, wie die Solvatisierung des Anions und des Rezeptors in den verschiedenen Lösungsmitteln die Anionenkomplexierung beeinflussen.
Im zweiten Teil dieser Arbeit wurde an der Entwicklung von CP-basierten chemischen Sensoren und Sonden gearbeitet, mit denen Anionen in Lösung detektiert werden können. In diesem Zusammenhang wurden Synthesen für zwei CPs entwickelt, die auf unterschiedliche Art auf Goldelektroden immobilisiert werden können. Diese Elektroden sollen für die elektrochemische Anionendetektion dienen. Im Bereich chemischer Sonden sollten mit CPs dekorierte Goldnanopartikel (Au-NPs) dargestellt werden, die nach Anionenzugabe agglomerieren. Die damit verbundene Farbveränderung der Lösung soll einen Anionennachweis mit bloßem Auge gestatten. Es wurden zwei CP-Grundstrukturen dargestellt, welche als anionenerkennende Liganden auf Au-NPs dienen können. Ebenfalls wurden erste Au-NPs synthetisiert, die eine Mischung oberflächengebundener inerter und CP-funktionalisierter Liganden enthielten.
This thesis brings together convex analysis and hyperspectral image processing.
Convex analysis is the study of convex functions and their properties.
Convex functions are important because they admit minimization by efficient algorithms
and the solution of many optimization problems can be formulated as
minimization of a convex objective function, extending much beyond
the classical image restoration problems of denoising, deblurring and inpainting.
\(\hspace{1mm}\)
At the heart of convex analysis is the duality mapping induced within the
class of convex functions by the Fenchel transform.
In the last decades efficient optimization algorithms have been developed based
on the Fenchel transform and the concept of infimal convolution.
\(\hspace{1mm}\)
The infimal convolution is of similar importance in convex analysis as the
convolution in classical analysis. In particular, the infimal convolution with
scaled parabolas gives rise to the one parameter family of Moreau-Yosida envelopes,
which approximate a given function from below while preserving its minimum
value and minimizers.
The closely related proximal mapping replaces the gradient step
in a recently developed class of efficient first-order iterative minimization algorithms
for non-differentiable functions. For a finite convex function,
the proximal mapping coincides with a gradient step of its Moreau-Yosida envelope.
Efficient algorithms are needed in hyperspectral image processing,
where several hundred intensity values measured in each spatial point
give rise to large data volumes.
\(\hspace{1mm}\)
In the \(\textbf{first part}\) of this thesis, we are concerned with
models and algorithms for hyperspectral unmixing.
As part of this thesis a hyperspectral imaging system was taken into operation
at the Fraunhofer ITWM Kaiserslautern to evaluate the developed algorithms on real data.
Motivated by missing-pixel defects common in current hyperspectral imaging systems,
we propose a
total variation regularized unmixing model for incomplete and noisy data
for the case when pure spectra are given.
We minimize the proposed model by a primal-dual algorithm based on the
proximum mapping and the Fenchel transform.
To solve the unmixing problem when only a library of pure spectra is provided,
we study a modification which includes a sparsity regularizer into model.
\(\hspace{1mm}\)
We end the first part with the convergence analysis for a multiplicative
algorithm derived by optimization transfer.
The proposed algorithm extends well-known multiplicative update rules
for minimizing the Kullback-Leibler divergence,
to solve a hyperspectral unmixing model in the case
when no prior knowledge of pure spectra is given.
\(\hspace{1mm}\)
In the \(\textbf{second part}\) of this thesis, we study the properties of Moreau-Yosida envelopes,
first for functions defined on Hadamard manifolds, which are (possibly) infinite-dimensional
Riemannian manifolds with negative curvature,
and then for functions defined on Hadamard spaces.
\(\hspace{1mm}\)
In particular we extend to infinite-dimensional Riemannian manifolds an expression
for the gradient of the Moreau-Yosida envelope in terms of the proximal mapping.
With the help of this expression we show that a sequence of functions
converges to a given limit function in the sense of Mosco
if the corresponding Moreau-Yosida envelopes converge pointwise at all scales.
\(\hspace{1mm}\)
Finally we extend this result to the more general setting of Hadamard spaces.
As the reverse implication is already known, this unites two definitions of Mosco convergence
on Hadamard spaces, which have both been used in the literature,
and whose equivalence has not yet been known.
This thesis comprises several independent research studies on transition metal complexes as trapped ions in isolation. Electrospray Ionization (ESI) serves to transfer ions from solution into the gas phase for mass spectrometric investigations. Subsequently, a variety of experimental and theoretical methods provide fundamental insights into molecular properties of the isolated complexes: InfraRed (Multiple) Photon Dissociation (IR-(M)PD) spectroscopy provides information on binding motifs and molecular structures at cryo temperatures as well as at room temperature. Collision Induced Dissociation (CID) serves to elucidate molecular fragmentation pathways as well as relative stabilities of the complexes at room temperature. Quantum chemical calculations via Density Functional Theory (DFT) substantiate the experimental results and deepen the fundamental insights into the molecular properties of the complexes. Magnetic couplings between metal centers in oligonuclear complexes are investigated by Broken Symmetry DFT modelling and X Ray Magnetic Circular Dichroism (XMCD) spectroscopy.
Die Krankheitslast unter Erwerbstätigen steigt mit der Zunahme physischer Belastungsfaktoren am Arbeitsplatz. Instandhaltungsarbeiten an Schienenfahrzeugen gehen mit starken körperlichen Belastungen einher, aufgrund hoher Arbeitsschwere und potentiell beanspruchenden Umgebungsfaktoren wie Lärm, Staub, schlechten Licht- oder Temperaturverhältnissen und erhöhten Verletzungsrisiken. In einem Betrieb der Schienenfahrzeuginstandhaltung, der unter den Beschäftigten steigende Krankheitszahlen verzeichnet, wurden 34 Handwerker mittels qualitativer Interviews zu ihren Einstellungen und Wahrnehmungen bezüglich Gesundheit am Arbeitsplatz befragt. Das Ziel der Untersuchung war es, gesundheitsbezogene Ressourcen und Risikofaktoren aus Mitarbeitersicht zu identifizieren, zudem Einstellungen zu Gesundheit, Gesundheitsverhalten und Gesundheitsförderung sowie Annahmen zu möglichen Gründen für die Krankenstanderhöhung. Die Befragungen wurden inhaltsanalytisch ausgewertet und zusammenfassend dargestellt. In einem zweiten Schritt erfolgte anhand relevanter Merkmale (Gesundheitsverhalten, Beschwerdewahrnehmung, Zufriedenheit, Stresswahrnehmung und berufliche Perspektiven) die Entwicklung einer empirisch begründeten Typologie. Ergebnisse einer quantitativen Befragung zur Mitarbeitergesundheit unter 156 Mitarbeitern desselben Unternehmens ermöglichten teilweise eine Quantifizierung der qualitativen Ergebnisse. Ausgewählte Skalen wurden zusätzlich einer Clusteranalyse unterzogen mit dem Ziel, Fallgruppen unter den Befragten zu identifizieren. Die Ergebnisse der Untersuchungen geben folgende zentrale Anhaltspunkte:
Auf die physischen Arbeitsbelastungen führen die Handwerker überwiegend Beschwerden des muskuloskeletalen Systems zurück, die mit hoher Prävalenz auftreten (unter mehr als 50% der Befragten häufig oder ständig). Aus Mitarbeitersicht werden die physischen Belastungen und daraus resultierenden Beschwerden weitgehend in Kauf genommen und gelten als nicht oder kaum vermeidbar.
Häufiger als physische Risiken thematisierten die Mitarbeiter psychosoziale Bedingungen der Arbeit. Als Gesundheitsrisiko wird an erster Stelle Zeitdruck genannt. Er erhöht nach Angaben der Mitarbeiter das Unfallrisiko, wirkt sich aber auch auf das Verhalten der Vorgesetzten sowie das Arbeitsklima aus. Die Mitarbeiter nehmen vielfach hohe Anforderungen wahr, bei geringem Entscheidungsspielraum sowie einer als gering wahrgenommenen Wertschätzung und Anerkennung seitens der Vorgesetzten. Auch die Anerkennung von extern, im Sinne eines Berufsprestiges, wird als eher gering wahrgenommen. Als weiterer Grund reduzierten Wohlbefindens wird insbesondere von älteren Mitarbeitern ein geringer Zusammenhalt unter den Kollegen beschrieben, der dem Zeitdruck, dem Betriebsklima und unterschiedlichen Interessen der Generationen zugeschrieben wird. Indirekt geben die Ergebnisse auch Hinweise darauf, dass den Mitarbeitern Möglichkeiten der Identifizierung fehlen. Die berufliche Identität scheint insgesamt eher gering ausgeprägt. Durch (in Teilen) geringen Zusammenhalt und das Fehlen fester Arbeitsgruppen geht den Mitarbeitern ein Zugehörigkeitsgefühl verloren und damit ein Teil sozialer Identität.
Insgesamt bewerten die Befragten Kollegialität und Zusammenarbeit jedoch eher positiv und das Wohlbefinden bzw. die Gesundheit fördernd. Ein weiterer Förderfaktor ist der Stolz auf berufliche Fertigkeiten und Fähigkeiten. Besonders positiv wahrgenommen wird, wenn die Mitarbeiter individuelle Expertise (Verbesserungsvorschläge) einbringen können und diese umgesetzt werden.
Als Gründe für den erhöhten Krankenstand werden aus Mitarbeitersicht überwiegend die psychosozialen Stressoren gesehen, da sie sich unmittelbar auf Gesundheit und Wohlbefinden auswirken. Gleichermaßen beschreiben die Handwerker die Neigung, sich aufgrund der als gering wahrgenommenen Anerkennung bei vergleichsweise „harmlosen“ Gesundheitsbeschwerden krankschreiben zu lassen.
Bisherige Maßnahmen betrieblicher Gesundheitsförderung (Rückenschule, Gesundheitstage u.dgl.) bewerten die Befragten als nicht zielführend. Grundsätzlich wird körperliche Aktivi-tät/Fitness neben der Arbeit als die Gesundheit positiv beeinflussend wahrgenommen. Die Befragten fühlen sich für dafür allerdings weitgehend selbst verantwortlich und möchten autonom über mögliche Gesundheitsaktivitäten entscheiden.
Die Typologie und Clusteranalyse zeigen folgendes Bild:
Die Mitarbeiter unterscheiden sich im Wesentlichen anhand der Ausprägungen muskuloskeletaler Beschwerden, Stresswahrnehmung, Stimmung/Gefühlslage und Zufriedenheit. Anhand der qualitativen Analyse konnten vier Typen differenziert werden, die Clusteranalyse führte zu sechs Gruppen. Grob betrachtet liegen bei der größten Gruppe der Mitarbeiter deutlich muskuloskeletale Beschwerden vor bei neutraler Ausprägung der weiteren Merkmale („Neutrale mit Beschwerden“). Eine weitere Gruppe gibt deutliche muskuloskeletale Beschwerden an, eine hohe Unzufriedenheit sowie hohe Stresswahrnehmung („Unzufrieden-Gestresste mit Beschwerden“). Ebenfalls hohe Beschwerden sowie eine geringe Zufriedenheit zeigen die „Unzufrieden-Unausgeglichenen mit Beschwerden“, die eine nur mittelgradige Stresswahrnehmung zeigen, aber eher negativ gestimmt sind. Die „Zufrieden-Beschwerdefreien“ sind eher zufrieden und zeigen in allen anderen Merkmalen positive Ausprägungen. Korrelationen der Gruppen mit Alter oder körperlicher Aktivität (im Alltag) konnten nicht gefunden werden.
Für die Untersuchung wurden ausschließlich explorative Verfahren eingesetzt. Die Ergebnisse sind entsprechend als empirisch begründete Annahmen zu verstehen, die nur bedingt Implikationen für die Praxis zulassen. Dennoch beschreiben die Handwerker aus ihrer Sicht Phänomene und Zusammenhänge, die in anderen Kontexten bereits gut untersucht sind. In Zusammenschau mit dem aktuellen Forschungsstand lässt sich schlussfolgern, das für Erwerbstätige, die schwere körperliche Arbeit leisten, die Faktoren Anerkennung, Wertschätzung, Zusammenhalt und Identifikation besonders bedeutsam für Gesundheit bzw. Arbeitsfähigkeit sind. Für die Planung von konkreten Maßnahmen der Gesundheitsförderung erscheint eine „gruppenindividuelle“ Betrachtung der Mitarbeiter sinnvoll, um deren Bedürfnisse gezielter zu treffen.
We introduce and investigate a product pricing model in social networks where the value a possible buyer assigns to a product is influenced by the previous buyers. The selling proceeds in discrete, synchronous rounds for some set price and the individual values are additively altered. Whereas computing the revenue for a given price can be done in polynomial time, we show that the basic problem PPAI, i.e., is there a price generating a requested revenue, is weakly NP-complete. With algorithm Frag we provide a pseudo-polynomial time algorithm checking the range of prices in intervals of common buying behavior we call fragments. In some special cases, e.g., solely positive influences, graphs with bounded in-degree, or graphs with bounded path length, the amount of fragments is polynomial. Since the run-time of Frag is polynomial in the amount of fragments, the algorithm itself is polynomial for these special cases. For graphs with positive influence we show that every buyer does also buy for lower prices, a property that is not inherent for arbitrary graphs. Algorithm FixHighest improves the run-time on these graphs by using the above property.
Furthermore, we introduce variations on this basic model. The version of delaying the propagation of influences and the awareness of the product can be implemented in our basic model by substituting nodes and arcs with simple gadgets. In the chapter on Dynamic Product Pricing we allow price changes, thereby raising the complexity even for graphs with solely positive or negative influences. Concerning Perishable Product Pricing, i.e., the selling of products that are usable for some time and can be rebought afterward, the principal problem is computing the revenue that a given price can generate in some time horizon. In general, the problem is #P-hard and algorithm Break runs in pseudo-polynomial time. For polynomially computable revenue, we investigate once more the complexity to find the best price.
We conclude the thesis with short results in topics of Cooperative Pricing, Initial Value as Parameter, Two Product Pricing, and Bounded Additive Influence.
V-Stoffe, die zur Klasse der Neurotoxischen Organophosphonate (NOPs) zählen, gehören zu den giftigsten bekannten Verbindungen. Ihre ausgeprägte Toxizität gegenüber dem Menschen erlaubt ihren Einsatz als chemische Kampfstoffe. Obwohl diese Verbindungen bereits vor mehr als 60 Jahren zum ersten Mal hergestellt wurden, steht noch keine sichere und universelle Therapiemethode zur Verfügung. Ein vielversprechender neuer Ansatz besteht in der Entwicklung sogenannter Scavenger. Dabei handelt es sich um Verbindungen, die NOPs im Körper binden und unschädlich machen, bevor sie Schaden anrichten. Makrocyclische Wirtverbindungen, die mit einer nukleophilen Gruppe substituiert sind, besitzen diese Eigenschaften.
In der vorliegenden Arbeit wurden neue Sulfonatocalix[4]arenderivate hergestellt, die mit einer Hydroxamsäuregruppe als nukleophiler Gruppe substituiert sind. Die erhaltenen Verbindungen wurden von unseren Kooperationspartnern am Institut für Pharmakologie und Toxikologie der Bundeswehr in München auf ihre Aktivität zur Entgiftung verschiedener V-Stoffe in wässriger Lösung untersucht. Als Ausgangsmaterialien zur Darstellung der potentiellen Scavenger wurden zunächst geeignete Sulfonatocalix[4]arenderivate synthetisiert. Anschließend wurden die Calixarenderivate mit entsprechenden Vorstufen verknüpft, in denen die Hydroxamsäuregruppe enthalten ist.
Es wurde ein Scavenger hergestellt, der VX mit einer Halbwertszeit von etwa 4 Minuten entgiftet, was im Vergleich zur Spontanhydrolyse einer Beschleunigung um das 3500-fache entspricht. Auch andere V-Stoffe wurden mit ähnlichen Geschwindigkeiten entgiftet. Diese Verbindung stellt damit den effizientesten niedermolekularen Scavenger für V-Stoffe dar, der bislang entwickelt wurde.
Neben den Messungen zur Bestimmung der Abbauraten für V-Stoffe wurden auch mechanistische Studien und Bindungsstudien durchgeführt. Hierbei konnte gezeigt werden, dass der Calixarenring effizient in wässriger Lösung an VX bindet. Außerdem wurde beobachtet, dass bei der Entgiftung von VX selektiv das ungiftige Abbauprodukt EMPA entsteht.
In this paper a modified version of dynamic network
ows is discussed. Whereas dynamic network flows are widely analyzed already, we consider a dynamic flow problem with aggregate arc capacities called Bridge
Problem which was introduced by Melkonian [Mel07]. We extend his research to integer flows and show that this problem is strongly NP-hard. For practical relevance we also introduce and analyze the hybrid bridge problem, i.e. with underlying networks whose arc capacity can limit aggregate flow (bridge problem) or the flow entering an arc at each time (general dynamic flow). For this kind of problem we present efficient procedures for
special cases that run in polynomial time. Moreover, we present a heuristic for general hybrid graphs with restriction on the number of bridge arcs.
Computational experiments show that the heuristic works well, both on random graphs and on graphs modeling also on realistic scenarios.
Congress Report 2017.01-04
(2017)
Rationale Entwicklung neuer nachhaltiger Methoden zur Einführung von Fluoralkyl(thio/seleno)gruppen
(2017)
Im Rahmen dieser Arbeit wurden neue nachhaltigere Methoden zur gezielten Einführung fluoralkyl(thio/seleno)lierter Substituenten in komplexe organische Moleküle entwickelt. Dafür wurde insbesondere die Sandmeyer-Reaktion als universelles Werkzeug zur Funktionalisierung breit verfügbarer Aniline genutzt.
Die entscheidenden Vorteile dieser Technologie sind die milden Reaktionsbedingungen, das breite Substratspektrum und die exzellente Toleranz funktioneller Gruppen, weshalb sie sich selbst für komplexe Verbindungen in einem späten Synthesestadium eignet. Außerdem zeichnen sich die in dieser Arbeit entwickelten Prozesse zur direkten Einführungen von SCF3 , SeCF3 und SC2F5-Gruppen dadurch aus, dass sie mit Kupfermengen von nur 10 mol% zu den seltenen Beispielen katalytischer Sandmeyer-Reaktionen gehören.
Unter ebenso vorteilhaften Reaktionsbedingungen und gleicher katalytischer Kupfermengen konnten auch α-Diazoester, die selbst leicht aus Aminosäuren herstellbar sind, zu den entsprechenden Trifluormethylthio- und Trifluormethylselenoethern umgesetzt werden.
In weiteren Projekten gelang es, neue Zugänge zu Di- und Trifluormethylthioethern durch das innovative Reaktionskonzept der Thiocyanierung/Fluoralkylierungskaskade zu etablieren. Breit verfügbare Alkylelektrophile wurden hierbei unter milden Reaktionsbedingungen und preiswerten Schwefel- und Fluoralkyl-Quellen di- und trifluormethylthioliert.
Außerdem konnte die Reaktionskaskade auch für regioselektive elektrophile C–H-Fluoralkylthiolierungen elektronenreicher Aromaten mit NTS als nachhaltige elektrophile Schwefelquelle genutzt werden.
In allen neuen Verfahren wurden konsequent praktische Fluoralkyl(thio/seleno)-Quellen verwendet, die auf dem nachhaltigen Ruppert-Prakash-Reagenz TMSCF3 basieren. Dies ist ein entscheidender Vorteil gegenüber bekannten Verfahren, die häufig präformierte, instabile Metall-Salze oder teure, hochmolekulare Reagenzien verwenden.
Das große synthetische Potential der neu entwickelten Methoden wurde jeweils anhand zahlreicher funktionalisierter Substrate demonstriert. Darüber hinaus lieferten mechanistische Studien einen näheren Einblick in den Ablauf der Reaktionen.
The detection and characterisation of undesired lead structures on shaft surfaces is a concern in production and quality control of rotary shaft lip-type sealing systems. The potential lead structures are generally divided into macro and micro lead based on their characteristics and formation. Macro lead measurement methods exist and are widely applied. This work describes a method to characterise micro lead on ground shaft surfaces. Micro lead is known as the deviation of main orientation of the ground micro texture from circumferential direction. Assessing the orientation of microscopic structures with arc minute accuracy with regard to circumferential direction requires exact knowledge of both the shaft’s orientation and the direction of surface texture. The shaft’s circumferential direction is found by calibration. Measuring systems and calibration procedures capable of calibrating shaft axis orientation with high accuracy and low uncertainty are described. The measuring systems employ areal-topographic measuring instruments suited for evaluating texture orientation. A dedicated evaluation scheme for texture orientation is based on the Radon transform of these topographies and parametrised for the application. Combining the calibration of circumferential direction with the evaluation of texture orientation the method enables the measurement of micro lead on ground shaft surfaces.
In dieser Arbeit wird das Erhebungsinstrument ‚PriM – Partizipationsbeurteilung für regionale innovative Maßnahmen‘ entwickelt, mit dem die in einer ländlichen Region vorherrschende Partizipation für mediengebundene Dienstleistungen, auf Basis der gegebenen Akzeptanz von digitalen netzfähigen Kommunikationsmedien und der Bereitschaft für freiwilliges soziales Engagement, eingeschätzt und beurteilt werden kann. Hierdurch kann dieses Instrument einen Beitrag für die Entwicklung von innovativen, bürgernahen und regional angepassten Maßnahmen zur Begegnung der Emigration aus dem ländlichen Raum darstellen.
Zur Konzeption des Erhebungsinstruments wird zunächst ein Überblick über ausgewählte Strukturen des ländlichen Raums gegeben. Anschließend wird aus bestehenden Theorien und Modellen zur Technikakzeptanz und zum freiwilligen sozialen Engagement mit Blick auf die Strukturen des ländlichen Raums ein kombiniertes theoretisches Modell abgeleitet, welches eine Beurteilung der Partizipation für mediengebundene Dienstleistungen im ländlichen Raum ermöglichen kann. Aus diesem Modell wird ein Fragebogen in Form eines Self-Administered Questionnaire (SAQ) entwickelt. Anschließend werden die Herangehensweise, die gewonnenen Erkenntnisse und die Resultate kritisch reflektiert.
In this thesis, we consider a problem from modular representation theory of finite groups. Lluís Puig asked the question whether the order of the defect groups of a block \( B \) of the group algebra of a given finite group \( G \) can always be bounded in terms of the order of the vertices of an arbitrary simple module lying in \( B \).
In characteristic \( 2 \), there are examples showing that this is not possible in general, whereas in odd characteristic, no such examples are known. For instance, it is known that the answer to Puig's question is positive in case that \( G \) is a symmetric group, by work of Danz, Külshammer, and Puig.
Motivated by this, we study the cases where \( G \) is a finite classical group in non-defining characteristic or one of the finite groups \( G_2(q) \) or \( ³D_4(q) \) of Lie type, again in non-defining characteristic. Here, we generalize Puig's original question by replacing the vertices occurring in his question by arbitrary self-centralizing subgroups of the defect groups. We derive positive and negative answers to this generalized question.
\[\]
In addition to that, we determine the vertices of the unipotent simple \( GL_2(q) \)-module labeled by the partition \( (1,1) \) in characteristic \( 2 \). This is done using a method known as Brauer construction.
Die Akustik liefert einen interessanten Hintergrund, interdisziplinären und fächerverbindenen Unterricht zwischen Mathematik, Physik und Musik durchzuführen. SchülerInnen können hierbei beispielsweise experimentell tätig sein, indem sie Audioaufnahmen selbst erzeugen und sich mit Computersoftware Frequenzspektren erzeugen lassen. Genauso können die Schüler auch Frequenzspektren vorgeben und daraus Klänge erzeugen. Dies kann beispielsweise dazu dienen, den Begriff der Obertöne im Musikunterricht physikalisch oder mathematisch greifbar zu machen oder in der Harmonielehre Frequenzverhältnisse von Intervallen und Dreiklängen näher zu untersuchen.
Der Computer ist hier ein sehr nützliches Hilfsmittel, da der mathematische Hintergrund dieser Aufgabe -- das Wechseln zwischen Audioaufnahme und ihrem Frequenzbild -- sich in der Fourier-Analysis findet, die für SchülerInnen äußerst anspruchsvoll ist. Indem man jedoch die Fouriertransformation als numerisches Hilfsmittel einführt, das nicht im Detail verstanden werden muss, lässt sich an anderer Stelle interessante Mathematik betreiben und die Zusammenhänge zwischen Akustik und Musik können spielerisch erfahren werden.
Im folgenden Beitrag wird eine Herangehensweise geschildert, wie wir sie bereits bei der Felix-Klein-Modellierungswoche umgesetzt haben: Die SchülerInnen haben den Auftrag erhalten, einen Synthesizer zu entwickeln, mit dem verschiedene Musikinstrumente nachgeahmt werden können. Als Hilfsmittel haben sie eine kurze Einführung in die Eigenschaften der Fouriertransformation erhalten, sowie Audioaufnahmen verschiedener Instrumente.
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
Die taktile Rauheitsmesstechnik ist ausgiebig erforscht, genormt und dient für andere Messprinzipien und Messverfahren als Referenz. Allerdings fehlen für eine Rauheitsmessung auf Konturen Grundlagenuntersuchungen, Richtlinien und Normen. Eine Messung und Auswertung der Rauheit und Kontur in einem Schritt bringen der Industrie wertvolle ökonomische Vorteile. Kombinierte Rauheits- und Konturenmessplätze erlauben bereits heute aufgrund ihres vertikalen Messbereiches von mehreren Millimetern und einer vertikalen Auflösung im Nanometerbereich eine kombinierte Rauheits- und Konturenmessung in nur einem Messvorgang. Das Ziel der vorliegenden Dissertation sind Grundlagenuntersuchungen, um starke und schwache Einflüsse bei der taktilen 2D Rauheitsmessung auf Konturen zu ermitteln. Einflussgrößen und Messparameter werden aufgezeigt, analysiert und neue Ansätze für die Messstrategie und die Auswertung präsentiert und untersucht. Die durchgeführten experimentellen Untersuchungen erfolgen an ausgewählten Normalen und technischen Oberflächen mit den vorgestellten Parameterkombinationen. Die Auswertung der Rauheitskennwerte wird mit den erläuterten Auswertemethoden durchgeführt und es erfolgt eine Analyse der Profile. Für ein vollständiges Messergebnis wird die Messunsicherheit bestimmt und diskutiert.
Stadtumbau ist ein Veränderungsprozess: Baulich und räumlich, ebenso wirtschaftlich und gesellschaftlich. Kommunikation kommt dabei eine maßgebliche Rolle zu, im Sinne der Information, Partizipation und in der Begleitung von Veränderungsprozessen.
Insbesondere kommunale Presse- und Öffentlichkeitsarbeit ist dabei wichtig, denn sie versteht sich als Sprachrohr und Vehikel für die politischen Entscheidungen der Kommunalpolitik und -verwaltung. Damit hat sie neben ihrer informierenden Rolle eine demokratische Funktion.
Vor diesem Hintergrund betrachtet der Autor die Mechanismen kommunaler Presse- und Öffentlichkeitsarbeit und gibt die Inspiration und den Impuls für die Adaption von Instrumentarien und Mechanismen der Veränderungskommunikation für die kommunale Kommunikation. Hierzu werden die Phasen des Stadtumbaus mit Phasen der Veränderungskommunikation zum „Kommunikationsnetzwerk im Stadtumbau“ verschränkt.
Im Rahmen der Arbeit wird zudem ein Praxisbeispiel für kommunale Presse- und Öffentlichkeitsarbeit beschrieben sowie das entwickelte Kommunikationsnetzwerk in einer Szenariodarstellung skizziert.
Divide-and-Conquer is a common strategy to manage the complexity of system design and verification. In the context of System-on-Chip (SoC) design verification, an SoC system is decomposed into several modules and every module is separately verified. Usually an SoC module is reactive: it interacts with its environmental modules. This interaction is normally modeled by environment constraints, which are applied to verify the SoC module. Environment constraints are assumed to be always true when verifying the individual modules of a system. Therefore the correctness of environment constraints is very important for module verification.
Environment constraints are also very important for coverage analysis. Coverage analysis in formal verification measures whether or not the property set fully describes the functional behavior of the design under verification (DuV). if a set of properties describes every functional behavior of a DuV, the set of properties is called complete. To verify the correctness of environment constraints, Assume-Guarantee Reasoning rules can be employed.
However, the state of the art assume-guarantee reasoning rules cannot be applied to the environment constraints specified by using an industrial standard property language such as SystemVerilog Assertions (SVA).
This thesis proposes a new assume-guarantee reasoning rule that can be applied to environment constraints specified by using a property language such as SVA. In addition, this thesis proposes two efficient plausibility checks for constraints that can be conducted without a concrete implementation of the considered environment.
Furthermore, this thesis provides a compositional reasoning framework determining that a system is completely verified if all modules are verified with Complete Interval Property Checking (C-IPC) under environment constraints.
At present, there is a trend that more of the functionality in SoCs is shifted from the hardware to the hardware-dependent software (HWDS), which is a crucial component in an SoC, since other software layers, such as the operating systems are built on it. Therefore there is an increasing need to apply formal verification to HWDS, especially for safety-critical systems.
The interactions between HW and HWDS are often reactive, and happen in a temporal order. This requires new property languages to specify the reactive behavior at the HW and SW interfaces.
This thesis introduces a new property language, called Reactive Software Property Language (RSPL), to specify the reactive interactions between the HW and the HWDS.
Furthermore, a method for checking the completeness of software properties, which are specified by using RSPL, is presented in this thesis. This method is motivated by the approach of checking the completeness of hardware properties.
CpC ist ein metallorganischer Ligand vom Cyclopentadienid-Typ aus einem Cyclopentadienidkern mit zwei anellierten Dibenzocycloheptenen. Er ist durch Deprotonierung der Ligandvorstufe CpCH mit starken Basen, wie n-Butyllithium zugänglich. Aufgrund der verdrillten siebengliedrigen Ringe und daraus resultierenden helicalen Struktur stellt CpC einen neuartigen, intrinsisch chiralen Cyclopentadienidligand dar, bei dem das Chiralitätselement Bestandteil des Cyclopentadienidrings ist. Die Ligandvorstufe CpCH wird ausgehend von Dibenzosuberenon in fünfstufiger Reaktionsfolge synthetisiert. NMR-Spektroskopie sowie DFT-Rechnungen zufolge verläuft der Racemisierungsprozess dieses Liganden bei Raumtemperatur langsam, so dass sein Einsatz in der enantioselektiven Synthese oder Katalyse denkbar ist. Darüberhinaus kann sich das im Vergleich zu 7H-Dibenzo[c,g]fluorenid nicht vollständig konjugierte π-System positiv auf Koordinationsvermögen auswirken. Diese Annahme wurde durch Ergebnisse von Komplexierungsversuchen untermauert.
Durch Umsetzung von zwei Äquivalenten CpCLi, das in situ mit n-Butyllithium generiert wird, sind das homoleptische Ferrocen (η5-CpC)2Fe und der gemischte Sandwichkomplex (η5-CpC)Fe(η5-4Cp) (4Cp = 1,2,3,4-Tetraisopropylcyclopentadienid) zugänglich. Elektrochemische Untersuchungen von (η5-CpC)Fe(η5-4Cp) ergaben, dass diese Verbindung erwartungsgemäß leichter oxidierbar ist als Ferrocen. Weiterhin wurde der Halbsandwichkomplex (η5-CpC)Ti(OiPr)3 synthetisiert und dessen Reaktivität gegenüber Me3SiI, die zur Bildung von (η5-CpC)TiI2(OiPr) führt, untersucht. Beide Komplexe wurden mittels Röntgenstrukturanalyse charakterisiert. Umsetzung von CpCLi mit TiCl4 dagegen führte zur oxidativen Kupplung des Liganden unter Bildung von (CpC)2. Analoge Umsetzungen mit Vorstufen anderer Metalle ergaben Halbsandwichkomplexe des Mangans (η5-CpC)Mn(CO)3, des Rhodiums (η5-CpC)Rh(COD) und Iridiums (η5-CpC)Ir(COD), die ebenfalls strukturell charakterisiert werden konnten. Bei der Synthese des Rutheniumkomplexes (η5-CpC)Ru(C6H6)Cl trat unter bestimmten Reaktionsbedingungen OCpC als Nebenprodukt auf, das sich ebenfalls quantitativ durch Umsetzung von CpCTl mit Luftsauerstoff darstellen lässt.
Non–woven materials consist of many thousands of fibres laid down on a conveyor belt
under the influence of a turbulent air stream. To improve industrial processes for the
production of non–woven materials, we develop and explore novel mathematical fibre and
material models.
In Part I of this thesis we improve existing mathematical models describing the fibres on the
belt in the meltspinning process. In contrast to existing models, we include the fibre–fibre
interaction caused by the fibres’ thickness which prevents the intersection of the fibres and,
hence, results in a more accurate mathematical description. We start from a microscopic
characterisation, where each fibre is described by a stochastic functional differential
equation and include the interaction along the whole fibre path, which is described by a
delay term. As many fibres are required for the production of a non–woven material, we
consider the corresponding mean–field equation, which describes the evolution of the fibre
distribution with respect to fibre position and orientation. To analyse the particular case of
large turbulences in the air stream, we develop the diffusion approximation which yields a
distribution describing the fibre position. Considering the convergence to equilibrium on
an analytical level, as well as performing numerical experiments, gives an insight into the
influence of the novel interaction term in the equations.
In Part II of this thesis we model the industrial airlay process, which is a production method
whereby many short fibres build a three–dimensional non–woven material. We focus on
the development of a material model based on original fibre properties, machine data and
micro computer tomography. A possible linking of these models to other simulation tools,
for example virtual tensile tests, is discussed.
The models and methods presented in this thesis promise to further the field in mathematical
modelling and computational simulation of non–woven materials.
In this dissertation convergence of binomial trees for option pricing is investigated. The focus is on American and European put and call options. For that purpose variations of the binomial tree model are reviewed.
In the first part of the thesis we investigated the convergence behavior of the already known trees from the literature (CRR, RB, Tian and CP) for the European options. The CRR and the RB tree suffer from irregular convergence, so our first aim is to find a way to get the smooth convergence. We first show what causes these oscillations. That will also help us to improve the rate of convergence. As a result we introduce the Tian and the CP tree and we proved that the order of convergence for these trees is \(O \left(\frac{1}{n} \right)\).
Afterwards we introduce the Split tree and explain its properties. We prove the convergence of it and we found an explicit first order error formula. In our setting, the splitting time \(t_{k} = k\Delta t\) is not fixed, i.e. it can be any time between 0 and the maturity time \(T\). This is the main difference compared to the model from the literature. Namely, we show that the good properties of the CRR tree when \(S_{0} = K\) can be preserved even without this condition (which is mainly the case). We achieved the convergence of \(O \left(n^{-\frac{3}{2}} \right)\) and we typically get better results if we split our tree later.
Seit circa 150 Jahren wird versucht, Natur und Landschaft vor Zerstörung zu bewahren. Mit der Schaffung der ersten Staatlichen Stelle für Naturdenkmalpflege im Jahr 1906 wurde der Naturschutz auf die staatliche Ebene gehoben. Die Geschichtsforschung widmet sich erst seit wenigen Jahren diesem Thema und hier vornehmlich der Ideen- und Institutionengeschichte.
Der historische Rückblick auf die Anfänge der Naturauseinandersetzung zeigt deutlich, dass die spätere wissenschaftliche Aneignung von Natur und Landschaft, speziell in Thüringen, auf diesen frühen Zeiten basiert. Trotz der naturwissenschaftlich reichen Vorgeschichte entwickelte sich der staatliche Naturschutz in Thüringen aber nur schleppend. Insbesondere die bis 1920 andauernde thüringische Kleinstaaterei machte es der damaligen Beratungsstelle für Heimatschutz und Denkmalpflege, nahezu unmöglich, eine zentralisierte Naturschutzarbeit aufzubauen.
Trotz aller Probleme konnten sich die Naturschutzbeauftragten nach dem zweiten Weltkrieg neu etablieren. Während der Naturschutz in der DDR den in Nazideutschland begonnenen zentralisierten Weg weiter beschritt, wurde er in den westlichen Besatzungszonen auf die Bundesländer delegiert. Konnte sich in der BRD eine starke Umwelt- und Anti-Atomkraftbewegung entwickeln, erstarkte in der DDR die Naturschutzbewegung vornehmlich durch die im Kulturbund zusammengeschlossenen Fachgruppen.
Mit der Währungs-, Wirtschafts- und Sozialunion trat auch das Umweltrahmengesetz am 1.7.1990 in Kraft. Damit wurde Bundesrecht auf die noch existierende DDR angewendet. Eine neue rechtliche Legitimation erhielten die Naturschutzbeauftragten und -helfer aber erst mit Inkrafttreten des Vorläufigen Thüringer Naturschutzgesetzes 1993.
Nach mehreren Änderungen in der Thüringer Verwaltungs- und Gebietsstruktur sowie in der Naturschutzgesetzgebung gaben die mancherorts unüberhörbar gewordenen Dissonanzen zwischen Haupt- und Ehrenamt Anlass zu einer tiefer gehenden Betrachtung. Im Jahre 2011 wurden thüringenweit alle Mitglieder und Stellvertreter von Naturschutzbeiräten sowie Beauftragten für Naturschutz schriftlich befragt und mit den in den UNB zuständigen Mitarbeitern Gespräche geführt. Von den 535 befragten Ehrenamtlichen wurden 202 ausgefüllte Fragebögen zurück gesendet.
Bei der Auswertung der Fragebögen war auffällig, dass der überwiegende Teil der Ehrenamtlichen männlich und mit höherem Bildungsabschluss war. Viele der ehemaligen Naturschutzhelfer der DDR wurden als Beauftragte für Naturschutz oder als Mitglied eines Naturschutzbeirates übernommen. Das Durchschnittsalter der Ehrenamtlichen hat sich im Laufe der Zeit deutlich erhöht. So waren bereits 2012 allein 2/3 der Beauftragten für Naturschutz 61 Jahre und älter.
Anhand der Antworten ließen sich Schlussfolgerungen und Handlungsvorschläge ableiten. Trotz der bundesweit unterschiedlichen Regelungen in den Naturschutzgesetzen sind die Ergebnisse dieser Arbeit zum großen Teil auf andere Bundesländer übertragbar. Dies betrifft vornehmlich Vorschläge zur öffentlichen Darstellung der ehrenamtlichen Arbeit und zum Selbstverständnis.
Es bleibt festzustellen, dass die Kommunikations- und Konfliktlösungsfähigkeiten bei Ehrenamtlichen wie auch bei Hauptamtlichen nur eingeschränkt ausgebildet sind.
Hinsichtlich der Anerkennungskultur sehen die Ehrenamtlichen noch erhebliche Reserven. Dem gegenüber besitzen sie aber nur ein eingeschränktes Wissen um ihre Aufgaben und Pflichten. Neben diesem verstellten Aufgabenverständnis sehen sich viele Ehrenamtliche vornehmlich als Interessenvertreter der sie vorschlagenden Einrichtungen.
As there is a rising interest in accountability issues and governance in nonprofit organizations,
this work aims to give some notions on the context of these two topics. Hence,
within this work, a theoretical framework is developed, whereby the correlation of accountability
and governance in nonprofit organizations shall be measured. This framework
suggests, that in nonprofit organizations, nonprofit governance, represented by
board members and professionals, has an influence on compliance, as a component of
accountability. In respect to the board members, it is supposed that, board competence,
transparency, stakeholder relationship and (public) trust are positively related to compliance.
Furthermore, it is assumed, referring to professionals, that the variables performance,
training or development and satisfaction are positively and empowerment is
negatively correlated with compliance. These assumptions are based on a thorough theoretical
literature research. Furthermore, a questionnaire is designed to measure the correlations.
This questionnaire will be amplified in a discussion following to the explanation
of the research model. Concluding, some limitations on the research model are given,
which should be taken into account by undertaking the questionnaire.
Als Begleiterscheinungen des rasanten Wirtschaftswachstums und der nicht behutsamen Raumentwicklungen Südkoreas seit Beginn der 60er Jahre kristallisierten sich monotone Stadtstrukturen, regionaler Identitätsverlust und enorme ökologische Belastung als negative Erscheinungsformen der Raumordnung heraus. Erhebliche Umweltbelastungen, Veränderungen des Stadtbilds und die Flächeninanspruchnahme sind vor allem in der Hauptstadt Seoul signifikante Folgen der städtischen Ausdehnung und Verdichtung. Zur planmäßigen Steuerung von Schutz-, Pflege- und Entwicklungsmaßnahmen für die gesamte Umwelt wurde dort das Gesetz zur Landschaftsplanung im Jahr 2007 als Grundgesetz für systematische und wirksame Landschaftsplanung verabschiedet und die rechtskräftige Landschaftsplanung Seouls im Jahr 2009 aufgestellt. Im Vergleich dazu ist die Landschaftsplanung in Deutschland bereits seit 1976 in Form des Bundesnaturschutzgesetzes rechtlich verankert. Sie entwickelte sich zu einem verlässlichen Planungsinstrument des Naturschutzes und der Landschaftspflege und spielt eine wichtige Rolle in der Steuerung eines ausgewogenen städtischen Naturhaushaltes.
Die Zielsetzung dieser Arbeit ist es, die theoretischen Grundlagen und praktischen Anwendungsbeispiele der Landschaftsplanung im städtischen Raum zu untersuchen sowie zukünftige Entwicklungsstrategien der koreanischen Landschaftsplanung im Sinne eines zentralen und vorsorgenden Steuerungsinstruments des Urbanisierungsprozesses zu erarbeiten. Anhand der Beispiele Seoul und Berlin sollen wirksame Steuerungsprozesse und Erfolgsparameter der Landschaftsplanung herausgearbeitet und schlussendlich Verbesserungsvorschläge für die koreanische Landschaftsplanung aufgezeigt werden.
Um Analyse sowie Auswertung der Landschaftsplanung durchzuführen, erfolgt zuerst eine theoretische Untersuchung des Wandels im umweltpolitischen Aufgabenspektrum – es folgen die fachlichen Diskussionen und die Herausarbeitung der raum- und umweltbezogenen Planungsinstrumente.
In dieser Arbeit werden insbesondere die Auslegungen gesetzlicher Grundlagen der Landschaftsplanung und die räumlichen Entwicklungen mit Flächennutzung beider Städte betrachtet. Auf dieser Grundlage werden inhaltliche Struktur, Auswirkungen und praxisbezogene Umsetzungsbeispiele zusammengefasst, um anschließend die Merkmale städtischer Landschaftsplanung zu identifiziert.
Im Ergebnis werden die expliziten Unterschiede der beiden Landschaftsplanungen mit den theoretischen Grundlagen und praxisbezogenen Beispielen vergleichend widergespiegelt sowie die differenzierten Handlungsstrategien für die erfolgreiche Implementierung der koreanischen Landschaftsplanung im Sinne eines zentralen Steuerungsinstruments dargelegt.
In this thesis we explicitly solve several portfolio optimization problems in a very realistic setting. The fundamental assumptions on the market setting are motivated by practical experience and the resulting optimal strategies are challenged in numerical simulations.
We consider an investor who wants to maximize expected utility of terminal wealth by trading in a high-dimensional financial market with one riskless asset and several stocks.
The stock returns are driven by a Brownian motion and their drift is modelled by a Gaussian random variable. We consider a partial information setting, where the drift is unknown to the investor and has to be estimated from the observable stock prices in addition to some analyst’s opinion as proposed in [CLMZ06]. The best estimate given these observations is the well known Kalman-Bucy-Filter. We then consider an innovations process to transform the partial information setting into a market with complete information and an observable Gaussian drift process.
The investor is restricted to portfolio strategies satisfying several convex constraints.
These constraints can be due to legal restrictions, due to fund design or due to client's specifications. We cover in particular no-short-selling and no-borrowing constraints.
One popular approach to constrained portfolio optimization is the convex duality approach of Cvitanic and Karatzas. In [CK92] they introduce auxiliary stock markets with shifted market parameters and obtain a dual problem to the original portfolio optimization problem that can be better solvable than the primal problem.
Hence we consider this duality approach and using stochastic control methods we first solve the dual problems in the cases of logarithmic and power utility.
Here we apply a reverse separation approach in order to obtain areas where the corresponding Hamilton-Jacobi-Bellman differential equation can be solved. It turns out that these areas have a straightforward interpretation in terms of the resulting portfolio strategy. The areas differ between active and passive stocks, where active stocks are invested in, while passive stocks are not.
Afterwards we solve the auxiliary market given the optimal dual processes in a more general setting, allowing for various market settings and various dual processes.
We obtain explicit analytical formulas for the optimal portfolio policies and provide an algorithm that determines the correct formula for the optimal strategy in any case.
We also show optimality of our resulting portfolio strategies in different verification theorems.
Subsequently we challenge our theoretical results in a historical and an artificial simulation that are even closer to the real world market than the setting we used to derive our theoretical results. However, we still obtain compelling results indicating that our optimal strategies can outperform any benchmark in a real market in general.
Der Arbeitsbericht stellt die Untersuchung medienpädagogischer Kompetenzen in Kompetenzbeschreibungen der Erwachsenenbildung dar. Dazu werden Kompetenzmodelle, Kompetenzprofile und andere kompetenzorientierte Anforderungsbeschreibungen für Erwachsenenbildner*innen aus Deutschland, Europa, Großbritannien und den USA untersucht.
Der vorliegende Arbeits- und Forschungsbericht beschreibt das Forschungsdesign des Verbundprojektes E-hoch-B der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie der Hochschule Ludwigshafen am Rhein. Neben den drei Gegenstandsbereichen (neue Zielgruppen, Regionalentwicklung und wissenschaftliche Weiterbildung) werden die vier unterschiedlichen Analyseebenen beschrieben, die dem Ansatz einer evidenzbasierten Angebotsentwicklung zu Grunde liegen: Arbeitsmarkt-, Zielgruppen-, Bildungsmarkt- und Ressourcenanalyse. Darüber hinaus wird ein Überblick gegeben, welche Daten in welchem Teilprojekt erhoben wurden. Die Schlussbetrachtung diskutiert die Vor- und Nachteile einer evidenzbasierten Angebotsentwicklung und gibt einen Ausblick für die weitere Forschungs- und Entwicklungsarbeit.
The main goal of this work was the study of the applicability of a polymer film heat exchanger concept for the applications in the chemical industry, such as the condensation of organic solvents. The polymer film heat exchanger investigated is a plate heat exchanger with very thin (0.025 – 0.1 mm) plates or films, which separate the fluids and enable the heat transfer. After a successful application of this concept to seawater desalination in a previous work, a further step is in chemical engineering, where the good chemical resistance of polymers in aggressive fluids is the challenge.
Two approaches were performed in this work. The first one was experimental and included the study of the chemical and mechanical resistance of preselected films, made of polymer materials, such as polyimide (PI), polyethylene terephthalate (PET) and polytetrafluoroethylene (PTFE). To simulate realistic operating conditions in a heat exchanger the films were exposed to a combined thermal (up to 90°C) and mechanical pressure loads (4-6 bar) with permanent contact with the relevant organic solvents, such as toluene, hexane, heptane and tetrahydrofuran (THF). Furthermore, a lab-scale apparatus and a full-scale demonstrator were manufactured in cooperation with two industrial partners. These were used for the investigation of the heat transfer performance for operating modes with and without phase change.
In addition to the experimental work, a coupled finite element –computational fluid dynamics (FEM-CFD)-model was developed, based on the fluid-structure-interaction (FSI). Two major tasks had to be solved here. The first one was the modelling of the condensation process, based on available mathematical models and energy balances. The second one was the consideration of the partially reversible deformation of the used film during operation. Since this deformation changes the geometry of the fluid channels also has an influence on the overall performance of the apparatus, a coupled FEM-CFD model was developed.
During the experimental study of the chemical resistance of the films, the PTFE film showed the best performance, and hence can be used for all four tested solvents. For the polyimide film, failures while exposed to THF were observed, and the PET film can only be used with water and hexane. With the used lab-scale heat exchanger and the full-scale demonstrator competitive overall heat transfer coefficients between 270 W/m²K and 700 W/m²K could be reached for the liquid-liquid (water-water, water-hexane) operation mode without phase change. For the condensation process, overall heat transfer coefficients of up to 1700/m²K could be obtained.
The numerical approach led to a well-functioning coupled model in a very small scale (1 cm²). An upscale, however, failed due to enormous hardware resources necessary required for the simulation of the entire full-scale demonstrator. The main reason for this is the very low thickness of the films, which leads to tiny mesh element sizes (<0.05 mm) necessary to model the deformation of the film. The modelling of the liquid-liquid heat transfer provided an acceptable accuracy (approx. 10%), but at very low rates the deviations were then higher (over 30%). The results of the condensation modelling were ambivalent. One the one hand a physically plausible model was developed, which could map the entire condensation process. On the other hand, the corresponding energy balance revealed major inaccuracy and hence could not be used for the determination of the overall heat transfer and showed the current limits of the FEM-CFD approach.
Erfassung von Anforderungen zur zielgruppenorientierter Gestaltung hochschulischer Bildungsangebote
(2017)
Der vorliegende Arbeits- und Forschungsbericht beschreibt zwei Erhebungsinstrumente des Verbundprojektes E-hoch-B der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie der Hochschule Ludwigshafen am Rhein.
Das erste Instrument erfasst die allgemeine Zusammensetzung aller Studierenden der Verbundhochschulen sowie deren Anforderungen an Studienangebote. Das zweite Erhebungsinstrument ist konkret an Studierende aus pflegebezogenen Studienangeboten an allen rheinland-pfälzischen Hochschulen gerichtet und wurde auf Basis des ersten Erhebungsinstrumentes weiterentwickelt.
Im Beitrag wird das Erkenntnisinteresse beschrieben, der theoretischen Hintergrund skizziert und der konzeptionelle Aufbau sowie die Struktur der Instrumente dargestellt. Eine Schlussbetrachtung rundet den Beitrag ab. Im Anhang sind die Erhebungsinstrumente einzusehen.
In current practices of system-on-chip (SoC) design a trend can be observed to integrate more and more low-level software components into the system hardware at different levels of granularity. The implementation of important control functions and communication structures is frequently shifted from the SoC’s hardware into its firmware. As a result, the tight coupling of hardware and software at a low level of granularity raises substantial verification challenges since the conventional practice of verifying hardware and software independently is no longer sufficient. This calls for new methods for verification based on a joint analysis of hardware and software.
This thesis proposes hardware-dependent models of low-level software for performing formal verification. The proposed models are conceived to represent the software integrated with its hardware environment according to the current SoC design practices. Two hardware/software integration scenarios are addressed in this thesis, namely, speed-independent communication of the processor with its hardware periphery and cycle-accurate integration of firmware into an SoC module. For speed-independent hardware/software integration an approach for equivalence checking of hardware-dependent software is proposed and an evaluated. For the case of cycle-accurate hardware/software integration, a model for hardware/software co-verification has been developed and experimentally evaluated by applying it to property checking.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) hat sich zum Ziel gesetzt, die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern zu untersuchen und evidenzbasiert Weiterbildungsangebote zu entwickeln. Während die Entwicklung wissenschaftlicher Weiterbildungsangebote bisher zumeist dem Ansatz einer Angebotsorientierung folgt (vgl. Hanft 2014), zielt das Projekt auf den Ansatz der Nachfrageorientierung (vgl. Seitter 2014, Wolter & Banscherus 2016). Dazu wurde ein Prozessmodell evidenzbasierter Angebotsentwicklung erarbeitet, auf dessen Grundlage den einzelnen Angebotsentwicklungsschritten spezifische Bezüge zu empirisch erhobenen Daten zugeordnet werden. Mithilfe dieser Daten soll aufgezeigt werden, wie Angebote im Rahmen des Projektes bedarfsorientiert entwickelt werden. Die einzelnen Prozessschritte von der Planung bis zur Implementierung eines Weiterbildungsangebots werden im vorliegenden Arbeits- und Forschungsbericht am Beispiel des Teilprojekts an der Technischen Universität Kaiserslautern ausgeführt.