Refine
Year of publication
- 2017 (84) (remove)
Document Type
- Doctoral Thesis (84) (remove)
Has Fulltext
- yes (84)
Keywords
- A/D conversion (1)
- ADAS (1)
- AFDX (1)
- Ableitungsfreie Optimierung (1)
- Achslage (1)
- Anion recognition (1)
- Automation (1)
- Backlog (1)
- Beschränkte Krümmung (1)
- Betriebliche Gesundheitsförderung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (27)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Bauingenieurwesen (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (1)
Diversitätsgenerierende Retroelemente (DGRs) wurden im Jahre 2002 in Bordetella‐Phagen entdeckt
und stellen eine einzigartige Klasse unter den Retroelementen dar. Durch einen speziellen „Copy‐and‐
Replace“ Mechanismus sind sie in der Lage ein bestimmtes Zielgen zu hypermutieren. Bei diesem
Mutagenic Homing‐Prozess wird die RNA der Templat‐Region (TR) durch die elementeigene reverse
Transkriptase (RT) transkribiert. Die dabei entstandene mutierte cDNA wird anschließend in die
variable Region (VR) des Zielgens inkorporiert und dieses somit diversifiziert. Hierbei steht der
experimentelle Nachweis für die Hypermutation durch die RT noch aus. Zudem spielt das akzessorische
Protein (Avd) eine weitere wichtige Rolle im Mutagenic Homing Prozess, wobei dessen tatsächliche
Funktion noch nicht charakterisiert werden konnte. Bis dato gibt es vor allem Analysen in Bezug auf
das Bordetella‐Phagen DGR, womit sich die Frage nach anderen Systemen und allgemeiner
Anwendbarkeit stellt. Daher war die Analyse des Nostoc sp. PCC 7120 DGR Hauptgegenstand dieser
Arbeit, wobei der Fokus auf der Untersuchung der reversen Transkripase (nRT), sowie der
Charakterisierung des akzessorischen Proteins (nAvd) aus dem Nostoc sp. PCC 7120 DGR lag.
Die nRT konnte überexprimiert werden, wobei sie nur teilweise löslich vorlag. Eine effektive
Aufreinigung der nRT konnte mit den hier getesteten Methoden nicht erzielt werden, sodass andere
Aufreinigungsmethoden erprobt werden müssen. Zudem war die nRT nicht lagerfähig, wodurch eine
regelmäßige neue Proteinpräparation nötig war. In Aktivitätsstudien konnten erste Hinweise auf eine
Aktivität der nRT erhalten werden. Dabei konnten die entstandenen Nukleinsäuren nicht nur
detektiert, sondern auch mittels analytischem Verdau als DNA identifiziert werden. Darüber hinaus
konnte die synthetisierte cDNA mittels PCR amplifiziert und die PCR‐Produkte anschließend
sequenziert werden. Hierbei wurden jedoch keine Adenin‐spezifischen oder sonstigen Mutationen
beobachtet. Somit konnte kein Nachweis für Hypermutation durch die RT erbracht werden. Bei
Untersuchungen bezüglich einer möglichen Interaktion zwischen nRT und nAvd konnte keine erhöhte
nRT‐Aktivität durch die nAvd festgestellt werden.
Die Untersuchungen der nAvd zeigten, dass diese Nukleinsäuren bindet. Hierbei waren Präferenzen
gegenüber verschiedenen Nukleinsäuren zu beobachten. Vor allem RNA/DNA‐Hybride zeigt die
höchste Affinität gegenüber der nAvd, während dsDNA eine höhere Affinität zur nAvd aufweist als
ssRNA. Zudem ist die nAvd in der Lage Nukleinsäuren zu hybridisieren. Hierbei hybridisiert sie ATreiche
DNA‐Moleküle von mittlerer Länge (48 bp) am effizientesten. Ein von der nAvd katalysierter
Strangaustausch konnte nicht beobachtet werden. Weiter konnte gezeigt werden, dass die nAvd selbst
bis 95 °C hitzestabil ist und im Anschluss an Hitzestress weiterhin Nukleinsäuren hybridisieren kann.
Darüber hinaus ist sie befähigt Nukleinsäuren unter Hitzestress zu stabilisieren. Diese Ergebnisse lassen
auf eine Rolle der nAvd als Lotse oder zur Stabilisierung von Nukleinsäuren schließen.
Elektromobilität ist in den letzten Jahren ein wichtiges Thema in der Automobilindustrie, der Politik und den Medien geworden. Die Innovation Elektromobilität hat das Potential die gesamte Automobilindustrie und ihre Innovationssysteme zu revolutionieren. Ziel dieser Arbeit ist es den Strukturwandel der Branche und in deren Innovationssystemen zu analysieren. Ein besonderer Fokus liegt dabei auf den Interaktionen und Beziehungen zwischen Organisationen der Wirtschaft, Wissenschaft und Politik. Es wird den Fragen nachgegangen, wie die Innovationssysteme der Branche auf die Veränderungen reagieren, wie diese Veränderungen aufgenommen und verarbeitet werden sowie wer an den Innovationsprozessen der Elektromobilität beteiligt ist.
Dazu werden zunächst die theoretischen Grundlagen des Strukturwandels von Innovationssystemen erarbeitet. Den Ausgangspunkt bilden die begrifflichen und konzeptionellen Grundlagen von Innovationen und Innovationsprozessen. Verschiedene Konzepte von Innovationssystemen gehen davon aus, dass es sich bei Innovationen um Leistungen eines Systems handelt. Innovationssysteme können als soziale Systeme definiert werden, die sich durch die Interaktion von Organisationen bilden und in denen sich Strukturwandel evolutionär vollzieht.
Auf die Untersuchung der theoretischen Grundlagen folgt eine Beschreibung der Akteure der deutschen Automobilindustrie, deren wesentlichen Merkmale und aktuellen Situation. Als Ursachen für die Forderung nach alternativen Antriebskonzepten werden Klimawandel und CO2-Emissionen einerseits und Ölabhängigkeit und Ressourcenverknappung andererseits thematisiert. Die Einführung von Elektromobilität ist mit der Diversifizierung und Elektrifizierung des automobilen Antriebssystems verbunden und kann unterschiedliche Strategien umfassen.
Die Einführung von Elektromobilität führt zu strukturellen Veränderungen in den Innovationssystemen der Automobilindustrie. Der Strukturwandel im Wirtschafts- und Wissenschaftssystem vollzieht sich dabei koevolutionär. In den Innovationssystemen entstehen neue Beziehungen zwischen Organisationen aus der Wirtschaft, Wissenschaft und Politik. In dieser Arbeit werden die Beziehungen in den Projekten der Förderprogramme „Modellregionen für Elektromobilität“ und „Schaufenster Elektromobilität“ genauer analysiert. In den als Triple-Helix-Kooperationen bezeichneten Kooperationen zwischen Wirtschaft, Wissenschaft und Politik lässt sich vor allem eine starke Heterogenität der Akteure beobachten.
Als Ergebnis der Arbeit werden die Folgen von Elektromobilität für die Innovationssysteme der deutschen Automobilindustrie diskutiert. Wesentliche Herausforderungen stellen die zunehmende Komplexität der Innovationssysteme und die Beschleunigung der Innovationsprozesse dar. Die beteiligten Akteure haben verschiedene Strategien zu deren Bewältigung entwickelt. Abschließend werden Empfehlungen zum Umgang mit dem Strukturwandel durch Elektromobilität in den verschiedenen, betroffenen Systemen gegeben.
Im Rahmen dieser Dissertationsschrift wurden erstmals gezielt Eisen(II)-SCO-Komplexe mit einem derivatisierten Diazapyridinophanliganden (L-N4Bz2) hergestellt. Die charakteristischen strukturellen Parameter für die high-spin- und low-spin-Zustände konnten bestimmt werden und können für zukünftige Experimente als Referenz verwendet werden. Der thermisch induzierte, isotrope SCO-Prozess in [Fe(L-N4Bz2)(NCS)2] (2.3) konnte mit einer Vielzahl an strukturellen, magnetochemischen und spektroskopischen Methoden nachgewiesen werden.
Weiterhin konnte zum ersten Mal gezeigt werden, dass sich redoxkontrollierte Veränderungen eines koordinierten Liganden zunutze gemacht werden können, um SCO-Eigenschaften in einem Eisen(II)-Komplex zu etablieren. Dazu wurde der der Einfluss einer ligandzentrierten Reduktion auf die Ligandenfeldstärke in verzerrt oktaedrischen Komplexen untersucht, indem drei Redoxpaare mit Eisen(II)-, Cobalt(II)- bzw. Nickel(II)-Zentralionen mit gleicher Ligandumgebung synthetisiert und durch strukturelle, magnetochemische und spektroskopische Untersuchungen charakterisiert wurden. Ausgehend vom LS-Eisen(II)-Komplex [Fe(L-N4Me2)(bian)](ClO4)2 (3.1b) werden im π-Radikalkomplex [Fe(L-N4Me2)(bian1-)](ClO4) (3.3) SCO-Eigenschaften eingeschaltet. Für [Co(L-N4Me2)(bian1-)](ClO4) (3.4), wird durch die Reduktion des Liganden bian zu bian1- ein Spinzustandswechsel des Co(II)-Ions vom LS-Zustand in [Co(L-N4Me2)(bian)]2+ (3.2) zum HS-Zustand in 3.4 ausgelöst. In den Nickel(II)-Komplexen sind π-Bindungen hingegen nur schwach ausgeprägt und somit hat die ligandbasierte Reduktion geringere Auswirkungen.
Durch kleine chemische Modifikationen konnte der SCO in Radikalkomplexen des Typs [Fe(L-N4Me2)(Rbian1-)](X) in entscheidendem Maße beeinflusst werden. Dies wurde dazu ausgenutzt, um eindeutig zu beweisen, dass die Präsenz eines direkt an das Metallion koordinierten π-Radikalliganden den Eisen(II)-SCO-Prozess entscheidend gegenüber closed-shell-Liganden beschleunigt, wie die temperaturabhängigen mößbauerspektroskopischen Untersuchungen an den einzigartigen Verbindungen [Fe(L-N4Me2)(OMebian1-)](OTf) (3.6a) und [Fe(L-N4Me2)(OMebian1-)](ClO4) ∙ MeCN (3.6b) zeigen. Zusätzlich konnte der für 3.3 ausschließlich in Lösung erreichte antiferromagnetisch gekoppelte HS-Sges = 3/2-Zustand in den Feststoffen 3.6a bzw. 3.6b bestätigt werden.
Redox-neutral decarboxylative coupling reactions have emerged as a powerful strategy for C-C bond formation. However, the existing reaction conditions possess limitations, such as the coupling of aryl halides restricted to ortho-substituted benzoic acids; alkenyl halides were not applicable in decarboxylative coupling reaction. Within this thesis, the developments of Pd/Cu bimetallic catalyst systems are presented to overcome the limitations.
In the first part of the PhD work, a customized bimetallic PdII/CuI catalyst system was successfully developed to facilitate the decarboxylative cross-coupling of non-ortho-substituted aromatic carboxylates with aryl chlorides. The restriction of decarboxylative cross-coupling reactions to ortho-substituted or heterocyclic carboxylate substrates was overcome by holistic optimization of this bimetallic Cu/Pd catalyst system. All kinds of benzoic acids regardless of their substitution pattern now can be applied in decarboxylative cross-coupling reaction. This confirms prediction by DFT studies that the previously observed limitation to certain activated carboxylates is not intrinsic. The catalyst system also presents higher performance in the coupling of ortho-substituted benzoates, giving much higher yields than those previously reported. ortho-Methyl benzoate and ortho-phenyl benzoate which have never before been converted in decarboxylative coupling reactions, gave reasonable yields. These together further confirm the superiority of the new protocol.
In the second part of the PhD work, arylalkenes syntheses via two different Pd/Cu bimetallic-catalyzed decarboxylative couplings have been developed. This part consists of two projects: 2a) decarboxylative coupling of alkenyl halides; 2b) decarboxylative Mizoroki-Heck coupling of aryl halides with α,β-unsaturated carboxylic acids.
In project 2a, widely available, inexpensive, bench-stable aromatic carboxylic acids are used as nucleophile precursors instead of expensive and sensitive organometallic reagents that are commonly used in previously reported transition-metal catalyzed cross-couplings of alkenyl halides. With this protocol, alkenyl halides for the first time are used in decarboxylative coupling reaction, allowing regiospecific synthesis of a broad range of (hetero)arylalkenes in high yields. Unwanted double bond isomerization, a common side reaction in the alternative Heck reactions especially in the coupling of cycloalkenes or aliphatic alkenes, did not take place in this decarboxylative coupling reaction. Polysubstituted alkenes that hard to access with Heck reaction are also produced in good yields. The reaction can easily be scaled up to gram scale. The synthetic utility of this reaction was also demonstrated by synthesizing an important intermediate of fungicidal compound in high yield within 2 steps.
In project 2b, a Cu/Pd bimetallic catalyzed decarboxylative Mizoroki-Heck coupling of aryl halides with α, β-unsaturated carboxylic acids was successfully developed in which the carboxylate group directs the arylation into its β-position before being tracelessly removed via protodecarboxylation. It opens up a convenient synthesis of unsymmetrical 1,1-disubstituted alkenes from widely available precursors. This reaction features good regioselectivity, which is complementary to that of traditional Heck reactions, and also presents excellent functional group tolerance. Moreover, a one-pot 3-step 1,1-diarylethylene synthesis from methyl acrylate was achieved, where solvent changes or isolation of intermediates are not required. This subproject presents an example of carboxylic acids utility in synthesizing valuable compounds which are hard to access via conventional methodologies.
Wie Proteine sich innerhalb weniger Millisekunden korrekt falten können, ist eine der fundamentalen Fragen in der Biochemie. Ein beim Faltungsprozess durchlaufener Übergangszustand ist der molten globule Zustand (MG Zustand), der sich unter bestimmten Bedingungen stabilisieren und untersuchen lässt. In diesem Zustand ähnelt die Sekundärstruktur dem nativen Zustand, während die Tertiärstruktur eher dem vollständig entfalteten Zustand entspricht. In dieser Arbeit wurde der MG Zustand am Beispiel des Maltose bindenden Proteins (MBP) untersucht. Dazu wurde MBP bei pH 3,2 im MG-Zustand stabilisiert und dies mittels Fluoreszenz Spektroskopie bestätigt. Die Abstände zwischen definierten Aminosäuren im MG Zustand wurden durch Spinlabels, die an gezielt mutierten Cysteinpaaren angebracht wurden, mittels Elektronenspinresonanz (EPR) gemessen und mit den Abständen derselben Aminosäuren im nativen Zustand verglichen. Anhand von sieben verschiedenen Doppelmutanten wurde die periphere Struktur mittels gepulster EPR analysiert, zwei weitere Doppelmutanten dienten dazu, die Struktur der molekularen Bindungstasche von MBP mittels CW EPR zu untersuchen. Die Anwesenheit von Maltose führte im MG Zustand zu einer deutlichen Veränderung der Abstände bestimmter Spinlabels in der peripheren Struktur. Dies deutet darauf hin, dass MBP Maltose sogar im MG Zustand binden kann. Durch isotherme Titrationskalorimetrie (ITC) wurde diese Vermutung bestätigt: die Ergebnisse zeigen jedoch, dass der Bindungsprozess zwischen MBP und Maltose im MG Zustand mit 11 fach geringerer Bindungsenthalpie erfolgt wie im nativen Zustand. Die Abstände der Spinlabel Paare neben der Bindungstasche von MBP unterschieden sich im MG Zustand vom nativen Zustand weder mit noch ohne Maltose. Diese Ergebnisse weisen darauf hin, dass MBP im MG Zustand rund um die Bindungstasche bereits eine klar ausgebildete Tertiärstruktur besitzt. Um diese Befunde zu bestätigen, sollten nun Untersuchungen anhand weiterer Doppelmutanten und mittels empfindlicherer Messungen wie z.B. DQC durchgeführt werden.
A Multi-Sensor Intelligent Assistance System for Driver Status Monitoring and Intention Prediction
(2017)
Advanced sensing systems, sophisticated algorithms, and increasing computational resources continuously enhance the advanced driver assistance systems (ADAS). To date, despite that some vehicle based approaches to driver fatigue/drowsiness detection have been realized and deployed, objectively and reliably detecting the fatigue/drowsiness state of driver without compromising driving experience still remains challenging. In general, the choice of input sensorial information is limited in the state-of-the-art work. On the other hand, smart and safe driving, as representative future trends in the automotive industry worldwide, increasingly demands the new dimensional human-vehicle interactions, as well as the associated behavioral and bioinformatical data perception of driver. Thus, the goal of this research work is to investigate the employment of general and custom 3D-CMOS sensing concepts for the driver status monitoring, and to explore the improvement by merging/fusing this information with other salient customized information sources for gaining robustness/reliability. This thesis presents an effective multi-sensor approach with novel features to driver status monitoring and intention prediction aimed at drowsiness detection based on a multi-sensor intelligent assistance system -- DeCaDrive, which is implemented on an integrated soft-computing system with multi-sensing interfaces in a simulated driving environment. Utilizing active illumination, the IR depth camera of the realized system can provide rich facial and body features in 3D in a non-intrusive manner. In addition, steering angle sensor, pulse rate sensor, and embedded impedance spectroscopy sensor are incorporated to aid in the detection/prediction of driver's state and intention. A holistic design methodology for ADAS encompassing both driver- and vehicle-based approaches to driver assistance is discussed in the thesis as well. Multi-sensor data fusion and hierarchical SVM techniques are used in DeCaDrive to facilitate the classification of driver drowsiness levels based on which a warning can be issued in order to prevent possible traffic accidents. The realized DeCaDrive system achieves up to 99.66% classification accuracy on the defined drowsiness levels, and exhibits promising features such as head/eye tracking, blink detection, gaze estimation that can be utilized in human-vehicle interactions. However, the driver's state of "microsleep" can hardly be reflected in the sensor features of the implemented system. General improvements on the sensitivity of sensory components and on the system computation power are required to address this issue. Possible new features and development considerations for DeCaDrive are discussed as well in the thesis aiming to gain market acceptance in the future.
This dissertation describes an indoor localization system based on oscillating magnetic fields and the underlying processing architecture. The system consists of several fixed anchor points, generating the magnetic fields (transmitter), and wearable magnetic field measurement units, whose position should be determined (receiver). The system is evaluated in different environments and application areas. Additionally, various fields of application are discussed and assessed in ubiquitous and pervasive computing and Ambient Assisted Living. The fusion of magnetic field-based distance information and positions derived from LIDAR distance measurements is described and evaluated.
The system architecture consists of three layers, a physical layer, a layer for position and distance estimation between a magnetic field transmitter and a receiver, and a layer which uses several measurements to different transmitters to estimate the overall position of a wearable measurement unit.
Each layer covers different aspects which have to be taken care of when magnetic field information is processed. Especially the properties of the generated magnetic field information are considered in the processing algorithms.
The physical layer covers the magnetic field generation and magnetic Field-Based information transfer, synchronization of a transmitter and the receivers and the description of the locally measured magnetic fields on the receiver side. After a transfer of this information to a central processing unit, the hardware specific signal levels are transformed to the levels of the theoretical magnetic field models. The values are then used to estimate candidate positions and distances. Due to symmetrical effects of the magnetic fields, it is only possible to reduce the receiver position to 8 points around the transmitter (one position in each of the octants of the coordinate system). The determined positions have a mean error of 108 cm, the average error of the distance is 40 cm.
On top of this, the distance and position information against different transmitters are fused, this covers clock synchronization of transmitters, triggering and scheduling sequences and distance and position based localization and tracking algorithms. The magnetic-field-based indoor localization system has been evaluated in different applications and environments; the mean position error is 60 cm to 70 cm depending on the environment. A comparison against an RF-based indoor localization system shows the robustness of magnetic fields against RF shadows caused by big metal objects.
We additionally present algorithms for regions of interest detection, working on raw magnetic field information and transformed position and distance information. Setups in larger areas can distinguish regions which are further than 50 cm apart, small scale coil setups (3 transmitters in 2m^3) allow to resolve regions below 20 cm.
In the end, we describe a fusion algorithm for a wearable localization system based on 4 LIDAR distance measurement units and magnetic field-based distance estimation. The magnetic field indoor localization system provides distance proximity information which is used to resolve ambiguous position estimates of the LIDAR system. In a room (8m × 10m), we achieve a mean error of 8 cm.
Novel Pseudocyclopeptides Containing 1,4-Disubstituted 1,2,3-Triazole Subunits for Anion Recognition
(2017)
Anion recognition is one of the most rapidly growing areas in the field of Supramolecular Chemistry due to the vital role of anions in the environment, in biology and in industry. The development of new anion binding motifs that can also be combined with known ones in a novel receptor is a timely topic. In this context, we have synthesized three cyclic pseudopeptides 16, 17 and 18, containing conventional H-bond donors (amide) in combination with, respectively, triazole C–H or triazole C–I functions.
All three receptors were synthesized by using a combination of peptide and click chemistry. Structural studies show that all three pseudopeptides adopt conformations with the triazole C-H or C-I groups pointing into the cavity center to allow them to contribute to binding. Quantitative binding studies showed that the cyclic pseudohexapeptide 1 coordinates to oxoanions (sulfate, dihydrogenphosphate, and hydrogenpyrophosphate) with different binding strengths and complex stoichiometries in 2.5 vol% water/DMSO.
Anion selectivity of 16 significantly changes when the cavity size of this pseudopeptide is increased to obtain the larger analog 17. This pseudooctapeptide forms well defined complexes with protonated phosphate anions. The complexation involves sandwiching of a cyclic tetramer of dihydrogenphosphate or a dimer of dihydrogenpyrophosphate anions by two pseudopeptide rings. Both complexes were characterized structurally in the solid state. They are stable in solution (2.5 vol% water/DMSO) as result of the interaction between hydrogen bond donors of 17 and the oxygen atoms of the anionic aggregates. The complexes can also be transferred to the gas phase without decomposition.
Anion selectivity of 16 was further altered by introducing iodine atom in the C5 position of the 1,4-disubstituted 1,2,3-triazole units. The corresponding cyclic pseudohexapeptide 18 features a smaller cavity diameter than 17 as a result of the iodide atoms and was therefore found to only coordinate to smaller spherical anions such as chloride. It forms 1:1 complexes with chloride, bromide and iodide in 2.5 vol% water/DMSO. Among the halides, 18 has highest affinity for chloride followed by bromide and iodide. The same stability trend was also observed in the gas phase by ESI/MS.
Concluding, I prepared three new macrocyclic pseudopeptides during my PhD and characterized their complexes with anions in terms of structure and affinity. All of these pseudopeptides were shown to interact with phosphate-derived anions, which renders them unique among the anion receptors developed in the Kubik group before.
Betonfertigteile mit integriertem Dämmstoff aus Polystyrol bieten eine ausgezeichnete Lösung zur baulichen Ausführung von Außenwandbauteilen. Die Vorteile gegenüber der Ortbetonbauweise, wie bspw. die Erfüllung hoher Qualitätsansprüche aufgrund der Vorfertigung im Fertigteilwerk oder das Entfallen von Arbeitsschritten auf der Baustelle, ermöglichen einen wirtschaftlichen Bauprozess. Bei der Halbfertigteilbauweise werden nur die äußeren Betonschalen vorgefertigt. Anschließend werden die Wände auf die Baustelle transportiert und mit Ortbeton zum Endquerschnitt verfüllt. Dies erspart den zeit- und kostenintensiven Schalungsvorgang und verringert gleichzeitig das Transportgewicht. Der beim Ausbetonieren der Halbfertigteile auftretende Frischbetondruck muss von Verbindungsmitteln, die zur Kopplung der Betonschalen dienen, mit ausreichender Sicherheit aufgenommen werden. Der Frischbetondruck ist derzeit nach DIN 18218 „Frischbetondruck auf lotrechte Schalungen“ anzunehmen. Die Beeinflussung durch einen integrierten Dämmstoff oder weitere Parameter einer Elementwand bleibt bisher allerdings unberücksichtigt. In Abhängigkeit der Randbedingungen wird der Frischbetondruck stark überschätzt, was zu einem unwirtschaftlichen Bemessungsergebnis im Bauzustand führt. Ziel der vorliegenden Arbeit ist die realitätsnahe Beschreibung des Frischbetondrucks in Elementwänden mit integriertem Dämmstoff.
Angesichts der Vielzahl an Einflussparametern werden die theoretischen und experimentellen Untersuchungen dieser Arbeit systematisch geplant und durchgeführt. In Voruntersuchungen werden bereits einflussschwache Einflussparameter ausgeschlossen und maßgebende Einflussparameter für weiterführende Untersuchungen bestimmt. Neben zahlreichen kleinmaßstäblichen Versuchsreihen, die größtenteils zur Analyse und Beschreibung von einzelnen geometrischen oder werkstoffspezifischen Eigenschaften dienen, werden auch großmaßstäbliche Elementwände untersucht. Diese verfolgen das Ziel, ein besseres Verständnis für die Entstehung des Frischbetondrucks unter Einbeziehung von bauausführungstechnischen Randbedingungen zu entwickeln.
Auf Grundlage der theoretisch und experimentell gewonnenen Erkenntnisse dieser Arbeit wird ein realitätsnahes Berechnungsmodell zur Ermittlung des horizontalen Frischbetondrucks in Elementwänden mit integriertem Dämmstoff abgeleitet. Nach Validierung des Modells an Großversuchen und vereinfachenden Annahmen für einen praxisgerechten Einsatz kann der Frischbetondruck analog zur DIN 18218 mithilfe von einfachen Gleichungen, Tabellen und Diagrammen ermittelt werden. Die Anwendung und der wirtschaftliche Vorteil des Berechnungsmodells werden am Ende der Arbeit anhand von zwei Berechnungsbeispielen demonstriert.
Neben der Beeinflussung des Frischbetondrucks wirkt sich die Umlagerung von Zementleim aus dem Frischbeton in den Dämmstoff auch auf die Eigenschaften des Ortbetons und des Dämmstoffs der Elementwand aus. Die Untersuchungsergebnisse zeigen, dass sich zwar die wärmedämmende Wirkung des Dämmstoffs verschlechtert, dies jedoch bei hohen Dämmstoffstärken zur Sicherstellung des Wärmeschutzes nach EnEV 2016 vernachlässigt werden kann. Die Druckfestigkeit des Ortbetons infolge des Zementleimentzugs wird durch die Verringerung des w/z-Werts und die nachbehandelnde Wirkung des feuchten Dämmstoffs positiv beeinflusst.
The thesis studies change points in absolute time for censored survival data with some contributions to the more common analysis of change points with respect to survival time. We first introduce the notions and estimates of survival analysis, in particular the hazard function and censoring mechanisms. Then, we discuss change point models for survival data. In the literature, usually change points with respect to survival time are studied. Typical examples are piecewise constant and piecewise linear hazard functions. For that kind of models, we propose a new algorithm for numerical calculation of maximum likelihood estimates based on a cross entropy approach which in our simulations outperforms the common Nelder-Mead algorithm.
Our original motivation was the study of censored survival data (e.g., after diagnosis of breast cancer) over several decades. We wanted to investigate if the hazard functions differ between various time periods due, e.g., to progress in cancer treatment. This is a change point problem in the spirit of classical change point analysis. Horváth (1998) proposed a suitable change point test based on estimates of the cumulative hazard function. As an alternative, we propose similar tests based on nonparametric estimates of the hazard function. For one class of tests related to kernel probability density estimates, we develop fully the asymptotic theory for the change point tests. For the other class of estimates, which are versions of the Watson-Leadbetter estimate with censoring taken into account and which are related to the Nelson-Aalen estimate, we discuss some steps towards developing the full asymptotic theory. We close by applying the change point tests to simulated and real data, in particular to the breast cancer survival data from the SEER study.
In the present work the concept of decarboxylative couplings and the strategy to use carboxylates as directing groups for C-H functionalizations have been decisively improved in three ways. These concepts emphasize the multifaceted nature of aromatic carboxylic acids as expedient starting materials in homogeneous catalysis to construct highly desirable molecular scaffolds in a straightforward fashion.
In the first project, the restriction of decarboxylative biaryl synthesis to exclusively couple aryl halides with ortho-substituted benzoic acids has been overcome by a holistic optimization of a Cu/Pd bimetallic catalyst system. Long ago postulated, this is now the proof that decarboxylative cross-couplings are not intrinsically limited to different decarboxylation propensities of benzoic acids or hampered by excess halides, accessing for the first time the entire spectrum of aromatic carboxylic acids as starting materials for the decarboxylative biaryl synthesis. The second project uses the carboxyl moiety as directing group for the ortho-arylation with aryl bromides and -chlorides catalyzed by comparatively inexpensive ruthenium. The carboxylic acid group remains untouched after the ortho-functionalization giving the possibility to a wealth of further diversifications via decarboxylative ipso-substitutions. Within the same project, a Cu/Ru bimetallic catalyst system was found to be able to switch the decarboxylative biaryl coupling from the ipso- to the ortho-position, complementing the Cu/Pd system developed in the first project. In a third project, a redox neutral C-C bond formation revealed the full synthetic potential of the carboxyl group. The COOH moiety acts as a classical directing group for the C-H hydroarylation of internal alkynes to form highly desirable 2-vinyl benzoic acids. With propargylic alcohols the hydroarylation is followed by an in situ esterification, showing that after easing the C-H cleavage, the directing group can be transformed into another functional group, thus, acting as a transformable directing group. Most importantly, a new fascinating reaction mode is activated by embedding the decarboxylation within the C-H functionalization event. This mode of action is capable to solve regioselectivity issues that inherently occur when dealing with carboxylates as directing groups. A so-called deciduous directing group is cast off simultaneously within the C-H functionalization event, resulting in an inherently monoselective pathway.
These methods were developed with the permanent goal of ensuring high sustainability. They do require neither pre-functionalized starting materials nor additional oxidants and provide access to a number of chemically relevant molecules from abundant, inexpensive and toxicologically innocuous educts.
Im Kontext des demographischen Wandels, insbesondere des steigenden Anteils älterer Menschen, verweisen Politik und Wissenschaft auf die Zivilgesellschaft, um Versorgungsdefizite auszugleichen. Die Nachbarschaft nimmt dabei eine zentrale Rolle ein. Nachbarschaftliche Beziehungen erscheinen als ideale Instanzen, um Unterstützungsbedarfe Älterer aufzufangen, aber auch als Kontexte, in denen das Engagement von „jungen Alten“ genutzt werden kann. Bislang ist allerdings unklar, wie Beziehungen zu Nachbarn von Älteren interpretiert werden und damit, welche Potenziale für Unterstützung vorliegen.
In der vorliegenden Arbeit wird mittels qualitativer Befragungen das subjektive Verständnis von Nachbarschaft und Nachbarschaftshilfe bei älteren Menschen untersucht, die zur Gruppe der „jungen Alten“ gezählt werden können, d.h. noch ein aktives und unabhängiges Leben führen. Die Konzepte, die es herauszuarbeiten gilt, werden den durch die Befragten berichteten Interaktionen und Formen des Kontakts gegenübergestellt. Dabei werden drei unterschiedliche Wohnkontexte berücksichtigt: Erstens Nachbarschaftsbeziehungen in städtischen Wohnlagen; zweitens in Einfamilienhaussiedlungen, in denen sog. Siedlergemeinschaften bestehen, in denen sich die Bewohnerinnen und Bewohner als Vereine zusammengeschlossen haben; drittens in gemeinschaftlichen Wohnprojekten, bei denen das nachbarschaftliche Miteinander einen Teil des Selbstverständnisses ausmacht.
Es wird der Frage nachgegangen, wie sich die subjektive Interpretationen und Argumentationen älterer Menschen in Wohnkontexten mit unterschiedlichen Formen der Organisation des Zusammenlebens in Bezug auf Nachbarschaftsbeziehungen und die darin stattfindenden Hilfeleistungen darstellen. Die Arbeit soll so zu einem besseren Verständnis von Nachbarschaft älterer Menschen beitragen. Schließlich soll damit ein Beitrag geleistet werden zur Klärung der Frage, ob und unter welchen Bedingungen Nachbarschaft „belastbar“ ist und somit Nachbarschaftshilfe ein Konzept darstellen kann, dass tragfähige Strukturen für gegenseitige Unterstützung bietet. Die Ergebnisse deuten darauf hin, dass Nachbarschaftsbeziehungen ein durchaus hohes Potenzial aufweisen können in Bezug auf kleine, alltagsunterstützende Leistungen. Dauerhafte und intensivere Formen der Unterstützung sind dagegen selten und bedürfen besonderer, individueller und/ oder struktureller Rahmenbedingungen.
Im Zentrum dieser Arbeit steht die theoretische Beschreibung der magnetischen Anisotropie des Rhenium(IV)ions unter Anwendung von Dichtefunktionaltheorie. Das Ziel ist die Untersuchung der Eignung ein- und zweikomponentiger Dichtefunktionalmethoden zur Berechnung der magnetischen Anisotropie von Rhenium(IV)komplexen sowie der Vorschlag eines Liganden, der einen dreikernigen MnReMn-Komplex ermöglicht, der Einzelmolekülmagnetcharakteristiken aufweist.
Zu Beginn sollen drei einkernige Komplexe mit ein- und zweikomponentigen Dichtefunktionalmethoden (1c-DFT und 2c-DFT) untersucht: [ReCl6]2–, [ReCl4ox]2– und [ReCl4(CN)2]2–. Im einkomponentigen erfolgt die Berücksichtigung der Spin-Bahn-Kopplung über Störungstheorie 2. Ordnung unter der Annahme, dass diese die führende Ordnung in der Spin-Bahn-Kopplung ist. Dabei wurde festgestellt, dass dies bei Rhenium(IV), anders als beispielsweise bei 3d-Ionen, nicht der Fall ist. Vielmehr besitzt die Spin-Bahn-Kopplung auch in 4. Ordnung einen nicht zu vernachlässigenden Einfluss. Deshalb ist Störungstheorie 2. Ordnung ungeeignet, um die magnetische Anisotropie von Re(IV)-Komplexen zu bestimmen.
Zudem werden Berechnungen am dreikernigen [(PY5Me2Mn)2ReCl4(CN)2]2+-Komplex vorgestellt, der bereits in der Literatur beschrieben und hinsichtlich seiner magnetischen Anisotropie experimentell untersucht wurde. Dieser besteht aus einem [ReCl4(CN)2]2– Kern und jeweils zwei Mangan(II)ionen, die durch eine fünfzähnige „Endkappe“ abgeschlossen werden. Sowohl experimentell als auch theoretisch wurde festgestellt, dass die Rhombizität des Komplexes hoch ist, obwohl die lokale Symmetrie in der ersten Koordinationssphäre des Rheniumions (nahezu) D4h entspricht. Die Manganionen erzeugen durch die nicht-lineare Anordnung der Mn-NC-Re-CN-Mn-Einheit eine trigonale Verzerrung der Elektronenverteilung, die wiederum die Rhombizität der magnetischen Anisotropie vergrößert. Es wurde durch Berechnungen festgestellt, dass eine lineare Anordnung die Rhombizität erniedrigt. Aufgrund dieser Beobachtungen wurde die Suche nach einem Liganden aufgenommen, der als fünfzähnige „Endkappe“ fungiert und dabei eine lineare Anordnung der Mn-NC-Re-CN- Mn-Einheit ermöglicht. Dies wurde durch den PyMeAm4-Liganden, der aus einer Pyridin- und vier Amideinheiten besteht, in silico erreicht.
Das Ziel der vorgelegten Dissertation bestand darin, eine eigenständige Methode zur Berechnung der Mößbauer Isomerieverschiebung δ und Quadrupolaufspaltung ∆EQ zu entwickeln und Rechenkonditionen zu formulieren, die eine optimale Übereinstimmung berechneter und gemessener Werte eben dieser Mößbauerparameter gewährleisten.
Die dafür eigenständig angefertigten Programme wurden innerhalb einer TURBO-MOLE Version implementiert, welche als Entwicklerversion in der Arbeitsgruppe von Prof. Dr. Christoph van Wüllen genutzt wird. Diese Programme ermöglichen die Anfertigung von quantenchemischen Rechnungen unter Berücksichtigung der Ausdehnung der Atomkerne, indem sie die Ladungsverteilung des Atomkerns über eine Gaußfunktion simulieren.
Auf Grundlage dieser expliziten Berücksichtigung der Kernladungsverteilung lässt sich ein Operator berechnen, der als Produkt mit der Elektronendichte am Atomkern die Berechnung der Isomerieverschiebung zulässt. Des Weiteren lässt sich der Elektrische Feldgradiententensor berechnen, welcher die räumliche Verteilung der Elektronendichte um ein Atom beschreibt und so zur Berechnung der Quadrupolaufspaltung dient.
Mit Hilfe dieser Programme wurden umfassende Rechnungen angefertigt, die sowohl den Einfluss der verwendeten Basis als auch des Funktionals auf die Güte der dichtefunktionaltheoretischen Rechnung ermitteln und bewerten können. Dazu wurde ein Katalog an Molekülen erstellt, der den gesamten möglichen Wertebereich experimenteller Daten abdeckt. Diese Moleküle wurden unter Verwendung einer Referenzbasis berechnet, die sämtliche theoretischen Anforderungen an eine zur optimalen Berechnung der Mößbauerparameter geeigneten Basis erfüllt. Die Ergebnisse dieser Rechnungen dienten als Referenzwerte, welche mittels linearer Regression mit den Ergebnissen verschiedener getesteter Basissätze verglichen wurden. Dieses Verfahren wurde durch den Abgleich der experimentellen Daten der zugehörigen Moleküle vervollständigt.
Das Ergebnis dieser Benchmarkingprozesse zeigt, dass die Beschreibung des Rumpfbereichs des Atoms maßgeblich die Güte der Ergebnisse beeinflusst. Basissätze mit voller Qualität in allen Orbitalen führen zu einer deutlich höheren Übereinstimmung der berechneten Daten mit sowohl den Referenz- als auch den experimentellen Daten. Sie sind solchen Basissätzen vorzuziehen, die nur die Va- lenzorbitale mit der vollen Qualität der Basis beschreiben.
In der vorliegenden Arbeit wurden 18 Saccharomyces-Hefestämme sowie zwei Stämme der Nichtsaccharomyces-Hefen Torulaspora delbruckii und Metschnikowia pulcherrima und ein Enzympräparat aus Aspergillus niger in Gärungen im Labor- und Praxismaßstab sowie in betriebsüblichen Wein- und Sektgärungen bezüglich ihres Potentials zur Freisetzung von glycosidisch gebundenen Aromastoffen charakterisiert. Die Untersuchungen wurden in drei Jahrgängen für die Rebsorten Chardonnay, Riesling und Muskateller durchgeführt. Hierbei wurden die Verfahren der Traubenverarbeitung zur Intensivierung der unterschiedlichen Ausgangsgehalte an Aromastoffvorläufern variiert. Zusätzlich wurden in Mosten der Rebsorten Riesling, Muskateller und Gewürztraminer die Einflussfaktoren Maischestandzeit und Pressung auf den Ausgangsgehalt an Aromastoffvorläufern untersucht. Alle Moste, hergestellten Weine, Grundweine und Sekte sind aromachemisch mittels SPE/GC-MS sowie die Weine und Sekte sensorisch durch die deskriptive Analyse untersucht worden. Anhand multivariater Statistik wurden die Datensätze modelliert. Die 18 eingesetzten Saccharomyces-Hefestämme sowie zusätzlich zwei Laborstämme der Art Debaromyces hansenii und Pichia anomala wurden mittels Plattentests unter Verwendung von YNB-Mangelmedium bei Zugabe der Substrate Arbutin und Cellobiose als Kohlenstoff-Quelle sowie mittels pNPG-Assay quantitativ auf Glycosidase-Aktivität getestet. Das Enzympräparat wurde ebenfalls mit dem Assay untersucht. Mittels qPCR erfolgte die Analyse der relativen Genexpression der mit der Glycosidase-Aktivität von Saccharomyces-Hefen in Verbindung stehenden Gene EXG1, SPR1 und YIR007W über den Verlauf einer Gärung. Die Analyse der Aromastoffvorläufer wurde mittels einer im Zuge der Arbeit etablierten SPE/GC-MS-Methode für die Injektion großer Probenvolumina durchgeführt. Anhand dieser Analytik als Referenzmethode sollte eine Schnellanalytik mittels FT-MIR entwickelt werden.
Die Untersuchungen zur Variation der Traubenverarbeitung demonstrierten einen signifikanten Einfluss auf die Aromastoffvorläufer-Gehalte im Most. Erstmalig konnte in dieser Arbeit verdeutlicht werden, dass eine verlängerte Maischestandzeit sowie gesteigerter Pressdruck bis hin zum fertigen Wein und Sekt als signifikanter Einflussfaktor sowohl auf die Gehalte der Aromastoffvorläufer als auch auf die Sensorik bestehen bleibt. Die Auswahl des Saccharomyces-Hefestammes hingegen konnte nicht als signifikanter, maximal als marginaler Einflussfaktor auf die Freisetzung der Aromastoffvorläufer oder die Sensorik der finalen Weine, Grundweine und Sekte identifiziert werden. Es wurden selbst bei weitestgehendem Ausschluss anderer mikrobiologischer Einflussfaktoren keine reproduzierbaren Unterschiede zwischen den untersuchten Hefestämmen nachgewiesen, wodurch kein prognostizierbarer Effekt ermittelt werden konnte. Dieses Ergebnis konnte durch die Charakterisierung der Enzymausstattung und aktivität der Hefen erklärt werden. Die Hefen konnten in den Plattentests die glycosidische Bindung der Substrate Arbutin und Cellobiose nicht spalten. Da Arbutin als spezifisch zum Nachweis des Enzyms 1,4 β Glucosidase gilt, kann davon ausgegangen werden, dass das Enzym in den Saccharomyces-Hefen nicht exprimiert wurde. Detektierbar mittels pNPG-Assay war hingegen eine basale Glycosidase-Aktivität, welche vermutlich auf die Nebenaktivität der exo 1,3 β Glucanase Exg1p zurückzuführen ist. Für das korrespondierende Gen EXG1 wurde mittels qPCR über den Verlauf einer Gärung proportional zum Abbau der Glucose eine ansteigende relative Expression bestimmt. Glucose scheint als Hemmstoff für die Genexpression von EXG1 zu wirken. Mit dem Anstieg der Genexpression ging die Abnahme der glycosidisch gebundenen Aromastoffvorläufer einher. Zwischen den untersuchten Saccharomyces-Hefestämmen bestanden dabei keine Unterschiede. Die Analyse der Sekte ergab nach neunmonatiger zweiter Gärung signifikante Unterschiede zwischen den regulär mit Hefe hergestellten Sekten und den ausschließlich unter Säureeinfluss stehenden Varianten ohne Hefezugabe. Damit konnte verdeutlicht werden, dass Saccharomyces-Hefen eine Glycosidase-Aktivität ausbilden, da sie im Vergleich zur ausschließlichen säurehydrolytischen Wirkung signifikant erhöht Aromastoffvorläufer freigesetzt hatten. Die Verwendung verschiedener Hefestämme führte hingegen nicht zu konsistenten Unterschieden in der Freisetzung der Aromastoffvorläufer und blieb ohne bemerkenswerte Auswirkungen auf die Sensorik der Grundweine und Sekte. Die im Praxismaßstab hergestellten Weine bestätigten diese Beobachtungen. Das aus Aspergillus niger stammende Enzympräparat AR2000 zeichnete sich hingegen in der Quantifizierung der Glycosidase-Aktivität mit ca. 1000fach erhöhter Aktivität gegenüber den Hefen aus. Dementsprechend setzte das Enzym in den Gärungen signifikant erhöht Aromastoffvorläufer frei und führte zu veränderten sensorischen Profilen der Weine und Sekte. Die weiterhin in die Versuche einbezogenen Nichtsaccharomyces-Hefen wurden teilweise positiv auf das Enzym β Glucosidase getestet und waren, insbesondere im Fall des Pichia anomala Stammes, auch durch eine signifikant erhöhte quantitative Enzymaktivität charakterisiert. Durch die umfassende Charakterisierung der Saccharomyces-Hefen im Vergleich mit Nichtsaccharomyces-Hefen und Enzympräparat wurde deutlich, dass die Glycosidase-Aktivität der Saccharomyces-Hefen nicht ausreicht, um das Aromapotential während der Wein- und Sektbereitung bedeutend ausschöpfen zu können.
Die in dieser Arbeit etablierte large volume injection GC-MS-Methode wurde validiert und gilt als eine stabile Methode mit hohen Wiederfindungsraten und guter Reproduzierbarkeit. Aufgrund von probenabhängigen Verlusten durch die SPE und die möglicherweise unvollständige enzymatische Spaltung der Aromastoffvorläufer bleibt der Gesamtmethode vermutlich ein systematischer Fehler der absoluten Aromastoffvorläufer-Gehalte zueigen, vergleichende Analysen sind jedoch problemlos möglich. Zum jetzigen Kenntnisstand existiert keine alternative Analysemethode. Die Unschärfe der SPE/GC-MS-Analytik pflanzte sich entsprechend bei der Entwicklung der Schnellmethode zur Quantifizierung der Aromastoffvorläufer mittels FT-MIR fort, welche mit der GC-MS-Methode als Referenzmethode etabliert werden sollte. Im Zuge der Methodenentwicklung am Gerät FT 120 Winescan (Foss) wurde zunächst die Signalintensität der Analyten in den Spektren verbessert, da Aromastoffvorläufer in Most und Wein unterhalb der üblichen Nachweisgrenze der MIR Spektroskopie liegen. Diese Erhöhung der Signalintensität wurde durch eine Vergrößerung der Küvettenstärke auf 150 µm und durch Verwendung der Lösungsmittel Dimethylsulfoxid oder Methanol erreicht. Für beide Küvetten-Lösungsmittel-Kombinationen wurde jeweils eine Basiskalibration mit einem Probensatz aus 37 heterogenen Most- und Weinproben verschiedener Rebsorten und Herkunft erstellt. Die Kalibrationen waren durch vielversprechende statistische Vorhersageparameter charakterisiert. Der Validierung mit unabhängigen Datensätzen konnten beide Kalibrationen aber bisher nicht standhalten.
In change-point analysis the point of interest is to decide if the observations follow one model
or if there is at least one time-point, where the model has changed. This results in two sub-
fields, the testing of a change and the estimation of the time of change. This thesis considers
both parts but with the restriction of testing and estimating for at most one change-point.
A well known example is based on independent observations having one change in the mean.
Based on the likelihood ratio test a test statistic with an asymptotic Gumbel distribution was
derived for this model. As it is a well-known fact that the corresponding convergence rate is
very slow, modifications of the test using a weight function were considered. Those tests have
a better performance. We focus on this class of test statistics.
The first part gives a detailed introduction to the techniques for analysing test statistics and
estimators. Therefore we consider the multivariate mean change model and focus on the effects
of the weight function. In the case of change-point estimators we can distinguish between
the assumption of a fixed size of change (fixed alternative) and the assumption that the size
of the change is converging to 0 (local alternative). Especially, the fixed case in rarely analysed
in the literature. We show how to come from the proof for the fixed alternative to the
proof of the local alternative. Finally, we give a simulation study for heavy tailed multivariate
observations.
The main part of this thesis focuses on two points. First, analysing test statistics and, secondly,
analysing the corresponding change-point estimators. In both cases, we first consider a
change in the mean for independent observations but relaxing the moment condition. Based on
a robust estimator for the mean, we derive a new type of change-point test having a randomized
weight function. Secondly, we analyse non-linear autoregressive models with unknown
regression function. Based on neural networks, test statistics and estimators are derived for
correctly specified as well as for misspecified situations. This part extends the literature as
we analyse test statistics and estimators not only based on the sample residuals. In both
sections, the section on tests and the one on the change-point estimator, we end with giving
regularity conditions on the model as well as the parameter estimator.
Finally, a simulation study for the case of the neural network based test and estimator is
given. We discuss the behaviour under correct and mis-specification and apply the neural
network based test and estimator on two data sets.
We discuss the portfolio selection problem of an investor/portfolio manager in an arbitrage-free financial market where a money market account, coupon bonds and a stock are traded continuously. We allow for stochastic interest rates and in particular consider one and two-factor Vasicek models for the instantaneous
short rates. In both cases we consider a complete and an incomplete market setting by adding a suitable number of bonds.
The goal of an investor is to find a portfolio which maximizes expected utility
from terminal wealth under budget and present expected short-fall (PESF) risk
constraints. We analyze this portfolio optimization problem in both complete and
incomplete financial markets in three different cases: (a) when the PESF risk is
minimum, (b) when the PESF risk is between minimum and maximum and (c) without risk constraints. (a) corresponds to the portfolio insurer problem, in (b) the risk constraint is binding, i.e., it is satisfied with equality, and (c) corresponds
to the unconstrained Merton investment.
In all cases we find the optimal terminal wealth and portfolio process using the
martingale method and Malliavin calculus respectively. In particular we solve in the incomplete market settings the dual problem explicitly. We compare the
optimal terminal wealth in the cases mentioned using numerical examples. Without
risk constraints, we further compare the investment strategies for complete
and incomplete market numerically.
Kurzfassung
Der zunehmende internationale Wettbewerb bewirkt, dass Unternehmen und auch öffentliche Einrichtungen/Institutionen ihr technisches Know-how bzw. ihre Innovationsvorsprünge gegenüber Dritten absichern müssen. Dies führt zwangsläufig dazu, dass die charakteristischen Merkmale innovativer Technologien vermehrt zum Patent angemeldet werden. Eine systematisierte, digitale Erfassung und Auswertung eingegangener Ideen, Erfindungen/Technologien und deren Koordinierung trägt in erheblichem Maße zur Steigerung der Effizienz und Effektivität des Innovations- und Technologiemanagements im Unternehmen bei. Jedoch sind die Chancen und Risiken bezüglich der gewerblichen Anwendung, die technische Funktionalität sowie die Erteilungswahrscheinlichkeit eines Patents in diesem frühen Stadium der Entwicklung meist sehr schwer zu prognostizieren. In Anbetracht dessen stehen die jeweiligen Entscheidungsträger vor dem Problem, ein für die Bewertung geeignetes Verfahren und das dazugehörige Werkzeug zu wählen, welche die Anforderungen an eine prozessbegleitende und umfassende Bewertung von patentrelevanten Innovationsvorhaben erfüllt. Eine prozessbegleitende Bewertung ist zudem mit einer kontinuierlichen, zum Teil rapiden Änderung der bewertungsrelevanten Parameter im Laufe der Entwicklung verbunden. Eine dynamische Evaluierung des Erfolgs- und des Risikopotenzials von Innovationsvorhaben ist daher von entscheidender Bedeutung. Nur so ist eine projektweite Transparenz des Gesamtprojektstatus gegeben und eine präventive Projektkoordinierung uneingeschränkt möglich.
Ziel dieser Arbeit ist daher die Entwicklung eines einheitlichen, aussagekräftigen und nachvollziehbaren Bewertungsverfahrens zur prozessbegleitenden und umfassenden Bewertung von Patenten und patenrelevanten Innovationsvorhaben. Hierbei werden interdisziplinäre Schwerpunkte und deren Parameter in ein dynamisches, homogenes und transparentes Bewertungsmodell zusammengeführt. Darüber hinaus soll ein fachkundiger Bewerter die Möglichkeit erhalten, auf Basis des Bewertungsergebnisses phasenabhängig geeignete Handlungs-empfehlungen abzugeben, die für eine ganze Reihe wichtiger Entscheidungen und Vorgehensweisen im Innovations- und Technologiemanagement von zentraler Bedeutung sind. Als Bewertungsobjekte kommen Ideen, virtuelle Modelle, prototypisch umgesetzte Teilsysteme, Produkte oder Verfahren, Patentanmeldungen, Patente etc. in Betracht.
Bei bisherigen Verfahren zur Bewertung von Patenten und patentrelevanten Innovationsvorhaben liegt die Problematik in der schwierigen Erfassung und Quantifizierung der zukünftigen Potenziale und der damit einhergehenden Risiken von innovativen Technologien und der daraus resultierenden Prognose. Dabei zeigte sich, dass keines der vorhandenen Bewertungsverfahren im Stande ist, bereits in den frühen Phasen des Innovationsprozesses eine aussagefähige und umfassende gesamtwirtschaftliche Betrachtung von Innovationsvorhaben und Patenten zu ermöglichen und zugleich die Anforderungen der DIN 77100 und die Grundsätze des IDW-Standards zu erfüllen. Eine Bewertung von patentrelevanten Innovationsvorhaben gemäß der DIN 77100 und dem IDW-Standard erfordert die Berücksichtigung qualitativer und quantitativer rechtlicher, technischer, wirtschaftlicher und monetärer Einflussfaktoren im Bewertungsalgorithmus. Dies setzt einen klar strukturierten, transparenten und nachvollziehbaren Bewertungsprozess voraus. Ferner soll das zu entwickelnde Modell im Stande sein, den monetären Wert aus den verschiedenen Blickwinkeln der Verwertung, z. B. Herstellung und Vertrieb, Lizenzierung, Verkauf usw. darzustellen bzw. zu berechnen.
Der Bewertungsvorgang der hier entwickelten Bewertungsmethode besteht im Wesentlichen aus den drei Teilschritten ‚Potenzial- und Risikoanalyse‘, ‚Festlegung der Bedingungen für die monetäre Wertermittlung‘ und ‚Wirtschaftlichkeitsanalyse und monetäre Wertermittlung‘. Zentraler Bestandteil der Potenzial- und Risikoanalyse ist eine „dynamische“ Nutzwertanalyse, mit deren Hilfe die Erfolgswahrscheinlichkeiten des Projektes nach zuvor definierten qualitativen und quantitativen Bewertungskriterien errechnet und damit vergleichbar gemacht werden. Dadurch ist es möglich, beschreibende und oft auch pauschal und qualitativ gehaltene Informationen in quantitativ verwertbare Größen zu transformieren und das Projektpotenzial und –risiko in Zahlenwerten auszudrücken. Die Nutzwertanalyse ihrerseits besteht aus den drei Modulen ‚Patentrechtliche Analyse‘, ‚Technische Analyse‘ und ‚Wirtschaftliche Analyse‘, in denen die rechtlichen, technischen und wirtschaftlichen Bewertungskriterien und deren entsprechende Ausprägungen enthalten sind. Durch die Modifizierung der Nutzwertanalyse mit dynamischen Checklisten, die eine unmittelbare Anpassung der Parameter an die vorliegenden Projektbedingungen erlauben, ist es erstmals möglich, eine quantitative Aussage zu den erreichten Zielerfüllungsgraden und den damit verbundenen Projektrisiken zu jedem Zeitpunkt des Innovationsprozesses zu treffen. Die Potenzial- und Risikoanalyse wird durch ein modifiziertes dynamisches Investitionsrechenverfahren ergänzt, so dass eine gesamtwirtschaftliche Betrachtung des Bewertungsobjektes aus verschiedenen Blickwinkeln möglich ist.
Weitere bedeutungsvolle Bestandteile der Bewertungsmethode sind die Wirtschaftlichkeitsanalyse und die montäre Wertermittlung des Bewertungsgegenstandes. Zur Durchführung der Wirtschaftlichkeitsanalyse, die ein wichtiger Teil der monetären Wertermittlung ist, werden die bewertungsrelevanten Parameter, wie beispielsweise das Projektpotenzial, der Diskontierungszins, die prognostizierten Umsatz-/Absatzzahlen und Aufwendungen, der Lizenzsatz, der Ziel-verkaufspreis etc., ermittelt und/oder festgelegt. Um eine frühzeitige aussagefähige Beurteilung des Innovationsvorhabens zu gewährleisten, wurde die Investitionsrecheneinheit mit der Destatis-Datenbank des Statistischen Bundesamtes für Produktionsgüter im verarbeitenden Gewerbe verknüpft. Die aus der statistischen Datenbank ermittelten Umsatz- und Absatzzahlen werden anschließend in eine Produktzyklusrecheneinheit übertragen. Dem Produktlebenszyklus wird dabei ein Umsatzverlauf in Form der Gaußschen Normalverteilung (Glockenkurve) zugrunde gelegt. Für die Modellierung des Umsatzverlaufes im Rahmen einer Innovations- und Patentbewertung wurden die entsprechenden Parameter an den mathematischen Ansatz der Kurvenfunktion angepasst. Dadurch können bereits in den frühen Phasen des Innovationsprozesses Umsatz- und Absatzsimulationen zu verschiedenen Szenarien (Worst-Case- oder Best-Case-Szenario) durchgeführt werden. Des Weiteren ist die Investitionsrecheneinheit derart gestaltet, dass neben den statistischen Daten auch eigene Umsatzerwartungen erfasst und mit den statistischen Ergebnissen verglichen werden können. Werden die prognostizierten Umsätze den zu erwartenden Ausgaben gegenübergestellt und auf den Betrachtungszeitraum diskontiert, kann der monetäre Wert des Innovationsvorhabens/des Patentes ermittelt werden.
Die Bewertung von Innovationsvorhaben und Patenten erfolgt aus unterschiedlichen Bewertungs-anlässen mit dem grundlegenden Ziel, eine fundierte Entscheidungsgrundlage zu schaffen, um im Hinblick auf ein festgelegtes Ziel nachvollziehbare Entscheidungen zu ermöglichen. Bewertungs-anlässe können u. a. die Selektion patentfähiger und erfolgversprechender Ideen aus einem Ideenpool, die Überwachung des Projektstatus zur Festlegung strategischer Maßnahmen, die Technologie- und Patentwertbestimmung für Bilanzierungszwecke, die Kreditsicherung und die Festlegung von Lizenzkonditionen sein. Insbesondere Letzteres (Lizenzierung an Dritte) ist für Universitäten und außeruniversitäre Forschungseinrichtungen sowie Privatpersonen, mit Ausnahme von Ausgründungen, in vielen Fällen der einzige Weg, eine innovative Technologie erfolgreich zu verwerten. Die Berechnung des Erfindungswertes erfolgt hierbei auf Basis der Lizenzpreis-analogiemethode. Als Grundlage für die Berechnung der Lizenzzahlungen wird meist ein „marktüblicher“ Lizenzsatz herangezogen, der sich aufgrund verschiedener Faktoren jedoch oftmals nur schwer ermitteln lässt. Ein Schwerpunkt der vorliegenden Arbeit war es, diesen Sachverhalt zu analysieren und hierfür eine Lösung bereitzustellen. Unter Berücksichtigung der Knoppe-Regel und des wirtschaftlichen Potenzials des Innovationsvorhabens konnte ein nachvollziehbarer Bewertungsalgorithmus zur Ermittlung eines „fairen“ Lizenzsatzes erarbeitet werden. Der mittels einer fairen Gewinnaufteilung kalkulierte Lizenzsatz ist daher einem Ansatz von angeblich „marktüblichen“ Lizenzsätzen, die aus Vergleichen mit möglichst ähnlichen Lizenzabschlüssen hergeleitet werden, vorzuziehen.
Das erarbeitete Bewertungskonzept wurde bereits zur Bewertung von realen Innovationsvorhaben eingesetzt und dabei einer kritischen Überprüfung unterzogen. Dies geschah einerseits mit bereits auf dem Markt befindlichen Innovationen und andererseits mit innovativen Technologien, die sich noch in der Entwurfs- und Entwicklungsphase befanden. Der wesentliche Teil der zur Berechnung notwendigen Informationen und Angaben können aus den detaillierten Beschreibungen der Innovationsvorhaben und aus öffentlichen Datenbanken entnommen werden. Informationen, die darüber hinaus noch benötigt werden, haben die jeweiligen Mitarbeiter der beteiligten Firmen beigesteuert. Die Berechnung des idealtypischen Produktlebenszyklus beruht auf veröffentlichten statistischen Daten. Aufgrund des hohen Detaillierungs- und Strukturierungsgrades, der guten Verfügbarkeit der benötigten Informationen, der hohen Relevanz und der guten Einschätzbarkeit des deutschen Marktes, wurden zur Ermittlung der Umsatzzahlen Daten vom Statistischen Bundesamt für Produktionsgüter im verarbeitenden Gewerbe herangezogen.
Zusammenfassend kann festgehalten werden, dass die im Rahmen dieser Arbeit entwickelte Bewertungsmethode im Stande ist, sämtliche bewertungsrelevanten Kenngrößen, die sowohl qualitativer als auch quantitativer Natur sind, zu erfassen und im Rahmen einer gesamtwirtschaftlichen Betrachtung zu evaluieren. Dadurch können transparente und belastbare Aussagen zum Chancen-/Risikopotenzial, zum Marktvolumen, zu Umsatz-/Absatzzahlen, zum Gewinn, zum monetären Zeitwert des Innovationsvorhabens bzw. des Patentes sowie zu angemessenen Lizenzsätzen gemacht werden.
Das übergeordnete Ziel dieser Arbeit war die Synthese eines auxochrom-substituierten Derivats von p-Nitrostilbennitron (PNSN), sowie dessen biologische Anwendung als fluoreszierende spin trap, zur Identifikation und Lokalisation von zellulär gebildeten ROS.
Zunächst wurden von Hauck et al. (2009) veröffentlichte Syntheseschritte zur Darstellung von PNSN optimiert. Die Synthese der dazu korrespondierenden Aldehydvorstufe, konnte zunächst auch im Rahmen dieser Arbeit nicht auf auxochrom-funktionalisierte Nitrostilbenaldehyde übertragen werden. Deshalb wurde die dazu verwendete Heck-Matsuda-Reaktion einem Screening unterzogen (8 Ansätze). Die effektivste Umsetzung erfolgte durch das Erhöhen der gesamten Reaktionszeit bei einer initialen Kühlung. Anschließend wurde gezeigt, dass sich die optimierten Bedingungen auch zur Darstellung anderweitig-substituierter Stilbenaldehyde eignen (9 Ansätze). Auch zur Synthese der entsprechenden Stilbennitrone musste die publizierte Methode stark modifiziert werden und resultierte in teils quantitativen Ausbeuten.
Alle dargestellten Stilbennitronderivate wurden ausgiebig in Modelsystemen auf ihre optischen Eigenschaften, ihre Fähigkeit zum spin trapping und einer potentiellen, damit einhergehenden Fluoreszenzabnahme untersucht. In der Summe aller Untersuchungen stellte das p-Nitro-o-methoxystilbennitron (PNOMSN) das einzige der synthetisierten spin traps dar, welches verbesserte Eigenschaften bzgl. PNSN aufwies. Aus diesem Grund wurde PNOMSN in vitro auf seine biologische Anwendbarkeit überprüft (3 Zelllinien). Mittels eines SRB-Tests wurde zunächst dessen Atoxizität nachgewiesen. Danach wurde via konfokaler Laser-scanning-Mikroskopie (cLSM) eine mitochondriale Akkumulation von PNOMSN verfolgt und unter Zugabe von Atmungsketteninhibitoren festgestellt, dass auch auf zellulärer Ebene dessen Fluoreszenz innerhalb weniger Sekunden gequencht wird. In einer weiteren Studie wurden die entsprechenden Spin-Addukte aus Zellen extrahiert und EPR-spektroskopisch vermessen. Zudem wurde gezeigt, dass stabile Nitroxylradikale auch aus Kunststoffverbrauchsmaterialien (oxidierte HALS; TEMPO-Derivate) extrahiert werden und solche Messungen verfälschen können.
Außerdem konnte Fluorescein in ortho-Position formyliert und somit weiter zu einem Nitron funktionalisiert werden. Analog zu den Stilbennitronen wurde auch das dargestellte Fluoresceinnitron in Modelsystemen untersucht.
Nach Hauck (2007) wurde die cyclische spin trap EMPO synthetisiert. Zudem gelang es NBD-Chlorid und Dansylchlorid kovalent daran zu koppeln.