Refine
Year of publication
- 2009 (135) (remove)
Document Type
- Doctoral Thesis (76)
- Report (35)
- Periodical Part (9)
- Preprint (8)
- Master's Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
- Other (1)
Keywords
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Geothermal Flow (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Fraunhofer (ITWM) (29)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
Jahresbericht 2008
(2009)
Congress Report 2009.01-02
(2009)
Congress Report 2009.11-12
(2009)
Congress Report 2009.09-10
(2009)
Congress Report 2009.07-08
(2009)
Congress Report 2009.05-06
(2009)
Congress Report 2009.03-04
(2009)
An efficient mathematical model to virtually generate woven metal wire meshes is
presented. The accuracy of this model is verified by the comparison of virtual structures with three-dimensional
images of real meshes, which are produced via computer tomography. Virtual structures
are generated for three types of metal wire meshes using only easy to measure parameters. For these
geometries the velocity-dependent pressure drop is simulated and compared with measurements
performed by the GKD - Gebr. Kufferath AG. The simulation results lie within the tolerances of
the measurements. The generation of the structures and the numerical simulations were done at
GKD using the Fraunhofer GeoDict software.
2,3,7,8-Tetrachlorodibenzo-p-dioxin (TCDD) is a highly toxic and persistent organic pollutant, which is ubiquitously found in the environment. The prototype dioxin compound was classified as a human carcinogen by the International Agency for Research on Cancer. TCDD acts as a potent liver tumor promoter in rats, which is one of the major concerns related to TCDD exposure. There is extensive evidence, that TCDD exerts anti-estrogenic effects via arylhydrocarbon receptor (AhR)-mediated induction of cytochromes P450 and interferes with the estrogen receptor alpha (ERalpha)-mediated signaling pathway. The present work was conducted to shed light on the hypothesis that enhanced activation of estradiol metabolism by TCDD-induced enzymes, mainly CYP1A1 and CYP1B1, leads to oxidative DNA damage in liver cells. Furthermore, the possible modulation by 17beta-estradiol (E2) was investigated. The effects were examined using four different AhR-responsive species- and sex-specific liver cell models, rat H4II2 and human HepG2 hepatoma cell lines as well as rat primary hepatocytes from male and female Wistar rats. The effective induction of CYP1A1 and CYP1B1 by TCDD was demonstrated in all liver cell models. Basal and TCDD-induced expression of CYP1B1, which is a key enzyme in stimulating E2 metabolism via the more reactive formation of the genotoxic 4-hydroxyestradiol, was most pronounced in rat primary hepatocytes. CYP-dependent induction of reactive oxygen species (ROS) was only observed in rodent cells. E2 induced ROS only in primary rat hepatocytes, which was associated with a weak CYP1B1 mRNA induction. Thus, E2 itself was suggested to induce its own metabolism in primary rat hepatocytes, resulting in the redox cycling of catechol estradiol metabolites leading to ROS formation. In this study the role of TCDD and E2 on oxidative DNA damage was investigated for the first time in vitro in the comet assay using liver cells. Both TCDD and E2 were shown to induce oxidative DNA base modifications only in rat hepatocytes. Additionally, direct oxidative DNA-damaging effects of the two main E2 metabolites, 4-hydroxyestradiol and 2-hydroxyestradiol, were only observed in rat hepatocytes and revealed that E2 damaged the DNA to the same extent. However, the induction of oxidative DNA damage by E2 could not completely be explained by the metabolic conversion of E2 via CYP1A1 and CYP1B1 and has to be further investigated. The expression of low levels of endogenous ERalpha mRNA in primary rat hepatocytes and the lack of ERalpha in hepatoma cell lines were identified as crucial. Therefore, the effects of interference of ERalpha with AhR were examined in HepG2 cells, which were transiently transfected with ERalpha. The over-expression of ERalpha led to enhanced AhR-mediated transcriptional activity by E2, suggesting a possible regulation of E2 levels. In turn, TCDD reduced E2-mediated ERalpha signaling, confirming the anti-estrogenic action of TCDD. Such a modulation of the combined effects of TCDD with E2 was not observed in any of the other experiments. Thus, the role of low endogenous ERalpha levels has to be further investigated in transfection experiments using rat primary hepatocytes. Overall, rat primary hepatocyte culture turned out to be the more adaptive cell model to investigate metabolism in the liver, reflecting a more realistic situation of the liver tissue. Nevertheless, during this work a crosstalk between ERalpha and AhR was shown for the first time using human hepatoma cell line HepG2 by transiently transfecting ERalpha.
Nowadays, vehicle control systems such as anti-lock braking systems, electronic stability control, and cruise control systems yield many advantages. The electronic control units that are deployed in this specific application domain are embedded systems that are integrated in larger systems to achieve predefined applications. Embedded systems consist of embedded hardware and a large software part. Model-based development for embedded systems offers significant software-development benefits that are pointed out in this thesis. The vehicle control system Adaptive Cruise Control is developed in this thesis using a model-based software development process for embedded systems. As a modern industrial design tool that is prevalent in this domain, simulink,is used for modeling the environment, the system behavior, for determining controller parameters, and for simulation purposes. Using an appropriate toolchain, the embedded code is automatically generated. The adaptive cruise control system could be successfully implemented and tested within this short timespan using a waterfall model without increments. The vehicle plant and important filters are fully deduced in detail. Therefore, the design of further vehicle control systems needs less effort for development and precise simulation.
We study the extension of techniques from Inductive Logic Programming (ILP) to temporal logic programming languages. Therefore we present two temporal logic programming languages and analyse the learnability of programs from these languages from finite sets of examples. In first order temporal logic the following topics are analysed: - How can we characterize the denotational semantics of programs? - Which proof techniques are best suited? - How complex is the learning task? In propositional temporal logic we analyse the following topics: - How can we use well known techniques from model checking in order to refine programs? - How complex is the learning task? In both cases we present estimations for the VC-dimension of selected classes of programs.
Die vorliegende Arbeit befasst sich mit der Generierung von organischen Nanopartikeln in einer übersättigten Gasströmung. Als Versuchsmaterialien kamen Kupferphthalocyanin und Paliogen Rot L4120 zum Einsatz. Sie werden bereits erfolgreich in der Informations- und Kommunikationstechnologie als Bestandteil in Halbleiterbaugruppen oder organischen Leuchtdioden eingesetzt. Gerade in solchen Anwendungsgebieten ist eine hohe Reinheit der Materialien unerlässlich. Gasphasenprozesse bieten diesen Vorteil einer hohen Reinheit der generierten Partikeln und schaffen deswegen im Hinblick auf innovative Anwendungsgebiete, den Anreiz zur Erforschung alternativer Prozesse zur Herstellung nanoskaliger organischer Partikeln aus der Gasphase. Durch die Sublimation des Ausgangsmaterials wurde eine untersättigte bis gesättigte Gasströmung erzeugt. Die Übersättigung wurde durch die adiabatische Entspannung in einer Lavaldüse und der sich anschließenden Expansion des Freistrahls in einer Expansionskammer erzeugt. Die dafür entwickelte Anlage wurde dabei so konzipiert, dass durch die modulare Bauweise verschiedene Techniken zur Generierung, Modifizierung oder Konditionierung der organischen Partikeln untersucht werden konnten. Die Arbeit gliedert sich in die vier folgenden Untersuchungsschwerpunkte: Generierung organischer Partikeln durch adiabatische Entspannung in Düsen. • Steuerung der Partikelbildung durch Prozessparameter. • Beeinflussung der Partikelbildung durch Ionen. • Herstellung von Core-Shell-Strukturen mit einem organischen Beschichtungsmaterial.
Bei der Erprobung sicherheitsrelevanter Bauteile von Nutzfahrzeugen steht man vor der Aufgabe, die sehr vielfältige Belastung durch die Kunden abschätzen zu müssen und daraus ein Prüfprogramm für die Bauteile abzuleiten, das mehreren gegenläufigen Anforderungen gerecht werden muss: Das Programm muss scharf genug sein, damit bei erfolgreicher Prüfung ein Ausfall im Feld im Rahmen eines bestimmungsgemäßen Gebrauchs ausgeschlossen werden kann, es soll aber nicht zu einer Überdimensionierung der Bauteile führen, und es soll mit relativ wenigen Bauteilversuchen eine ausreichende Aussagesicherheit erreicht werden. Wegen der hohen Anforderungen bzgl. Sicherheit müssen bei der klassischen statistischen Vorgehensweise – Schätzen der Verteilung der Kundenbeanspruchung aus Messdaten, Schätzen der Verteilung der Bauteilfestigkeit aus Versuchsergebnissen und Ableiten einer Ausfallwahrscheinlichkeit – die Verteilungen in den extremen Rändern bekannt sein. Dazu reicht aber das Datenmaterial in der Regel bei weitem nicht aus. Bei der klassischen „empirischen“ Vorgehensweise werden Kennwerte der Beanspruchung und der Festigkeit verglichen und ein ausreichender Sicherheitsabstand gefordert. Das hier vorgeschlagene Verfahren kombiniert beide Methoden, setzt dabei die Möglichkeiten der statistischen Modellierung soweit aufgrund der Datenlage vertretbar ein und ergänzt die Ergebnisse durch empirisch begründete Sicherheitsfaktoren. Dabei werden bei der Lastfestlegung die im Versuch vorhandenen Möglichkeiten berücksichtigt. Hauptvorteile dieses Verfahrens sind a) die Transparenz bzgl. der mit statistischen Mitteln erreichbaren Aussagen und des Zusammenspiels zwischen Lastermittlung und Versuch und b) die Möglichkeit durch entsprechenden Aufwand bei Messungen und Erprobung die empirischen zugunsten der statistischen Anteile zu reduzieren.
Classical geometrically exact Kirchhoff and Cosserat models are used to study the nonlinear deformation of rods. Extension, bending and torsion of the rod may be represented by the Kirchhoff model. The Cosserat model additionally takes into account shearing effects. Second order finite differences on a staggered grid define discrete viscoelastic versions of these classical models. Since the rotations are parametrised by unit quaternions, the space discretisation results in differential-algebraic equations that are solved numerically by standard techniques like index reduction and projection methods. Using absolute coordinates, the mass and constraint matrices are sparse and this sparsity may be exploited to speed-up time integration. Further improvements are possible in the Cosserat model, because the constraints are just the normalisation conditions for unit quaternions such that the null space of the constraint matrix can be given analytically. The results of the theoretical investigations are illustrated by numerical tests.
This paper discusses the possibility to use and apply the ideas of theWave BasedMethod, which has been developed especially for the steady–state acoustic areas, i.e. to solve the Helmholtz type boundary value problems in a bounded domain, in non–acoustics areas such as steady–state temperature propagation, calculation of the velocity potential function of a liquid flux, calculation of the light irradience in a liver tissue/tumor, etc.
In this paper we investigate the use of the sharp function known from functional analysis in image processing. The sharp function gives a measure of the variations of a function and can be used as an edge detector. We extend the classical notion of the sharp function for measuring anisotropic behaviour and give a fast anisotropic edge detection variant inspired by the sharp function. We show that these edge detection results are useful to steer isotropic and anisotropic nonlinear diffusion filters for image enhancement.
This contribution presents a model reduction method for nonlinear problems in structural mechanics. Emanating from a Finite Element model of the structure, a subspace and a lookup table are generated which do not require a linearisation of the equations. The method is applied to a model created with commercial FEM software. In this case, the terms describing geometrical and material nonlinearities are not explicitly known.
This work is concerned with dynamic flow problems, especially maximal dynamic flows and earliest arrival flows - also called universally maximal flows. First of all, a survey of known results about existence, computation and approximation of earliest arrival flows is given. For the special case of series-parallel graphs a polynomial algorithm for computing maximal dynamic flows is presented and this maximal dynamic flow is proven to be an earliest arrival flow.
Obwohl in mikrobiologischen Hochsicherheitslaboratorien einzelne Methoden des Risikomanagements durch gesetzliche Vorgaben verankert sind bzw. aufgrund von negativen Erfahrungen mit Laborinfektionen und prospektiver Sicherheitsforschung eingeführt wurden, fehlt bisher meist ein systematischer Riskomanagementansatz. Eine Möglichkeit zur Implementierung von „Risikomanagement als Führungsprozess” mittels der neuen, generischen Norm ISO 31000 „Risk management - Principles and guidelines” sollte in dieser Arbeit auf seine Eignung für ein Hochsicherheitslabor betrachtet werden. Dabei zeigte sich am konkreten Beispiel, dass durch die aktuelle Einführung eines QM-Systems die für ein Risikomanagementsystem notwendigen Strukturen prinzipiell vorhanden sind und genutzt werden können, aber dennoch ein erheblicher Schulungsbedarf bei den Mitarbeitern hinsichtlich methodischer Kompetenzen bestehen dürfte. Trotz theoretisch guter Integrierbarkeit des Risikomanagements in das QM-System würde die Einführung ein mittelfristiges, personalintensives Projekt darstellen. Als erfolgskritische Faktoren für die Einführung wurden weiterhin die Unterstützung durch die Leitung des Labors und die Entwicklung einer adäquaten, offenen Risikokultur identifiziert. Die Öffnung einer eher hierarchisch geprägten Organisationskultur würde ebenfalls Zeit kosten und wäre wahrscheinlich nicht ohne externe Beratung zu bewältigen. Erst dann könnte die gewünschte Risikokultur verwirklicht werden. Der grundlegende Wunsch zu einem veränderten Management im Labor ist aber auf allen Ebenen des betrachteten Forschungsinstituts spürbar, auch die Laborleitung unterstützt partizipative Elemente explizit. Das Rahmenwerk für ein Risikomanagementsystem wurde daher entworfen und in seinen Elementen für ein Hochsicherheitslabor betrachtet. Die jeweilige Ausgestaltung sollte durch eine Projektgruppe entwickelt werden. Dies stellt aufgrund der guten Erfahrungen mit Projektarbeit im betrachteten Institut keine relevante Hürde dar. Es erscheint daher möglich, mit der künftigen ISO 31000 (unter Zuhilfenahme verwandter Dokumente), ein Risikomanagementsystem für ein mikrobiologisches Hochsicherheitslabor einzuführen.
Proteins of the intermembrane space of mitochondria are generally encoded by nuclear genes that are synthesized in the cytosol. A group of small intermembrane space proteins lack classical mitochondrial targeting sequences, but these proteins are imported in an oxidation-driven reaction that relies on the activity of two components, Mia40 and Erv1. Both proteins constitute the mitochondrial disulfide relay system. Mia40 functions as an import receptor that interacts with incoming polypeptides via transient, intermolecular disulfide bonds. Erv1 is an FAD-binding sulfhydryl oxidase that activates Mia40 by re-oxidation, but the process how Erv1 itself is re-oxidized has been poorly understood. Here, I show that Erv1 interacts with cytochrome c which provides a functional link between the mitochondrial disulfide relay system and the respiratory chain. This mechanism not only increases the efficiency of mitochondrial inport by the re-oxidation of Erv1 and Mia40 but also prevents the formation of deleterious hydrogen peroxide within the intermembrane space. Thus, the miochondrial disulfide relay system is, analogous to that of the bacterial periplasm, connected to the electron transport chain of the inner membrane, which possibly allows an oxygen-dependend regulation of mitochondrial import rates. In addition, I modeled the structure of Erv1 on the basis of the Saccharomyces cerevisiae Erv2 crystal structure in order to gain insight into the molecular mechanism of Erv1. According to the high degree of sequence homologies, various characteristics found for Erv2 are also valid for Erv1. Finally, I propose a regulatory function of the disulfide relay system on the respiratory chain. The disulfide relay system senses the molecular oxygen levels in mitochondria and, thus, is able to adapt respiratory chain activity in order to prevent wastage of NADH and production of ROS.
In der chemischen Industrie treten bei vielen Absorptions- und Desorptionsanlagen wässrige Lösungen flüchtiger schwacher Elektrolyte, d. h. chemisch gelöster saurer (z. B. Kohlendioxid, Schwefeldioxid) und basischer (z. B. Ammoniak) Gase auf, die oftmals auch Salze und organische Komponenten enthalten. Die dabei anfallenden Elektrolytlösungen müssen zur Rückgewinnung der beteiligten Einsatzstoffe sowie aus Umweltschutzgründen aufgearbeitet werden. Zur Auslegung und Optimierung solcher Verfahren sind Informationen zum Phasengleichgewicht erforderlich. Die Korrelation und Vorhersage solcher Phasengleichgewichte wird durch die in der flüssigen Phase ablaufenden chemischen Reaktionen und die dabei auftretenden ionischen Spezies maßgeblich beeinflusst. In früheren Arbeiten wurde ein thermodynamisches Modell für die Löslichkeit der Gase Kohlendioxid, Schwefeldioxid, Schwefelwasserstoff und Ammoniak in wässrigen, auch salzhaltigen Lösungen entwickelt, in dem die in der flüssigen Phase auftretenden chemischen Reaktionen zwischen Ammoniak und den sauren Gasen berücksichtigt werden. Der Einsatz dieses Modells ist jedoch auf das Lösungsmittel Wasser beschränkt. Um auch die Vorgänge in Lösungsmittelgemischen aus Wasser und organischen Komponenten (über den gesamten Konzentrationsbereich, d. h. vom reinen Wasser bis zum reinen organischen Lösungsmittel) beschreiben zu können, wurde von ein neues thermodynamisches Modell entwickelt. In der vorliegenden Arbeit wird dieses Modell weiter getestet und parametriert. Die hier vorliegende Arbeit behandelt Dampf – Flüssigkeit – Feststoff – Gleichgewichte (und die Gleichgewichte der benötigten Untersysteme) der Systeme (Wasser + Methanol + Ammoniak + Kohlendioxid + (Natriumchlorid / -sulfat)), (Wasser + Aceton + Kohlendioxid + (Natriumchlorid / -sulfat)) sowie (Wasser + 1–Propanol + 1–Methylimidazol + Natriumchlorid).
This dissertation is intended to give a systematic treatment of hypersurface singularities in arbitrary characteristic which provides the necessary tools, theoretically and computationally, for the purpose of classification. This thesis consists of five chapters: In chapter 1, we introduce the background on isolated hypersurface singularities needed for our work. In chapter 2, we formalize the notions of piecewise-homogeneous grading and we discuss thoroughly non-degeneracy in arbitrary characteristic. Chapter 3 is devoted to determinacy and normal forms of isolated hypersurface singularities. In the first part, we give finite determinacy theorems in arbitrary characteristic with respect to right respectively contact equivalence. Furthermore, we show that "isolated" and finite determinacy properties are equivalent. In the second part, we formalize Arnol'd's key ideas for the computation of normal forms an define the conditions (AA) and (AAC). The last part of Chapter 3 is devoted to the study of normal forms in the general setting of hypersurface singularities imposing neither condition (A) nor Newton-Nondegeneracy. In Chapter 4, we present algorithms which we implement in Singular for the purpose of explicit computation of regular bases and normal forms. In chapter 5, we transfer some classical results on invariants over the field C of complex numbers to algebraically closed fields of characteristic zero known as Lefschetz principle.
Subject of this book is an epistemological consideration - a consideration which could be characterised as a main theme - maybe the main theme - of that part of philosophy we all know as epistemology: the nature of knowledge. But other than the most essays on the subject of knowledge, here I am going to deal with a largely overlooked account to try to find an answer to the epistemological question of knowledge. This is the mental state account of knowledge (Price in his 'Belief' the formulation ``mental acts'' and Williamson talks about a ``state of mind''). Or to put it into the question I chose as title: is knowledge a mental state? We have to concede first that there is only a small group of philosophers who used to explain knowledge in terms of a mental state, particularly the `Oxford Realists'. And secondly, the acceptance of the MS thesis is low and negative. There is an interesting detail here: unlike the poor interest in an epistemic theory such as the MS thesis, philosophers like Prichard or Austin (and their philosophical thinking) are not really living in the shadows of philosophical consideration. Indeed their philosophical impact is high level, if we consider for instance Prichard's moral writings or Austin's theory of speech acts. I think we can conclude from this fact that the reason of the `negative' ignorance in respect of their epistemological point of view was not caused by a negative quality of their philosophy. Now, the question we are faced with (and that should be answered here) is: what is wrong with the MS thesis even though it is held by high class philosophers? Why is the epistemic thinking of Cook Wilson, Prichard and Austin afflicted with such ignorance? I will try to explain this later on with the notion of an unreflected Platonian heritage during 2000 years of epistemic thinking - a notion which is similar to a point Hetherington has called ``epistemic absolutism''. So, there are three main purposes which I am pursuing in this consideration: 1.To explain the reasons why there is such an ignorance towards an assertion of the MS thesis. I am going to pursue this through an analysis of knowledge which will demonstrate the inappropriateness of the JTB thesis as an adequate analysis of knowledge. 2.To describe that it is a mistake to ignore or at least underestimate the MS thesis in the discussion of an appropriate definition of knowledge and to maintain that the MS thesis is the key to a general theory of knowledge. 3.Conclusion: If the first two steps are correct, the JTB thesis is insufficient in order to give an account of the nature of knowledge in general. A consequence from this is: all the epistemic theories which are dealing with the JTB thesis are based on deficient assumptions. Hence their results - notably the well-known externalism/internalism debate - are insufficient, too. So, there is a need for a new theory of knowledge based on the MS thesis. In the course of my consideration I am going to justify the following three theses: i) The JTB thesis as a definition of knowledge in general is deficient, as the JTB thesis describes the propositional aspect of knowledge only. But the propositional knowledge - the so-called `knowledge that' - is merely one element among others that has to be recognized in search of a theory of knowledge. ii) The status of the `knowledge that' is derivative and not ultimate. It is derived from the non- propositional knowledge in order to make the non-propositional knowledge communicable to others. The mode of the `knowledge that' is indirect and thus can be stated in the third person point of view only. This ultimate kind of knowledge - the knowledge which the `knowledge that' is derived from - is the non-propositional knowledge. Its mode is direct and hence it is restricted to the first person point of view. Therefore the basis towards a theory of knowledge in general has to be this non-propositional aspect of knowledge. iii) Hence, taking the first two theses for granted, an appropriate theory of knowledge needs an account of the non-propositional knowledge. The MS thesis will accomplish this task.
Limit theorems constitute a classical and important field in probability theory. In several applications, in particular in demographic or medical contexts, killed Markov processes suggest themselves as models for populations undergoing culling by mortality or other processes. In these situations mathematical research features a general interest in the observable distribution of survivors, which is known as Yaglom limit or quasi-stationary distribution. Previous work often focuses on discrete state spaces, commonly birth-death processes (or with some more flexible localization of the transitions), with killing only on the boundary. The central concerns of this thesis are to describe, for a given class of one dimensional diffusion processes, the quasistationary distributions (if any), and to describe the convergence (or not) of the process conditioned on survival to one of these quasistationary distributions. Rather general diffusion processes on the half-line are considered, where 0 is allowed to be regular or an exit boundary. Very similar techniques are applied in this work in order to derive results on the large time behavior of an exotic measure valued process, which is closely related to so-called point interactions, which have been widely studied in the mathematical physics literature.
This Dissertation tried to provide insights into the influences of individual and contextual factors on Technical and Vocational Education and Training (TVET) teachers’ learning and professional development in Ethiopia. Specifically, this research focused on identifying and determining the influences of teachers’ self perception as learners and professionals, and investigates the impact of the context, process and content of their learning and experiences on their professional development. The knowledge of these factors and their impacts help in improving the learning and professional development of the TVET teachers and their professionalization. This research tried to provide answers for the following five research questions. (1) How do TVET teachers perceive themselves as active learners and as professionals? And what are the implications of their perceptions on their learning and development? (2) How do TVET teachers engage themselves in learning and professional development activities? (3) What contextual factors facilitated or hindered the TVET Teachers’ learning and professional development? (4) Which competencies are found critical for the TVET teachers’ learning and professional development? (5) What actions need to be considered to enhance and sustain TVET teachers learning and professional development in their context? It is believed that the research results are significant not only to the TVET teachers, but also to schools leaders, TVET Teacher Training Institutions, education experts and policy makers, researchers and others stakeholders in the TVET sector. The theoretical perspectives adopted in this research are based on the systemic constructivist approach to professional development. An integrated approach to professional development requires that the teachers’ learning and development activities to be taken as an adult education based on the principles of constructivism. Professional development is considered as context - specific and long-term process in which teachers are trusted, respected and empowered as professionals. Teachers’ development activities are sought as more of collaborative activities portraying the social nature of learning. Schools that facilitate the learning and development of teachers exhibit characteristics of a learning organisation culture where, professional collaboration, collegiality and shared leadership are practiced. This research has drawn also relevant point of views from studies and reports on vocational education and TVET teacher education programs and practices at international, continental and national levels. The research objectives and the types of research questions in this study implied the use of a qualitative inductive research approach as a research strategy. Primary data were collected from TVET teachers in four schools using a one-on-one qualitative in-depth interview method. These data were analyzed using a Qualitative Content Analysis method based on the inductive category development procedure. ATLAS.ti software was used for supporting the coding and categorization process. The research findings showed that most of the TVET teachers neither perceive themselves as professionals nor as active learners. These perceptions are found to be one of the major barriers to their learning and development. Professional collaborations in the schools are minimal and teaching is sought as an isolated individual activity; a secluded task for the teacher. Self-directed learning initiatives and individual learning projects are not strongly evident. The predominantly teacher-centered approach used in TVET teacher education and professional development programs put emphasis mainly to the development of technical competences and has limited the development of a range of competences essential to teachers’ professional development. Moreover, factors such as the TVET school culture, the society’s perception of the teaching profession, economic conditions, and weak links with industries and business sectors are among the major contextual factors that hindered the TVET teachers’ learning and professional development. A number of recommendations are forwarded to improve the professional development of the TVET teachers. These include change in the TVET schools culture, a paradigm shift in TVET teacher education approach and practice, and development of educational policies that support the professionalization of TVET teachers. Areas for further theoretical research and empirical enquiry are also suggested to support the learning and professional development of the TVET teachers in Ethiopia.
In der Automobilindustrie muss der Nachweis von Bauteilzuverlässigkeiten auf statistischen Verfahren basieren, da die Bauteilfestigkeit und Kundenbeanspruchung streuen. Die bisherigen Vorgehensweisen der Tests führen häufig Fehlentscheidungen bzgl. der Freigabe, was unnötige Design-Änderungen und somit hohe Kosten bedeuten kann. In vorliegender Arbeit wird der Ansatz der partiellen Durchläuferzählung entwickelt, welche die statische Güte der bisherigen Testverfahren (Success Runs) erhöht.
Most software systems are described in high-level model or programming languages. Their runtime behavior, however, is determined by the compiled code. For uncritical software, it may be sufficient to test the runtime behavior of the code. For safety-critical software, there is an additional aggravating factor resulting from the fact that the code must satisfy the formal specification which reflects the safety policy of the software consumer and that the software producer is obliged to demonstrate that the code is correct with respect to the specification using formal verification techniques. In this scenario, it is of great importance that static analyses and formal methods can be applied on the source code level, because this level is more abstract and better suited for such techniques. However, the results of the analyses and the verification can only be carried over to the machine code level, if we can establish the correctness of the translation. Thus, compilation is a crucial step in the development of software systems and formally verified translation correctness is essential to close the formalization chain from high-level formal methods to the machine-code level. In this thesis, I propose an approach to certifying compilers which achieves the aim of closing the formalization chain from high-level formal methods to the machine-code level by applying techniques from mathematical logic and programming language semantics. I propose an approach called foundational translation validation (FTV) in which the software producer implements an FTV system comprising a compiler and a specification and verification framework (SVF) which is implemented in higher-order logic (HOL). The most important part of the SVF is an explicit translation contract which comprises the formalizations of the source and the target languages of the compiler and the formalization of a binary translation correctness predicate corrTrans(S,T) for source programs S and target programs T. The formalizations of the languages are realized as deep embeddings in HOL. This enables one to declare the whole program in a formalized language as a HOL constant. The predicate formally specifies when T is considered to be a correct translation of S. Its definition is explicitly based on the program semantics definitions provided by the translation contract. Subsequent to the translation, the compiler translates the source and the target programs into their syntactic representations as HOL constants, S and T, and generates a proof of corrTrans(S,T). We call a compiler which follows the FTV approach a proof generating compiler. Our approach borrows the idea of representing programs in correctness proofs as logic constants from the foundational proof-carrying code (FPCC) approach. Novel features that distinquish our approach from further approaches to certifying compilers, such as proof-carrying code (PCC) and translation validation (TV) are the following: Firstly, the presence of an explicit translation contract formalized in HOL: The approaches PCC and TV do not formalize a translation contract explicitly. Instead of this, they incorporate operational semantics and translation correctness criterion in translation validation tools on the programming language level. Secondly, representation of programs in correctness proofs as logic constants: The approaches PCC and the TV translate programs into their representations as semantic abstractions that serve as inputs for translation validation tools. Thirdly, certification of program transformation chains: Unlike the TV approach, which certifies single program transformations, the FTV approach achieves the aim of certifying whole chains of program transformations. This is possible due to the fact that the translation contract provides, for all programming languages involved in the program transformation chain, definitions of program semantics functions which map programs to mathematical objects that are elements of a set with an (at least) partial order "<=". Then, the proof makes use of the fact that the relation "<=" is transitive. In this thesis, the feasibility of the FTV approach is exemplified by the implementation of an FTV system. The system comprises a compiler front-end that certifies its optimization phase and an accompanying SVF that is implemented in the theorem prover Isabelle/HOL. The compiler front-end translates programs in a small C-like programming language, performs three optimizations: constant folding, dead assignment elimination, and loop invariant hoisting, and generates translation certificates in the form of Isabelle/HOL theories. The main focus of the thesis is on the description of the SVF and its translation verification techniques.
Photochemical reactions are of great interest due to their importance in chemical and biological processes. Highly sensitive IR/UV double and triple resonance spectroscopy in molecular beam experiments in combination with ab initio and DFT calculations yields information on reaction coordinates and Intersystem Crossing (ISC) processes subsequent to photoexcitation. In general, molecular beam experiments enable the investigation of isolated, cold molecules without any influence of the environment. Furthermore, small aggregates can be analyzed in a supersonic jet by gradually adding solvent molecules like water. Conclusions concerning the interactions in solution can be derived by investigating and fully understanding small systems with a defined amount of solvent molecules. In this work the first applications of combined IR/UV spectroscopy on reactive isolated molecules and triplet states in molecular beams without using any messenger molecules are presented. Special focus was on excited state proton transfer reactions, which can also be described as keto enol tautomerisms. Various molecules such as 3-hydroxyflavone, 2-(2-naphthyl)-3-hydroxychromone and 2,5-dihydroxybenzoic acid have been investigated with regard to this question. In the case of 3-hydroxyflavone and 2-(2-naphthyl)-3-hydroxychromone, the IR spectra have been recorded subsequent to an excited state proton transfer. Furthermore the dihydrate of 3-hydroxyflavone has been analyzed concerning a possible proton transfer in the excited state: The proton transfer reaction along the water molecules (proton wire) has to be induced by raising the excitation energy. However, photoinduced reactions involve not only singlet but also triplet states. As an archetype molecule xanthone has been analysed. After excitation to the S2 state, ISC occurs into the triplet manifold leading to a population of the T1 state. The IR spectrum of the T1 state has been recorded for the first time using the UV/IR/UV technique without using any messenger molecules. Altogether it is shown that IR/UV double and triple resonance techniques are suitable tools to analyze reaction coordinates of photochemical processes.
Verteilung von Na+/Ca2+-Austauschern während der Ontogenese des auditorischen Hirnstamms der Ratte
(2009)
Die Homöostase der intrazellulären Ca2+-Konzentration ist eine essenzielle Aufgabe in allen Zellen, da Ca2+ an diversen zellulären Prozessen beteiligt ist. Besonders Neurone des auditorischen Hirnstamms sind auf eine optimale Ca2+-Regulation angewiesen, da ihr Überleben und ihre Entwicklung von der intrazellulären Ca2+-Konzentration abhängen. Neben Ca2+-bindenden Proteinen und Ca2+-ATPasen sind besonders Na+/Ca2+-Austauscher, welche sich in die Familien NCX (NCX1-3), NCKX (NCKX1-5) und CCX (NCKX6) gliedern, in vielen neuronalen und nicht-neuronalen Strukturen maßgeblich für die Ca2+-Regulation verantwortlich. In meiner Arbeit wurde die Verteilung von NCX1-3 sowie NCKX2-6 im Nucleus cochlearis(CN), superioren Olivenkomplex (SOC) und inferioren Colliculus (IC), welche Strukturen des auditorischen Hirnstamms darstellen, untersucht. Dies erfolgte auf Boten-Ribonukleinsäure(messenger ribonucleic acid, mRNA)-Ebene qualitativ mittels reverser Transkription (RT)gefolgt von genspezifischer Polymerasekettenreaktion (PCR) sowie quantitativ mittels realtime-PCR, auf Proteinebene qualitativ mittels Immunhistochemie. Um auch ontogenetische Aspekte der Ca2+-Homöostase zu berücksichtigen, wurden Ratten in einem unreifen Entwicklungsstadium (P4) sowie junge adulte Ratten (P60) analysiert. Die Genexpression aller untersuchten ncx- und nckx-Isoformen wurde mittels RT-PCR in beiden Entwicklungsstadien in CN, SOC und IC nachgewiesen. Besonders auffallend war bei den ncx-Isoformen eine im Verlauf der Entwicklung meist verstärkte Transkription, während die nckx-Isoformen in den meisten Fällen eine verminderte Transkription im adulten Tier zeigten. Mittels Immunhistochemie zeigt meine Arbeit zum ersten Mal eine entwicklungsabhängige Umverteilung der Austauscher. Während die Isoformen bei P4 hauptsächlich im Neuropil lokalisiert waren, zeigte sich im Gegensatz dazu bei P60 eine verstärkte Immunfluoreszenz innerhalb der Somata. Ausnahme war hier NCKX2, welcher im CN auch bei P60 hauptsächlich im Neuropil exprimiert wurde. Die Expression von NCX1-3 und NCKX2 im Neuropil junger auditorischer Hirnstammneurone legt eine Ca2+-regulierende Funktion im Bereich dendritischer Synapsen nahe. Die Synapsen befinden sich in diesem Alter noch in einem unreifen Zustand, so dass die Na+/Ca2+-Austauscher einen maßgeblichen Einfluss auf die synaptische Plastizität ausüben können. Abschließend deutet die Verteilung der Na+/Ca2+-Austauscher darauf hin, dass alle NCX- und NCKX-Isoformen, im Zusammenspiel mit weiteren Ca2+-regulierenden Proteinen, an der Ca2+-Homöostase in den Strukturen des auditorischen Hirnstamms beteiligt sind.
This thesis deals with the application of binomial option pricing in a single-asset Black-Scholes market and its extension to multi-dimensional situations. Although the binomial approach is, in principle, an efficient method for lower dimensional valuation problems, there are at least two main problems regarding its application: Firstly, traded options often exhibit discontinuities, so that the Berry- Esséen inequality is in general tight; i.e. conventional tree methods converge no faster than with order 1/sqrt(N). Furthermore, they suffer from an irregular convergence behaviour that impedes the possibility to achieve a higher order of convergence via extrapolation methods. Secondly, in multi-asset markets conventional tree construction methods cannot ensure well-defined transition probabilities for arbitrary correlation structures between the assets. As a major aim of this thesis, we present two approaches to get binomial trees into shape in order to overcome the main problems in applications; the optimal drift model for the valuation of single-asset options and the decoupling approach to multi-dimensional option pricing. The new valuation methods are embedded into a self-contained survey of binomial option pricing, which focuses on the convergence behaviour of binomial trees. The optimal drift model is a new one-dimensional binomial scheme that can lead to convergence of order o(1/N) by exploiting the specific structure of the valuation problem under consideration. As a consequence, it has the potential to outperform benchmark algorithms. The decoupling approach is presented as a universal construction method for multi-dimensional trees. The corresponding trees are well-defined for an arbitrary correlation structure of the underlying assets. In addition, they yield a more regular convergence behaviour. In fact, the sawtooth effect can even vanish completely, so that extrapolation can be applied.
Es ist bekannt, dass die Genese von Darmerkrankungen von der aufgenommenen Nahrung beeinflusst wird. Der Genuss von Apfelprodukten mit hoher antioxidativer Wirksamkeit könnte daher zur Prävention ROS-assoziierter Erkrankungen beitragen. Ziel der vorliegenden Arbeit war die Untersuchung von polyphenolreichen Extrakte aus Apfelsaft (AE01–AE07), Tresterextraktionssaft (AE03B, AE06B) und Apfelschalen (GS, PE) sowie von Polyphenolen auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Caco-2 Zellen. Zur Annäherung an die in vivo-Situation wurden mit Darmbakterien fermentierte Apfelsaftextrakte/Trub in die Untersuchungen einbezogen, dabei entstehende Abbauprodukte wurden charakterisiert und ebenfalls geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level, GSH-Spiegel und SOD1-Expression. Zusätzlich wurde die zellfreie antioxidative Kapazität (ORAC/TEAC) erfasst. Die antioxidative Kapazität aller Extrakte war hoch und korrelierte mit dem Gehalt an Polyphenolen bzw. Procyanidinen. Der zelluläre ROS-Level wurde am effektivsten durch AE07 und GS reduziert, während AE05, AE06B und GS den besten Schutz vor oxidativen DNA-Schäden boten. Eine Erhöhung des tGSH-Spiegels konnte durch Inkubation mit AE06, AE07, GS und PE erreicht werden. Die Ergebnisse legen nahe, dass vor allem Flavonol/Procyanidin-reiche Extrakte eine gute protektive Wirksamkeit aufweisen. Die fermentierten Extrakte zeigten eine deutliche antioxidative Wirksamkeit, was vor allem den identifizierten phenolischen Abbauprodukten zugeschrieben werden konnte, die fast alle eine ausgeprägte Wirksamkeit im zellfreien und zellulären System zeigten. Es ist nicht auszuschließen, dass auch andere Komponenten (wie z.B. SCFA) zur protektiven Wirksamkeit fermentierter Extrakte beitragen könnten. Der fermentierte Trub erwies sich in den Untersuchungen als unwirksam, da in ihm keine Polyphenole identifiziert werden konnten. Weiterhin wurden auch Polyphenol-vermittelte prooxidative Effekte untersucht, für die sich neben einer starken Strukturabhängigkeit die Wahl des verwendeten Mediums als entscheidender Faktor für die beobachtete H2O2-Bildung erwies. Es wurden keine adversen Effekte auf zelluläre Marker beobachtet, vielmehr könnte die Wirksamkeit der Polyphenole durch geringe Mengen an ROS unterstützt werden, da diese die antioxidative Abwehr der Zellen aktivieren. Insgesamt erwiesen sich phenolische Extrakte aus Apfelbestandteilen als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzellen. In begleitenden Untersuchungen mit Einzelstoffen wurden Polyphenole identifiziert, die wesentlich zur protektiven Wirkung der Extrakte beitragen. Es konnte gezeigt werden, dass die protektive Wirksamkeit von Extrakten und Inhaltsstoffen trotz intestinalen Abbaus persistiert und dass eine moderate prooxidative Wirksamkeit der Polyphenole in Zellen einen günstigen Einfluss auf deren antioxidative Abwehr ausüben kann.
Die vorliegende Arbeit befasst sich mit der grundlegenden Untersuchung von Verfahren zur mechanischen Dispergierung agglomerierter Nanopartikel in Epoxidharz und der werkstofflichen Charakterisierung der daraus resultierenden Nanoverbundwerkstoffe. Dazu wurden Dispergierexperimente unter Verwendung eines Titandioxid-Nanopartikelpulvers mit Hilfe einer horizontalen und einer vertikalen Rührwerkskugelmühle durch systematische Variation von Dispergierparametern, wie beispielsweise der Rührwerksumfangsgeschwindigkeit, der Dispergierdauer, dem spezifischen Energieeintrag, dem Mahlkörperdurchmesser und dem Mahlkörperfüllgrad durchgeführt. Die Herausforderung liegt in der Erzielung möglichst geringer Partikelgrößen einhergehend mit einer homogenen Verteilung der Primärpartikel in der polymeren Matrix, ohne dabei die Molekülstruktur des verwendeten Epoxidharzes zu degradieren. Zur Ermittlung des Einflusses der einzelnen Dispergierparameter auf die Partikelgrößen und deren Häufigkeitsverteilungen wurden Proben der Suspension bestehend aus Epoxidharz und TiO2-Nanopartikeln während des Dispergierprozesses entnommen und nach dem Prinzip der dynamischen Lichtstreuung untersucht. Aus den Suspensionen wurden Nanoverbundwerkstoffe gefertigt, die umfangreich werkstoffwissenschaftlich durch mechanische, thermoanalytische und rasterelektronenmikroskopische Untersuchungen charakterisiert wurden, um den Einfluss der Partikelgrößen und -verteilungen auf die Struktur und die Eigenschaften der Nanoverbundwerkstoffe zu ermitteln. Das erarbeitete Dispergierverfahren wurde anschließend zugrunde gelegt, um Nanopartikelpulver aus Titandioxid, Aluminiumdioxid und Zirkoniumdioxid in Epoxidharz zu dispergieren und dadurch Nanoverbundwerkstoffe mit gesteigerten Werkstoffeigenschaften zu fertigen. Diese wurden mechanischen und rasterelektronenmikroskopischen Untersuchungen unterzogen. Aufbauend auf den Erkenntnissen der vorangegangen Dispergierexperimente und theoretischen Betrachtungen wurde anhand eines Modells die Vorhersage erzielbarer Partikelgrößenverteilungen in Abhängigkeit physikalischer Einflussgrößen des Dispergierprozesses geprüft.
Der Kernrezeptor PXR spielt eine bedeutende Rolle im Fremdstoffmetabolismus als auch im Stoffwechsel endogener Substrate. Er reguliert die Expression zahlreicher Proteine des Fremdstoffwechsels. Deshalb hat die Aktivierung oder Hemmung des PXR einen großen Einfluss auf den Stoffwechselstatus dieser Proteine. Zum derzeitigen Stand der Forschung nimmt der PXR eine Schlüsselfunktion bei der Regulation der CYP3A-Enzyme ein. Es besteht deshalb Interesse Substanzen, die in Verdacht stehen PXR abhängig CYP3A zu induzieren, zu untersuchen. In dieser Arbeit wurden bromierte Flammschutzmittel und der Arzneimittelkandidat EMD untersucht. Aus den Vorversuchen wurde ersichtlich, dass die Rattenhepatomzelllinie H4IIE und die humane Hepatomzelllinie HepG2 geeignete in vitro Systeme zur Untersuchung der PXR-abhängigen CYP3A-Aktivierung darstellen. Untersuchungen zum Genexpressionsverhalten zahlreicher Gene des Fremdstoffmetabolismus mittels TLDA-Karten zeigten, dass die beiden Zelllinien viele dieser Gene exprimieren, die nach Inkubation mit den Prototypinduktoren Rifampicin und Dexamethason spezies-spezifisch reguliert wurden. Die beiden Zelllinien wurden schließlich mit einem Reportergenvektor, der die PXR responsiven Elemente des CYP3A4-Gens enthält, stabil transfiziert. An den stabil transfizierten HepG2-XREM3- und H4IIE-XREM3-Zellen wurden bekannte CYP-Induktoren sowie der Arzneimittelkandidat EMD und die Flammschutzmittel HBCD and der pentaBDE Mix getestet. Die Flammschutzmittel HBCD und der pentaBDE-Mix, werden in Textilwaren, Kunststoffen, Möbeln, Teppichen, Elektrogeräten und Baumaterialen eingesetzt. Falls sie tatsächlich den PXR spezies-spezifisch aktivieren sollten, könnten sie eine Gefahr für Mensch und Umwelt darstellen. Deshalb wurde in dieser Arbeit die CYP3A-mRNA-Expression, die Protein- sowie die Reportergenaktivität überprüft. Als gemeinsamer Aktivator des hPXR und rPXR stellte sich Clotrimazol, aber auch das Flammschutzmittel HBCD heraus, während pentaBDE ein besserer Ligand des hPXR ist. Omeprazol und Phenobarbital induzierten die rPXR-vermittelte CYP3A-Induktion in H4IIE-XREM3-Zellen nicht; in den humanen HepG2-XREM3-Zellen konnte jedoch eine moderate Reportergenaktivität gemessen werden. Weiteres Interesse besteht an dem Arzneimittelkandidaten EMD zur Behandlung des metabolischen Syndroms und Typ II-Diabetes. In vivo (Affen, Ratten) und in vitro (Hepatozyten) wurden bereits spezies-spezifische Effekte auf die CYP3A-Induktion durch EMD beobachtet. Deshalb wurde in dieser Arbeit der über aktivierten PXR vermittelte Mechanismus an Zelllinien überprüft. Dabei stellte sich heraus, dass EMD ein hPXR-Aktivator und CYP3A-Induktor in HepG2-Zellen, jedoch kein Aktivator von rPXR in H4IIE-Zellen ist. Um schwerwiegende Nebenwirkungen und unvorhersehbare Arzneimittelwechselwirkungen durch die Aufnahme von Fremdstoffen zu verhindern, ist es bei der Neuentwicklung von Wirkstoffen aller Art notwendig, die Stoffe auf eine mögliche Induktion der Fremdstoff-metabolisierenden Enzyme zu untersuchen. Deshalb war das Ziel dieser Arbeit die Etablierung von zell-basierten in vitro Assays zur Ermittlung der spezies-spezifischen PXR-abhängigen Induktion von CYP3A durch Chemikalien und Arzneimittelkandidaten, um mögliche Arzneimittel- und Fremdstoffwechselwirkungen und damit verbundene Sicherheitsrisiken vorhersagen zu können. Das etablierte PXR- Screeningsystem repräsentiert zwei in vitro Modelle, die erlauben spezies-spezifische Wirkungen auf die CYP3A-Induktion von Chemikalien, Umweltkontaminanten, Lebensmittelinhaltsstoffe und Arzneimittel schnell, einfach und kostengünstig abschätzen zu können. Eine frühe Erkennung der PXR-Aktivierung und CYP-Induktion von Arzneimitteln in der Entwicklung kann einen Weiterentwicklungsstopp dieser zur Folge haben. Dies hilft zusätzliche Tierversuche und Kosten einzusparen. Dem 3R-Prinzip (Reduce, Refine, Replace) vom Reduzieren der Anzahl der Tierversuche, der Verbesserung der existierenden Experimente und dem Ersetzen von Tierversuchen durch alternative Methoden (Russel & Burch, 1959) wird durch die stabil transfizierten Zelllinien in zweierlei Hinsicht Rechnung getragen: unnötige Tierversuche können vermieden reduction und die Aussagekraft von durchgeführten Tierstudien (z.B. vom Gesetzgeber geforderte Studien zur Arzneimittelentwicklung) verbessert werden (dies trägt auch zu einem refinement bei). Damit stellen die HepG2-XREM3- und H4IIE-XREM3-Zellen eine wichtige innovative Verbesserung bei der Entwicklung von Arzneistoffen sowie bei der regulatorischen Testung von Chemikalien dar.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Motivation dieser Arbeit war die Synthese und Charakterisierung von Katalysatoren zur selektiven Dimerisierung von 1-Hexen zu n-Dodecen und zu möglichst wenig verzweigten Produkten. Untersucht wurden die Zeolithe Y, L und ZSM-12 sowie die Silicoalumophosphate SAPO-5, SAPO-11, SAPO-31 und SAPO-41. Für die BrØnsted-aciden Katalysatoren ist festzuhalten: Alle hergestellten Zeolithe, das heißt H-Y, H-L und H-ZSM-12, verfügten über starke acide Zentren. Zeolith H-L erwies sich ebenfalls als sehr aktives Material. Die Selektivitäten zu den Zielprodukten waren bei vergleichbaren Umsätzen etwas höher als bei Verwendung von H-Y, was für einen schwachen formselektiven Effekt spricht. An Zeolith H-ZSM-12 wurden nur geringe Umsätze erzielt. Für die Silicoalumophosphate wurde gefunden: Alle verfügen über acide Zentren, welche jedoch etwas schwächer waren als die der BrØnsted-aciden Zeolithe. Um vergleichbare Umsätze wie an den Zeolithen zu erzielen, waren daher höhere Reaktionstemperaturen oder längere Reaktionszeiten erforderlich. H-SAPO-5 zeigte dabei eine gegenüber H-L erhöhte Selektivität zu den Zielprodukten, vermutlich aufgrund der etwas engeren Poren. H-SAPO-11, H-SAPO-31 und H-SAPO-41 zeigten trotz vorhandener und zugänglicher acider Zentren nur vernachlässigbare Umsätze. Analog zu Zeolith H-ZSM-12 wird dies auch hier auf die zu engen Poren zurückgeführt, welche die Bildung des Übergangszustandes offensichtlich nicht zulassen. Wurde Nickel in die Katalysatoren eingebracht, zeigten sich Unterschiede, die vor allem von der Präparationsmethode abhängen. Durch verschiedene Methoden gelang es, Katalysatoren herzustellen, die eine hohe Selektivität entweder zu n-Dodecen oder zu einfach verzweigten Dodecenen aufwiesen. Durch Ionenaustausch mit Nickelacetat in wässriger Lösung wurden Ni-Y, Ni-L und NiH-SAPO-5 hergestellt. Diese Materialien verfügten wahrscheinlich über Nickel auf Kationenpositionen. Sie zeigten eine gegenüber der sauren Form deutlich erhöhte Selektivität zu den Zielprodukten, der Effekt nahm in der Reihe Ni-Y < Ni-L < NiH-SAPO-5 zu. Analog zu den Resultaten an H-Y, H-L und H-SAPO-5 lässt sich dies mit einer zunehmenden Formselektivität durch das Porensystem der Katalysatoren begründen. Bei Ni-Y und NiH-SAPO-5 ließen sich mittels Temperaturprogrammierter Reduktion zwei verschiedene Nickelspezies nachweisen, die sich vermutlich durch die ihre Position in Gitter unterscheiden und dadurch eine unterschiedliche Stabilisierung gegenüber einer Reduktion erfahren. Wurde bei Ni-Y und NiH-SAPO-5 die jeweils leichter zu reduzierende Nickelspezies mit Wasserstoff reduziert, zeigten die so behandelten Katalysatoren eine stark verringerte Aktivität in der Katalyse. Dies ist in Einklang mit dem vorgeschlagenen Reaktionsmechanismus, der von Ni(I) als aktiver Spezies ausgeht (welche durch eine Autoreduktion von Ni(II) während der Aktivierung des Katalysators erzeugt werden): Wird Nickel durch den Träger sehr stark stabilisiert, ist keine Autoreduktion mehr möglich und somit die Aktivität des Katalysators sehr gering. NiH-SAPO-5 wurde mit verschiedenen Siliciumanteilen hergestellt, was das Einbringen verschiedener Mengen an Nickel durch Ionenaustausch erlaubte. Hierbei zeigte sich, dass die Selektivität zu den Zielprodukten mit dem Nickelgehalt zunimmt und durch Verwendung eines H-SAPO-5 mit xSi = 0,20 (und damit hoher Ionenaustauschkapazität) bis zu 89 % Selektivität zu C12-Isomeren erreicht werden können, wobei diese je etwa zur Hälfte aus n-Dodecen und zur Hälfte einfach verzweigte Dimeren bestanden. Sollten bevorzugt einfach verzweigte Dodecene hergestellt werden, so war es durch Festkörperreaktion des BrØnsted-aciden Trägers mit Nickelacetat möglich, einen Katalysator zu präparieren, der keine linearen Produkte lieferte und bei geeignetem Nickelgehalt eine hohe Selektivität zu einfach verzweigten Dimeren aufwies. Dieser Effekt ist nur wenig vom Porensystem des Trägers, jedoch stark von dessen Ionenaustauschkapazität abhängig. Je höher diese ist, umso höher ist auch die Selektivität des resultierenden Katalysators. Wie TPD-Messungen mit 1-Aminopentan und Ammoniak als Sondenmoleküle zeigten, besaßen die so präparierten Materialien keine sauren Zentren mehr. Aufgrund der vorliegenden Ergebnisse konnte gezeigt werden, dass es durch geeignete Wahl der Präparationsmethode und der Porengeometrie möglich ist, Katalysatoren zu erhalten, die entweder zur Herstellung von n-Dodecen oder zu überwiegend wenig verzweigten C12-Isomeren geeignet sind. Überraschenderweise, gelang es außerdem, mit dem gleichem Trägermaterial Katalysatoren herzustellen, welche kein n-Dodecen liefern, aber eine sehr hohe Selektivität zu einfach verzweigten C12-Isomeren besitzen. Vor allem anhand von NiH-SAPO-5 konnte weiterhin belegt werden, dass die Kombination aus geeigneter Porengeometrie und Nickel eine geeignete Methode zur Herstellung von Katalysatoren für die selektive Dimerisierung von 1-Hexen zu n-Dodecen ist.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
This PhD thesis aims at finding a global robot navigation strategy for rugged off-road terrain which is robust against inaccurate self-localization, scalable to large environments, but also cost-efficient, e.g. able to generate navigation paths which optimize a cost measure closely related to terrain traversability. In order to meet this goal, aspects of both metrical and topological navigation techniques are combined. A primarily topological map is extended with the previously lacking capability of cost-efficient path planning and map extension. Further innovations include a multi-dimensional cost measure for topological edges, a method to learn these costs based on live feedback from the robot and a set of extrapolation methods to predict the traversability costs for untraversed edges. The thesis presents two sophisticated new image analysis techniques to optimize cost prediction based on the shape and appearance of surrounding terrain. Experimental results indicate that the proposed global navigation system is indeed able to perform cost-efficient, large scale path planning. At the same time, the need to maintain a fine-grained, global world model which would reduce the scalability of the approach is avoided.
Adaptive Extraction and Representation of Geometric Structures from Unorganized 3D Point Sets
(2009)
The primary emphasis of this thesis concerns the extraction and representation of intrinsic properties of three-dimensional (3D) unorganized point clouds. The points establishing a point cloud as it mainly emerges from LiDaR (Light Detection and Ranging) scan devices or by reconstruction from two-dimensional (2D) image series represent discrete samples of real world objects. Depending on the type of scenery the data is generated from the resulting point cloud may exhibit a variety of different structures. Especially, in the case of environmental LiDaR scans the complexity of the corresponding point clouds is relatively high. Hence, finding new techniques allowing the efficient extraction and representation of the underlying structural entities becomes an important research issue of recent interest. This thesis introduces new methods regarding the extraction and visualization of structural features like surfaces and curves (e.g. ridge-lines, creases) from 3D (environmental) point clouds. One main part concerns the extraction of curve-like features from environmental point data sets. It provides a new method supporting a stable feature extraction by incorporating a probability-based point classification scheme that characterizes individual points regarding their affiliation to surface-, curve- and volume-like structures. Another part is concerned with the surface reconstruction from (environmental) point clouds exhibiting objects that are more or less complex. A new method providing multi-resolutional surface representations from regular point clouds is discussed. Following the applied principles of this approach a volumetric surface reconstruction method based on the proposed classification scheme is introduced. It allows the reconstruction of surfaces from highly unstructured and noisy point data sets. Furthermore, contributions in the field of reconstructing 3D point clouds from 2D image series are provided. In addition, a discussion concerning the most important properties of (environmental) point clouds with respect to feature extraction is presented.
Microfibrillar reinforced composites (MFC) have attracted considerable academic and practical interests after the concept was introduced more than a decade years ago. This new type of composites will be created by blending of two polymers with different melting temperatures and processing the blend under certain thermo-mechanical conditions to generate in-situ formed microfibrils of the higher melting polymer grade of temperature in the blend. The compression molded microfibrillar composites were reported to possess excellent mechanical properties and thus they are promising materials for different applications. In the present work, a typical immiscible polymer blend PET/PP was selected for the preparation of PET/PP, PET/PP/TiO2 microfibrillar reinforced composites. The objective of this study is to analyse the processing-structure-property relationship in the PET/PP based MFCs. The morphology of the PET microfibrils and the dispersion of the TiO2 nanoparticles were characterized by scanning electron microscopy (SEM) and transmission electron microscopy (TEM), and discussed. The crystallization behaviour of PET and PP was studied by means of differential scanning calorimetry (DSC). The thermomechanical and mechanical properties of the composites were determined by dynamic mechanical thermal analysis (DMTA) and uniaxial tensile tests and the related results discussed as a function of the composition of the corresponding system. During stretching of the PET/PP extrudate, the PET dispersed phase was deformed into microfibrils. These microfibrils were still well persevered after compression molding of the drawn strands. Therefore the PET microfibrils acted as the reinforcement for the PP matrix. Compared with neat PP, the tensile properties of the PET/PP MFC were greatly improved. For the PET/PP/TiO2 MFC, the effects of polypropylene grafted maleic anhydride (PP-g-MA, introduced as compatibilizer) and TiO2 particles on the structure and properties of drawn strands and composites were investigated. Upon the addition of PP-g-MA, the preferential location of TiO2 particles changed: they migrated from the PET dispersed phase to the continuous PP matrix phase. This was accompanied with structural changes of the drawn strands. The microfibril formation mechanism was also investigated. After injection molding of the microfibrillar composites, the preferential location of TiO2 particles was still preserved. DMTA analysis of drawn strands, the tensile and impact tests of the composites demonstrated that the mechanical properties of the drawn strands of the microfibrillar composites were strongly dependent on the respective structures of the tested materials. To further investigate the preferential location of TiO2 particles in the PET/PP blend which were discovered during the preparation of PET/PP/TiO2 MFCs, PET/PP/TiO2 ternary nanocomposites were prepared according to four blending procedures. The preferential location of TiO2 nanoparticles was influenced by the blending sequence and the amount of PP-g-MA incorporated. Furthermore, it was discovered that TiO2 nanoparticles exerted a compatibilizing effect on the morphology of the composites. Three different compatibilization mechanisms of nanoparticles were proposed depending on the location of the nanoparticles.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
We present a parsimonious multi-asset Heston model. All single-asset submodels follow the well-known Heston dynamics and their parameters are typically calibrated on implied market volatilities. We focus on the calibration of the correlation structure between the single-asset marginals in the absence of sucient liquid cross-asset option price data. The presented model is parsimonious in the sense that d(d􀀀1)=2 asset-asset cross-correlations are required for a d-asset Heston model. In order to calibrate the model, we present two general setups corresponding to relevant practical situations: (1) when the empirical cross-asset correlations in the risk neutral world are given by the user and we need to calibrate the correlations between the driving Brownian motions or (2) when they have to be estimated from the historical time series. The theoretical background, including the ergodicity of the multidimensional CIR process, for the proposed estimators is also studied.
Due to the increasing demand of renewable energy production facilities, modeling geothermal reservoirs is a central issue in today's engineering practice. After over 40 years of study, many models have been proposed and applied to hundreds of sites worldwide. Nevertheless, with increasing computational capabilities new efficient methods are becoming available. The aim of this paper is to present recent progress on seismic processing as well as fluid and thermal flow simulations for porous and fractured subsurface systems. The commonly used methods in industrial energy exploration and production such as forward modeling, seismic migration, and inversion methods together with continuum and discrete flow models for reservoir monitoring and management are reviewed. Furthermore, for two specific features numerical examples are presented. Finally, future fields of studies are described.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
The understanding of the motion of long slender elastic fibers in turbulent flows is of great interest to research, development and production in technical textiles manufacturing. The fiber dynamics depend on the drag forces that are imposed on the fiber by the fluid. Their computation requires in principle a coupling of fiber and flow with no-slip interface conditions. However, theneeded high resolution and adaptive grid refinement make the direct numerical simulation of the three-dimensional fluid-solid-problem for slender fibers and turbulent flows not only extremely costly and complex, but also still impossible for practically relevant applications. Embedded in a slender body theory, an aerodynamic force concept for a general drag model was therefore derived on basis of a stochastic k-o; description for a turbulent flow field in [23]. The turbulence effects on the fiber dynamics were modeled by a correlated random Gaussian force and its asymptotic limit on a macroscopic fiber scale by Gaussian white noise with flow-dependent amplitude. The concept was numerically studied under the conditions of a melt-spinning process for nonwoven materials in [24] – for the specific choice of a non-linear Taylor drag model. Taylor [35] suggested the heuristic model for high Reynolds number flows, Re in [20, 3 · 105], around inclined slender objects under an angle of attack of alpha in (pi/36, pi/2] between flow and object tangent. Since the Reynolds number is considered with respect to the relative velocity between flow and fiber, the numerical results lackaccuracy evidently for small Re that occur in cases of flexible light fibers moving occasionally with the flow velocity. In such a regime (Re << 1), linear Stokes drag forces were successfully applied for the prediction of small particles immersed in turbulent flows, see e.g. [25, 26, 32, 39], a modifiedStokes force taking also into account the particle oscillations was presented in [14]. The linear drag relation was also conferred to longer filaments by imposing free-draining assumptions [29, 8]. Apart from this, the Taylor drag suffers from its non-applicability to tangential incident flow situations (alpha = 0) that often occur in fiber and nonwoven production processes.
In this work we use the Parsimonious Multi–Asset Heston model recently developed in [Dimitroff et al., 2009] at Fraunhofer ITWM, Department Financial Mathematics, Kaiserslautern (Germany) and apply it to Quanto options. We give a summary of the model and its calibration scheme. A suitable transformation of the Quanto option payoff is explained and used to price Quantos within the new framework. Simulated prices are given and compared to market prices and Black–Scholes prices. We find that the new approach underprices the chosen options, but gives better results than the Black–Scholes approach, which is prevailing in the literature on Quanto options.
Home Health Care (HHC) services are becoming increasingly important in Europe’s aging societies. Elderly people have varying degrees of need for assistance and medical treatment. It is advantageous to allow them to live in their own homes as long as possible, since a long-term stay in a nursing home can be much more costly for the social insurance system than a treatment at home providing assistance to the required level. Therefore, HHC services are a cost-effective and flexible instrument in the social system. In Germany, organizations providing HHC services are generally either larger charities with countrywide operations or small private companies offering services only in a city or a rural area. While the former have a hierarchical organizational structure and a large number of employees, the latter typically only have some ten to twenty nurses under contract. The relationship to the patients (“customers”) is often long-term and can last for several years. Therefore acquiring and keeping satisfied customers is crucial for HHC service providers and intensive competition among them is observed.
Knowledge discovery from large and complex collections of today’s scientific datasets is a challenging task. With the ability to measure and simulate more processes at increasingly finer spatial and temporal scales, the increasing number of data dimensions and data objects is presenting tremendous challenges for data analysis and effective data exploration methods and tools. Researchers are overwhelmed with data and standard tools are often insufficient to enable effective data analysis and knowledge discovery. The main objective of this thesis is to provide important new capabilities to accelerate scientific knowledge discovery form large, complex, and multivariate scientific data. The research covered in this thesis addresses these scientific challenges using a combination of scientific visualization, information visualization, automated data analysis, and other enabling technologies, such as efficient data management. The effectiveness of the proposed analysis methods is demonstrated via applications in two distinct scientific research fields, namely developmental biology and high-energy physics. Advances in microscopy, image analysis, and embryo registration enable for the first time measurement of gene expression at cellular resolution for entire organisms. Analysis of highdimensional spatial gene expression datasets is a challenging task. By integrating data clustering and visualization, analysis of complex, time-varying, spatial gene expression patterns and their formation becomes possible. The analysis framework MATLAB and the visualization have been integrated, making advanced analysis tools accessible to biologist and enabling bioinformatic researchers to directly integrate their analysis with the visualization. Laser wakefield particle accelerators (LWFAs) promise to be a new compact source of highenergy particles and radiation, with wide applications ranging from medicine to physics. To gain insight into the complex physical processes of particle acceleration, physicists model LWFAs computationally. The datasets produced by LWFA simulations are (i) extremely large, (ii) of varying spatial and temporal resolution, (iii) heterogeneous, and (iv) high-dimensional, making analysis and knowledge discovery from complex LWFA simulation data a challenging task. To address these challenges this thesis describes the integration of the visualization system VisIt and the state-of-the-art index/query system FastBit, enabling interactive visual exploration of extremely large three-dimensional particle datasets. Researchers are especially interested in beams of high-energy particles formed during the course of a simulation. This thesis describes novel methods for automatic detection and analysis of particle beams enabling a more accurate and efficient data analysis process. By integrating these automated analysis methods with visualization, this research enables more accurate, efficient, and effective analysis of LWFA simulation data than previously possible.
This thesis deals with 3 important aspects of optimal investment in real-world financial markets: taxes, crashes, and illiquidity. An introductory chapter reviews the portfolio problem in its historical context and motivates the theme of this work: We extend the standard modelling framework to include specific real-world features and evaluate their significance. In the first chapter, we analyze the optimal portfolio problem with capital gains taxes, assuming that taxes are deferred until the end of the investment horizon. The problem is solved with the help of a modification of the classical martingale method. The second chapter is concerned with optimal asset allocation under the threat of a financial market crash. The investor takes a worst-case attitude towards the crash, so her investment objective is to be best off in the most adverse crash scenario. We first survey the existing literature on the worst-case approach to optimal investment and then present in detail the novel martingale approach to worst-case portfolio optimization. The first part of this chapter is based on joint work with Ralf Korn. In the last chapter, we investigate optimal portfolio decisions in the presence of illiquidity. Illiquidity is understood as a period in which it is impossible to trade on financial markets. We use dynamic programming techniques in combination with abstract convergence results to solve the corresponding optimal investment problem. This chapter is based on joint work with Holger Kraft and Peter Diesinger.
Maximum Likelihood Estimators for Markov Switching Autoregressive Processes with ARCH Component
(2009)
We consider a mixture of AR-ARCH models where the switching between the basic states of the observed time series is controlled by a hidden Markov chain. Under simple conditions, we prove consistency and asymptotic normality of the maximum likelihood parameter estimates combining general results on asymptotics of Douc et al (2004) and of geometric ergodicity of Franke et al (2007).