Filtern
Erscheinungsjahr
- 2009 (135) (entfernen)
Dokumenttyp
- Dissertation (76)
- Bericht (35)
- Teil eines Periodikums (9)
- Preprint (8)
- Masterarbeit (3)
- Arbeitspapier (2)
- Diplomarbeit (1)
- Sonstiges (1)
Schlagworte
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Geothermal Flow (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
Fachbereich / Organisatorische Einheit
- Kaiserslautern - Fachbereich Mathematik (30)
- Fraunhofer (ITWM) (29)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
An efficient mathematical model to virtually generate woven metal wire meshes is
presented. The accuracy of this model is verified by the comparison of virtual structures with three-dimensional
images of real meshes, which are produced via computer tomography. Virtual structures
are generated for three types of metal wire meshes using only easy to measure parameters. For these
geometries the velocity-dependent pressure drop is simulated and compared with measurements
performed by the GKD - Gebr. Kufferath AG. The simulation results lie within the tolerances of
the measurements. The generation of the structures and the numerical simulations were done at
GKD using the Fraunhofer GeoDict software.
We prove a general monotonicity result about Nash flows in directed networks and use it for the design of truthful mechanisms in the setting where each edge of the network is controlled by a different selfish agent, who incurs costs when her edge is used. The costs for each edge are assumed to be linear in the load on the edge. To compensate for these costs, the agents impose tolls for the usage of edges. When nonatomic selfish network users choose their paths through the network independently and each user tries to minimize a weighted sum of her latency and the toll she has to pay to the edges, a Nash flow is obtained. Our monotonicity result implies that the load on an edge in this setting can not increase when the toll on the edge is increased, so the assignment of load to the edges by a Nash flow yields a monotone algorithm. By a well-known result, the monotonicity of the algorithm then allows us to design truthful mechanisms based on the load assignment by Nash flows. Moreover, we consider a mechanism design setting with two-parameter agents, which is a generalization of the case of one-parameter agents considered in a seminal paper of Archer and Tardos. While the private data of an agent in the one-parameter case consists of a single nonnegative real number specifying the agent's cost per unit of load assigned to her, the private data of a two-parameter agent consists of a pair of nonnegative real numbers, where the first one specifies the cost of the agent per unit load as in the one-parameter case, and the second one specifies a fixed cost, which the agent incurs independently of the load assignment. We give a complete characterization of the set of output functions that can be turned into truthful mechanisms for two-parameter agents. Namely, we prove that an output function for the two-parameter setting can be turned into a truthful mechanism if and only if the load assigned to every agent is nonincreasing in the agent's bid for her per unit cost and, for almost all fixed bids for the agent's per unit cost, the load assigned to her is independent of the agent's bid for her fixed cost. When the load assigned to an agent is continuous in the agent's bid for her per unit cost, it must be completely independent of the agent's bid for her fixed cost. These results motivate our choice of linear cost functions without fixed costs for the edges in the selfish routing setting, but the results also seem to be interesting in the context of algorithmic mechanism design themselves.
In this paper, we study the inverse maximum flow problem under \(\ell_\infty\)-norm and show that this problem can be solved by finding a maximum capacity path on a modified graph. Moreover, we consider an extension of the problem where we minimize the number of perturbations among all the optimal solutions of Chebyshev norm. This bicriteria version of the inverse maximum flow problem can also be solved in strongly polynomial time by finding a minimum \(s - t\) cut on the modified graph with a new capacity function.
(1) Das Konstrukt des Lebensstils stellt für den Automobilmarkt in erster Linie ein Instrument zur Segmentierung des Marktes dar. Bestimmte Zielgruppen werden identifiziert und der Absatz der Produkte für diesen Personenkreis wird optimiert. Standardisierte Modelle der Sozialwissenschaften werden in der Ökonomie unmittelbar eingesetzt. Untersucht wurde der Lebensstil im Rahmen dieser Arbeit in einem erweiterten Kontext – unter anderem erfolgte eine Betrachtung des Lebensstils neben alternativen Methoden der Marktsegmentierung. (2) Im Mittelpunkt stand eine Fallstudie bei Peugeot Deutschland, einem Importeur französischer Fahrzeuge in Deutschland. Der Nutzen des Lebensstils für diesen Anbieter im Automobilmarkt wurde quantifiziert und in Relation zu weiteren Verfahren der Zielgruppenselektion gestellt. Dazu erfolgte zunächst eine Darstellung des aktuellen Standes der Sozialforschung zum Thema Lebensstil mit den für ein Unternehmen heute relevanten Modellen der Institute und Agenturen. (3) Zu Beginn des empirischen Teils stand eine ausführliche Analyse der aktuellen Rahmenbedingungen im Automobilmarkt. Es folgte die Erörterung der besonderen Situation von Peugeot als deutsche Importortorganisation einer französischen Konzernzentrale. Vier umfangreiche Experteninterviews sowie eine Inhaltsanalyse von Schulungsunterlagen verdeutlichten die aktuelle Nutzung der verschiedenen Möglichkeiten der Marktsegmentierung bei Peugeot in Deutschland. (4) Über eine Diskriminanzanalyse wurde in Folge ein Modell für eine Optimierung der Zielgruppenplanung erarbeitet, welche in Relation zu bestehenden Ansätzen, besonders den Typologien des Lebensstils, gestellt wurde. Es konnte für die Marke Peugeot in Deutschland aufgezeigt werden, dass die Variablen des Lebensstils grundsätzlich eine hohe Erklärungskraft für das Konsumverhalten besitzen, diese jedoch eine geringere Bedeutung als geografische oder soziodemografische Merkmale aufweisen. Weiterhin wurde die Diskriminanzanalyse für die Optimierung in der Media-Planung eingesetzt. Dargestellt wurde am Beispiel der Media-Planung, dass eine Kombination der Kriterien des Lebensstils mit automobilspezifischen Variablen effizienter ist als die Verwendung einheitlicher Lebensstiltypologien der Institute.
This Dissertation tried to provide insights into the influences of individual and contextual factors on Technical and Vocational Education and Training (TVET) teachers’ learning and professional development in Ethiopia. Specifically, this research focused on identifying and determining the influences of teachers’ self perception as learners and professionals, and investigates the impact of the context, process and content of their learning and experiences on their professional development. The knowledge of these factors and their impacts help in improving the learning and professional development of the TVET teachers and their professionalization. This research tried to provide answers for the following five research questions. (1) How do TVET teachers perceive themselves as active learners and as professionals? And what are the implications of their perceptions on their learning and development? (2) How do TVET teachers engage themselves in learning and professional development activities? (3) What contextual factors facilitated or hindered the TVET Teachers’ learning and professional development? (4) Which competencies are found critical for the TVET teachers’ learning and professional development? (5) What actions need to be considered to enhance and sustain TVET teachers learning and professional development in their context? It is believed that the research results are significant not only to the TVET teachers, but also to schools leaders, TVET Teacher Training Institutions, education experts and policy makers, researchers and others stakeholders in the TVET sector. The theoretical perspectives adopted in this research are based on the systemic constructivist approach to professional development. An integrated approach to professional development requires that the teachers’ learning and development activities to be taken as an adult education based on the principles of constructivism. Professional development is considered as context - specific and long-term process in which teachers are trusted, respected and empowered as professionals. Teachers’ development activities are sought as more of collaborative activities portraying the social nature of learning. Schools that facilitate the learning and development of teachers exhibit characteristics of a learning organisation culture where, professional collaboration, collegiality and shared leadership are practiced. This research has drawn also relevant point of views from studies and reports on vocational education and TVET teacher education programs and practices at international, continental and national levels. The research objectives and the types of research questions in this study implied the use of a qualitative inductive research approach as a research strategy. Primary data were collected from TVET teachers in four schools using a one-on-one qualitative in-depth interview method. These data were analyzed using a Qualitative Content Analysis method based on the inductive category development procedure. ATLAS.ti software was used for supporting the coding and categorization process. The research findings showed that most of the TVET teachers neither perceive themselves as professionals nor as active learners. These perceptions are found to be one of the major barriers to their learning and development. Professional collaborations in the schools are minimal and teaching is sought as an isolated individual activity; a secluded task for the teacher. Self-directed learning initiatives and individual learning projects are not strongly evident. The predominantly teacher-centered approach used in TVET teacher education and professional development programs put emphasis mainly to the development of technical competences and has limited the development of a range of competences essential to teachers’ professional development. Moreover, factors such as the TVET school culture, the society’s perception of the teaching profession, economic conditions, and weak links with industries and business sectors are among the major contextual factors that hindered the TVET teachers’ learning and professional development. A number of recommendations are forwarded to improve the professional development of the TVET teachers. These include change in the TVET schools culture, a paradigm shift in TVET teacher education approach and practice, and development of educational policies that support the professionalization of TVET teachers. Areas for further theoretical research and empirical enquiry are also suggested to support the learning and professional development of the TVET teachers in Ethiopia.
Limit theorems constitute a classical and important field in probability theory. In several applications, in particular in demographic or medical contexts, killed Markov processes suggest themselves as models for populations undergoing culling by mortality or other processes. In these situations mathematical research features a general interest in the observable distribution of survivors, which is known as Yaglom limit or quasi-stationary distribution. Previous work often focuses on discrete state spaces, commonly birth-death processes (or with some more flexible localization of the transitions), with killing only on the boundary. The central concerns of this thesis are to describe, for a given class of one dimensional diffusion processes, the quasistationary distributions (if any), and to describe the convergence (or not) of the process conditioned on survival to one of these quasistationary distributions. Rather general diffusion processes on the half-line are considered, where 0 is allowed to be regular or an exit boundary. Very similar techniques are applied in this work in order to derive results on the large time behavior of an exotic measure valued process, which is closely related to so-called point interactions, which have been widely studied in the mathematical physics literature.
Subject of this book is an epistemological consideration - a consideration which could be characterised as a main theme - maybe the main theme - of that part of philosophy we all know as epistemology: the nature of knowledge. But other than the most essays on the subject of knowledge, here I am going to deal with a largely overlooked account to try to find an answer to the epistemological question of knowledge. This is the mental state account of knowledge (Price in his 'Belief' the formulation ``mental acts'' and Williamson talks about a ``state of mind''). Or to put it into the question I chose as title: is knowledge a mental state? We have to concede first that there is only a small group of philosophers who used to explain knowledge in terms of a mental state, particularly the `Oxford Realists'. And secondly, the acceptance of the MS thesis is low and negative. There is an interesting detail here: unlike the poor interest in an epistemic theory such as the MS thesis, philosophers like Prichard or Austin (and their philosophical thinking) are not really living in the shadows of philosophical consideration. Indeed their philosophical impact is high level, if we consider for instance Prichard's moral writings or Austin's theory of speech acts. I think we can conclude from this fact that the reason of the `negative' ignorance in respect of their epistemological point of view was not caused by a negative quality of their philosophy. Now, the question we are faced with (and that should be answered here) is: what is wrong with the MS thesis even though it is held by high class philosophers? Why is the epistemic thinking of Cook Wilson, Prichard and Austin afflicted with such ignorance? I will try to explain this later on with the notion of an unreflected Platonian heritage during 2000 years of epistemic thinking - a notion which is similar to a point Hetherington has called ``epistemic absolutism''. So, there are three main purposes which I am pursuing in this consideration: 1.To explain the reasons why there is such an ignorance towards an assertion of the MS thesis. I am going to pursue this through an analysis of knowledge which will demonstrate the inappropriateness of the JTB thesis as an adequate analysis of knowledge. 2.To describe that it is a mistake to ignore or at least underestimate the MS thesis in the discussion of an appropriate definition of knowledge and to maintain that the MS thesis is the key to a general theory of knowledge. 3.Conclusion: If the first two steps are correct, the JTB thesis is insufficient in order to give an account of the nature of knowledge in general. A consequence from this is: all the epistemic theories which are dealing with the JTB thesis are based on deficient assumptions. Hence their results - notably the well-known externalism/internalism debate - are insufficient, too. So, there is a need for a new theory of knowledge based on the MS thesis. In the course of my consideration I am going to justify the following three theses: i) The JTB thesis as a definition of knowledge in general is deficient, as the JTB thesis describes the propositional aspect of knowledge only. But the propositional knowledge - the so-called `knowledge that' - is merely one element among others that has to be recognized in search of a theory of knowledge. ii) The status of the `knowledge that' is derivative and not ultimate. It is derived from the non- propositional knowledge in order to make the non-propositional knowledge communicable to others. The mode of the `knowledge that' is indirect and thus can be stated in the third person point of view only. This ultimate kind of knowledge - the knowledge which the `knowledge that' is derived from - is the non-propositional knowledge. Its mode is direct and hence it is restricted to the first person point of view. Therefore the basis towards a theory of knowledge in general has to be this non-propositional aspect of knowledge. iii) Hence, taking the first two theses for granted, an appropriate theory of knowledge needs an account of the non-propositional knowledge. The MS thesis will accomplish this task.
2,3,7,8-Tetrachlorodibenzo-p-dioxin (TCDD) is a highly toxic and persistent organic pollutant, which is ubiquitously found in the environment. The prototype dioxin compound was classified as a human carcinogen by the International Agency for Research on Cancer. TCDD acts as a potent liver tumor promoter in rats, which is one of the major concerns related to TCDD exposure. There is extensive evidence, that TCDD exerts anti-estrogenic effects via arylhydrocarbon receptor (AhR)-mediated induction of cytochromes P450 and interferes with the estrogen receptor alpha (ERalpha)-mediated signaling pathway. The present work was conducted to shed light on the hypothesis that enhanced activation of estradiol metabolism by TCDD-induced enzymes, mainly CYP1A1 and CYP1B1, leads to oxidative DNA damage in liver cells. Furthermore, the possible modulation by 17beta-estradiol (E2) was investigated. The effects were examined using four different AhR-responsive species- and sex-specific liver cell models, rat H4II2 and human HepG2 hepatoma cell lines as well as rat primary hepatocytes from male and female Wistar rats. The effective induction of CYP1A1 and CYP1B1 by TCDD was demonstrated in all liver cell models. Basal and TCDD-induced expression of CYP1B1, which is a key enzyme in stimulating E2 metabolism via the more reactive formation of the genotoxic 4-hydroxyestradiol, was most pronounced in rat primary hepatocytes. CYP-dependent induction of reactive oxygen species (ROS) was only observed in rodent cells. E2 induced ROS only in primary rat hepatocytes, which was associated with a weak CYP1B1 mRNA induction. Thus, E2 itself was suggested to induce its own metabolism in primary rat hepatocytes, resulting in the redox cycling of catechol estradiol metabolites leading to ROS formation. In this study the role of TCDD and E2 on oxidative DNA damage was investigated for the first time in vitro in the comet assay using liver cells. Both TCDD and E2 were shown to induce oxidative DNA base modifications only in rat hepatocytes. Additionally, direct oxidative DNA-damaging effects of the two main E2 metabolites, 4-hydroxyestradiol and 2-hydroxyestradiol, were only observed in rat hepatocytes and revealed that E2 damaged the DNA to the same extent. However, the induction of oxidative DNA damage by E2 could not completely be explained by the metabolic conversion of E2 via CYP1A1 and CYP1B1 and has to be further investigated. The expression of low levels of endogenous ERalpha mRNA in primary rat hepatocytes and the lack of ERalpha in hepatoma cell lines were identified as crucial. Therefore, the effects of interference of ERalpha with AhR were examined in HepG2 cells, which were transiently transfected with ERalpha. The over-expression of ERalpha led to enhanced AhR-mediated transcriptional activity by E2, suggesting a possible regulation of E2 levels. In turn, TCDD reduced E2-mediated ERalpha signaling, confirming the anti-estrogenic action of TCDD. Such a modulation of the combined effects of TCDD with E2 was not observed in any of the other experiments. Thus, the role of low endogenous ERalpha levels has to be further investigated in transfection experiments using rat primary hepatocytes. Overall, rat primary hepatocyte culture turned out to be the more adaptive cell model to investigate metabolism in the liver, reflecting a more realistic situation of the liver tissue. Nevertheless, during this work a crosstalk between ERalpha and AhR was shown for the first time using human hepatoma cell line HepG2 by transiently transfecting ERalpha.
We consider data generating mechanisms which can be represented as mixtures of finitely many regression or autoregression models. We propose nonparametric estimators for the functions characterizing the various mixture components based on a local quasi maximum likelihood approach and prove their consistency. We present an EM algorithm for calculating the estimates numerically which is mainly based on iteratively applying common local smoothers and discuss its convergence properties.
This thesis is devoted to applying symbolic methods to the problems of decoding linear codes and of algebraic cryptanalysis. The paradigm we employ here is as follows. We reformulate the initial problem in terms of systems of polynomial equations over a finite field. The solution(s) of such systems should yield a way to solve the initial problem. Our main tools for handling polynomials and polynomial systems in such a paradigm is the technique of Gröbner bases and normal form reductions. The first part of the thesis is devoted to formulating and solving specific polynomial systems that reduce the problem of decoding linear codes to the problem of polynomial system solving. We analyze the existing methods (mainly for the cyclic codes) and propose an original method for arbitrary linear codes that in some sense generalizes the Newton identities method widely known for cyclic codes. We investigate the structure of the underlying ideals and show how one can solve the decoding problem - both the so-called bounded decoding and more general nearest codeword decoding - by finding reduced Gröbner bases of these ideals. The main feature of the method is that unlike usual methods based on Gröbner bases for "finite field" situations, we do not add the so-called field equations. This tremendously simplifies the underlying ideals, thus making feasible working with quite large parameters of codes. Further we address complexity issues, by giving some insight to the Macaulay matrix of the underlying systems. By making a series of assumptions we are able to provide an upper bound for the complexity coefficient of our method. We address also finding the minimum distance and the weight distribution. We provide solid experimental material and comparisons with some of the existing methods in this area. In the second part we deal with the algebraic cryptanalysis of block iterative ciphers. Namely, we analyze the small-scale variants of the Advanced Encryption Standard (AES), which is a widely used modern block cipher. Here a cryptanalyst composes the polynomial systems which solutions should yield a secret key used by communicating parties in a symmetric cryptosystem. We analyze the systems formulated by researchers for the algebraic cryptanalysis, and identify the problem that conventional systems have many auxiliary variables that are not actually needed for the key recovery. Moreover, having many such auxiliary variables, specific to a given plaintext/ciphertext pair, complicates the use of several pairs which is common in cryptanalysis. We thus provide a new system where the auxiliary variables are eliminated via normal form reductions. The resulting system in key-variables only is then solved. We present experimental evidence that such an approach is quite good for small scaled ciphers. We investigate further our approach and employ the so-called meet-in-the-middle principle to see how far one can go in analyzing just 2-3 rounds of scaled ciphers. Additional "tuning techniques" are discussed together with experimental material. Overall, we believe that the material of this part of the thesis makes a step further in algebraic cryptanalysis of block ciphers.
In engineering and science, a multitude of problems exhibit an inherently geometric nature. The computational assessment of such problems requires an adequate representation by means of data structures and processing algorithms. One of the most widely adopted and recognized spatial data structures is the Delaunay triangulation which has its canonical dual in the Voronoi diagram. While the Voronoi diagram provides a simple and elegant framework to model spatial proximity, the core of which is the concept of natural neighbors, the Delaunay triangulation provides robust and efficient access to it. This combination explains the immense popularity of Voronoi- and Delaunay-based methods in all areas of science and engineering. This thesis addresses aspects from a variety of applications that share their affinity to the Voronoi diagram and the natural neighbor concept. First, an idea for the generalization of B-spline surfaces to unstructured knot sets over Voronoi diagrams is investigated. Then, a previously proposed method for \(C^2\) smooth natural neighbor interpolation is backed with concrete guidelines for its implementation. Smooth natural neighbor interpolation is also one of many applications requiring derivatives of the input data. The generation of derivative information in scattered data with the help of natural neighbors is described in detail. In a different setting, the computation of a discrete harmonic function in a point cloud is considered, and an observation is presented that relates natural neighbor coordinates to a continuous dependency between discrete harmonic functions and the coordinates of the point cloud. Attention is then turned to integrating the flexibility and meritable properties of natural neighbor interpolation into a framework that allows the algorithmically transparent and smooth extrapolation of any known natural neighbor interpolant. Finally, essential properties are proved for a recently introduced novel finite element tessellation technique in which a Delaunay triangulation is transformed into a unique polygonal tessellation.
Within this thesis we present a novel approach towards the modeling of strong discontinuities in a three dimensional finite element framework for large deformations. This novel finite element framework is modularly constructed containing three essential parts: (i) the bulk problem, ii) the cohesive interface problem and iii) the crack tracking problem. Within this modular design, chapter 2 (Continuous solid mechanics) treats the behavior of the bulk problem (i). It includes the overall description of the continuous kinematics, the required balance equations, the constitutive setting and the finite element formulation with its corresponding discretization and required solution strategy for the emerging highly non-linear equations. Subsequently, we discuss the modeling of strong discontinuities within finite element discretization schemes in chapter 3 (Discontinuous solid mechanics). Starting with an extension of the continuous kinematics to the discontinuous situation, we discuss the phantom-node discretization scheme based on the works of Hansbo & Hansbo. Thereby, in addition to a comparison with the extended finite element method (XFEM), importance is attached to the technical details for the adaptive introduction of the required discontinuous elements: The splitting of finite elements, the numerical integration, the visualization and the formulation of geometrical correct crack tip elements. In chapter 4 (The cohesive crack concept), we consider the treatment of cohesive process zones and the associated treatment of cohesive tractions. By applying this approach we are able to merge all irreversible, crack propagation accompanying, failure mechanisms into an arbitrary traction separation relation. Additionally, this concept ensures bounded crack tip stresses and allows the use of stress-based failure criteria for the determination of crack growth. In summary, the use of the discontinuous elements in conjunction with cohesive traction separation allows the mesh-independent computation of crack propagation along pre-defined crack paths. Therefore, this combination is defined as the interface problem (ii) and represents the next building block in the modular design of this thesis. The description and the computation of the evolving crack surface, based on the actual status of a considered specimen is the key issue of chapter 5 (Crack path tracking strategies). In contrast to the two-dimensional case, where tracking the path in a C0-continuous way is straightforward, three-dimensional crack path tracking requires additional strategies. We discuss the currently available approaches regarding this issue and further compare the approaches by means of usual quality measures. In the modular design of this thesis these algorithms represent the last main part which is classified as the crack tracking problem (iii). Finally chapter 6 (Representative numerical examples) verifies the finite element tool by comparisons of the computational results which experiments and benchmarks of engineering fracture problems in concrete. Afterwards the finite element tool is applied to model folding induced fracture of geological structures.
The manuscript divides in 7 chapters. Chapter 2 briefly introduces the reader to the elementary measures of classical continuum mechanics and thus allows to familiarize with the employed notation. Furthermore, deeper insight of the proposed first-order computational homogenization strategy is presented. Based on the need for a discrete representative volume element (rve), Chapter 3 focuses on a proper rve generation algorithm. Therein, the algorithm itself is described in detail. Additionally, we introduce the concept of periodicity. This chapter finalizes by granting multiple representative examples. A potential based soft particle contact method, used for the computations on the microscale level, is defined in Chapter 4. Included are a description of the used discrete element method (dem) as well as the applied macroscopically driven Dirichlet boundary conditions. The chapter closes with the proposition of a proper solution algorithm as well as illustrative representative examples. Homogenization of the discrete microscopic quantities is discussed in Chapter 5. Therein, the focus is on the upscaling of the aggregate energy as well as on the derivation of related macroscopic stress measures. Necessary quantities for coupling between a standard finite element method and the proposed discrete microscale are presented in Chapter 6. Therein, we tend to the derivation of the macroscopic tangent, necessary for the inclusion into the standard finite element programs. Chapter 7 focuses on the incorporation of inter-particle friction. We select to derive a variational based formulation of inter-particle friction forces, founded on a proposed reduced incremental potential. This contribution is closed by providing a discussion as well as an outlook.
Der Flächennutzungsplan ist das zentrale Instrument der Gesamtplanung auf der gesamtstädtischen Ebene und kann gleichzeitig als Paradebeispiel für den – angesichts der in der Praxis zu lösenden Probleme nicht gerechtfertigten – Bedeutungsverlust formeller Pläne herangezogen werden. Mit der Bewältigung aktueller Herausforderungen der Stadtentwicklung konfrontiert, werden vor allem die seiner Aufstellung dienenden, zu langwierigen Verfahren und seine zu starren, Unsicherheiten in der tatsächlichen Entwicklung ungenügend berücksichtigenden Inhalte kritisiert. Folglich muss nach Möglichkeiten einer Weiterentwicklung des formellen Instrumentariums gesucht werden. Im Laufe der letzten Jahrzehnte wurden einige punktuelle Anpassungen im Modell des Flächennutzungsplanes vorgenommen. Des Weiteren sind Entwicklungen im benachbarten europäischen Ausland beachtenswert: Der im englischen Planungssystem neu eingeführte Local Development Framework soll sich durch Flexibilität und Modularität bei gleichzeitiger Stärkung der strategischen Steuerungswirkung seiner Inhalte auszeichnen. An einer systematischen Untersuchung der Erfordernisse, Potenziale und Grenzen einer Weiterentwicklung des Modells des Flächennutzungsplanes fehlt es bislang. Damit ein zukünftiges Modell die ihm zugedachten Wirkungen entfalten kann, ist zudem eine grundlegende Auseinandersetzung mit dem vorherrschenden Verständnis von gesamtstädtischer Planung und ihren Ergebnissen erforderlich. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, das Modell des Flächennutzungsplanes systematisch abzuleiten und zu untersuchen, um es anschließend mit dem Ziel einer Erhöhung der Steuerungskraft der Inhalte des gesamtstädtischen Planes weiterentwickeln zu können. Hierbei fließen die Erkenntnisse aus einer Betrachtung des Local Development Framework mit ein. Die Arbeit kommt zu dem Ergebnis, dass trotz zahlreicher Anpassungen des Modells des Flächennutzungsplanes einige Charakteristika aus dessen Anfangszeit erhalten geblieben sind, die als nicht mehr angemessen bezeichnet werden müssen. Zu den Hauptschwächen des gegenwärtigen Modells zählen sein statischer Charakter und die unzureichende Berücksichtigung der Prozesshaftigkeit von Stadtentwicklung inklusive der Auseinandersetzung mit potenziellen Entwicklungsalternativen. Die Beschäftigung mit dem Local Development Framework zeigt, dass von einer Übertragbarkeit von Elementen auf das deutsche System auszugehen ist. Die erarbeiteten Vorschläge zu den Anpassungen am Modell des Flächennutzungsplanes eröffnen insgesamt die Möglichkeit, den Flächennutzungsplan zum modularen, dynamischen und strategischen Instrument gesamtstädtischer Planung weiterzuentwickeln. Im Fokus der Anpassungen stehen die neue Gesamtstruktur als Portfolio aus zeichnerischen und textlichen, formellen und informellen Bestandteilen, die Integration des Faktors „Zeit“ sowie sonstiger strategischer Aspekte von Stadtentwicklung – begleitet von einem neuen Verständnis vom Ergebnis gesamtstädtischer Planung, nach dem der Flächennutzungsplan nicht mehr als der eine Plan das kanonische Endprodukt darstellt, sondern kontinuierlich und mit seinen diversen Bestandteilen überprüft und fortentwickelt wird.
Diese Arbeit beschreibt einen in der Praxis bereits vielfach erprobten, besonders leistungsfähigen Ansatz zur Verifikation digitaler Schaltungsentwürfe. Der Ansatz ist im Hinblick auf die Schaltungsqualität nach der Verifikation, als auch in Bezug auf den Verifikationsaufwand der simulationsbasierten Schaltungsverifikation deutlich überlegen. Die Arbeit überträgt zunächst das Paradigma der transaktionsbasierten Verifikation aus der Simulation in die formale Verifikation. Ein Ergebnis dieser Übertragung ist eine bestimmte Form von formalen Eigenschaften, die Operationseigenschaften genannt werden. Schaltungen werden mit Operationseigenschaften untersucht durch Interval Property Checking, einer be-sonders leistungsfähigen SAT-basierten funktionalen Verifikation. Dadurch können Schaltungen untersucht werden, die sonst als zu komplex für formale Verifikation gelten. Ferner beschreibt diese Arbeit ein für Mengen von Operationseigenschaften geeignetes Werkzeug, das alle Verifikationslücken aufdeckt, komplexitätsmäßig mit den Fähigkeiten der IPC-basierten Schaltungsuntersuchung Schritt hält und als Vollständigkeitprüfer bezeichnet wird. Die Methodik der Operationseigenschaften und die Technologie des IPC-basierten Eigenschaftsprüfers und des Vollständigkeitsprüfers gehen eine vorteilhafte Symbiose zum Vorteil der funktionalen Verifikation digitaler Schaltungen ein. Darauf aufbauend wird ein Verfahren zur lückenlosen Überprüfung der Verschaltung derartig verifizierter Module entwickelt, das aus den Theorien zur Modellierung digitaler Systeme abgeleitet ist. Der in dieser Arbeit vorgestellte Ansatz hat in vielen kommerziellen Anwendungsprojekten unter Beweis gestellt, dass er den Namen "vollständige funktionale Verifikation" zu Recht trägt, weil in diesen Anwendungsprojekten nach dem Erreichen eines durch die Vollständigkeitsprüfung wohldefinierten Abschlusses keine Fehler mehr gefunden wurden. Der Ansatz wird von OneSpin Solutions GmbH unter dem Namen "Operation Based Verification" und "Gap Free Verification" vermarktet.
In the context of inverse optimization, inverse versions of maximum flow and minimum cost flow problems have thoroughly been investigated. In these network flow problems there are two important problem parameters: flow capacities of the arcs and costs incurred by sending a unit flow on these arcs. Capacity changes for maximum flow problems and cost changes for minimum cost flow problems have been studied under several distance measures such as rectilinear, Chebyshev, and Hamming distances. This thesis also deals with inverse network flow problems and their counterparts tension problems under the aforementioned distance measures. The major goals are to enrich the inverse optimization theory by introducing new inverse network problems that have not yet been treated in the literature, and to extend the well-known combinatorial results of inverse network flows for more general classes of problems with inherent combinatorial properties such as matroid flows on regular matroids and monotropic programming. To accomplish the first objective, the inverse maximum flow problem under Chebyshev norm is analyzed and the capacity inverse minimum cost flow problem, in which only arc capacities are perturbed, is introduced. In this way, it is attempted to close the gap between the capacity perturbing inverse network problems and the cost perturbing ones. The foremost purpose of studying inverse tension problems on networks is to achieve a well-established generalization of the inverse network problems. Since tensions are duals of network flows, carrying the theoretical results of network flows over to tensions follows quite intuitively. Using this intuitive link between network flows and tensions, a generalization to matroid flows and monotropic programs is built gradually up.
In this article we prove existence and uniqueness results for solutions to the outer oblique boundary problem for the Poisson equation under very weak assumptions on boundary, coefficients and inhomogeneities. Main tools are the Kelvin transformation and the solution operator for the regular inner problem, provided in [1]. Moreover we prove regularisation results for the weak solutions of both, the inner and the outer problem. We investigate the non-admissible direction for the oblique vector field, state results with stochastic inhomogeneities and provide a Ritz-Galerkinm approximation. The results are applicable to problems from Geomathematics, see e.g. [2] and [3].
This contribution presents a model reduction method for nonlinear problems in structural mechanics. Emanating from a Finite Element model of the structure, a subspace and a lookup table are generated which do not require a linearisation of the equations. The method is applied to a model created with commercial FEM software. In this case, the terms describing geometrical and material nonlinearities are not explicitly known.
In this paper we investigate the use of the sharp function known from functional analysis in image processing. The sharp function gives a measure of the variations of a function and can be used as an edge detector. We extend the classical notion of the sharp function for measuring anisotropic behaviour and give a fast anisotropic edge detection variant inspired by the sharp function. We show that these edge detection results are useful to steer isotropic and anisotropic nonlinear diffusion filters for image enhancement.
Bei der Erprobung sicherheitsrelevanter Bauteile von Nutzfahrzeugen steht man vor der Aufgabe, die sehr vielfältige Belastung durch die Kunden abschätzen zu müssen und daraus ein Prüfprogramm für die Bauteile abzuleiten, das mehreren gegenläufigen Anforderungen gerecht werden muss: Das Programm muss scharf genug sein, damit bei erfolgreicher Prüfung ein Ausfall im Feld im Rahmen eines bestimmungsgemäßen Gebrauchs ausgeschlossen werden kann, es soll aber nicht zu einer Überdimensionierung der Bauteile führen, und es soll mit relativ wenigen Bauteilversuchen eine ausreichende Aussagesicherheit erreicht werden. Wegen der hohen Anforderungen bzgl. Sicherheit müssen bei der klassischen statistischen Vorgehensweise – Schätzen der Verteilung der Kundenbeanspruchung aus Messdaten, Schätzen der Verteilung der Bauteilfestigkeit aus Versuchsergebnissen und Ableiten einer Ausfallwahrscheinlichkeit – die Verteilungen in den extremen Rändern bekannt sein. Dazu reicht aber das Datenmaterial in der Regel bei weitem nicht aus. Bei der klassischen „empirischen“ Vorgehensweise werden Kennwerte der Beanspruchung und der Festigkeit verglichen und ein ausreichender Sicherheitsabstand gefordert. Das hier vorgeschlagene Verfahren kombiniert beide Methoden, setzt dabei die Möglichkeiten der statistischen Modellierung soweit aufgrund der Datenlage vertretbar ein und ergänzt die Ergebnisse durch empirisch begründete Sicherheitsfaktoren. Dabei werden bei der Lastfestlegung die im Versuch vorhandenen Möglichkeiten berücksichtigt. Hauptvorteile dieses Verfahrens sind a) die Transparenz bzgl. der mit statistischen Mitteln erreichbaren Aussagen und des Zusammenspiels zwischen Lastermittlung und Versuch und b) die Möglichkeit durch entsprechenden Aufwand bei Messungen und Erprobung die empirischen zugunsten der statistischen Anteile zu reduzieren.
We study the extension of techniques from Inductive Logic Programming (ILP) to temporal logic programming languages. Therefore we present two temporal logic programming languages and analyse the learnability of programs from these languages from finite sets of examples. In first order temporal logic the following topics are analysed: - How can we characterize the denotational semantics of programs? - Which proof techniques are best suited? - How complex is the learning task? In propositional temporal logic we analyse the following topics: - How can we use well known techniques from model checking in order to refine programs? - How complex is the learning task? In both cases we present estimations for the VC-dimension of selected classes of programs.
Nowadays, vehicle control systems such as anti-lock braking systems, electronic stability control, and cruise control systems yield many advantages. The electronic control units that are deployed in this specific application domain are embedded systems that are integrated in larger systems to achieve predefined applications. Embedded systems consist of embedded hardware and a large software part. Model-based development for embedded systems offers significant software-development benefits that are pointed out in this thesis. The vehicle control system Adaptive Cruise Control is developed in this thesis using a model-based software development process for embedded systems. As a modern industrial design tool that is prevalent in this domain, simulink,is used for modeling the environment, the system behavior, for determining controller parameters, and for simulation purposes. Using an appropriate toolchain, the embedded code is automatically generated. The adaptive cruise control system could be successfully implemented and tested within this short timespan using a waterfall model without increments. The vehicle plant and important filters are fully deduced in detail. Therefore, the design of further vehicle control systems needs less effort for development and precise simulation.
This dissertation is intended to give a systematic treatment of hypersurface singularities in arbitrary characteristic which provides the necessary tools, theoretically and computationally, for the purpose of classification. This thesis consists of five chapters: In chapter 1, we introduce the background on isolated hypersurface singularities needed for our work. In chapter 2, we formalize the notions of piecewise-homogeneous grading and we discuss thoroughly non-degeneracy in arbitrary characteristic. Chapter 3 is devoted to determinacy and normal forms of isolated hypersurface singularities. In the first part, we give finite determinacy theorems in arbitrary characteristic with respect to right respectively contact equivalence. Furthermore, we show that "isolated" and finite determinacy properties are equivalent. In the second part, we formalize Arnol'd's key ideas for the computation of normal forms an define the conditions (AA) and (AAC). The last part of Chapter 3 is devoted to the study of normal forms in the general setting of hypersurface singularities imposing neither condition (A) nor Newton-Nondegeneracy. In Chapter 4, we present algorithms which we implement in Singular for the purpose of explicit computation of regular bases and normal forms. In chapter 5, we transfer some classical results on invariants over the field C of complex numbers to algebraically closed fields of characteristic zero known as Lefschetz principle.
In der chemischen Industrie treten bei vielen Absorptions- und Desorptionsanlagen wässrige Lösungen flüchtiger schwacher Elektrolyte, d. h. chemisch gelöster saurer (z. B. Kohlendioxid, Schwefeldioxid) und basischer (z. B. Ammoniak) Gase auf, die oftmals auch Salze und organische Komponenten enthalten. Die dabei anfallenden Elektrolytlösungen müssen zur Rückgewinnung der beteiligten Einsatzstoffe sowie aus Umweltschutzgründen aufgearbeitet werden. Zur Auslegung und Optimierung solcher Verfahren sind Informationen zum Phasengleichgewicht erforderlich. Die Korrelation und Vorhersage solcher Phasengleichgewichte wird durch die in der flüssigen Phase ablaufenden chemischen Reaktionen und die dabei auftretenden ionischen Spezies maßgeblich beeinflusst. In früheren Arbeiten wurde ein thermodynamisches Modell für die Löslichkeit der Gase Kohlendioxid, Schwefeldioxid, Schwefelwasserstoff und Ammoniak in wässrigen, auch salzhaltigen Lösungen entwickelt, in dem die in der flüssigen Phase auftretenden chemischen Reaktionen zwischen Ammoniak und den sauren Gasen berücksichtigt werden. Der Einsatz dieses Modells ist jedoch auf das Lösungsmittel Wasser beschränkt. Um auch die Vorgänge in Lösungsmittelgemischen aus Wasser und organischen Komponenten (über den gesamten Konzentrationsbereich, d. h. vom reinen Wasser bis zum reinen organischen Lösungsmittel) beschreiben zu können, wurde von ein neues thermodynamisches Modell entwickelt. In der vorliegenden Arbeit wird dieses Modell weiter getestet und parametriert. Die hier vorliegende Arbeit behandelt Dampf – Flüssigkeit – Feststoff – Gleichgewichte (und die Gleichgewichte der benötigten Untersysteme) der Systeme (Wasser + Methanol + Ammoniak + Kohlendioxid + (Natriumchlorid / -sulfat)), (Wasser + Aceton + Kohlendioxid + (Natriumchlorid / -sulfat)) sowie (Wasser + 1–Propanol + 1–Methylimidazol + Natriumchlorid).
Proteins of the intermembrane space of mitochondria are generally encoded by nuclear genes that are synthesized in the cytosol. A group of small intermembrane space proteins lack classical mitochondrial targeting sequences, but these proteins are imported in an oxidation-driven reaction that relies on the activity of two components, Mia40 and Erv1. Both proteins constitute the mitochondrial disulfide relay system. Mia40 functions as an import receptor that interacts with incoming polypeptides via transient, intermolecular disulfide bonds. Erv1 is an FAD-binding sulfhydryl oxidase that activates Mia40 by re-oxidation, but the process how Erv1 itself is re-oxidized has been poorly understood. Here, I show that Erv1 interacts with cytochrome c which provides a functional link between the mitochondrial disulfide relay system and the respiratory chain. This mechanism not only increases the efficiency of mitochondrial inport by the re-oxidation of Erv1 and Mia40 but also prevents the formation of deleterious hydrogen peroxide within the intermembrane space. Thus, the miochondrial disulfide relay system is, analogous to that of the bacterial periplasm, connected to the electron transport chain of the inner membrane, which possibly allows an oxygen-dependend regulation of mitochondrial import rates. In addition, I modeled the structure of Erv1 on the basis of the Saccharomyces cerevisiae Erv2 crystal structure in order to gain insight into the molecular mechanism of Erv1. According to the high degree of sequence homologies, various characteristics found for Erv2 are also valid for Erv1. Finally, I propose a regulatory function of the disulfide relay system on the respiratory chain. The disulfide relay system senses the molecular oxygen levels in mitochondria and, thus, is able to adapt respiratory chain activity in order to prevent wastage of NADH and production of ROS.
Die vorliegende Arbeit befasst sich mit der Generierung von organischen Nanopartikeln in einer übersättigten Gasströmung. Als Versuchsmaterialien kamen Kupferphthalocyanin und Paliogen Rot L4120 zum Einsatz. Sie werden bereits erfolgreich in der Informations- und Kommunikationstechnologie als Bestandteil in Halbleiterbaugruppen oder organischen Leuchtdioden eingesetzt. Gerade in solchen Anwendungsgebieten ist eine hohe Reinheit der Materialien unerlässlich. Gasphasenprozesse bieten diesen Vorteil einer hohen Reinheit der generierten Partikeln und schaffen deswegen im Hinblick auf innovative Anwendungsgebiete, den Anreiz zur Erforschung alternativer Prozesse zur Herstellung nanoskaliger organischer Partikeln aus der Gasphase. Durch die Sublimation des Ausgangsmaterials wurde eine untersättigte bis gesättigte Gasströmung erzeugt. Die Übersättigung wurde durch die adiabatische Entspannung in einer Lavaldüse und der sich anschließenden Expansion des Freistrahls in einer Expansionskammer erzeugt. Die dafür entwickelte Anlage wurde dabei so konzipiert, dass durch die modulare Bauweise verschiedene Techniken zur Generierung, Modifizierung oder Konditionierung der organischen Partikeln untersucht werden konnten. Die Arbeit gliedert sich in die vier folgenden Untersuchungsschwerpunkte: Generierung organischer Partikeln durch adiabatische Entspannung in Düsen. • Steuerung der Partikelbildung durch Prozessparameter. • Beeinflussung der Partikelbildung durch Ionen. • Herstellung von Core-Shell-Strukturen mit einem organischen Beschichtungsmaterial.
Jahresbericht 2008
(2009)
Congress Report 2009.09-10
(2009)
Congress Report 2009.11-12
(2009)
Congress Report 2009.01-02
(2009)
Congress Report 2009.03-04
(2009)
Congress Report 2009.05-06
(2009)
Congress Report 2009.07-08
(2009)
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum
Stand der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls
weiter oder neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen
einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
Das Fügen von Faserverbunden und Metallen durch Induktionsschweißen ist ein
neuartiges Verfahren, das im Rahmen einer DFG-Forschergruppe entwickelt wurde.
In dieser Arbeit werden auf solche Weise hergestellte Fügungen zwischen einer
Aluminiumlegierung (AlMg3) und CFK (kohlenstofffaserverstärktes Polyamid)
experimentell und simulativ untersucht. Detaillierte Kenntnisse über das mechanische
Verhalten und den Einfluss der Prüfgeschwindigkeit und der Temperatur darauf
sind für einen späteren Einsatz der Fügetechnik bei der Verbindung von Bauteilen
wichtig. Die begleitend durchgeführten Simulationen auf Basis der Finiten Elemente
(FE) ermöglichen einen Blick in das Innere der Fügezone und stellen nach der
Validierung mit Hilfe der Experimente eine Erweiterung der Messtechnik dar. Besondere
Anforderungen an die Messtechnik entstehen bei diesen Untersuchungen aus
den geringen Abmessungen des Fügebereiches. Ergänzend durchgeführte makroskopische
und mikroskopische (Rasterelektronenmikroskop) Bruchflächenanalysen
untermauern die Schlüsse und Erläuterungen aus den experimentellen und simulativen
Untersuchungen.
Abgeleitet von kritischen Lastfällen wird das mechanische Verhalten an Grundlagenexperimenten
in Quer-Druck- und Schubversuchen untersucht und simuliert. Für die
globale und lokale Verschiebungsanalyse, die eine detaillierte Versuchsauswertung
und einen Abgleich mit den Simulationen ermöglicht, wird das Grauwertkorrelationsverfahren
eingesetzt. Die wichtigsten experimentellen Ergebnisse sind:
Bei den Quer-Druck-Versuchen kommt es zu einer normalspannungsdominierten
Schälbelastung in der Fügezone mit einem konstant wachsenden Riss. Die Temperaturvariationen
im Bereich von -30 °C und 80 °C haben fast keinen Einfluss auf das
mechanische Verhalten. Die Prüfgeschwindigkeitsvariationen im Bereich von
0,03 mm/s bis 1500 mm/s zeigen bei steigenden Prüfgeschwindigkeiten einen
deutlichen Anstieg der maximalen Kräfte und Verschiebungen. In den Versuchen ist
ein adhäsiver Versagensmode zu beobachten. Eine Ausnahme bilden die Versuche
bei höheren Prüfgeschwindigkeiten, bei denen ein grenzschichtnahes Versagen in
der Fügezone auftritt.
In den Schubversuchen kommt es zu einem stärker mehrachsialen Spannungszustand
in der Fügezone, der von Schub- und Normalzugspannungen dominiert wird. Die erreichten Kräfte liegen deutlich über denen der Quer-Druck-Versuche. Dieses
Kraftniveau ist kaum beeinflusst von den Temperaturvariationen zwischen -30 °C und
80 °C. Die Prüfgeschwindigkeitssteigerungen bis zu 1500 mm/s haben einen signifikanten
Einfluss auf die Kräfte und besonders auf die maximalen Verformungen. Die
Bruchflächen sind in den meisten Versuchen adhäsiv dominiert. Bei Temperaturen
von -30°C und Prüfgeschwindigkeiten von 500 mm/s und 1500 mm/s bilden sich
hingegen Bereiche mit grenzschichtnahem Versagen und köhasiven Anteilen. Die
REM-Untersuchungen der Bruchbilder zeigen, dass mechanisches Interlocking einen
maßgeblichen Beitrag zur Haftung zwischen Polyamid und Aluminium leistet.
Die Simulationen wurden mit Hilfe der globalen und lokalen Verschiebungszustände
in den Grundlagen- und zusätzlich durchgeführten Versuchen validiert und zeigen
eine gute Übereinstimmung mit den Experimenten. Die Spannungszustände im
Inneren der Fügezone sind wegen der unterschiedlichen Fügewerkstoffe und Steifigkeiten
unsymmetrisch und stark inhomogen. Es bilden sich in allen simulierten
Versuchen am Rand Spannungsspitzen, die zum Versagen führen, während in der
Fügezonenmitte ein niedriges Spannungsniveau vorherrscht. Mit wachsendem Riss
steigen die Spannungen im Inneren der Restfügezone in geringem Maße, bis es zur
vollständigen Trennung des AlMg3- und des CFK-Fügeteils kommt. Eine Parameterstudie
mit dem validierten Simulationsmodell der Schweißung zeigt, wie eine erhöhte
Dicke des AlMg3-Fügeteils oder ein Anstieg der CFK-Steifigkeit zu einer günstigeren
Spannungsverteilung in der Fügezone und so zu höheren Versagenskräften führt.
Die in dieser Arbeit erzielten experimentellen und simulativen Ergebnisse tragen zum
Verständnis der Vorgänge bei mechanisch belasteten induktionsgeschweißten
Fügungen zwischen Faserverbunden und Metallen bei. Der eingeschlagene Weg und
die zum Einsatz gebrachten Methoden sind auch auf andere Verbindungen übertragbar.
Das aufgebaute und validierte Simulationsmodell kann dabei für weiterführende
Parametervariationen oder zur mikromechanischen Analyse der Schweißungen
eingesetzt werden.
Das Vernähen von trockenen Faserhalbzeugen im Vorfeld der Harzinjektion bietet
vielfältige Möglichkeiten, um gewichts- und kostenoptimierte Faser-Kunststoff-Verbund-
Bauteile komplexer Geometrie herzustellen. Zur Stabilisierung der Faseranordnung,
insbesondere aber zur Erhöhung der Impaktbeständigkeit und Schadenstoleranz
derartiger Strukturen können flächige Halbzeuge durch strukturelles Vernähen
verstärkt werden, wodurch die Aufnahme komplexer dreidimensionaler Belastungen
ermöglicht wird. Allerdings kann Vernähen in Laminatdickenrichtung die mechanischen
Scheibeneigenschaften des Verbunds in der Laminatebene auch reduzieren,
was auf Fehlstellen (Reinharzgebiete) und Faserondulationen, verursacht durch das
Nähgarn, zurückzuführen ist.
Im Rahmen dieser Arbeit wurden daher, aufbauend auf Ergebnissen scheibenzugund
-druckbelasteter Faser-Kunststoff-Verbunde, kohlenstofffaserverstärkte Multiaxialgelege-(
MAG-)Laminate strukturell vernäht und eine breit angelegte experimentelle
Parameterstudie zum Einfluss unterschiedlicher Nähkonfigurationen auf Scheiben-
Schubmodul und -festigkeit sowie zusätzlich auf die Restdruckfestigkeit nach Impaktbelastung
(CAI-Festigkeit) und die scheinbare interlaminare Energiefreisetzungsrate
G1R unter Mode-1-Belastung durchgeführt. Neben Stichrichtung, Garnfeinheit,
Teilung (Abstand zwischen zwei parallelen Nähten) und Stichlänge wurde die Belastungsrichtung
(Rissfortschrittsrichtung im Falle von G1R) als Parameter definiert, systematisch
variiert und hinsichtlich ihrer statistischen Signifikanz auf das experimentelle
Ergebnis untersucht. In der Mehrzahl der Fälle wurden der Schubmodul und die
Schubfestigkeit im Vergleich zum unvernähten Laminat um bis zu 22 % reduziert. Bei
einigen Nähkonfigurationen ließen sich aber auch keine Änderung oder sogar eine
geringfügige Steigerung des Schubmoduls im Vergleich zum unvernähten Laminat
feststellen. Demgegenüber konnten die CAI-Festigkeit und G1R durch strukturelles
Vernähen maximal um 48 % bzw. um den Faktor 5 erhöht werden. Während die
Scheibenschubeigenschaften und G1R dominierend von der Garnfeinheit beeinflusst
werden, wird die CAI-Festigkeit vorwiegend durch die Wahl der Stichdichte bestimmt,
wobei der Einfluss von Garnfeinheit und Stichdichte auf die untersuchten Kennwerte
gegenläufig ausgeprägt ist. Ein Anstieg dieser Parameter führt zu Absenkungen der
Scheibeneigenschaften, gleichzeitig aber auch zu Steigerungen von CAI-Festigkeit und G1R. Allerdings kann durch die Wahl geeigneter Nähkonfigurationen ein Kompromiss
zwischen beiden Effekten gefunden werden.
Die Realisierung der Nähtechnik im Industriemaßstab kann allerdings nur dann erfolgen,
wenn Werkstoffeigenschaften günstig und schnell, d. h. mit minimalem experimentellen
Aufwand, abgeschätzt werden können. Zur Simulation des Festigkeitsverhaltens
in der Laminatebene, das in der Strukturauslegung neben dem elastischen
Verhalten häufig maßgeblich ist, wurde daher, aufbauend auf einem parametrisch
gesteuerten Finite-Elemente-Einheitszellenmodell, ein Modul zur kontinuumsmechanischen
Versagensanalyse (Spannungs-, Verzerrungs-, Festigkeits- und Degradationsanalyse)
entwickelt. In Abhängigkeit der jeweiligen Parametereinstellung können
komplexe Einheitszellen mit Fehlstellen und Faserondulationsgebieten modelliert
werden. Die iterative, einzelschichtbasierte Versagensanalyse ermöglicht die Abschätzung
von Festigkeitskennwerten unvernähter und strukturell vernähter MAG-Laminate
unter Scheibenbelastung (Zug, Druck und Schub). Zur Bewertung der Werkstoffanstrengung
für Faserbruch wurde das Maximalspannungs-Kriterium, für
Zwischenfaserbruch das Wirkebenenkriterium von Puck für den dreidimensionalen
Spannungszustand implementiert. Das Nachversagensverhalten wird kontinuumsmechanisch
durch Steifigkeitsdegradation nach einem für den dreidimensionalen
Spannungszustand modifizierten Chiu-Modell abgebildet. Die nichtlineare Versagensanalyse
erlaubt die Berechnung des Schädigungsverhaltens infolge von Zwischenfaserbruch,
die Vorhersage des Totalversagens und des ebenen Spannungs-
Dehnungs-Verhaltens sowie die Berücksichtigung thermisch bedingter Eigenspannungen
und werkstofflicher Nichtlinearitäten.
Alternativ zur Einheitszellenmodellierung wurde für den Konstrukteur in der Vorauslegung
oder den Anwender in der Verarbeitungstechnik die Möglichkeit geschaffen,
Scheibeneigenschaften strukturell verstärkter Laminate mit nahezu beliebigem
Schichtaufbau und Nähmuster durch die Verwendung von Kennwerten vernähter,
unidirektionaler MAG-Einzelschichten in Verbindung mit analytischen Laminatanalyseprogrammen
konservativ abzuschätzen. Zur Vorhersage mit verbesserter Genauigkeit
sollte allerdings auf das Finite-Elemente-Einheitszellenmodell zurückgegriffen
werden.
Die Einarbeitung von nanoskaligen Füllstoffen zur Steigerung von polymeren Eigenschaftsprofilen
ist sehr viel versprechend und stößt daher heutzutage sowohl in der
Forschung als auch in der Industrie auf großes Interesse. Bedingt durch ausgeprägte
Oberflächen und hohe Anziehungskräfte, liegen Nanopartikel allerdings nicht singulär
sondern als Partikelanhäufungen, so genannten Agglomeraten oder Aggregaten, vor.
Zur Erzielung der gewünschten Materialverbesserungen gilt es, diese aufzuspalten
und homogen in der polymeren Matrix zu verteilen.
Bei thermoplastischen Kunststoffen ist die gleichläufige Doppelschneckenextrusion
eines der gängigsten Verfahren zur Einarbeitung von Additiven und Füllstoffen. Aus
diesem Grund war es Ziel dieser Arbeit, mittels dieses Verfahrens verbesserte Verbundwerkstoffe
mit Polyamid 66- und Polyetheretherketon-Matrix, durch Einarbeitung
von nanoskaligem Titandioxid (15 und 300 nm), zu generieren.
In einem ersten Schritt wurden die verfahrenstechnischen Parameter, wie Drehzahl
und Durchsatz, sowie die Prozessführung und damit deren Einfluss auf die Materialeigenschaften
beleuchtet.
Der spezifische Energieeintrag ist ausschlaggebend zur Deagglomeration der Nanopartikel.
Dieser zeigte leichte Abhängigkeiten von der Drehzahl und dem Durchsatz
und verursachte bei der Einarbeitung der Partikel keine wesentlichen Unterschiede in
der Aufspaltung der Partikel sowie gar keine in den resultierenden mechanischen
Eigenschaften. Die Prozessführung wurde unterteilt in Mehrfach- und Einfachextrusion.
Die Herstellung eines hochgefüllten Masterbatches, dessen mehrfaches
Extrudieren und anschließendes Verdünnen, führte zu einer sehr guten Deagglomeration
und stark verbesserten Materialeigenschaften. Mittels Simulation des
Extrusionsprozesses konnte festgestellt werden, dass das Vorhandensein von ungeschmolzenem
Granulat in der Verfahrenszone zu einer Schmelze/Nanopartikel/
Feststoffreibung führt, die die Ursache für eine sehr gute Aufspaltung der Partikel zu
sein scheint. Durch Modifikation des Extrusionsprozesses erreichte die Einfachextrusion
annähernd den Grad an Deagglomeration bei Mehrfachextrusion, wobei die
Materialien bei letzterem Verfahren die besten Eigenschaftsprofile aufwiesen.
In einem zweiten Schritt wurde ein Vergleich der Einflüsse von unterschiedlichen
Partikelgrößen und –gehalten auf die polymeren Matrizes vollzogen. Die 15 nm Partikel zeigten signifikant bessere mechanische Ergebnisse auf als die 300 nm Partikel,
und die Wirkungsweise des 15 nm Partikels auf Polyetheretherketon war stärker als
auf Polyamid 66. Es konnten Steigerungen in Steifigkeit, Festigkeit und Zähigkeit
erzielt werden. Rasterelektronenmikroskopische Aufnahmen bestätigten diese Ergebnisse.
Eine Berechnung der Plan-Selbstkosten von einem Kilogramm PEEK-Nanoverbundwerkstoff
im Vergleich zu einem Kilogramm unverstärktem PEEK verdeutlichte, dass
ein Material kreiert wurde, welches deutlich verbesserte Eigenschaften bei gleichem
Preis aufweist.
Zusammenfassend konnte in dieser Arbeit ein tieferes Verständnis des Extrusionsvorganges
zur Herstellung von kostengünstigen und verbesserten Thermoplasten
durch das Einbringen von Nanopartikeln gewonnen werden.
Epoxy resins have achieved acceptance as adhesives, coatings, and potting compounds,
but their main application is as matrix to produce reinforced composites.
However, their usefulness in this field still limited due to their brittle nature. Some
studies have been done to increase the toughness of epoxy composites, of which the
most successful one is the modification of the polymer matrix with a second toughening
phase.
Resin Transfer Molding (RTM) is one of the most important technologies to manufacture
fiber reinforced composites. In the last decade it has experimented new impulse,
due to its favorable application to produce large surface composites with good technical
properties and at relative low cost.
This research work focuses on the development of novel modified epoxy matrices,
with enhanced mechanical and thermal properties, suitable to be processed by resin
transfer molding technology, to manufacture Glass Fiber Reinforced Composites
(GFRC’s) with improved performance in comparison to the commercially available
ones.
In the first stage of the project, a neat epoxy resin (EP) was modified using two different
nano-sized ceramics: silicium dioxide (SiO2) and zirconium dioxide (ZrO2); and
micro-sized particles of silicone rubber (SR) as second filler. Series of nanocomposites
and hybrid modified epoxy resins were obtained by systematic variation of filler
contents. The rheology and curing process of the modified epoxy resins were determined
in order to define their aptness to be processed by RTM. The resulting matrices
were extensively characterized qualitatively and quantitatively to precise the effect
of each filler on the polymer properties.
It was shown that the nanoparticles confer better mechanical properties to the epoxy
resin, including modulus and toughness. It was possible to improve simultaneously
the tensile modulus and toughness of the epoxy matrix in more than 30 % and 50 %
respectively, only by using 8 vol.-% nano-SiO2 as filler. A similar performance was
obtained by nanocomposites containing zirconia. The epoxy matrix modified with 8 vol.-% ZrO2 recorded tensile modulus and toughness improved up to 36% and 45%
respectively regarding EP.
On the other hand, the addition of silicone rubber to EP and nanocomposites results
in a superior toughness but has a slightly negative effect on modulus and strength.
The addition of 3 vol.-% SR to the neat epoxy and nanocomposites increases their
toughness between 1.5 and 2.5 fold; but implies also a reduction in their tensile modulus
and strength in range 5-10%. Therefore, when the right proportion of nanoceramic
and rubber were added to the epoxy resin, hybrid epoxy matrices with fracture
toughness 3 fold higher than EP but also with up to 20% improved modulus were
obtained.
Widespread investigations were carried out to define the structural mechanisms responsible
for these improvements. It was stated, that each type of filler induces specific
energy dissipating mechanisms during the mechanical loading and fracture
processes, which are closely related to their nature, morphology and of course to
their bonding with the epoxy matrix. When both nanoceramic and silicone rubber are
involved in the epoxy formulation, a superposition of their corresponding energy release
mechanisms is generated, which provides the matrix with an unusual properties
balance.
From the modified matrices glass fiber reinforced RTM-plates were produced. The
structure of the obtained composites was microscopically analyzed to determine their
impregnation quality. In all cases composites with no structural defects (i.e. voids,
delaminations) and good superficial finish were reached. The composites were also
properly characterized. As expected the final performance of the GFRCs is strongly
determined by the matrix properties. Thus, the enhancement reached by epoxy matrices
is translated into better GFRC´s macroscopical properties. Composites with up
to 15% enhanced strength and toughness improved up to 50%, were obtained from
the modified epoxy matrices.
Faser-Kunststoff-Verbunde (FKV) werden aufgrund ihres hohen Leichtbaupotentials
in vielen Industriebereichen eingesetzt. Eine Verstärkung von Kunststoffen mit Fasern
führt zu einer deutlichen Verbesserung der mechanischen Eigenschaften. Positive
Veränderungen des Eigenschaftsspektrums sind zum Beispiel deutliche Verbesserungen
des Zug-E-Moduls und der Zugfestigkeit. Negative Erscheinungen, die aus
der Faserverstärkung resultieren können, sind eine geringere Bruchdehnung des
Verbundwerkstoffes und ein spröderes Bruchverhalten bei Impakt- und Crashbelastung.
Um diesen Nachteil auszugleichen, werden vermehrt Metall-Kunststoff-
Composites (Hybridverbundwerkstoffe) entwickelt, bei denen die positiven Eigenschaften
von Metallen und Faser-Kunststoff-Verbunden gezielt kombiniert werden,
um weitere Eigenschaftsverbesserungen zu erreichen.
Die vorliegende Arbeit behandelt die Entwicklung eines Herstellungsverfahrens sowie
die Charakterisierung, Modellierung und Simulation von neuartigen hybriden
edelstahltextilverstärkten Polypropylen- (ETV-PP) und Polypropylen/Langglasfaser-
Werkstoffen (ETV-PP/GF). Für die Fertigung von ETV-Verbundwerkstoffen wurde ein
zweistufiges Verfahren im Labormaßstab erarbeitet und eingeführt. Während der
Fertigungsstudien wurden ausgewählte Prozess- und Materialparameter variiert, um
deren Einfluss auf die mechanischen Eigenschaften der neuartigen ETVFaserkunststoffverbunde
(ETV-FKV) zu untersuchen. Nicht in jedem Fall konnte eine
eindeutige Abhängigkeit der mechanischen Eigenschaft von der variierten Prozessgröße
festgestellt werden. Wenn die Ergebnisse in ihrer Gesamtheit betrachtet werden,
treten folgende zwei äußerst positive Effekte in den Vordergrund: Zum einen
konnte durch den Einsatz der Edelstahltextilverstärkungen die Fragmentierungsneigung
von spröden PP-Matrixsystemen bei Impaktbelastung erheblich verringert werden
und zum anderen wurde die Energieabsorption bei hochdynamischer Durchstoßbeanspruchung
signifikant verbessert. Die mittels Licht- und Rasterelektronenmikroskopie
(REM) identifizierte schlechte Stahl/PP-Anhaftung konnte durch eine
mechanische Vorbehandlung der Verstärkungstextilien ebenfalls gesteigert werden.
Modelle zur mikromechanischen finite Elemente (FE) Simulation des Zug-E-Moduls
von ETV-Verbundwerkstoffen wurden entwickelt und anhand von experimentellen
Daten verifiziert und validiert.
The dissertation describes a practically proven, particularly efficient approach for the verification of digital circuit designs. The approach outperforms simulation based verification wrt. final circuit quality as well as wrt. required verification effort. In the dissertation, the paradigm of transaction based verification is ported from simulation to formal verification. One consequence is a particular format of formal properties, called operation properties. Circuit descriptions are verified by proof of operation properties with Interval Property Checking (IPC), a particularly strong SAT based formal verification algorithm. Furtheron, a completeness checker is presented that identifies all verification gaps in sets of operation properties. This completeness checker can handle the large operation properties that arise, if this approach is applied to realistic circuits. The methodology of operation properties, Interval Property Checking, and the completeness checker form a symbiosis that is of particular benefit to the verification of digital circuit designs. On top of this symbiosis an approach to completely verify the interaction of completely verified modules has been developed by adaptation of the modelling theories of digital systems. The approach presented in the dissertation has proven in multiple commercial application projects that it indeed completely verifies modules. After reaching a termination criterion that is well defined by completeness checking, no further bugs were found in the verified modules. The approach is marketed by OneSpin Solutions GmbH, Munich, under the names "Operation Based Verification" and "Gap Free Verification".
Durch die Einarbeitung von Nanopartikeln in eine Polymermatrix lässt sich eine signifikante Verbesserung der mechanischen Eigenschaften der Werkstoffe erzielen. Dazu ist allerdings eine Separierung und homogene Verteilung der Verstärkungsstoffe in der Matrix notwendig, um die spezifische Oberfläche der Nanopartikel ausnutzen zu können, die dann als Grenzfläche mit der Matrix in Wechselwirkung treten kann.
In der vorliegenden Arbeit wurde die Dispergierung von anorganischen Nanopartikeln am Beispiel von Titandioxid und Bariumsulfat in Epoxidharz mithilfe von Ultraschallwellen systematisch untersucht. Dazu wurden die Prozessparameter, wie z.B. die Amplitude und das beschallte Volumen, variiert, um die optimalen Dispergierparameter zu ermitteln, die zu einer guten Dispergierung der Nanopartikel führen, ohne dabei jedoch die Molekülstruktur des Epoxidharzes zu verändern. Eine Veränderung der Molekülstruktur der Matrix kann die mechanischen Eigenschaften des Werkstoffs negativ beeinflussen. Deshalb wurden für das unbehandelte und das beschallte Harz Morphologieuntersuchungen mittels FourierTransform-Infrarotspektroskopie und Gel-Permeations-Chromatographie durchgeführt. Dabei stellte sich heraus, dass die Nanopartikel im Harz mit der maximalen Amplitude von 100% und einer Beschallungszeit von 15 Minuten optimal dispergiert werden können, ohne die Morphologie des Harzes merklich zu verändern.
Für den Ultraschalldispergierprozess wurde ein Dispergiermodell erarbeitet, das die Entwicklung der Partikelgröße in Abhängigkeit von den Prozessparametern beschreibt. Dieses Modell ist auf andere Partikelsysteme übertragbar und soll Vorhersagen für zukünftige Dispergierexperimente ermöglichen.
Das Ziel der Fertigung der Nanoverbundwerkstoffe ist die Steigerung der mechanischen Eigenschaften im Zug-, Bruchzähigkeits-, Kerbschlagzähigkeits- und Biegeversuch. Hierbei wurde sowohl die Wirkung der Dispergierung als auch der Einfluss des Verstärkungsstoffgehaltes auf das Eigenschaftsprofil untersucht. Des Weiteren wurde die Übertragbarkeit der Ergebnisse auf ein weiteres Epoxidharz überprüft.
Um die Verstärkungsmechanismen der Nanopartikel in der Polymermatrix, die zu einer Verbesserung der mechanischen Eigenschaften führen, zu verstehen, wurden Rasterelektronenmikroskop-Aufnahmen der Bruchflächen ausgeführt. Diese zeigten,dass Nanoverbundwerkstoffe eine rauere Bruchoberfläche als reines Epoxidharz besitzen, was auf eine Änderung der Bruchmechanismen hindeutet.
Insgesamt konnten mithilfe der Ultraschalldispergierung Nanoverbundwerkstoffe mit verbesserten mechanischen Eigenschaften hergestellt werden und ihre Dispergierung durch ein Modell beschrieben werden, das auch Vorhersagen für weitere Partikel-Harz-Systeme erlaubt.
Motivation dieser Arbeit war die Synthese und Charakterisierung von Katalysatoren zur selektiven Dimerisierung von 1-Hexen zu n-Dodecen und zu möglichst wenig verzweigten Produkten. Untersucht wurden die Zeolithe Y, L und ZSM-12 sowie die Silicoalumophosphate SAPO-5, SAPO-11, SAPO-31 und SAPO-41. Für die BrØnsted-aciden Katalysatoren ist festzuhalten: Alle hergestellten Zeolithe, das heißt H-Y, H-L und H-ZSM-12, verfügten über starke acide Zentren. Zeolith H-L erwies sich ebenfalls als sehr aktives Material. Die Selektivitäten zu den Zielprodukten waren bei vergleichbaren Umsätzen etwas höher als bei Verwendung von H-Y, was für einen schwachen formselektiven Effekt spricht. An Zeolith H-ZSM-12 wurden nur geringe Umsätze erzielt. Für die Silicoalumophosphate wurde gefunden: Alle verfügen über acide Zentren, welche jedoch etwas schwächer waren als die der BrØnsted-aciden Zeolithe. Um vergleichbare Umsätze wie an den Zeolithen zu erzielen, waren daher höhere Reaktionstemperaturen oder längere Reaktionszeiten erforderlich. H-SAPO-5 zeigte dabei eine gegenüber H-L erhöhte Selektivität zu den Zielprodukten, vermutlich aufgrund der etwas engeren Poren. H-SAPO-11, H-SAPO-31 und H-SAPO-41 zeigten trotz vorhandener und zugänglicher acider Zentren nur vernachlässigbare Umsätze. Analog zu Zeolith H-ZSM-12 wird dies auch hier auf die zu engen Poren zurückgeführt, welche die Bildung des Übergangszustandes offensichtlich nicht zulassen. Wurde Nickel in die Katalysatoren eingebracht, zeigten sich Unterschiede, die vor allem von der Präparationsmethode abhängen. Durch verschiedene Methoden gelang es, Katalysatoren herzustellen, die eine hohe Selektivität entweder zu n-Dodecen oder zu einfach verzweigten Dodecenen aufwiesen. Durch Ionenaustausch mit Nickelacetat in wässriger Lösung wurden Ni-Y, Ni-L und NiH-SAPO-5 hergestellt. Diese Materialien verfügten wahrscheinlich über Nickel auf Kationenpositionen. Sie zeigten eine gegenüber der sauren Form deutlich erhöhte Selektivität zu den Zielprodukten, der Effekt nahm in der Reihe Ni-Y < Ni-L < NiH-SAPO-5 zu. Analog zu den Resultaten an H-Y, H-L und H-SAPO-5 lässt sich dies mit einer zunehmenden Formselektivität durch das Porensystem der Katalysatoren begründen. Bei Ni-Y und NiH-SAPO-5 ließen sich mittels Temperaturprogrammierter Reduktion zwei verschiedene Nickelspezies nachweisen, die sich vermutlich durch die ihre Position in Gitter unterscheiden und dadurch eine unterschiedliche Stabilisierung gegenüber einer Reduktion erfahren. Wurde bei Ni-Y und NiH-SAPO-5 die jeweils leichter zu reduzierende Nickelspezies mit Wasserstoff reduziert, zeigten die so behandelten Katalysatoren eine stark verringerte Aktivität in der Katalyse. Dies ist in Einklang mit dem vorgeschlagenen Reaktionsmechanismus, der von Ni(I) als aktiver Spezies ausgeht (welche durch eine Autoreduktion von Ni(II) während der Aktivierung des Katalysators erzeugt werden): Wird Nickel durch den Träger sehr stark stabilisiert, ist keine Autoreduktion mehr möglich und somit die Aktivität des Katalysators sehr gering. NiH-SAPO-5 wurde mit verschiedenen Siliciumanteilen hergestellt, was das Einbringen verschiedener Mengen an Nickel durch Ionenaustausch erlaubte. Hierbei zeigte sich, dass die Selektivität zu den Zielprodukten mit dem Nickelgehalt zunimmt und durch Verwendung eines H-SAPO-5 mit xSi = 0,20 (und damit hoher Ionenaustauschkapazität) bis zu 89 % Selektivität zu C12-Isomeren erreicht werden können, wobei diese je etwa zur Hälfte aus n-Dodecen und zur Hälfte einfach verzweigte Dimeren bestanden. Sollten bevorzugt einfach verzweigte Dodecene hergestellt werden, so war es durch Festkörperreaktion des BrØnsted-aciden Trägers mit Nickelacetat möglich, einen Katalysator zu präparieren, der keine linearen Produkte lieferte und bei geeignetem Nickelgehalt eine hohe Selektivität zu einfach verzweigten Dimeren aufwies. Dieser Effekt ist nur wenig vom Porensystem des Trägers, jedoch stark von dessen Ionenaustauschkapazität abhängig. Je höher diese ist, umso höher ist auch die Selektivität des resultierenden Katalysators. Wie TPD-Messungen mit 1-Aminopentan und Ammoniak als Sondenmoleküle zeigten, besaßen die so präparierten Materialien keine sauren Zentren mehr. Aufgrund der vorliegenden Ergebnisse konnte gezeigt werden, dass es durch geeignete Wahl der Präparationsmethode und der Porengeometrie möglich ist, Katalysatoren zu erhalten, die entweder zur Herstellung von n-Dodecen oder zu überwiegend wenig verzweigten C12-Isomeren geeignet sind. Überraschenderweise, gelang es außerdem, mit dem gleichem Trägermaterial Katalysatoren herzustellen, welche kein n-Dodecen liefern, aber eine sehr hohe Selektivität zu einfach verzweigten C12-Isomeren besitzen. Vor allem anhand von NiH-SAPO-5 konnte weiterhin belegt werden, dass die Kombination aus geeigneter Porengeometrie und Nickel eine geeignete Methode zur Herstellung von Katalysatoren für die selektive Dimerisierung von 1-Hexen zu n-Dodecen ist.
Der Kernrezeptor PXR spielt eine bedeutende Rolle im Fremdstoffmetabolismus als auch im Stoffwechsel endogener Substrate. Er reguliert die Expression zahlreicher Proteine des Fremdstoffwechsels. Deshalb hat die Aktivierung oder Hemmung des PXR einen großen Einfluss auf den Stoffwechselstatus dieser Proteine. Zum derzeitigen Stand der Forschung nimmt der PXR eine Schlüsselfunktion bei der Regulation der CYP3A-Enzyme ein. Es besteht deshalb Interesse Substanzen, die in Verdacht stehen PXR abhängig CYP3A zu induzieren, zu untersuchen. In dieser Arbeit wurden bromierte Flammschutzmittel und der Arzneimittelkandidat EMD untersucht. Aus den Vorversuchen wurde ersichtlich, dass die Rattenhepatomzelllinie H4IIE und die humane Hepatomzelllinie HepG2 geeignete in vitro Systeme zur Untersuchung der PXR-abhängigen CYP3A-Aktivierung darstellen. Untersuchungen zum Genexpressionsverhalten zahlreicher Gene des Fremdstoffmetabolismus mittels TLDA-Karten zeigten, dass die beiden Zelllinien viele dieser Gene exprimieren, die nach Inkubation mit den Prototypinduktoren Rifampicin und Dexamethason spezies-spezifisch reguliert wurden. Die beiden Zelllinien wurden schließlich mit einem Reportergenvektor, der die PXR responsiven Elemente des CYP3A4-Gens enthält, stabil transfiziert. An den stabil transfizierten HepG2-XREM3- und H4IIE-XREM3-Zellen wurden bekannte CYP-Induktoren sowie der Arzneimittelkandidat EMD und die Flammschutzmittel HBCD and der pentaBDE Mix getestet. Die Flammschutzmittel HBCD und der pentaBDE-Mix, werden in Textilwaren, Kunststoffen, Möbeln, Teppichen, Elektrogeräten und Baumaterialen eingesetzt. Falls sie tatsächlich den PXR spezies-spezifisch aktivieren sollten, könnten sie eine Gefahr für Mensch und Umwelt darstellen. Deshalb wurde in dieser Arbeit die CYP3A-mRNA-Expression, die Protein- sowie die Reportergenaktivität überprüft. Als gemeinsamer Aktivator des hPXR und rPXR stellte sich Clotrimazol, aber auch das Flammschutzmittel HBCD heraus, während pentaBDE ein besserer Ligand des hPXR ist. Omeprazol und Phenobarbital induzierten die rPXR-vermittelte CYP3A-Induktion in H4IIE-XREM3-Zellen nicht; in den humanen HepG2-XREM3-Zellen konnte jedoch eine moderate Reportergenaktivität gemessen werden. Weiteres Interesse besteht an dem Arzneimittelkandidaten EMD zur Behandlung des metabolischen Syndroms und Typ II-Diabetes. In vivo (Affen, Ratten) und in vitro (Hepatozyten) wurden bereits spezies-spezifische Effekte auf die CYP3A-Induktion durch EMD beobachtet. Deshalb wurde in dieser Arbeit der über aktivierten PXR vermittelte Mechanismus an Zelllinien überprüft. Dabei stellte sich heraus, dass EMD ein hPXR-Aktivator und CYP3A-Induktor in HepG2-Zellen, jedoch kein Aktivator von rPXR in H4IIE-Zellen ist. Um schwerwiegende Nebenwirkungen und unvorhersehbare Arzneimittelwechselwirkungen durch die Aufnahme von Fremdstoffen zu verhindern, ist es bei der Neuentwicklung von Wirkstoffen aller Art notwendig, die Stoffe auf eine mögliche Induktion der Fremdstoff-metabolisierenden Enzyme zu untersuchen. Deshalb war das Ziel dieser Arbeit die Etablierung von zell-basierten in vitro Assays zur Ermittlung der spezies-spezifischen PXR-abhängigen Induktion von CYP3A durch Chemikalien und Arzneimittelkandidaten, um mögliche Arzneimittel- und Fremdstoffwechselwirkungen und damit verbundene Sicherheitsrisiken vorhersagen zu können. Das etablierte PXR- Screeningsystem repräsentiert zwei in vitro Modelle, die erlauben spezies-spezifische Wirkungen auf die CYP3A-Induktion von Chemikalien, Umweltkontaminanten, Lebensmittelinhaltsstoffe und Arzneimittel schnell, einfach und kostengünstig abschätzen zu können. Eine frühe Erkennung der PXR-Aktivierung und CYP-Induktion von Arzneimitteln in der Entwicklung kann einen Weiterentwicklungsstopp dieser zur Folge haben. Dies hilft zusätzliche Tierversuche und Kosten einzusparen. Dem 3R-Prinzip (Reduce, Refine, Replace) vom Reduzieren der Anzahl der Tierversuche, der Verbesserung der existierenden Experimente und dem Ersetzen von Tierversuchen durch alternative Methoden (Russel & Burch, 1959) wird durch die stabil transfizierten Zelllinien in zweierlei Hinsicht Rechnung getragen: unnötige Tierversuche können vermieden reduction und die Aussagekraft von durchgeführten Tierstudien (z.B. vom Gesetzgeber geforderte Studien zur Arzneimittelentwicklung) verbessert werden (dies trägt auch zu einem refinement bei). Damit stellen die HepG2-XREM3- und H4IIE-XREM3-Zellen eine wichtige innovative Verbesserung bei der Entwicklung von Arzneistoffen sowie bei der regulatorischen Testung von Chemikalien dar.
Die vorliegende Arbeit befasst sich mit der grundlegenden Untersuchung von Verfahren zur mechanischen Dispergierung agglomerierter Nanopartikel in Epoxidharz und der werkstofflichen Charakterisierung der daraus resultierenden Nanoverbundwerkstoffe. Dazu wurden Dispergierexperimente unter Verwendung eines Titandioxid-Nanopartikelpulvers mit Hilfe einer horizontalen und einer vertikalen Rührwerkskugelmühle durch systematische Variation von Dispergierparametern, wie beispielsweise der Rührwerksumfangsgeschwindigkeit, der Dispergierdauer, dem spezifischen Energieeintrag, dem Mahlkörperdurchmesser und dem Mahlkörperfüllgrad durchgeführt. Die Herausforderung liegt in der Erzielung möglichst geringer Partikelgrößen einhergehend mit einer homogenen Verteilung der Primärpartikel in der polymeren Matrix, ohne dabei die Molekülstruktur des verwendeten Epoxidharzes zu degradieren. Zur Ermittlung des Einflusses der einzelnen Dispergierparameter auf die Partikelgrößen und deren Häufigkeitsverteilungen wurden Proben der Suspension bestehend aus Epoxidharz und TiO2-Nanopartikeln während des Dispergierprozesses entnommen und nach dem Prinzip der dynamischen Lichtstreuung untersucht. Aus den Suspensionen wurden Nanoverbundwerkstoffe gefertigt, die umfangreich werkstoffwissenschaftlich durch mechanische, thermoanalytische und rasterelektronenmikroskopische Untersuchungen charakterisiert wurden, um den Einfluss der Partikelgrößen und -verteilungen auf die Struktur und die Eigenschaften der Nanoverbundwerkstoffe zu ermitteln. Das erarbeitete Dispergierverfahren wurde anschließend zugrunde gelegt, um Nanopartikelpulver aus Titandioxid, Aluminiumdioxid und Zirkoniumdioxid in Epoxidharz zu dispergieren und dadurch Nanoverbundwerkstoffe mit gesteigerten Werkstoffeigenschaften zu fertigen. Diese wurden mechanischen und rasterelektronenmikroskopischen Untersuchungen unterzogen. Aufbauend auf den Erkenntnissen der vorangegangen Dispergierexperimente und theoretischen Betrachtungen wurde anhand eines Modells die Vorhersage erzielbarer Partikelgrößenverteilungen in Abhängigkeit physikalischer Einflussgrößen des Dispergierprozesses geprüft.
Es ist bekannt, dass die Genese von Darmerkrankungen von der aufgenommenen Nahrung beeinflusst wird. Der Genuss von Apfelprodukten mit hoher antioxidativer Wirksamkeit könnte daher zur Prävention ROS-assoziierter Erkrankungen beitragen. Ziel der vorliegenden Arbeit war die Untersuchung von polyphenolreichen Extrakte aus Apfelsaft (AE01–AE07), Tresterextraktionssaft (AE03B, AE06B) und Apfelschalen (GS, PE) sowie von Polyphenolen auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Caco-2 Zellen. Zur Annäherung an die in vivo-Situation wurden mit Darmbakterien fermentierte Apfelsaftextrakte/Trub in die Untersuchungen einbezogen, dabei entstehende Abbauprodukte wurden charakterisiert und ebenfalls geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level, GSH-Spiegel und SOD1-Expression. Zusätzlich wurde die zellfreie antioxidative Kapazität (ORAC/TEAC) erfasst. Die antioxidative Kapazität aller Extrakte war hoch und korrelierte mit dem Gehalt an Polyphenolen bzw. Procyanidinen. Der zelluläre ROS-Level wurde am effektivsten durch AE07 und GS reduziert, während AE05, AE06B und GS den besten Schutz vor oxidativen DNA-Schäden boten. Eine Erhöhung des tGSH-Spiegels konnte durch Inkubation mit AE06, AE07, GS und PE erreicht werden. Die Ergebnisse legen nahe, dass vor allem Flavonol/Procyanidin-reiche Extrakte eine gute protektive Wirksamkeit aufweisen. Die fermentierten Extrakte zeigten eine deutliche antioxidative Wirksamkeit, was vor allem den identifizierten phenolischen Abbauprodukten zugeschrieben werden konnte, die fast alle eine ausgeprägte Wirksamkeit im zellfreien und zellulären System zeigten. Es ist nicht auszuschließen, dass auch andere Komponenten (wie z.B. SCFA) zur protektiven Wirksamkeit fermentierter Extrakte beitragen könnten. Der fermentierte Trub erwies sich in den Untersuchungen als unwirksam, da in ihm keine Polyphenole identifiziert werden konnten. Weiterhin wurden auch Polyphenol-vermittelte prooxidative Effekte untersucht, für die sich neben einer starken Strukturabhängigkeit die Wahl des verwendeten Mediums als entscheidender Faktor für die beobachtete H2O2-Bildung erwies. Es wurden keine adversen Effekte auf zelluläre Marker beobachtet, vielmehr könnte die Wirksamkeit der Polyphenole durch geringe Mengen an ROS unterstützt werden, da diese die antioxidative Abwehr der Zellen aktivieren. Insgesamt erwiesen sich phenolische Extrakte aus Apfelbestandteilen als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzellen. In begleitenden Untersuchungen mit Einzelstoffen wurden Polyphenole identifiziert, die wesentlich zur protektiven Wirkung der Extrakte beitragen. Es konnte gezeigt werden, dass die protektive Wirksamkeit von Extrakten und Inhaltsstoffen trotz intestinalen Abbaus persistiert und dass eine moderate prooxidative Wirksamkeit der Polyphenole in Zellen einen günstigen Einfluss auf deren antioxidative Abwehr ausüben kann.
This thesis deals with the application of binomial option pricing in a single-asset Black-Scholes market and its extension to multi-dimensional situations. Although the binomial approach is, in principle, an efficient method for lower dimensional valuation problems, there are at least two main problems regarding its application: Firstly, traded options often exhibit discontinuities, so that the Berry- Esséen inequality is in general tight; i.e. conventional tree methods converge no faster than with order 1/sqrt(N). Furthermore, they suffer from an irregular convergence behaviour that impedes the possibility to achieve a higher order of convergence via extrapolation methods. Secondly, in multi-asset markets conventional tree construction methods cannot ensure well-defined transition probabilities for arbitrary correlation structures between the assets. As a major aim of this thesis, we present two approaches to get binomial trees into shape in order to overcome the main problems in applications; the optimal drift model for the valuation of single-asset options and the decoupling approach to multi-dimensional option pricing. The new valuation methods are embedded into a self-contained survey of binomial option pricing, which focuses on the convergence behaviour of binomial trees. The optimal drift model is a new one-dimensional binomial scheme that can lead to convergence of order o(1/N) by exploiting the specific structure of the valuation problem under consideration. As a consequence, it has the potential to outperform benchmark algorithms. The decoupling approach is presented as a universal construction method for multi-dimensional trees. The corresponding trees are well-defined for an arbitrary correlation structure of the underlying assets. In addition, they yield a more regular convergence behaviour. In fact, the sawtooth effect can even vanish completely, so that extrapolation can be applied.
Obwohl in mikrobiologischen Hochsicherheitslaboratorien einzelne Methoden des Risikomanagements durch gesetzliche Vorgaben verankert sind bzw. aufgrund von negativen Erfahrungen mit Laborinfektionen und prospektiver Sicherheitsforschung eingeführt wurden, fehlt bisher meist ein systematischer Riskomanagementansatz. Eine Möglichkeit zur Implementierung von „Risikomanagement als Führungsprozess” mittels der neuen, generischen Norm ISO 31000 „Risk management - Principles and guidelines” sollte in dieser Arbeit auf seine Eignung für ein Hochsicherheitslabor betrachtet werden. Dabei zeigte sich am konkreten Beispiel, dass durch die aktuelle Einführung eines QM-Systems die für ein Risikomanagementsystem notwendigen Strukturen prinzipiell vorhanden sind und genutzt werden können, aber dennoch ein erheblicher Schulungsbedarf bei den Mitarbeitern hinsichtlich methodischer Kompetenzen bestehen dürfte. Trotz theoretisch guter Integrierbarkeit des Risikomanagements in das QM-System würde die Einführung ein mittelfristiges, personalintensives Projekt darstellen. Als erfolgskritische Faktoren für die Einführung wurden weiterhin die Unterstützung durch die Leitung des Labors und die Entwicklung einer adäquaten, offenen Risikokultur identifiziert. Die Öffnung einer eher hierarchisch geprägten Organisationskultur würde ebenfalls Zeit kosten und wäre wahrscheinlich nicht ohne externe Beratung zu bewältigen. Erst dann könnte die gewünschte Risikokultur verwirklicht werden. Der grundlegende Wunsch zu einem veränderten Management im Labor ist aber auf allen Ebenen des betrachteten Forschungsinstituts spürbar, auch die Laborleitung unterstützt partizipative Elemente explizit. Das Rahmenwerk für ein Risikomanagementsystem wurde daher entworfen und in seinen Elementen für ein Hochsicherheitslabor betrachtet. Die jeweilige Ausgestaltung sollte durch eine Projektgruppe entwickelt werden. Dies stellt aufgrund der guten Erfahrungen mit Projektarbeit im betrachteten Institut keine relevante Hürde dar. Es erscheint daher möglich, mit der künftigen ISO 31000 (unter Zuhilfenahme verwandter Dokumente), ein Risikomanagementsystem für ein mikrobiologisches Hochsicherheitslabor einzuführen.
Most software systems are described in high-level model or programming languages. Their runtime behavior, however, is determined by the compiled code. For uncritical software, it may be sufficient to test the runtime behavior of the code. For safety-critical software, there is an additional aggravating factor resulting from the fact that the code must satisfy the formal specification which reflects the safety policy of the software consumer and that the software producer is obliged to demonstrate that the code is correct with respect to the specification using formal verification techniques. In this scenario, it is of great importance that static analyses and formal methods can be applied on the source code level, because this level is more abstract and better suited for such techniques. However, the results of the analyses and the verification can only be carried over to the machine code level, if we can establish the correctness of the translation. Thus, compilation is a crucial step in the development of software systems and formally verified translation correctness is essential to close the formalization chain from high-level formal methods to the machine-code level. In this thesis, I propose an approach to certifying compilers which achieves the aim of closing the formalization chain from high-level formal methods to the machine-code level by applying techniques from mathematical logic and programming language semantics. I propose an approach called foundational translation validation (FTV) in which the software producer implements an FTV system comprising a compiler and a specification and verification framework (SVF) which is implemented in higher-order logic (HOL). The most important part of the SVF is an explicit translation contract which comprises the formalizations of the source and the target languages of the compiler and the formalization of a binary translation correctness predicate corrTrans(S,T) for source programs S and target programs T. The formalizations of the languages are realized as deep embeddings in HOL. This enables one to declare the whole program in a formalized language as a HOL constant. The predicate formally specifies when T is considered to be a correct translation of S. Its definition is explicitly based on the program semantics definitions provided by the translation contract. Subsequent to the translation, the compiler translates the source and the target programs into their syntactic representations as HOL constants, S and T, and generates a proof of corrTrans(S,T). We call a compiler which follows the FTV approach a proof generating compiler. Our approach borrows the idea of representing programs in correctness proofs as logic constants from the foundational proof-carrying code (FPCC) approach. Novel features that distinquish our approach from further approaches to certifying compilers, such as proof-carrying code (PCC) and translation validation (TV) are the following: Firstly, the presence of an explicit translation contract formalized in HOL: The approaches PCC and TV do not formalize a translation contract explicitly. Instead of this, they incorporate operational semantics and translation correctness criterion in translation validation tools on the programming language level. Secondly, representation of programs in correctness proofs as logic constants: The approaches PCC and the TV translate programs into their representations as semantic abstractions that serve as inputs for translation validation tools. Thirdly, certification of program transformation chains: Unlike the TV approach, which certifies single program transformations, the FTV approach achieves the aim of certifying whole chains of program transformations. This is possible due to the fact that the translation contract provides, for all programming languages involved in the program transformation chain, definitions of program semantics functions which map programs to mathematical objects that are elements of a set with an (at least) partial order "<=". Then, the proof makes use of the fact that the relation "<=" is transitive. In this thesis, the feasibility of the FTV approach is exemplified by the implementation of an FTV system. The system comprises a compiler front-end that certifies its optimization phase and an accompanying SVF that is implemented in the theorem prover Isabelle/HOL. The compiler front-end translates programs in a small C-like programming language, performs three optimizations: constant folding, dead assignment elimination, and loop invariant hoisting, and generates translation certificates in the form of Isabelle/HOL theories. The main focus of the thesis is on the description of the SVF and its translation verification techniques.