Refine
Year of publication
- 2005 (58) (remove)
Document Type
- Doctoral Thesis (58) (remove)
Has Fulltext
- yes (58)
Keywords
- Mobilfunk (3)
- Computeralgebra (2)
- Flüssig-Flüssig-Extraktion (2)
- Geometric Ergodicity (2)
- Rotordynamik (2)
- Stoffübergang (2)
- air interface (2)
- mobile radio (2)
- Ab-initio-Rechnung (1)
- Abgasnachbehandlung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Kaiserslautern - Fachbereich Mathematik (16)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Informatik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
Automated theorem proving is a search problem and, by its undecidability, a very difficult one. The challenge in the development of a practically successful prover is the mapping of the extensively developed theory into a program that runs efficiently on a computer. Starting from a level-based system model for automated theorem provers, in this work we present different techniques that are important for the development of powerful equational theorem provers. The contributions can be divided into three areas: Architecture. We present a novel prover architecture that is based on a set-based compression scheme. With moderate additional computational costs we achieve a substantial reduction of the memory requirements. Further wins are architectural clarity, the easy provision of proof objects, and a new way to parallelize a prover which shows respectable speed-ups in practice. The compact representation paves the way to new applications of automated equational provers in the area of verification systems. Algorithms. To improve the speed of a prover we need efficient solutions for the most time-consuming sub-tasks. We demonstrate improvements of several orders of magnitude for two of the most widely used term orderings, LPO and KBO. Other important contributions are a novel generic unsatisfiability test for ordering constraints and, based on that, a sufficient ground reducibility criterion with an excellent cost-benefit ratio. Redundancy avoidance. The notion of redundancy is of central importance to justify simplifying inferences which are used to prune the search space. In our experience with unfailing completion, the usual notion of redundancy is not strong enough. In the presence of associativity and commutativity, the provers often get stuck enumerating equations that are permutations of each other. By extending and refining the proof ordering, many more equations can be shown redundant. Furthermore, our refinement of the unfailing completion approach allows us to use redundant equations for simplification without the need to consider them for generating inferences. We describe the efficient implementation of several redundancy criteria and experimentally investigate their influence on the proof search. The combination of these techniques results in a considerable improvement of the practical performance of a prover, which we demonstrate with extensive experiments for the automated theorem prover Waldmeister. The progress achieved allows the prover to solve problems that were previously out of reach. This considerably enhances the potential of the prover and opens up the way for new applications.
This thesis contains the mathematical treatment of a special class of analog microelectronic circuits called translinear circuits. The goal is to provide foundations of a new coherent synthesis approach for this class of circuits. The mathematical methods of the suggested synthesis approach come from graph theory, combinatorics, and from algebraic geometry, in particular symbolic methods from computer algebra. Translinear circuits form a very special class of analog circuits, because they rely on nonlinear device models, but still allow a very structured approach to network analysis and synthesis. Thus, translinear circuits play the role of a bridge between the "unknown space" of nonlinear circuit theory and the very well exploited domain of linear circuit theory. The nonlinear equations describing the behavior of translinear circuits possess a strong algebraic structure that is nonetheless flexible enough for a wide range of nonlinear functionality. Furthermore, translinear circuits offer several technical advantages like high functional density, low supply voltage and insensitivity to temperature. This unique profile is the reason that several authors consider translinear networks as the key to systematic synthesis methods for nonlinear circuits. The thesis proposes the usage of a computer-generated catalog of translinear network topologies as a synthesis tool. The idea to compile such a catalog has grown from the observation that on the one hand, the topology of a translinear network must satisfy strong constraints which severely limit the number of "admissible" topologies, in particular for networks with few transistors, and on the other hand, the topology of a translinear network already fixes its essential behavior, at least for static networks, because the so-called translinear principle requires the continuous parameters of all transistors to be the same. Even though the admissible topologies are heavily restricted, it is a highly nontrivial task to compile such a catalog. Combinatorial techniques have been adapted to undertake this task. In a catalog of translinear network topologies, prototype network equations can be stored along with each topology. When a circuit with a specified behavior is to be designed, one can search the catalog for a network whose equations can be matched with the desired behavior. In this context, two algebraic problems arise: To set up a meaningful equation for a network in the catalog, an elimination of variables must be performed, and to test whether a prototype equation from the catalog and a specified equation of desired behavior can be "matched", a complex system of polynomial equations must be solved, where the solutions are restricted to a finite set of integers. Sophisticated algorithms from computer algebra are applied in both cases to perform the symbolic computations. All mentioned algorithms have been implemented using C++, Singular, and Mathematica, and are successfully applied to actual design problems of humidity sensor circuitry at Analog Microelectronics GmbH, Mainz. As result of the research conducted, an exhaustive catalog of all static formal translinear networks with at most eight transistors is available. The application for the humidity sensor system proves the applicability of the developed synthesis approach. The details and implementations of the algorithms are worked out only for static networks, but can easily be adopted for dynamic networks as well. While the implementation of the combinatorial algorithms is stand-alone software written "from scratch" in C++, the implementation of the algebraic algorithms, namely the symbolic treatment of the network equations and the match finding, heavily rely on the sophisticated Gröbner basis engine of Singular and thus on more than a decade of experience contained in a special-purpose computer algebra system. It should be pointed out that the thesis contains the new observation that the translinear loop equations of a translinear network are precisely represented by the toric ideal of the network's translinear digraph. Altogether, this thesis confirms and strengthenes the key role of translinear circuits as systematically designable nonlinear circuits.
Ultraschall ist eines der am häufigsten genutzen, bildgebenden Verfahren in der Kardiologie. Dies ist durch die günstige Erzeugung, die Nicht-Invasivität und die Unschädlichkeit für die Patienten begründet. Nachteilig an den existierenden Geräten ist der Umstand, daß lediglich zwei-dimensionale Bilder generiert werden können. Zusätzlich können diese Bilder aufgrund anatomischer Gegebenheiten nicht aus einer wahlfreien Position akquiriert werden. Dies erschwert die Analyse der Daten und folglich die Diagnose. Mit dieser Arbeit wurden neue, algorithmische Aspekte des vier-dimensionalen, kardiologischen Ultraschalls ausgehend von der Akquisition der Rohdaten, deren Synchronisation und Rekonstruktion bis hin zur Visualisierung bearbeitet. In einem zusätzlichen Kapitel wurde eine neue Technik zur weiteren Aufwertung der Visualisierung, sowie zur visuellen Bearbeitung der Ultraschalldaten entwickelt. Durch die hier entwickelten Verfahren ist es möglich bestimmte Einschränkungen des kardiologischen Ultraschalls aufzuheben oder zumindest zu mildern. Hierunter zählen vor allem die Einschränkung auf zwei-dimensionale Schnittbilder, sowie die eingeschränkte Sichtwahl.
Die vorliegende Arbeit soll einen Beitrag dazu leisten, die Verwendung der Entlastungspartie als mediumgeschmiertes Radiallager zu untersuchen. Die damit entfallende Abdichtung zur Umgebung und eine insgesamt kürzere Pumpenwelle würde das rotordynamische Verhalten von mehrstufigen Gliederpumpen erheblich verbessern. Deshalb wird das Schwingungsverhalten einer mehrstufigen Gliederpumpe untersucht, indem verschiedene Standard-Profilierungen des zentralen Entlastungskolbens miteinander verglichen werden. Davon ausgehend wird eine Entlastung mit Injektion realisiert, die die Funktion eines Hybridlagers übernimmt, damit die Lagereigenschaften optimiert und der Einfluss des langen Drosselspaltes auf die Rotordynamik dargestellt werden kann. Als Hybridlager wird der Einfachkolben als zentrale Entlastung ausgewählt. Analog zu Gleitlagern wird eine glatte Spaltoberfläche realisiert, wenn in diesen Spalt mit dem Pumpenenddruck injiziert wird. In Verbindung mit der Exzentrizität des Rotors wird somit eine maximale Tragfähigkeit angestrebt. Die axiale Restkraft wird mit einem Kardanischen Ring gemessen. Bevor nun der Kolben der Entlastung ausgelegt werden kann, muss der hydraulische Axialschub bekannt sein. Im Rahmen dieser Arbeit wurde am Lehrstuhl ein Auslegungsprogramm für Kreiselpumpen entwickelt, mit dem der Druckverlauf im Radseitenraum, die Druckabsenkung, die Winkelgeschwindigkeit des Fluids und der hydraulische Axialschub berechnet wird. Um die Berechnungsmodelle zu verifizieren wird im experimentellen Teil dieser Arbeit, der Radseitenraum der letzten Stufe mit Miniatur-Drucksensoren und einem Wegsensor appliziert. Die Lagerbelastung und der Betriebspunkt wird mit einem Kardanischen Ring gemessen, der mit Dehnungs-Mess-Streifen appliziert ist und den axialen Restschub erfasst. Außerdem werden die dynamischen Signale der Drucksensoren und des Kardanischen Rings genutzt, um die Veränderungen des Schwingungszustandes oder die Übertragungsfunktion des Radseitenraumes bzw. des langen Spaltes der Entlastungseinrichtung zu beschreiben. Abschließend werden die Auswirkungen der Injektion auf die Entlastungspartie untersucht. Als Ergebnis dieser Arbeit konnte festgestellt werden, dass die Injektion den Durchflusswiderstand zwischen der Injektionsstelle und dem Radseitenraum erhöht. Zudem "bremst" die Injektion die Umfangskomponente der Absolutströmung, so dass der Rotationsfaktor Richtung Teillast kleiner wird. Dadurch kann mit Hilfe der Injektion die Entlastungskraft gesteuert werden. In den Frequenzspektren der glatten Spalt-Konfigurationen (MR3+MR4) tritt am deutlichsten die Frequenz der Laufradschaufeln in Erscheinung, deren Amplitude mit abnehmendem Radius im Radseitenraum deutlich gedämpft wird. Richtung Teillast übersteigt diese sogar die Unwuchtfrequenz und dominiert damit das Frequenzspektrum. Der Radseitenraum wird also von den hydraulischen Laufrad-Leitrad-Interaktionen dominiert. Ab Förderstromverhältnissen von q<0,5 ist ein breitbandiger Anstieg von subsynchronen Frequenzanteilen auszumachen. Diese sind durch Rezirkulationserscheinungen am Laufradaustritt (Austauschwirbel) begründet. Für die Konfiguration ohne Injektion "schlagen" die Frequenzen, die von Lauf- und Leitrad-Interaktionen generiert werden, bis hinter den Entlastungskolben durch. Dies wird durch die doppelten Spaltspiele begünstigt, die eine erhöhte Sensibilität des Rotors gegenüber Anregungen bewirken. Wird in die zentrale Entlastungseinrichtung injiziert, kann das Schwingungsverhalten der Pumpe deutlich verbessert werden. Bemerkenswert ist auch, dass die rotordynamisch vermeintlich beste Konfiguration (MR2) durch eine "ungünstigere" (MR3+MR4) in Kombination mit der Injektion unterboten wird. Die Injektion reduziert die Koppelsteifigkeit (vgl. Drallbremse), was den Rotor (FT) stabilisiert.
Da Polyphenole als gesund angesehen werden, ist es Ziel dieser Arbeit, ihre Gehalte in Fruchtsäften zu erhöhen. Dies beinhaltet zum einen das Auffinden polyphenolreicher Apfel- und Beerenobstsorten als geeignete Rohware. Gleichzeitig entsteht dabei ein Datensatz über sortenreine Apfel- und Beerenobstsäfte, der die RSK-Werte ergänzt. Zum anderen sind Wege zur Minimierung von Verarbeitungsverlusten durch gezielte Studien zur Qualitätssteigerung des Endproduktes Fruchtsaft wichtig. Die im Screening untersuchten sortenreinen Mostapfelsäfte aus drei Jahrgängen zeigen sehr hohe Gesamtphenolgehalte (GP) und antioxidative Kapazitäten (aK), die die Gehalte von Tafeläpfeln übersteigen. Sorten wie Bittenfelder und Weißer Trierer Weinapfel erreichen aK von Rotwein. Beerenobstsäfte sind reicher an Antioxidantien als Apfelsäfte. Innerhalb der Arten konnten besonders antioxidantienreiche Sorten gefunden werden. Bezogen auf die aK lautet die Reihenfolge: Tafelapfel < Mostapfel <= Erdbeere < Himbeere = Brombeere < Cranberry < Heidelbeere < Johannisbeere = Boysenberry < Aronia. Darüber hinaus sind erfolgreich Extraktions- und Analysemethoden zur Bestimmung der verschiedenen Formen von Ellagsäure entwickelt und zur Untersuchung von Erdbeeren und Himbeeren eingesetzt worden. Die Gesamtellagsäuregehalte von Himbeeren übersteigen bisher beschriebene Gehalte deutlich. Darüber hinaus sind Äpfel in die Gewebezonen aufgeteilt und auf Antioxidantien untersucht worden. Dies hat ergeben, dass die Quercetine (Q) fast ausschließlich in der Schale vorhanden sind und die Dihydrochalkone (DHC) größtenteils im Kerngehäuse. Die Phenolcarbonsäuren (PC) kommen ebenso wie die Flavanole (F) in allen Gewebezonen vor. Gerade die schlecht wasserlöslichen DHC und Q, die an den festen Bestandteilen der Frucht sitzen, gehen schlecht in den Saft über. Im Rahmen der Apfelverarbeitungsstudien sind Probleme bei der Probenahme und Extraktion erkannt und behoben worden. Die durchgeführten Verarbeitungsstudien haben ergeben, dass Prozesse zur Erhöhung des Transfers von DHC und Q wie etwa eine längere Maischestandzeit zu einem Verlust von F und PC führen. Dagegen verhindern Maßnahmen zum Schutz vor Oxidation, wie eine zusätzliche KZE des Saftes nach dem Pressen, die Extraktion der DHC und Q. Eine Steigerung des Polyphenolgehaltes kann jedoch durch eine Nachextraktion erreicht werden, wobei die Supratonmaschine keinen Vorteil bringt. Dieser Nachextraktsaft von polyphenolreichen Sorten kann darüber hinaus zur Qualitätssteigerung von einfacheren (Tafel)Apfelsäften eingesetzt werden. Die besten Ergebnisse des Übergangs der Polyphenole von der Frucht in das Getränk konnten bei der Herstellung eines Ganzfruchtproduktes erzielt werden. Selbst nach Verdünnung auf Nektarstärke sind mehr Polyphenole im Getränk enthalten als in einem vergleichbaren Saft. Lagerungsversuche über ein Jahr hinweg zeigen, dass sich Bohnapfelsaft und Mehrfruchtsaft sehr unterschiedlich verhalten. Während der untersuchte Bohnapfelsaft sich im Bezug auf Antioxidantien kaum über die Lagerzeit verändert, nehmen die Anthocyane des Mehrfruchtsaftes schon im ersten Lagermonat deutlich ab. Dagegen verschlechtert sich der Bohnapfelsaft sensorisch schnell während der Mehrfruchtsaft noch nach einem Jahr geschmeckt hat. Dies zeigt die Wichtigkeit sensorischer Untersuchungen bei solchen Studien. Aus polyphenolreichen Säften hergestellte Mehrfruchtsäfte (100% Saft) können als „Wellnessgetränke“ angesehen werden, da sie einen hohen gesundheitlichen Nutzen haben. Neue Rezepturen mit phenolreichen Ausgangssäften und optimierter Verarbeitung sollten weiter entwickelt werden.
Im Rahmen dieser wurden neuartige Fertigungsverfahren zur Herstellung von Bauteilen aus kontinuierlich faserverstärkten Thermoplasten untersucht. Prozesskombinationen aus Faserbündelimprägnierung und Wickeltechnik wurden in der Vergangenheit weitestgehend vernachlässigt, aufgrund der technisch schon sehr anspruchsvollen Imprägnierung einer großen Anzahl von Fasern mit einer hochviskosen Thermoplastschmelze. In jüngerer Vergangenheit wurde jedoch eine neue Technologie entwickelt, die sogenannte Imprägnierrad-Technologie, die eine hochwertige Schmelzeimprägnierung von Faserrovings ermöglicht. Aufgrund der beachtlichen Imprägniergeschwindigkeit und der spezifischen Charakteristika des Prozesses, bot sich die Technologie für eine Prozesskombination mit der Wickeltechnik an. Nach Auslegung und Umsetzung des Entwurfs der Anlagentechnik, wurden umfassende Parameterstudien durchgeführt. Glasfaserverstärkte Polypropylen- und Polyamid 12-Rohrabschnitte wurden mit Prozessgeschwindigkeiten von bis zu 15 m/min hergestellt. Die gegenwärtige Begrenzung der Prozessgeschwindigkeit ist nicht durch die Imprägniergüte bedingt, sondern durch den übermäßigen Anstieg der Kräfte, die benötigt werden, um das Faserbündel von den Imprägnierwerkzeugen abzuziehen. Anlagentechnische Maßnahmen zur Entschärfung dieser Problematik und zur allgemeinen Verbesserung, sowie der damit verbundenen Steigerung der Produktivität wurden vorgeschlagen. Die Wirtschaftlichkeit der Prozesskombination wurde auf Basis einer Kostenvergleichsrechnung bewertet. Die einzigartige Möglichkeit mit einer Prozesskombination den Faservolumengehalt in radialer Richtung in einem Bauteil zu variieren wurde gezeigt. Rollformen als Verfahren zur Herstellung von Profilen mit einer großen Vielfalt von Querschnittsgeometrien aus Metallblechen hat aufgrund seiner hohen Produktivität weite Verbreitung in einer Vielzahl von Industriezweigen gefunden. Durch die Adaption dieses Verfahrens zur Verarbeitung von kontinuierlich verstärkten, thermoplastischen Faserkunststoffverbunden können lange Komponenten, die all die Vorteile dieser Materialien besitzen, auf eine effiziente Art und Weise gefertigt werden. Gewebeverstärkte GF/PP- und GF/PA66-Plattenhalbzeuge wurden erfolgreich zu Hutprofilen umgeformt, mit Prozessgeschwindigkeiten von bis zu 10 m/min. Die Fähigkeit teilkristalline Thermoplaste im Zustand einer unterkühlten Schmelze bei Tem-peraturen unter der Schmelztemperatur umzuformen wurde im Prozess gezielt ausgenutzt. Besondere Aufmerksamkeit wurde dem Werkzeugdesign gewidmet, um dem Umformverhalten kontinuierlich verstärkter Thermoplaste Rechnung zu tragen. Die Qualität der Profile wurde maßgeblich von der Zustelltemperatur der Halbzeuge in den ersten Rollenstand sowie der Austrittstemperatur aus dem Prozess beeinflusst. Das Temperaturprofil des Materials während der Verarbeitung und das Prozesslayout müssen als Funktion von Verarbeitungsgeschwindigkeit und Materialeigenschaften aufeinander abgestimmt werden, um Profile hoher Qualität herzustellen. Die Komplexität und die Schwierigkeiten eines theoretischen Ansatzes zur Beschreibung des Prozesses wurden angesprochen, aber auch auf die Notwendigkeit eines solchen zur Weiterentwicklung des Verfahrens wurde hingewiesen. Im Rahmen dieser Arbeit wurde ein einfaches FE-Modell zur Simulation des Stempelumformens eines Organoblechs zu einem Hutprofil entwickelt. Trotz des unterschiedlichen Formgebungsprozesses konnten einige allgemeine Erkenntnisse gewonnen werden, die auch für den Rollformprozess von Bedeutung sind. Einige anlagentechnische Maßnahmen zur Steigerung der Produktqualität im Rah-men zukünftiger Arbeiten wurden vorgeschlagen.
Competing Neural Networks as Models for Non Stationary Financial Time Series -Changepoint Analysis-
(2005)
The problem of structural changes (variations) play a central role in many scientific fields. One of the most current debates is about climatic changes. Further, politicians, environmentalists, scientists, etc. are involved in this debate and almost everyone is concerned with the consequences of climatic changes. However, in this thesis we will not move into the latter direction, i.e. the study of climatic changes. Instead, we consider models for analyzing changes in the dynamics of observed time series assuming these changes are driven by a non-observable stochastic process. To this end, we consider a first order stationary Markov Chain as hidden process and define the Generalized Mixture of AR-ARCH model(GMAR-ARCH) which is an extension of the classical ARCH model to suit to model with dynamical changes. For this model we provide sufficient conditions that ensure its geometric ergodic property. Further, we define a conditional likelihood given the hidden process and a pseudo conditional likelihood in turn. For the pseudo conditional likelihood we assume that at each time instant the autoregressive and volatility functions can be suitably approximated by given Feedfoward Networks. Under this setting the consistency of the parameter estimates is derived and versions of the well-known Expectation Maximization algorithm and Viterbi Algorithm are designed to solve the problem numerically. Moreover, considering the volatility functions to be constants, we establish the consistency of the autoregressive functions estimates given some parametric classes of functions in general and some classes of single layer Feedfoward Networks in particular. Beside this hidden Markov Driven model, we define as alternative a Weighted Least Squares for estimating the time of change and the autoregressive functions. For the latter formulation, we consider a mixture of independent nonlinear autoregressive processes and assume once more that the autoregressive functions can be approximated by given single layer Feedfoward Networks. We derive the consistency and asymptotic normality of the parameter estimates. Further, we prove the convergence of Backpropagation for this setting under some regularity assumptions. Last but not least, we consider a Mixture of Nonlinear autoregressive processes with only one abrupt unknown changepoint and design a statistical test that can validate such changes.
Within the last decades, a remarkable development in materials science took place -- nowadays, materials are not only constructed for the use of inert structures but rather designed for certain predefined functions. This innovation was accompanied with the appearance of smart materials with reliable recognition, discrimination and capability of action as well as reaction. Even though ferroelectric materials serve smartly in real applications, they also possess several restrictions at high performance usage. The behavior of these materials is almost linear under the action of low electric fields or low mechanical stresses, but exhibits strong non-linear response under high electric fields or mechanical stresses. High electromechanical loading conditions result in a change of the spontaneous polarization direction with respect to individual domains, which is commonly referred to as domain switching. The aim of the present work is to develop a three-dimensional coupled finite element model, to study the rate-independent and rate-dependent behavior of piezoelectric materials including domain switching based on a micromechanical approach. The proposed model is first elaborated within a two-dimensional finite element setting for piezoelectric materials. Subsequently, the developed two-dimensional model is extended to the three-dimensional case. This work starts with developing a micromechanical model for ferroelectric materials. Ferroelectric materials exhibit ferroelectric domain switching, which refers to the reorientation of domains and occurs under purely electrical loading. For the simulation, a bulk piezoceramic material is considered and each grain is represented by one finite element. In reality, the grains in the bulk ceramics material are randomly oriented. This property is taken into account by applying random orientation as well as uniform distribution for individual elements. Poly-crystalline ferroelectric materials at un-poled virgin state can consequently be characterized by randomly oriented polarization vectors. Energy reduction of individual domains is adopted as a criterion for the initiation of domain switching processes. The macroscopic response of the bulk material is predicted by classical volume-averaging techniques. In general, domain switching does not only depend on external loads but also on neighboring grains, which is commonly denoted as the grain boundary effect. These effects are incorporated into the developed framework via a phenomenologically motivated probabilistic approach by relating the actual energy level to a critical energy level. Subsequently, the order of the chosen polynomial function is optimized so that simulations nicely match measured data. A rate-dependent polarization framework is proposed, which is applied to cyclic electrical loading at various frequencies. The reduction in free energy of a grain is used as a criterion for the onset of the domain switching processes. Nucleation in new grains and propagation of the domain walls during domain switching is modeled by a linear kinetics theory. The simulated results show that for increasing loading frequency the macroscopic coercive field is also increasing and the remanent polarization increases at lower loading amplitudes. The second part of this work is focused on ferroelastic domain switching, which refers to the reorientation of domains under purely mechanical loading. Under sufficiently high mechanical loading, however, the strain directions within single domains reorient with respect to the applied loading direction. The reduction in free energy of a grain is used as a criterion for the domain switching process. The macroscopic response of the bulk material is computed for the hysteresis curve (stress vs strain) whereby uni-axial and quasi-static loading conditions are applied on the bulk material specimen. Grain boundary effects are addressed by incorporating the developed probabilistic approach into this framework and the order of the polynomial function is optimized so that simulations match measured data. Rate dependent domain switching effects are captured for various frequencies and mechanical loading amplitudes by means of the developed volume fraction concept which relates the particular time interval to the switching portion. The final part of this work deals with ferroelectric and ferroelastic domain switching and refers to the reorientation of domains under coupled electromechanical loading. If this free energy for combined electromechanical loading exceeds the critical energy barrier elements are allowed to switch. Firstly, hysteresis and butterfly curves under purely electrical loading are discussed. Secondly, additional mechanical loads in axial and lateral directions are applied to the specimen. The simulated results show that an increasing compressive stress results in enlarged domain switching ranges and that the hysteresis and butterfly curves flatten at higher mechanical loading levels.
Die vorliegende Arbeit wurde angeregt durch die in A.N. Borodin(2000) [Version of the Feynman-Kac Formula. Journal of Mathematical Sciences, 99(2):1044-1052, 2000] und in B. Simon(2000) [A Feynman-Kac Formula for Unbounded Semigroups. Canadian Math. Soc. Conf. Proc., 28:317-321, 2000] dargestellten Feynman-Kac-Formeln. Sie beschäftigt sich mit dem Problem, den Geltungsbereich der Feynman-Kac-Formel im Hinblick auf die Bedingungen der Potentiale und der Anfangsbedingung der zugehörigen partiellen Differentialgleichung zu erweitern. Es ist bekannt, dass die Feynman-Kac-Formel für beschränkte Potentiale gilt. Ausserdem gilt sie auch für Anfangsbedingungen, die im Raum \(C_{0}(\mathbb{R}^{n})\) oder im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegen. Die Darstellung der Feynman-Kac-Formel für die Anfangsbedingung, die im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegt, liefert die Lösung der partiellen Differentialgleichung. Wir können sie auch als stark stetige Halbgruppe auf dem Raum \(C_{0}(\mathbb{R}^{n})\) auffassen. Diese zwei verschiedenen Darstellungen sind äquivalent. In dieser Arbeit zeigen wir zunächst, dass die Feynman-Kac-Formel auch für unbeschränkte Potentiale \(V\) gilt, wobei \(|V(x)| \leq \varepsilon ||x||^{2} + C_{\varepsilon} \) für alle \(\varepsilon > 0; C_{\varepsilon} > 0\) und \(x \in \mathbb{R}^{n}\) ist. Ausserdem zeigen wir, dass sie für alle Anfangsbedingungen \(f\) gilt mit \(x \mapsto e^{-\varepsilon |x|^{2}} f(x) \in H^{2,2}(\mathbb{R}^{n})\). Der Beweis ist wahrscheinlichkeitstheoretisch und benutzt keine Spektraltheorie. Der spektraltheoretische Zugang, in dem eine Darstellung des Operators \(e^{-tH}\), wobei \(H = -\frac{1}{2} \Delta + V\) gegeben wird, wurde von B. Simon(2000) auch auf die obige Klasse von Potentialen ausgeweitet. Wir lassen zusätzlich auch Potentiale der Form \(V = V_{1} + V_{2}\) zu, wobei \(V_{1} \in L^{2}(\mathbb{R}^{3})\) ist und für alle \(\varepsilon > 0\) gibt es \(C_{\varepsilon} > 0\), so dass \(|V_{2}(x)| \leq\varepsilon ||x||^{2} + C_{\varepsilon}\) für alle \(x \in \mathbb{R}^{3}\) ist. Im Gegensatz zur klassischen Situation ist \(e^{-tH}\) jetzt ein unbeschränkter Operator. Schließlich wird in dieser Arbeit auch der Zusammenhang zwischen der Feynman-Kac-It\(\hat{o}\)-Formel, der Feynman-Kac-Formel und der Kolmogorov-Rückwärtsgleichung untersucht.
Die Aufgabenstellung dieser Arbeit betraf die kinetische Charakterisierung des Wildtyps sowie der Mutanten E und G der Glucose-Dye-Oxidoreductase (GlucDOR) mit den N-substituierten p-Nitrosoanilinen BM-53.0861, BM-31.1008 und BM.31.1144 (firmeninterne Bezeichnungen) und den Zuckern Glucose, Maltose und Galaktose als Zweitsubstrate. Diese Mediatoren finden bei der Firma Roche Diagnostics GmbH ihre praktische Anwendung und befinden sich unter anderem auf dem Testsreifensystem, welches zur Blutzuckerbestimmung bei Diabetikern benutzt wird. Mit Hilfe der in dieser Arbeit gewonnenen Daten bezüglich z.B. der Substratspezifität, Stabilität der drei Enzyme sollte abgeschätzt werden, in wie weit eine praktische Anwendung der Mutanten E und G möglich und auch sinnvoll wäre. Die Charakterisierungen mit den Zuckern Glucose, Maltose und Galaktose und Mediator BM-53.0861 als Zweitsubstrat zeigten, dass beide Mutanten eine bessere Spezifität für die Glucose gegenüber der Maltose aufwiesen. Dabei war die Mutante G mit einem Quotienten vmaxMaltose/vmaxGlucose von 0,018 wesentlich spezifischer als die Mutante E, bei der der Quotient 0,10 betrug. Ein Vergleich der Spezifität für Glucose gegenüber der Galaktose zeigte, dass beide Mutanten eine schlechtere Spezifität als der Wildtyp hatten. Die Berechnungen der 3D-Struktur der Mutanten E und G brachten einige strukturelle Hinweise, durch die die veränderten Substratspezifitäten gegenüber dem WT, besonders im Fall der Maltose, erklärt werden konnten. So ragt z.B. Tyrosin 343 bei den Mutanten weiter in das aktive Zentrum als beim WT und kommt so der Maltose ziemlich nahe. Dadurch könnte es zu sterischer Hinderung kommen. Beim Vergleich der kinetischen Parameter der Mutanten E und G für die Glucose mit den Zweitsubstraten BM-53.0861, BM-31.1008 und BM-31.1144 mit denen des WTs, sprechen die Ergebnisse nicht gegen eine Anwendung der Mutanten auf den Teststreifen. Weder die leicht niedrigeren Hemmkonstanten der Mediatoren, noch die höheren kM-Werte für die Glucose bei den Mutanten sollten ein Hindernis darstellen, da das Enzym auf den Teststreifen in großem Überschuss vorliegt. Ein Aspekt, der bei der praktischen Anwendung zu Problemen führen kann, ist die verringerte Thermostabilität beider Mutanten. Sie zeigten bei 60 °C einen erheblichen Stabilitätsverlust gegenüber dem WT der GlucDOR. Nach einer halben Stunde Inkubationzeit hatten sie weniger als 10 % Restaktivität. Im Falle der Mediatoren BM-31.1008 und BM-31.1144 konnte durch ESR-Untersuchungen festgestellt werden, dass das Phenylendiaminradkal, welches sich im nichtenzymatischen Gleichgewicht zwischen den entsprechenden Chinondiiminen und Phenylendiaminen befindet, nicht für die auftretende Hemmung verantwortlich ist. Mit einem Abnehmen der Umsatzraten sank auch die Konzentration an Phenylendiaminradikal, was im Falle einer durch das Radikal verursachten Hemmung nicht sein dürfte. Ebenfalls konnte durch die ESR-Untersuchungen gezeigt werden, dass während einer konstanten enzymatischen Umsetzung auch die Konzentration des Phenylendiaminradikals konstant blieb. Das spricht für ein konstantes Redoxpotential des Testsystems während der Umsetzung. Das Radikal kann als eine Art Marker für die Gesamtkonzentration an Chinondiimin und Phenylendiamin angesehen werden. Insgesamt zeigt die Arbeit, dass die beiden Mutanten E und G der GlucDOR für die Anwendung auf Teststreifen zur Blutzuckerbestimmung geeignet sind, wenngleich sie eine gewisse Thermoinstabilität im Vergleich zum Wildtyp aufweisen. Diesbezüglich sollten noch Verbesserungen vorgenommen werden.