Refine
Year of publication
- 2010 (117) (remove)
Document Type
- Doctoral Thesis (61)
- Report (27)
- Periodical Part (10)
- Preprint (4)
- Bachelor Thesis (3)
- Master's Thesis (3)
- Working Paper (3)
- Article (2)
- Book (2)
- Diploma Thesis (1)
Keywords
- Bemessung (3)
- Homogene Katalyse (3)
- Palladium (3)
- optimal control (3)
- Acrylamid (2)
- Biaryle (2)
- Carbonsäuren (2)
- Controlling (2)
- Datenbank (2)
- Erwarteter Nutzen (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (21)
- Fraunhofer (ITWM) (20)
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich ARUBI (12)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich Biologie (8)
- Kaiserslautern - Fachbereich Informatik (7)
- Kaiserslautern - Fachbereich Sozialwissenschaften (7)
- Universität (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
In der vorliegenden Arbeit wird das Tragverhalten von durchlaufenden stahlfaserbewehrten Stahlverbunddecken analysiert. Auf der Basis von experimentellen und rechnerischen Untersuchungen werden zwei Bemessungsmodelle entwickelt. Anhand der experimentellen Untersuchungen an einfeldrigen und durchlaufenden stahlfaserbewehrten Verbunddecken werden Aufschlüsse über das Trag- und Verformungsverhalten der Decken gewonnen. Dabei werden sowohl offene trapezförmige als auch hinterschnittene Profilbleche verwendet. Auf eine konventionelle Betonstahlbewehrung wird gänzlich verzichtet. Das Stützmoment wird vom Stahlfaserbeton alleine aufgenommen. In vier Versuchsserien mit insgesamt 18 Versuchen werden einzelne Parameter wie z. B. unterschiedliche Deckenstärken, unterschiedliche Profilblechgeometrien sowie unterschiedliche Stahlfaserbetonmischungen untersucht. Für die Berechnung und Bemessung werden die im Verbundbau üblichen Nachweisverfahren aufgegriffen und modifiziert. Die Traganteile des Stahlfaserbetons werden über den Ansatz von Spannungsblöcken implementiert. Bei der Nachrechnung der einzelnen Versuche zeigt sich die Eignung der Verfahren. Für die einzelnen Nachweise werden in Parameterstudien Bemessungsdiagramme und –tabellen erstellt, die dem anwendenden Ingenieur ein einfaches und sicheres Bemessen ermöglichen. Anhand der experimentellen Ergebnisse und der rechnerischen Untersuchungen werden zwei mögliche Bemessungsmodelle entwickelt, mit denen die Tragfähigkeit von stahlfaserbewehrten durchlaufenden Verbunddecken nachgewiesen werden kann. Dabei kann der Nachweis entweder nach den Verfahren Elastisch-Plastisch oder Plastisch-Plastisch erfolgen.
Tropical intersection theory
(2010)
This thesis consists of five chapters: Chapter 1 contains the basics of the theory and is essential for the rest of the thesis. Chapters 2-5 are to a large extent independent of each other and can be read separately. - Chapter 1: Foundations of tropical intersection theory In this first chapter we set up the foundations of a tropical intersection theory covering many concepts and tools of its counterpart in algebraic geometry such as affine tropical cycles, Cartier divisors, morphisms of tropical cycles, pull-backs of Cartier divisors, push-forwards of cycles and an intersection product of Cartier divisors and cycles. Afterwards, we generalize these concepts to abstract tropical cycles and introduce a concept of rational equivalence. Finally, we set up an intersection product of cycles and prove that every cycle is rationally equivalent to some affine cycle in the special case that our ambient cycle is R^n. We use this result to show that rational and numerical equivalence agree in this case and prove a tropical Bézout's theorem. - Chapter 2: Tropical cycles with real slopes and numerical equivalence In this chapter we generalize our definitions of tropical cycles to polyhedral complexes with non-rational slopes. We use this new definition to show that if our ambient cycle is a fan then every subcycle is numerically equivalent to some affine cycle. Finally, we restrict ourselves to cycles in R^n that are "generic" in some sense and study the concept of numerical equivalence in more detail. - Chapter 3: Tropical intersection products on smooth varieties We define an intersection product of tropical cycles on tropical linear spaces L^n_k and on other, related fans. Then, we use this result to obtain an intersection product of cycles on any "smooth" tropical variety. Finally, we use the intersection product to introduce a concept of pull-backs of cycles along morphisms of smooth tropical varieties and prove that this pull-back has all expected properties. - Chapter 4: Weil and Cartier divisors under tropical modifications First, we introduce "modifications" and "contractions" and study their basic properties. After that, we prove that under some further assumptions a one-to-one correspondence of Weil and Cartier divisors is preserved by modifications. In particular we can prove that on any smooth tropical variety we have a one-to-one correspondence of Weil and Cartier divisors. - Chapter 5: Chern classes of tropical vector bundles We give definitions of tropical vector bundles and rational sections of tropical vector bundles. We use these rational sections to define the Chern classes of such a tropical vector bundle. Moreover, we prove that these Chern classes have all expected properties. Finally, we classify all tropical vector bundles on an elliptic curve up to isomorphisms.
A prime motivation for using XML to directly represent pieces of information is the ability of supporting ad-hoc or 'schema-later' settings. In such scenarios, modeling data under loose data constraints is essential. Of course, the flexibility of XML comes at a price: the absence of a rigid, regular, and homogeneous structure makes many aspects of data management more challenging. Such malleable data formats can also lead to severe information quality problems, because the risk of storing inconsistent and incorrect data is greatly increased. A prominent example of such problems is the appearance of the so-called fuzzy duplicates, i.e., multiple and non-identical representations of a real-world entity. Similarity joins correlating XML document fragments that are similar can be used as core operators to support the identification of fuzzy duplicates. However, similarity assessment is especially difficult on XML datasets because structure, besides textual information, may exhibit variations in document fragments representing the same real-world entity. Moreover, similarity computation is substantially more expensive for tree-structured objects and, thus, is a serious performance concern. This thesis describes the design and implementation of an effective, flexible, and high-performance XML-based similarity join framework. As main contributions, we present novel structure-conscious similarity functions for XML trees - either considering XML structure in isolation or combined with textual information -, mechanisms to support the selection of relevant information from XML trees and organization of this information into a suitable format for similarity calculation, and efficient algorithms for large-scale identification of similar, set-represented objects. Finally, we validate the applicability of our techniques by integrating our framework into a native XML database management system; in this context we address several issues around the integration of similarity operations into traditional database architectures.
The optimal design of rotational production processes for glass wool manufacturing poses severe computational challenges to mathematicians, natural scientists and engineers. In this paper we focus exclusively on the spinning regime where thousands of viscous thermal glass jets are formed by fast air streams. Homogeneity and slenderness of the spun fibers are the quality features of the final fabric. Their prediction requires the computation of the fuidber-interactions which involves the solving of a complex three-dimensional multiphase problem with appropriate interface conditions. But this is practically impossible due to the needed high resolution and adaptive grid refinement. Therefore, we propose an asymptotic coupling concept. Treating the glass jets as viscous thermal Cosserat rods, we tackle the multiscale problem by help of momentum (drag) and heat exchange models that are derived on basis of slender-body theory and homogenization. A weak iterative coupling algorithm that is based on the combination of commercial software and self-implemented code for ow and rod solvers, respectively, makes then the simulation of the industrial process possible. For the boundary value problem of the rod we particularly suggest an adapted collocation-continuation method. Consequently, this work establishes a promising basis for future optimization strategies.
This work deals with the modeling and simulation of slender viscous jets exposed to gravity and rotation, as they occur in rotational spinning processes. In terms of slender-body theory we show the asymptotic reduction of a viscous Cosserat rod to a string system for vanishing slenderness parameter. We propose two string models, i.e. inertial and viscous-inertial string models, that differ in the closure conditions and hence yield a boundary value problem and an interface problem, respectively. We investigate the existence regimes of the string models in the four-parametric space of Froude, Rossby, Reynolds numbers and jet length. The convergence regimes where the respective string solution is the asymptotic limit to the rod turn out to be disjoint and to cover nearly the whole parameter space. We explore the transition hyperplane and derive analytically low and high Reynolds number limits. Numerical studies of the stationary jet behavior for different parameter ranges complete the work.
The purpose of Exploration in Oil Industry is to "discover" an oil-containing geological formation from exploration data. In the context of this PhD project this oil-containing geological formation plays the role of a geometrical object, which may have any shape. The exploration data may be viewed as a "cloud of points", that is a finite set of points, related to the geological formation surveyed in the exploration experiment. Extensions of topological methodologies, such as homology, to point clouds are helpful in studying them qualitatively and capable of resolving the underlying structure of a data set. Estimation of topological invariants of the data space is a good basis for asserting the global features of the simplicial model of the data. For instance the basic statistical idea, clustering, are correspond to dimension of the zero homology group of the data. A statistics of Betti numbers can provide us with another connectivity information. In this work represented a method for topological feature analysis of exploration data on the base of so called persistent homology. Loosely, this is the homology of a growing space that captures the lifetimes of topological attributes in a multiset of intervals called a barcode. Constructions from algebraic topology empowers to transform the data, to distillate it into some persistent features, and to understand then how it is organized on a large scale or at least to obtain a low-dimensional information which can point to areas of interest. The algorithm for computing of the persistent Betti numbers via barcode is realized in the computer algebra system "Singular" in the scope of the work.
Wissenschaftliche Studien deuten auf eine gesundheitsförderndes und gewichtsregulierendes Potential des Kaffees hin, welches vor allem mit dem hohen Gehalt an Antioxidantien in Verbindung gebracht wird. In dieser Arbeit wurden Kaffeeextrakte, -inhaltsstoffe sowie Kaffeegetränke hinsichtlich ihrer antioxidativen Wirksamkeit untersucht. In-vitro wurde die präventive Wirkung von Extrakten aus leicht (AB1), mittel (RI, AC, AB) und stark (AB 2) gerösteten Kaffees mit Markern oxidativer Zellschädigung und Zellantwort in den Kolonkarzinomzelllinien HT-29 und Caco-2 charakterisiert. Vergleichend wurden die ausgewählten originären Kaffeeinhaltstoffe 5-Caffeoylchinasäure (5-CQA) und Trigonellin (TRIG) sowie die Röstprodukte Kaffeesäure (CA), Catechol (Cat), 1,2,4-Trihydroxybenzol (THB), N-Methylpyridinium (NMP) und methylierte NMP-Analoga untersucht. Erfasste Parameter waren zellulärer ROS-Level, (oxidative) DNA-Schädigung und Proteinexpression der ARE-abhängigen Enzyme NQO1, g-GCL und GSR. Zusätzlich wurde die direkte antioxidative Aktivität mittels TEAC- und ORAC-Assay gemessen. Die Ergebnisse zeigten eine radikalabfangende Eigenschaft aller Kaffeeextrakte mit Werten von 0,9-1,5 mM Trolox (TEAC) bzw. 2,5-2,8 mM Trolox (ORAC). Der zelluläre ROS-Level wurde in HT-29 Zellen durch die Extrakte AB, AC, RI und stark gerösteten AB 2 signifikant verringert. Eine konzentrationsabhängige und signifikante Induktion ARE- abhängiger Enzyme (NQO1, g-GCL und GSR) in HT-29 Zellen wurde durch den CQA-reichen AB 1 beobachtet, der NMP-reiche AB 2 war dagegen unwirksam. Von den untersuchten Kaffeeinhaltsstoffen zeigten nur die phenolischen Verbindungen 5-CQA und CA eine ausgeprägte zellfreie antioxidative Aktivität. Der zelluläre ROS-Level konnte durch 5-CQA verringert werden, dagegen waren methylierte NMP-Analoga in der Lage (oxidative) DNA-Schäden in Caco-2 Zellen zu reduzieren. 5-CQA induzierte wie leicht gerösteter AB 1 die Proteinexpression alle untersuchten Enzyme in HT-29 Zellen. Weiterhin wurde in zwei aufeinander folgenden humanen Interventionsstudien das antioxidative Potential unterschiedlicher Kaffeegetränke mit hohem Anteil an Antioxidantien charakterisiert; in der zweiten Studie wurde zusätzlich auf gewichtsregulierende Wirkung des Studienkaffees geprüft. Im Rahmen der ersten Pilotstudie, durchgeführt durch AG. Somoza (DFA Garching) wurde die Modulation von DNA-Schäden im Blut von Probanden nach Konsum zweier Kaffeegetränke erfasst, die reich an Chlorogensäuren oder an N-Methylpyridinium waren (Kaffeekonsum: 0,5 L pro Tag, 4 Wochen). Beide Kaffeegetränke bewirkten im Blut gesunder Probanden eine deutliche Abnahme oxidativer DNA-Schäden. In der zweiten Interventionsstudie nahmen 35 männliche Probanden nach einer vierwöchigen Wash-out Phase über vier Wochen täglich 750 ml eines Antioxidantien reichen Kaffees (580 mg/l CQAs; 71,7 mg/l NMP) auf, anschließend folgte eine vierwöchige Wash-out Phase. Zu Beginn der Studie und am Ende jeder Phase wurden Blutentnahmen zur Bestimmung der Biomarker (oxidative) DNA-Schäden, Glutathion (Gesamtglutathion tGSH, oxidiertes Glutathion GSSG) sowie Bioimpedanzanalysen zur Bestimmung der Körperzusammensetzung durchgeführt. Zusätzlich wurden Energie und Nährstoffaufnahme der Probanden erfasst. Die Ergebnisse zeigten eine signifikante Abnahme (oxidativer) DNA-Schäden (p < 0,001), Anstieg des tGSH-Spiegels (p<0,05) und des GSH-Status (Trend) und eine Erniedrigung des GSSG-Spiegels. Weiterhin wurde eine signifikante Abnahme von Körpergewicht und Körperfett der Probanden während der Kaffeeintervention im Vergleich zur beiden Wash-out Phasen beobachtet, welche vor allem bei Probanden mit BMI < 25 stärker ausgeprägt war. Die Verringerung der Energie- und Nährstoffaufnahme während der Kaffeephase weist auf eine Kaffeeabhängige beeinflussung der Sättigungsregulation hin. Zusammenfassend besitzt der Antioxidantien reiche Studienkaffee ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung sowie gewichtsregulierende Wirkung in gesunden Probanden. Aufgrund der von uns erhaltenen in vitro Daten kann die antioxidative Wirksamkeit zum Teil auf die untersuchten originären Kaffeeinhaltsstoffen (vor allem CQAs) und Röstprodukte zurückgeführt werden. Andere bisher nicht charakterisierte Sustanzen/Stoffgruppen tragen vermutlich ebenfalls zu der beobachteten Wirkung bei.
Bei Acrylamid handelt es sich um ein genotoxisches Kanzerogen, welches beim Erhitzen von Lebensmitteln gebildet wird. Im Rahmen dieser Arbeit wurde untersucht, inwieweit spezifische Lebensmittelmatrices die Bioverfügbarkeit und den Metabolismus von Acrylamid beeinflussen. Lebkuchen als zuckerhaltiges, fettarmes und trockenes Lebensmittel auf Getreidebasis und Pommes frites (fett- und wasserreich; Kartoffelbasis) die entweder direkt aus der Kartoffel geschnitten (mit intakter Gewebestruktur) oder aus Kartoffelerzeugnissen „rekombiniert“ wurden sowie Brotkruste wurden an männliche Sprague Dawley-Ratten über 1, 3, 5, 7 und 9 Tage verfüttert und mit der Aufnahme von Acrylamid über Trinkwasser (Schlundsondierung)verglichen. Die täglich verabreichte Acrylamid-Dosis lag bei 100 µg/kg KG für Pommes frites und Lebkuchen bzw. 50 µg/kg KG für Brotkruste. Als Langzeit-Expositionsbiomarker wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin (Val) am Hämoglobin (Hb) herangezogen. Das Ausmaß der AAVal-Bildung in den Tieren, denen Acrylamid über Pommes frites verabreicht wurde, entsprach jener nach Gabe einer entsprechenden Dosis Acrylamid in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen), was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Lediglich in den Gruppen, die Acrylamid über Brotkruste erhielten, wurde eine geringfügig verminderte Bildung von AAVal-Hb-Addukten im Vergleich zu den AA-TW-Gruppen beobachtet. Nach Aufnahme von Acrylamid über Pommes frites wurde kein signifikanter Unterschied in der Gesamtausscheidung an Mercaptursäuren im Vergleich zur Gabe in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen) beobachtet, was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Bei den mit Brotkruste gefütterten Tieren wurde eine im Vergleich zu AA-TW-Gruppen geringfügig erniedrigte Ausscheidung an AAMA beobachtet, was im Einklang mit der erniedrigten AA-Val-Bildung steht. Für die Ermittlung der Gesamtbilanz an Acrylamid-Ausscheidung aus dem Organismus wurde auch die Acrylamid- und Glycidamid-Ausscheidung im 24-Stunden-Sammelurin bestimmt. Die ausgeschiedenen Anteile an der verabreichten Tagesdosis leisten einen im Vergleich zu den Mercaptursäuren verhältnismäßig geringen Beitrag zur Gesamtausscheidung einer verabreichten Acrylamid-Dosis. Zur Untersuchung der Resorptionskinetik von Acrylamid bei Verabreichung über Pommes frites im Vergleich zur Aufnahme in Trinkwasser (Schlundsondierung) wurden über einen Zeitraum von 4 Stunden die Acrylamid- und Glycidamid-Gehalte in Rattenserum bestimmt. Insgesamt deutet der zeitliche Verlauf der Acrylamid-Serumkonzentration in der mit Pommes frites gefütterten Gruppe auf eine im Vergleich zur AA-TW-Gruppe verzögerte Freisetzung bzw. verlangsamte Resorption von Acrylamid im Gastrointestinaltrakt hin. Zur Abschätzung der Hintergrundbelastung mit Acrylamid wurden in 8 humanen Blutproben die Gehalte an Acrylamid- und Glycidamid-Hämoglobin-Addukten (AAVal, GAVal) sowie in 10 humanen Urinproben die Gehalte an Acrylamid- und Glycidamid-Mercaptursäuren (AAMA, GAMA) bestimmt. Bei den Rauchern wurden deutlich höhere AAVal-Gehalte im Vergleich zu Nichtrauchern gemessen, wohingegen die Gehalte an GAVal auf vergleichbarem Niveau lagen. Darüber hinaus wurde bei den Rauchern eine im Vergleich zu Nichtrauchern signifikant höhere Ausscheidung von AAMA und GAMA beobachtet, wobei die entsprechenden GAMA/AAMA-Verhältnisse bei Rauchern erniedrigt waren. Im Rahmen einer humanen Verzehrsstudie „Bedeutung der CYP450 2E1-Aktivität für die Toxikokinetik von Acrylamid beim Menschen“ wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin des Hämoglobin bestimmt. Dabei wurde das Ausmaß der Addukt-Bildung bei 13 Probanden nach Aufnahme von ca. 1 mg Acrylamid über Kartoffel-Chips jeweils bei unbeeinflusster, gehemmter und induzierter CYP450 2E1-Aktivität untersucht. In der Referenzperiode ohne Komedikation wurde bei diesen Probanden ein Anstieg der AAVal-Gehalte um 8 ± 5 pmol/g Hb beobachtet. Ein im Vergleich zur R-Phase signifikant erhöhter AAVal-Anstieg (12 ± 5 pmol/g Hb) zeigte sich in der Testperiode T1, in der CYP450 2E1 durch Disulfiram gehemmt wurde. In der Testperiode T2, in der CYP450 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wiesen die AAVal-Gehalte einen mit der R-Phase vergleichbaren Anstieg um 9 ± 5 pmol/g Hb auf. Für GAVal hingegen konnten aufgrund der größeren Messwertschwankungen keine signifikanten Veränderungen in der Testperiode T1 bzw. T2 im Vergleich zur Referenzperiode festgestellt werden. Darüber hinaus wurde bei 3 Probanden der zeitliche Verlauf der AAVal-Bildung in den jeweiligen Testperioden über einen Zeitraum von 24 Stunden untersucht. Die maximale AAVal-Konzentration wurde bei den untersuchten Probanden im Zeitraum von 8-10 Stunden erreicht, wobei anschließend ein Plateau-förmiger Verlauf der Bildungskurven beobachtet wurde.
Im Rahmen dieser Arbeit konnte die physiologische Funktion des AtENT1 weitestgehend aufgeklärt werden. Durch Untersuchungen an RNAi- und Überexpressionslinien konnte gezeigt werden, dass dieser Nukleosidtransporter in unterschiedlichen Geweben verschiedene Aufgaben erfüllt. Die verringerte Expression des AtENT1 in den RNAi-Pflanzen hat hauptsächlich Auswirkungen auf den Nukleotidhaushalt in Pollen. Diese zeigen eine geringere Keimungsrate, eine niedrigere Nukleosidaufnahme sowie verringerte Mengen an intra- und extrazellulärem ATP. Daraus kann man schließen, dass der AtENT1 eine wichtige Funktion in der Versorgung von Pollen mit Nukleosiden während der Entwicklung und zu Beginn der Keimung hat. Die veränderte Menge an eATP in den RNAi-Pollen führt möglicherweise zu einer veränderten Signaltransduktion, was ebenfalls ein Grund für die schlechtere Keimungsrate im Vergleich mit WT-Pollen sein könnte. Weiterhin deutet die verminderte Aufnahme von Adenosin in RNAi-Pollen darauf hin, dass AtENT1 in diesen Zellen in der Plasmamembran lokalisiert ist. Sowohl in Blatt-Rohextrakten als auch in isolierten Vakuolen der AtENT1-RNAi-Pflanzen konnte ein erhöhter Adenosingehalt festgestellt werden, während dieser in Blättern und Vakuolen der AtENT1-35S-Pflanzen deutlich verringert war. Weiterhin konnte an Liposomen mit rekostituiertem Tonoplastenprotein aus Überexpressionspflanzen ein höherer Adenosinexport verglichen mit Liposomen mit WT-Tonoplastenprotein beobachtet werden. Als wahrscheinlichste Quelle der Nukleoside konnte der in der Vakuole stattfindende RNA-Abbau mit Nukleosiden als End- und 2‘3‘-cAMP als Zwischenprodukt nachgewiesen werden. Ein gesteigerter Nukleosidtransport aus der Vakuole durch Überexpression des AtENT1 führt zu einem Anstieg der zytosolischen Nukleosidkonzentration. Als Reaktion darauf sind die Aktivitäten der Enzyme des „salvage pathway“ in den entsprechenden Mutanten erhöht. Ein Anstieg der zytosolischen Adenosinkonzentration führt durch Feedback-Inhibierung zu einer Verringerung der Transmethylierungsreaktionen. In der stärksten Überexpressionspflanze konnte, als Folge dieser Inhibierung, eine verringerte Zellwandmethylierung beobachtet werden. Betrachtet man alle Ergebnisse der Untersuchungen in vegetativem Gewebe ist eine Lokalisierung des AtENT1 im Tonoplasten sehr wahrscheinlich. Der letzte Teil der Arbeit befasste sich mit der biochemischen Charakterisierung der putativen Nukleosidtransporter StENT1 und StENT3 aus Solanum tuberosum. Dabei konnte gezeigt werden dass es sich beim StENT1 um einen hoch affinen Transporter für Purin- und Pyrimidinnukleoside handelt. Aufgrund der Ähnlichkeit der Transporteigenschaften zum AtENT1 und der ebenfalls vorhandenen möglichen Signalsequenz für eine tonoplastidäre Lokalisierung könnte StENT1 auch ein physiologisches Homolog zum AtENT1 sein. StENT3 vermittelt einen hoch affinen, pyrimidinspezifischen Nukleosidtransport. Dieser Transporter könnte vor allem in Knollen für die Aufnahme von Pyrimidinen aus der Erde oder dem Phloem zuständig sein.
The Train Marshalling Problem consists of rearranging an incoming train in a marshalling yard in such a way that cars with the same destinations appear consecutively in the final train and the number of needed sorting tracks is minimized. Besides an initial roll-in operation, just one pull-out operation is allowed. This problem was introduced by Dahlhaus et al. who also showed that the problem is NP-complete. In this paper, we provide a new lower bound on the optimal objective value by partitioning an appropriate interval graph. Furthermore, we consider the corresponding online problem, for which we provide upper and lower bounds on the competitiveness and a corresponding optimal deterministic online algorithm. We provide an experimental evaluation of our lower bound and algorithm which shows the practical tightness of the results.
In the generalized max flow problem, the aim is to find a maximum flow in a generalized network, i.e., a network with multipliers on the arcs that specify which portion of the flow entering an arc at its tail node reaches its head node. We consider this problem for the class of series-parallel graphs. First, we study the continuous case of the problem and prove that it can be solved using a greedy approach. Based on this result, we present a combinatorial algorithm that runs in O(m*m) time and a dynamic programming algorithm with running time O(m*log(m)) that only computes the maximum flow value but not the flow itself. For the integral version of the problem, which is known to be NP-complete, we present a pseudo-polynomial algorithm.
Ever since Mark Weiser’s vision of Ubiquitous Computing the importance of context has increased in the computer science domain. Future Ambient Intelligent Environments will assist humans in their everyday activities, even without them being constantly aware of it. Objects in such environments will have small computers embedded into them which have the ability to predict human needs from the current context and adapt their behavior accordingly. This vision equally applies to future production environments. In modern factories workers and technical staff members are confronted with a multitude of devices from various manufacturers, all with different user interfaces, interaction concepts and degrees of complexity. Production processes are highly dynamic, whole modules can be exchanged or restructured. Both factors force users to continuously change their mental model of the environment. This complicates their workflows and leads to avoidable user errors or slips in judgement. In an Ambient Intelligent Production Environment these challenges have to be approached. The SmartMote is a universal control device for ambient intelligent production environments like the SmartFactoryKL. It copes with the problems mentioned above by integrating all the user interfaces into a single, holistic and mobile device. Following an automated Model-Based User Interface Development (MBUID) process it generates a fully functional graphical user interface from an abstract task-based description of the environment during run-time. This work introduces an approach to integrating context, namely the user’s location, as an adaptation basis into the MBUID process. A Context Model is specified, which stores location information in a formal and precise way. Connected sensors continuously update the model with new values. The model is complemented by a reasoning component which uses an extensible set of rules. These rules are used to derive more abstract context information from basic sensor data and for providing this information to the MBUID process. The feasibility of the approach is shown by using the example of Interaction Zones, which let developers describe different task models depending on the user’s location. Using the context model to determine when a user enters or leaves a zone, the generator can adapt the graphical user interface accordingly. Context-awareness and the potential to adapt to the current context of use are key requirements of applications in ambient intelligent environments. The approach presented here provides a clear procedure and extension scheme for the consideration of additional context types. As context has significant influence on the overall User Experience, this results not only in a better usefulness, but also in an improved usability of the SmartMote.
Optimal control methods for the calculation of invariant excitation signals for multibody systems
(2010)
Input signals are needed for the numerical simulation of vehicle multibody systems. With these input data, the equations of motion can be integrated numerically and some output quantities can be calculated from the simulation results. In this work we consider the corresponding inverse problem: We assume that some reference output signals are available, typically gained by measurement and focus on the task to derive the input signals that produce the desired reference output in a suitable sense. If the input data is invariant, i.e., independent of the specific system, it can be transferred and used to excite other system variants. This problem can be formulated as optimal control problem. We discuss solution approaches from optimal control theory, their applicability to this special problem class and give some simulation results.
In the classical Merton investment problem of maximizing the expected utility from terminal wealth and intermediate consumption stock prices are independent of the investor who is optimizing his investment strategy. This is reasonable as long as the considered investor is small and thus does not influence the asset prices. However for an investor whose actions may affect the financial market the framework of the classical investment problem turns out to be inappropriate. In this thesis we provide a new approach to the field of large investor models. We study the optimal investment problem of a large investor in a jump-diffusion market which is in one of two states or regimes. The investor’s portfolio proportions as well as his consumption rate affect the intensity of transitions between the different regimes. Thus the investor is ’large’ in the sense that his investment decisions are interpreted by the market as signals: If, for instance, the large investor holds 25% of his wealth in a certain asset then the market may regard this as evidence for the corresponding asset to be priced incorrectly, and a regime shift becomes likely. More specifically, the large investor as modeled here may be the manager of a big mutual fund, a big insurance company or a sovereign wealth fund, or the executive of a company whose stocks are in his own portfolio. Typically, such investors have to disclose their portfolio allocations which impacts on market prices. But even if a large investor does not disclose his portfolio composition as it is the case of several hedge funds then the other market participants may speculate about the investor’s strategy which finally could influence the asset prices. Since the investor’s strategy only impacts on the regime shift intensities the asset prices do not necessarily react instantaneously. Our model is a generalization of the two-states version of the Bäuerle-Rieder model. Hence as the Bäuerle-Rieder model it is suitable for long investment periods during which market conditions could change. The fact that the investor’s influence enters the intensities of the transitions between the two states enables us to solve the investment problem of maximizing the expected utility from terminal wealth and intermediate consumption explicitly. We present the optimal investment strategy for a large investor with CRRA utility for three different kinds of strategy-dependent regime shift intensities – constant, step and affine intensity functions. In each case we derive the large investor’s optimal strategy in explicit form only dependent on the solution of a system of coupled ODEs of which we show that it admits a unique global solution. The thesis is organized as follows. In Section 2 we repeat the classical Merton investment problem of a small investor who does not influence the market. Further the Bäuerle-Rieder investment problem in which the market states follow a Markov chain with constant transition intensities is discussed. Section 3 introduces the aforementioned investment problem of a large investor. Besides the mathematical framework and the HJB-system we present a verification theorem that is necessary to verify the optimality of the solutions to the investment problem that we derive later on. The explicit derivation of the optimal investment strategy for a large investor with power utility is given in Section 4. For three kinds of intensity functions – constant, step and affine – we give the optimal solution and verify that the corresponding ODE-system admits a unique global solution. In case of the strategy-dependent intensity functions we distinguish three particular kinds of this dependency – portfolio-dependency, consumption-dependency and combined portfolio- and consumption-dependency. The corresponding results for an investor having logarithmic utility are shown in Section 5. In the subsequent Section 6 we consider the special case of a market consisting of only two correlated stocks besides the money market account. We analyze the investor’s optimal strategy when only the position in one of those two assets affects the market state whereas the position in the other asset is irrelevant for the regime switches. Various comparisons of the derived investment problems are presented in Section 7. Besides the comparisons of the particular problems with each other we also dwell on the sensitivity of the solution concerning the parameters of the intensity functions. Finally we consider the loss the large investor had to face if he neglected his influence on the market. In Section 8 we conclude the thesis.
Mechanical and electrical properties of carbon nanofiber–ceramic nanoparticle–polymer composites
(2010)
The present research is focused on the manufacturing and analysis of composites consisting of a thermosetting polymer reinforced with fillers of nanometric dimensions. The materials were chosen to be an epoxy resin matrix and two different kinds of fillers: electrically conductive carbon nanofibers (CNFs) and ceramic titanium dioxide (TiO2) and aluminium dioxide (Al2O3) nanoparticles. In an initial step of the work, in order to understand the effect that each kind of filler had when added separately to the polymer matrix, CNF–EP and ceramic nanoparticle–EP composites were manufactured and tested. Each type of filler was dispersed in the polymer matrix using two different dispersion technologies. CNFs were dispersed in the resin with the aid of a three roll calender (TRC) whereas a torus bead mill (TML) was used in the ceramic nanoparticle case. Calendering proved to be an efficient method to disperse the untreated CNFs in the polymer matrix. The study of the physical properties of undispersed CNF composites showed that the tensile strength and the maximum sustained strain, were more sensitive to the state of dispersion of the nanofibers than the elastic modulus, fracture toughness, impact energy and electrical conductivity (for filler loadings above the percolation threshold of the system). Rheological investigation of the uncured CNF–epoxy mixture at different stages of dispersion indicated the formation of an interconnected nanofiber network within the matrix after the initial steps of calendering. CNF–EP composites showed better mechanical performance than the unmodified polymer matrix. However, the tensile modulus and strength of the CNF composites accused the presence of remaining nanofiber clusters and did not reach theoretically predicted values. Fracture toughness and resistance against impact did not seem to be so sensitive to the state of nanofiber dispersion and improved consistently with the incorporation of the CNFs. The electrical conductivity of the CNF composites saw an eight orders of magnitude percolative enhancement with increasing nanofiber content. The percolation threshold for the achieved level of CNF dispersion was found to be 0.14 vol. %. It was also determined that, for these composites, the main mechanism of electrical transmission was the electron tunnelling mechanism. Ceramic nanoparticle–EP composites were manufactured using TiO2 and Al2O3 particles as fillers in the epoxy matrix. Mechanical dispersion of the nanoparticles in the liquid polymer by means of a torus bead mill dissolver led to homogeneous distributions of particles in the matrix. Remaining particle agglomerates had a mean value of 80 nm. However, micrometer sized agglomerates could clearly be observed in the microscopical analysis of the composites, especially in the TiO2 case. The inclusion of the nanoparticles in the epoxy resin resulted in a general improvement of the modulus, strength, maximum sustained strain, fracture toughness and impact energy of the polymer matrix. Nanoparticles were able to overcome the stiffness/toughness problem. On the other hand, nanoparticle–EP composites showed lower electrical conductivity than the neat epoxy. In general, there were no significant differences between the incorporation of TiO2 or Al2O3 particles. Based on the previous results, CNFs and nanoparticles were combined as fillers to create a nanocomposite that could benefit from the electrical properties provided by the conductive CNFs and, at the same time, have improved mechanical performance thanks to the presence of the well dispersed ceramic nanoparticles. Nanoparticles and CNFs were dispersed separately to create two batches which were blended together in a dissolver mixer. This method proved effective to create well dispersed CNF–nanoparticle–epoxy composites which showed improved electrical and mechanical properties compared with the neat polymer matrix. The well dispersed ceramic nanofillers were able to introduce additional energy dissipating mechanisms in the CNF–EP composites that resulted in an improvement of their mechanical performance. With high volume loadings of nanoparticles most of the reinforcement came from the presence of the nanoparticles in the polymer matrix. Therefore, the observed trends were, in essence, similar to the ones observed in the ceramic nanoparticle–EP composites. The enhancement in the mechanical performance of the CNF composites with the inclusion of ceramic nanoparticles came at the price of an increase in the percolation threshold and a reduction of the electrical conductivity of the CNF–nanoparticle–EP composites compared with the CNF–EP materials. A modified Weber and Kamal’s fiber contact model (FCM) was used to explain the electrical behaviour of the CNF–nanoparticle–EP composites once percolation was achieved. This model was able to fit rather accurately the experimentally measured conductivity of these composites.
Model-based fault diagnosis and fault-tolerant control for a nonlinear electro-hydraulic system
(2010)
The work presented in this thesis discusses the model-based fault diagnosis and fault-tolerant control with application to a nonlinear electro-hydraulic system. High performance control with guaranteed safety and reliability for electro-hydraulic systems is a challenging task due to the high nonlinearity and system uncertainties. This thesis developed a diagnosis integrated fault-tolerant control (FTC) strategy for the electro-hydraulic system. In fault free case the nominal controller is in operation for achieving the best performance. If the fault occurs, the controller will be automatically reconfigured based on the fault information provided by the diagnosis system. Fault diagnosis and reconfigurable controller are the key parts for the proposed methodology. The system and sensor faults both are studied in the thesis. Fault diagnosis consists of fault detection and isolation (FDI). A model-base residual generating is realized by calculating the redundant information from the system model and available signal. In this thesis differential-geometric approach is employed, which gives a general formulation of FDI problem and is more compact and transparent among various model-based approaches. The principle of residual construction with differential-geometric method is to find an unobservable distribution. It indicates the existence of a system transformation, with which the unknown system disturbance can be decoupled. With the observability codistribution algorithm the local weak observability of transformed system is ensured. A Fault detection observer for the transformed system can be constructed to generate the residual. This method cannot isolated sensor faults. In the thesis the special decision making logic (DML) is designed based on the individual signal analysis of the residuals to isolate the fault. The reconfigurable controller is designed with the backstepping technique. Backstepping method is a recursive Lyapunov-based approach and can deal with nonlinear systems. Some system variables are considered as ``virtual controls'' during the design procedure. Then the feedback control laws and the associate Lyapunov function can be constructed by following step-by-step routine. For the electro-hydraulic system adaptive backstepping controller is employed for compensate the impact of the unknown external load in the fault free case. As soon as the fault is identified, the controller can be reconfigured according to the new modeling of faulty system. The system fault is modeled as the uncertainty of system and can be tolerated by parameter adaption. The senor fault acts to the system via controller. It can be modeled as parameter uncertainty of controller. All parameters coupled with the faulty measurement are replaced by its approximation. After the reconfiguration the pre-specified control performance can be recovered. FDI integrated FTC based on backstepping technique is implemented successfully on the electro-hydraulic testbed. The on-line robust FDI and controller reconfiguration can be achieved. The tracking performance of the controlled system is guaranteed and the considered faults can be tolerated. But the problem of theoretical robustness analysis for the time delay caused by the fault diagnosis is still open.
2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD) wurde im Jahr 1997 von der International Agency for Research on Cancer als Gruppe 1 Kanzerogen eingestuft, obwohl die molekularen Mechanismen der kanzerogenen Wirkung von TCDD bislang nicht vollständig geklärt werden konnten. TCDD zeigte im Tierversuch ein erhöhtes hepatokarzinogenes Potential an Ratten, und im Initiations-Promotions-Modell in der Rattenleber konnte TCDD eine starke tumorpromovierende Wirkung zugeschrieben werden. Eine Reihe von Studien zeigten sowohl in vivo als auch in vitro in unterschiedlichen Zellsystemen eine Hemmung des durch verschiedene Stimuli induzierten programmierten Zelltodes, der Apoptose durch TCDD. Diese antiapoptotische Wirkung wird als ein möglicher Mechanismus für die Tumorpromotion von TCDD diskutiert. In der vorliegenden Arbeit sollte der Mechanimus der Apoptose-Hemmung durch TCDD in Leberzellsystemen der Ratte und des Menschen untersucht werden. Außerdem sollte die Frage geklärt werden, ob die anti-apoptotische Wirkung dieses Fremdstoffes über den Arylhydrokarbon-Rezeptor (AhR) vermittelt wird. Die Aufklärung der bislang noch unbekannten molekularen Mechanismen der TCDDvermittelten Kanzerogenese könnte die Risikobewertung einer TCDD-Exposition des Menschen auf eine erheblich solidere Basis stellen als bisher. Es konnte sowohl in primären Rattenhepatozyten als auch in der humanen Hepatomzelllinie Huh-7 bestätigt werden, dass TCDD die durch UVC-Licht induzierte Apoptose hemmt. Dies wurde auf Ebene der DNS-Fragmentierung und an Hand morphologischer Veränderungen des Zellkerns gezeigt. In den Primärhepatozyten war der anti-apoptotische Effekt von TCDD abhängig von einer Aktivierung des AhR. Die Apoptose durch die beiden Proteinbiosynthese-Inhibitoren Ochratoxin A und Cycloheximid wurde im Gegensatz zur UVC-Licht-induzierten Apoptose nicht durch TCDD gehemmt. Dies lässt den Schluss zu, dass eventuell die Neusynthese eines durch den AhR induzierten Proteins für die Hemmung der Apoptose in diesen Zellen nötig ist. Darüber hinaus konnte gezeigt werden, dass entgegen früherer Studien, eine Hemmung der Aktivität des Tumorsuppressors p53 vermutlich nicht für die Apoptosehemmung durch TCDD verantwortlich ist. TCDD-bedingte Änderungen in der Expression von an der Apoptose beteiligten Genen ließen die Vermutung zu, dass diese Substanz zu einer Aktivierung des anti226 apoptotischen Transkriptionsfaktors NF-κB führt. Dies würde letztendlich zu einer Hemmung der Caspase-abhängigen Apoptosewege führen. Es konnte dennoch keine Wirkung des Fremdstoffes auf die Charakteristiken der durch UVC-Licht induzierten Caspasen-abhängigen Apoptose beobachtet werden. Weder wurden die proteolytische Aktivierung, noch die katalytische Aktivität von Caspasen oder die Spaltung von Caspasensubstraten durch TCDD moduliert. Daher wurde angenommen, dass TCDD im Signalweg der Apoptose zwischen der Caspasenaktivität und der apoptotischen DNS-Fragmentierung wirken müsste. Auf Grund dieser Hypothese wurde der Einfluss der Testsubstanz auf die Charakteristiken apoptotischer Nukleasen untersucht. Weder konnte eine verringerte Proteinmenge an Endonuklease G oder Caspase-aktivierter DNase (CAD) festgestellt werden, noch wurde die Aktivität rekombinant exprimierter CAD durch TCDD moduliert. In isolierten Zellkernen primärer Rattenhepatozyten konnte eine intrinsische Nukleaseaktivität identifiziert werden, die Calcium- und Magnesium-abhängig war und vermutlich durch nicht-physiologische Konzentrationen an monovalenten Ionen aktiviert wird. TCDD besaß eine hemmende Wirkung auf diese Nukleaseaktivität. Es erscheint plausibel, dass TCDD die apoptotische DNS-Fragmentierung über einen bisher unbekannten, AhR-abhängigen Mechanismus hemmt, und damit trotz einer Initiation der Apotpose die Integrität der DNS aufrecht erhält, um der Zelle die Möglichkeit zur Entgiftung von Aktivatoren des Fremdstoffmetabolismus zu geben. Diese Zellen könnten sich nach Entzug des pro-apoptotischen Stimulus letztendlich wieder erholen. Da solche Zellen DNS-Schäden tragen können, durch die sie unter normalen Umständen in die Apoptose getrieben worden wären, könnte dieser Mechanismus schließlich eine Rolle in der Tumorpromotion durch TCDD und verwandte Verbindungen spielen.
Mit dem vorliegende Projekt sollten die Voraussetzungen dafür geschaffen werden, filigrane Fassadenplatten aus Hochleistungsbeton im Fertigteilbau realisieren zu können. Konventionelle Befestigungsmittel (Dübel, Anker) scheiden wegen der geringen Materialstärke weitgehend aus. Bestehende Systeme mit Klebtechnik erfordern eine aufwändige metallische Unterkonstruktion aus nichtkorrosivem Material. Zudem erweist sich die Montage als schwierig, sodass sich diese Systeme in der Praxis bisher nicht durchgesetzt haben. Die hier vorgeschlagene Lösung baut auf eine punktförmige Befestigung der Fassadenplatten mittels Klebtechnik auf. Die Klebanker (d = 12 mm) aus glasfaserverstärkten Kunststoffen (GfK) werden zusammen mit einer Tragschale und Wärmedämmung hergestellt und dann mittels Wendetechnik im Fertigteilwerk rückseitig auf die Fassadenplatten geklebt. Im Rahmen der vorliegenden Arbeit wurde ein neuartiger Über- und Unterdruckversuchsstand entwickelt. Zusätzlich wurden neue Zug-, Scher- und Interaktions-Versuchsstände für Klebversuche an Platten konzipiert. Die Biegezugfestigkeit des Glasfaserbetons wurde in Abhängigkeit von der Zeit untersucht. Das Trag- und Verformungsverhalten der GfK-Stäbe wurde in Abhängigkeit von der Zeit ausgewertet und ausgewählt. Wie die Untersuchungen zeigen, können bis zu 2,7 x 3,5 m große Fassadenplatten realisiert werden, wenn die Klebanker einen Gelenkkopf erhalten, der die Verformungsbehinderung der Fassadenplatte reduziert. Das Langzeittragverhalten der GfK-Anker, das aus dem Zulassungsverfahren der verwendeten Schöck ComBAR® bekannt ist, wurde berücksichtigt. Ein Ankerraster von 500 x 500 mm hat sich als wirtschaftlich sinnvoll ergeben. Für die Fassadenplatten werden wegen der besseren Tragfähigkeit der Klebverbindung hochfeste Betone „Referenzbeton 1“ den Glasfaserbetonen „Referenzbeton 2“ vorgezogen. Fertigungsbedingte Schwankungen der Klebfugendicke im Bereich von 1 mm bis 5 mm können ohne signifikante Festigkeitseinbußen toleriert werden. Die durchgeführten mechanischen Versuche und Berechnungen zeigen, dass die Standsicherheit des Fassadensystems bei entsprechender Dimensionierung der Klebflächen gegeben ist.
Die Paarungsstörung mit Pheromonen ist ein etabliertes Verfahren der ökologischen Schädlingsbekämpfung in vielen Bereichen der Landwirtschaft. Um dieses Verfahren zu optimieren, ist es erforderlich, genauere Erkenntnisse über die Verteilung des Pheromons über den behandelten Agrarflächen zu erhalten. Die Messung dieser Duftstoffe mit dem EAG-System ist eine Methode, mit der man schnell und zuverlässig Pheromonkonzentrationen im Freiland bestimmen kann. Diese Arbeit beschreibt Beiträge, die zur Weiterentwicklung des Systems von großer Bedeutung sind. Die Steuerung des Messablaufs durch eine Ablaufdatei, die erst zur Laufzeit ins Programm geladen wird, ermöglicht eine zeitgenaue und flexible Steuerung des Messsystems. Die Auswertung der Messergebnisse wird durch Methoden der Gesamtdarstellung der Konzentrationsberechnung und durch rigorose Fehlerbetrachtung auf eine solide Grundlage gestellt. Die für die Konzentrationsberechnung erforderlichen Grundvoraussetzungen werden anhand experimenteller Beispiele ausführlich erläutert und verfiziert. Zusätzlich wird durch ein iteratives Verfahren die Konzentrationsberechnung von der mathematischen oder empirischen Darstellung der Dosis-Wirkungskurve unabhängig gemacht. Zur Nutzung einer erweiterten EAG-Apparatur zur Messung komplexer Duftstoffgemische wurde das Messsystem im Bereich der Steuerung und der Auswertung tiefgreifend umgestaltet und vollständig einsatztauglich gemacht. Dazu wurde das Steuerungssystem erweitert, das Programm für die Messwerterfassung neu strukturiert, eine Methode zur Konzentrationsberechnung für Duftstoffgemische entwickelt und in einer entsprechenden Auswertesoftware implementiert. Das wichtigste experimentelle Ergebnis besteht in der Durchführung und Auswertung einer speziellen Messung, bei der das EAG-System parallel mit einer klassischen Gaschromatograph-Methode eingesetzt wurde. Die Ergebnisse ermöglichen erstmals eine absolute Festlegung der Konzentrations-Messergebnisse des EAG-Messsystems für das Pheromon des Apfelwicklers. Bisher konnten nur Ergebnisse in Relativen Einheiten angegeben werden.
The scope of this paper is to enhance the model for the own-company stockholder (given in Desmettre, Gould and Szimayer (2010)), who can voluntarily performance-link his personal wealth to his management success by acquiring stocks in the own-company whose value he can directly influence via spending work effort. The executive is thereby characterized by a parameter of risk aversion and the two work effectiveness parameters inverse work productivity and disutility stress. We extend the model to a constant absolute risk aversion framework using an exponential utility/disutility set-up. A closed-form solution is given for the optimal work effort an executive will apply and we derive the optimal investment strategies of the executive. Furthermore, we determine an up-front fair cash compensation applying an indifference utility rationale. Our study shows to a large extent that the results previously obtained are robust under the choice of the utility/disutility set-up.
We consider a highly-qualified individual with respect to her choice between two distinct career paths. She can choose between a mid-level management position in a large company and an executive position within a smaller listed company with the possibility to directly affect the company’s share price. She invests in the financial market includ- ing the share of the smaller listed company. The utility maximizing strategy from consumption, investment, and work effort is derived in closed form for logarithmic utility. The power utility case is discussed as well. Conditions for the individual to pursue her career with the smaller listed company are obtained. The participation constraint is formulated in terms of the salary differential between the two posi- tions. The smaller listed company can offer less salary. The salary shortfall is offset by the possibility to benefit from her work effort by acquiring own-company shares. This gives insight into aspects of optimal contract design. Our framework is applicable to the pharma- ceutical and financial industry, and the IT sector.
In this work, we develop a framework for analyzing an executive’s own- company stockholding and work effort preferences. The executive, character- ized by risk aversion and work effectiveness parameters, invests his personal wealth without constraint in the financial market, including the stock of his own company whose value he can directly influence with work effort. The executive’s utility-maximizing personal investment and work effort strategy is derived in closed form for logarithmic and power utility and for exponential utility for the case of zero interest rates. Additionally, a utility indifference rationale is applied to determine his fair compensation. Being unconstrained by performance contracting, the executive’s work effort strategy establishes a base case for theoretical or empirical assessment of the benefits or otherwise of constraining executives with performance contracting. Further, we consider a highly-qualified individual with respect to her choice between two distinct career paths. She can choose between a mid-level management position in a large company and an executive position within a smaller listed company with the possibility to directly affect the company’s share price. She invests in the financial market including the share of the smaller listed company. The utility maximizing strategy from consumption, investment, and work effort is derived in closed form for logarithmic utility and power utility. Conditions for the individual to pursue her career with the smaller listed company are obtained. The participation constraint is formulated in terms of the salary differential between the two positions. The smaller listed company can offer less salary. The salary shortfall is offset by the possibilityto benefit from her work effort by acquiring own-company shares. This givesinsight into aspects of optimal contract design. Our framework is applicable to the pharmaceutical and financial industry, as well as the IT sector.
Polyphenole sind sekundäre Pflanzeninhaltsstoffe und werden mit unserer täglichen Nahrung aufgenommen. Um die Relevanz der einzelnen Polyphenole für die positiven Effekte auf die Gesundheit abschätzen zu können, ist es wichtig ihre intestinale Absorption und ihren Metabolismus zu kennen. Äpfel (Malus domestica Borkh.) enthalten eine Vielzahl an Polyphenolen aus den Gruppen der Hydroxyzimtsäuren, Dihydrochalkone, Flavonole und Flavan-3-ole. Es wurden die intestinale Absorption und der Metabolismus dieser Polyphenole in intestinalen Konzentrationen in der Ussing-Kammer anhand verschiedener Modelle (Monolayer der Kolonkarzinomzellline T84, Schweinedarmmukosa und humane Biopsien) untersucht. Parallel wurde der transepitheliale Widerstand (TER) des verwendeten Monolayers gemessen. Er spiegelt die Integrität der intestinalen Barriere wider, die eine wichtige Rolle bei der Aufnahme von Nährstoffen im Körper und bei der Abwehr von Mikroorganismen und pro-inflammatorischen Faktoren spielt. Bei Patienten mit chronisch entzündlichen Darmerkrankungen ist die Integrität der intestinalen Barriere gegenüber gesunden Personen herabgesetzt. In der vorliegenden Arbeit wurde untersucht, ob die Polyphenole des Apfels einen Einfluss auf die intestinale Barriere haben. Die Analytik der Mediumüberstände aus der Ussing-Kammer auf der apikalen (Darmlumen-) und basolateralen (Blut-) Seite sowie der Zellsuspensionen auf ihre Polyphenolgehalte erfolgte mittels HPLC-ESI-MS/MS und HPLC-DAD. Die transepitheliale Absorption der Polyphenole in den verschiedenen Modellen war strukturabhängig und auch zwischen den Modellen unterschiedlich. Bei den Hydroxyzimtsäuren und ihren Derivaten wurden weniger polare Verbindungen in höherem Maße auf der basolateralen Seite ermittelt als polare. Die untersuchten Flavan-3-ole wurden in beiden Modellen nicht auf die basolaterale Seite absorbiert. Die ausschließlich im Apfel vorkommenden Phloretinglycoside wurden ebenso wie das untersuchte Quercetinglycosid nicht basolateral identifiziert. Das freie Aglykon Phloretin dagegen war auf der basolateralen Seite nachweisbar. Mit den humanen Biopsien erfolgte die Inkubation nur exemplarisch mit den Hydroxyzimtsäuren, auf die basolaterale Seite gelangten nur Mengen unterhalb der Bestimmungsgrenze. Weiterhin wurde untersucht, auf welchem Mechanismus die transepitheliale Absorption der Polyphenole beruht. Die erzielten Ergebnisse weisen darauf hin, dass es sich bei der Aufnahme von Polyphenolen in der Mukosa um eine passive transzelluläre Diffusion handelt. Die Inkubationen von Ferulasäure mit Konzentrationen von bis zu 1000 µM zeigten, dass sowohl Enzyme der T84-Monolayer als auch der Schweinedarmmukosa in der Lage sind, Glucuronide und Sulfate zu bilden, die aber erst bei Inkubationskonzentrationen ab 100 µM nachweisbar waren. Bei der Inkubation von Phloretin und Quercetin in T84-Monolayern wurden außerdem Spuren von Glucuroniden in den Zellsuspensionen nachgewiesen, bei der Inkubation von Phloretin-2‘-O-glucosid wurde das Aglykon Phloretin detektiert. Weiterhin wurde der Einfluss der Polyphenole auf die intestinale Barriere im T84-Modell untersucht, indem der trans¬epitheliale Widerstand (TER) der Monolayer ermittelt wurde. Die intestinale Barriere wird unter anderem durch die sogenannten „Tight junctions“ (TJs) – Verknüpfungen zwischen den Epithelzellen – ausgebildet. Der TER lässt Rückschlüsse auf den Zustand der TJs zu. Die Messung des TER der T84-Monolayer während der Inkubation mit Polyphenolen zeigte, dass es im Gegensatz zur Kontrolle zu einem Anstieg des TER kam, d.h. es kam zu einer Verstärkung der intestinalen Barriere. Als Modell für die intestinale Barriere bei Patienten mit chronisch entzündlichen Darmerkrankungen wurden mit Caprinsäure (C10) vorbehandelte T84-Monolayer gewählt. Auch hier kam es bei den Inkubationen mit Polyphenolen im Vergleich zur Kontrolle zu einer Steigerung des TER. Außerdem wurde der Einfluss der Polyphenole auf das TJ-Protein Occludin mittels Immunofluoreszenz¬mikroskopie belegt. Für vier ausgewählte Polyphenole (Ferulasäure, 5 Kaffeoylchinasäure, Phloretin und Phloretin-2‘-O-glucosid) wurde gezeigt, dass sie einen Einfluss auf die Expression von Occludin haben, das einen integralen Bestandteil der intestinalen Barriere darstellt. Im Rahmen der vorliegenden Arbeit wurden neue Erkenntnisse zur intestinalen Absorption und zum Metabolismus von Polyphenolen des Apfels gewonnen. Es wurde gezeigt, dass ein Teil der den Dickdarm erreichenden Apfel¬polyphenole dort absorbiert und metabolisiert werden kann. Weiterhin wurden neue Daten zum Einfluss der Polyphenole auf die intestinale Barriere gewonnen. Die in vitro erzielten Daten weisen darauf hin, dass die Apfelpolyphenole in vivo möglicherweise vor chronisch entzündlichen Darmerkrankungen schützen können. Langfristig wäre eine Nutzung von Lebensmitteln aus Äpfeln oder Apfelpolyphenolen zur Prävention dieser Erkrankungen möglich.
Zusammenfassung. In dieser Arbeit werden Probleme der numerischen Lösung finiter Differenzenverfahren partieller Differentialgleichungen in einem algebraischen Ansatz behandelt. Es werden sowohl theoretische Ergebnisse präsentiert als auch die praktische Implementierung mithilfe der Systeme SINGULAR und QEPCAD vorgeführt. Dabei beziehen sich die algebraischen Methoden auf zwei unterschiedliche Aspekte bei finiten Differenzenverfahren: die Erzeugung von Schemata mithilfe von Gröbnerbasen und die darauf folgende Stabilitätsanalyse mittels Quantorenelimination durch algebraische zylindrische Dekomposition. Beim Aufbau der Arbeit werden in den ersten drei Kapiteln in einer Rückschau die nötigen Begriffe aus der Computeralgebra gelegt, die Grundzüge der numerischen Konvergenztheorie finiter Differenzenschemata erklärt sowie die Anwendung des CAD-Algorithmus zur Quantorenelimierung skizziert. Das Kapitel 4 entwickelt ausgehend vom zugrunde liegenden Kontext die Formulierung und die dafür nötigen Bedingungen an Differenzenschemata, die algebraisch nach Definition ein Ideal in einem Polynomring darstellen. Neben der praktischen Handhabbarkeit der Objekte liegt die Betonung auf größtmöglicher Allgemeinheit in den Definitionen der Begriffe. Es werden äquivalente Wege der Erzeugung sowie Eigenschaften der Eindeutigkeit unter sehr speziellen Bedingungen an die verwendeten Approximationen gezeigt. Die Anwendung des CAD-Algorithmus auf die Abschätzung des Symbols eines Schemas wird erläutert. Das fünfte Kapitel beschreibt die SINGULAR-Bibliothek findiff.lib, welche das Zusammenspiel von SINGULAR und QEPCAD garantiert und eine vollständige Automatisierung der Erzeugung und Stabilitätsanalyse eines finiten Differenzenverfahrens ermöglicht.
El tema se desarrolló en dos partes, de las cuales, la primera, Los tratadistas europeos, abordó la situación de los libros de arquitectura editados durante los siglos XV, XVI y principios del XVII en Europa, y tocó también los primeros esfuerzos de teorización del arte edilicio durante la Antigüedad y la Edad Media. Con esta sistematización se logró una visión en conjunto de la evolución de la teoría arquitectónica, redactada en español y elaborada a partir de una bibliografía, en su mayoría publicada en idiomas extranjeros. En la segunda parte, La repercusión en Nueva España, se trató de comprobar la influencia de los textos teóricos importados desde la metrópoli, en la colonia del siglo XVI, a la luz de la circulación de los libros de arquitectura, la formación de los alarifes y las fechas de construcción de los edificios seleccionados. La división en dos secciones obedeció a la enunciación del tema, pues así resultó ser más fácil su tratamiento en una manera clara y ordenada, y se justificó por el logro del objetivo planteado, que para la primera parte era una sistematización de los tratados europeos de arquitectura del Renacimiento y del Manierismo que sirviera de base a futuras investigaciones relacionados con este asunto; y para la segunda, consistía en la comprobación de la aplicación de dichos manuales teóricos en la Nueva España.
The aim of this thesis was to link Computational Fluid Dynamics (CFD) and Population Balance Modelling (PBM) to gain a combined model for the prediction of counter-current liquid-liquid extraction columns. Parts of the doctoral thesis project were done in close cooperation with the Fraunhofer ITWM. Their in-house CFD code Finite Pointset Method (FPM) was further developed for two-phase simulations and used for the CFD-PBM coupling. The coupling and all simulations were also carried out in the commercial CFD code Fluent in parallel. For the solution methods of the PBM there was a close cooperation with Prof. Attarakih from the Al-Balqa Applied University in Amman, Jordan, who developed a new adaptive method, the Sectional Quadrature Method of Moments (SQMOM). At the beginning of the project, there was a lack of two-phase liquid-liquid CFD simulations and their experimental validation in literature. Therefore, stand-alone CFD simulations without PBM were carried out both in FPM and Fluent to test the predictivity of CFD for stirred liquid-liquid extraction columns. The simulations were validated by Particle Image Velocimetry (PIV) measurements. The two-phase PIV measurements were possible when using an iso-optical system, where the refractive indices of both liquid phases are identical. These investigations were done in segments of two Rotating Disc Contactors with 150mm and 450mm diameter to validate CFD at lab and at industrial scale. CFD results of the aqueous phase velocities, hold-up, droplet raising velocities and turbulent energy dissipation were compared to experimental data. The results show that CFD can predict most phenomena and there was an overall good agreement. In the next steps, different solution methods for the PBM, e.g. the SQMOM and the Quadrature Method of Moments (QMOM) were implemented, varied and tested in Fluent and FPM in a two-fluid model. In addition, different closures for coalescence and breakage were implemented to predict drop size distributions and Sauter mean diameters in the RDC DN150 column. These results show that a prediction of the droplet size distribution is possible, even when no adjustable parameters are used. A combined multi-fluid CFD-PBM model was developed by means of the SQMOM to overcome drawbacks of the two-fluid approach. Benefits of the multi-fluid approach could be shown, but the high computational load was also visible. Therefore, finally, the One Primary One Secondary Particle Method (OPOSPM), which is a very easy and efficient special case of the SQMOM, was introduced in CFD to simulate a full pilot plant column of the RDC DN150. The OPOSPM offers the possibility of a one equation model for the solution of the PBM in CFD. The predicted results for the mean droplet diameter and the dispersed phase hold up agree well with literature data. The results also show that the new CFD-PBM model is very efficient from computational point of view (two times less than the QMOM and five times less than the method of classes). The overall results give rise to the expectation that the coupled CFD-PBM model will lead to a better, faster and more cost-efficient layout of counter-current extraction columns in future.
Der TRPV5 Ionenkanal ist ein hoch selektiver Kalziumkanal, der in der Niere exprimiert wird und dort für den transzellulären Kalziumtransport im distalen Konvolut verantwortlich ist. TRPV5 Transkripte sind auch in anderen Geweben, wie z.B. der Plazenta, identifiziert worden. In dieser Arbeit wurde versucht, das TRPV5 Protein in verschiedenen Geweben nachzuweisen und den Kanal sowie eventuell daran assoziierte Proteine aus der Plazenta zu isolieren. Hierzu wurden verschiedene Strategien verfolgt. Zum einen wurden vier polyklonale Peptidantikörper generiert, einer gegen einen N- und drei gegen C-terminale Bereiche des humanen TRPV5 Proteins. Diese wurden eingehend mittels ELISA, Peptidblot-Analysen, Western Blot Analysen und immunhistochemischen Färbungen bezüglich ihrer Spezifität und Affinität charakterisiert. Alle generierten Antikörper erkennen spezifisch nur die antigenen Bindungsregionen in Glutathion-S-Transferase (GST)-TRPV5-Fusionsproteinen und detektieren das endogen in humaner Plazenta exprimierte Protein. Der Antikörper, der gegen den absoluten C-Terminus des TRPV5 Ionenkanals gerichtet ist (982/3), erwies sich zum Nachweis des TRPV5 Proteins im distalen Konvolut in Mausnieren als geeignet, allerdings zum Nachweis des TRPV5 Proteins im Synzytiotrophoblasten der humanen Plazenta, ist einer der anderen C-terminalen TRPV5 Antikörper besser geeignet. Der Antikörper 982/3 wurde auch in Immunpräzipitationen und Antikörper-Affinitäts-chromatographien eingesetzt. Mit diesen beiden Methoden konnte das TRPV5 zwar in kleinen Mengen aus humanem Plazentagewebe bzw. Mausnieregewebe angereichert und im anschließenden Western Blot detekiert werden, allerdings war die Menge des isolierten Proteins so gering, dass eine massenspektrometrische Identifikation nicht möglich war. Parallel wurden GST-Pulldown Versuche mit Fusionsproteinen, die den N- und C-Terminus des TRPV5 Proteins enthalten, mit Proteinextrakten der humanen Plazenta durchgeführt. Hierbei wurden insgesamt 38 Proteine als putative Interaktionspartner von TRPV5 identifiziert. Darunter befinden sich bereits in der Literatur beschriebene Interaktionspartner, wie NHERF2 und Galectin-1, und zahlreiche potentielle TRPV5 bindende Proteine. Zu den häufigsten identifizierten Proteinen zählen die Proteine 11ß-HSD2, Ku70 und Calpain-6. Ihre Bindung an N- und C-terminale Bereiche des Ionenkanals, nicht aber an GST konnte in weiteren GST-Pulldown-Experimenten und anschließender Identifikation im Western Blot bestätigt werden. Zusammenfassend zeigen diese Ergebnisse, dass das TRPV5 Protein in der humanen Plazenta an der Blut-Plazenta Schranke exprimiert wird. Aller Wahrscheinlichkeit nach ist dort das Protein mit anderen Proteinen assembliert. Inwiefern diese Interaktionen die Kanalaktivität beeinflussen müsste in weiteren Experimenten untersucht werden.
Simulation of multibody systems (mbs) is an inherent part in developing and design of complex mechanical systems. Moreover, simulation during operation gained in importance in the recent years, e.g. for HIL-, MIL- or monitoring applications. In this paper we discuss the numerical simulation of multibody systems on different platforms. The main section of this paper deals with the simulation of an established truck model [9] on different platforms, one microcontroller and two real-time processor boards. Additional to numerical C-code the latter platforms provide the possibility to build the model with a commercial mbs tool, which is also investigated. A survey of different ways of generating code and equations of mbs models is given and discussed concerning handling, possible limitations as well as performance. The presented benchmarks are processed under terms of on-board real time applications. A further important restriction, caused by the real-time requirement, is a fixed integration step size. Whence, carefully chosen numerical integration algorithms are necessary, especially in the case of closed loops in the model. We investigate linearly-implicit time integration methods with fixed step size, so-called Rosenbrock methods, and compare them with respect to their accuracy and performance on the tested processors.
Wetlands are special areas that they offer habitat for terrestrial and water life. Wetlands are nest sides also for amphibian, for this reason wetlands offer wide range diversity for species. Wetlands are also reproduction regions for birds. Wetlands have special importance for ecosystem because they obstruct erosion. Wetlands absorb contaminants from water therefore wetlands contribute to clean water and they offer more potable water. Wetlands obstruct waterflood. In that case wetlands must be maintained and conserved. Wetlands must be conserved because wetlands vanish very rapidly because of contamination, excessively agriculture, urban sprawl, dams…etc. this PhD thesis contributes to solve problems of wetlands that they are affected from urbanization especially metropolitan areas. Growth of cities requires more land for settlements; the more settlements bring about the more urban sprawl. The more urban sprawl deteriorates more natural regions. In this cycle wetlands are also affected from urbanization effects. In this sense some precautions should be developed in order to protect wetlands from urbanization effect. These precautions should include anticipation about effects of urbanization. An important tool for conserving wetlands and protecting these regions from cities is land uses and land use planning in city and regional planning. First step of land use planning is determination of settlement appropriateness. Settlement appropriateness contributes to choose correct locations for settlement in this respect wetlands can be affected in minimum level from urban sprawl. This PhD thesis inquires a method about buffer zones around wetlands and Thresholds in basin of wetlands; and this method is examined in two case study areas Mogan and Büyükçekmece Lake. According to results of Mogan and Büyükçekmece Lake the PhD method will be generalized to other quasi wetlands that they exist near cities and are affected from urban sprawl.
The modelling of hedge funds poses a difficult problem since the available reported data sets are often small and incomplete. We propose a switching regression model for hedge funds, in which the coefficients are able to switch between different regimes. The coefficients are governed by a Markov chain in discrete time. The different states of the Markov chain represent different states of the economy, which influence the performance of the independent variables. Hedge fund indices are chosen as regressors. The parameter estimation for the switching parameter as well as for the switching error term is done through a filtering technique for hidden Markov models developed by Elliott (1994). Recursive parameter estimates are calculated through a filter-based EM-algorithm, which uses the hidden information of the underlying Markov chain. Our switching regression model is applied on hedge fund series and hedge fund indices from the HFR database.
A number of water flow problems in porous media are modelled by Richards’ equation [1]. There exist a lot of different applications of this model. We are concerned with the simulation of the pressing section of a paper machine. This part of the industrial process provides the dewatering of the paper layer by the use of clothings, i.e. press felts, which absorb the water during pressing [2]. A system of nips are formed in the simplest case by rolls, which increase sheet dryness by pressing against each other (see Figure 1). A lot of theoretical studies were done for Richards’ equation (see [3], [4] and references therein). Most articles consider the case of x-independent coefficients. This simplifies the system considerably since, after Kirchhoff’s transformation of the problem, the elliptic operator becomes linear. In our case this condition is not satisfied and we have to consider nonlinear operator of second order. Moreover, all these articles are concerned with the nonstationary problem, while we are interested in the stationary case. Due to complexity of the physical process our problem has a specific feature. An additional convective term appears in our model because the porous media moves with the constant velocity through the pressing rolls. This term is zero in immobile porous media. We are not aware of papers, which deal with such kind of modified steady Richards’ problem. The goal of this paper is to obtain the stability results, to show the existence of a solution to the discrete problem, to prove the convergence of the approximate solution to the weak solution of the modified steady Richards’ equation, which describes the transport processes in the pressing section. In Section 2 we present the model which we consider. In Section 3 a numerical scheme obtained by the finite volume method is given. The main part of this paper is theoretical studies, which are given in Section 4. Section 5 presents a numerical experiment. The conclusion of this work is given in Section 6.
Charakterisierung der DNA-schädigenden Wirkung von Acrylamid in Lebensmitteln am Modell der Ratte
(2010)
Die alpha,beta-ungesättigte Carbonylverbindung Acrylamid entsteht beim Erhitzen von kohlenhydratreichen Lebensmitteln aus der Reaktion von Aminosäuren (hauptsächlich Asparagin) und reduzierenden Zuckern als Nebenprodukt der Maillard-Reaktion. In Langzeitstudien an Ratten wurde ein kanzerogenes Potential von Acrylamid nachgewiesen, was zu seiner Klassifizierung als „wahrscheinlich kanzerogen am Menschen“ (Kategorie 2a) durch die International Agency for Research on Cancer führte. Als Auslöser der Kanzerogenität von Acrylamid wird ein genotoxischer Mechanismus vermutet, der auf der Reaktion von Glycidamid mit der DNA unter Ausbildung des Hauptadduktes N7-Glycidamid-Guanin (N7-GA-Guanin) basiert. Das Ziel der vorliegenden Arbeit war die Untersuchung der genotoxischen Wirkung von Acrylamid in vivo anhand des modifizierten Comet Assays sowie der massenspektrometrischen Untersuchung von N7-GA-Guanin-Addukten. Die Problematik wurde in zwei Teilprojekten bearbeitet. Zum einen wurde die Auswirkung verschiedener Lebensmittelmatrices auf die genotoxische Wirkung von Acrylamid in der Ratte im Vergleich zur Acrylamid-Aufnahme über Trinkwasser per Schlundsonde untersucht. Dazu wurden jeweils drei Ratten über maximal neun Tage mit Acrylamid-Dosen von 50 µg/kg KG/d in Trinkwasser oder Brotkruste bzw. 100 µg/kg KG/d in Trinkwasser (Schlundsonde), geschnittenen und rekonstituierten Pommes Frites sowie Lebkuchen behandelt. Zusätzlich wurde jeweils drei Tiere einmalig eine Dosis von 450 µg bzw. 900 µg Acrylamid/kg KG in Trinkwasser mittels Schlundsonde verabreicht, was der maximalen Aufnahmemenge über neun Tage entspricht. Außerdem wurde zwei Tieren einmalig 10 mg Acrylamid/kg KG in Trinkwasser per Schlundsonde gegeben. Die Tötung der Tiere sowie Blut- und Organentnahme erfolgten 24 Stunden nach der letzten Acrylamid-Gabe. Die Untersuchung der Blut- und Leberzellen mittels modifiziertem Comet Assay ließ auf keine signifikante DNA-Schädigung der mit 50 oder 100 µg Acrylamid/kg KG behandelten Tiere schließen. Auch die einmalige Verabreichung von 450 µg bzw. 900 µg Acrylamid/kg KG im Trinkwasser führte zu keiner signifikanten Erhöhung der DNA-Schädigung. Lediglich nach der Gabe von 10 mg Acrylamid/kg KG wurden DNA-Schäden in Blut und Leber detektiert. In den Geweben der für maximal neun Tage mit 50 oder 100 µg Acrylamid/kg KG im Trinkwasser oder Lebensmittel behandelten Ratten wurden keine N7-GA-Guanin-Addukte detektiert und lagen somit unterhalb der Nachweisgrenze von 1 Addukt/10E8 Nukleotide. Nach einmaliger Verabreichung von 450 µg Acrylamid/kg KG wurden in allen Organen der behandelten Tiere N7-GA-Guanin-Addukte detektiert, die allerdings unterhalb der Bestimmungsgrenze von 3 Addukten/10E8 Nukleotide lagen. Die einmalige Gabe von 900 µg und 10 mg Acrylamid/kg KG führte zu quantifizierbaren Addukten in allen untersuchten Organen. Im zweiten Teil dieser Arbeit wurde die zeit- und dosisabhängige Bildung von N7-GA-Guanin-Addukten in der DNA aus Leber, Niere und Lunge weiblicher Sprague-Dawley Ratten untersucht. Dazu wurden die Ratten zunächst einmalig mit 1 mg oder 10 mg Acrylamid/kg KG per Schlundsonde behandelt und die Gewebeproben nach 8, 16 oder 24 Stunden entnommen und untersucht. Nach Ermittlung des Zeitpunktes der maximalen N7-GA-Guanin-Adduktbildung wurden weitere Ratten einmalig mit 0,1 mg, 0,5 mg, 3 mg oder 6 mg Acrylamid/kg KG behandelt. Neben der N7-GA-Guanin-Adduktbildung wurde die Bildung der Mercaptursäuren von Acrylamid und Glycidamid mittels HPLC-MS/MS untersucht. Die Mercaptursäuren AAMA und GAMA entstehen als Abbauprodukte der Glutathionkonjugate von Acrylamid und Glycidamid und werden über den Urin ausgeschieden. Die dosisabhängige Bildung von N7-GA-Guanin-Addukten wurde 16 Stunden nach Verabreichung von Acrylamiddosen zwischen 0,1 mg und 10 mg/kg KG untersucht. Die N7-GA-Guanin-Addukte konnten erst ab einer Dosis von 1 mg Acrylamid/kg KG in der DNA der Tiere quantifiziert werden. Die Adduktbildung in der 0,1 mg Acrylamid/kg KG-Gruppe lag unterhalb der Nachweisgrenze, während die Addukte in der 0,5 mg Acrylamid/kg KG-Gruppe zwar nachweisbar, aber nicht quantifizierbar waren. Im Bereich von 1 bis 10 mg Acrylamid/kg KG wurde ein dosisabhängiger Anstieg der N7-GA-Guanin-Addukte beobachtet. Die Ergebnisse der gemessenen Mercaptursäuren zeigen insgesamt, dass 53-55 % der Acrylamid-Dosis von 1 und 10 mg/kg KG innerhalb von 24 Stunden als Mercaptursäuren ausgeschieden werden und dadurch eine effektive Entgiftung von Acrylamid gewährleistet ist. Anhand der ausgeschiedenen GAMA-Menge lässt sich rückschließen, dass 14-18 % der verabreichten 1 und 10 mg Acrylamid/kg KG innerhalb von 24 Stunden zu Glycidamid metabolisiert werden. Die Untersuchung der Mercaptursäuren im 16-Stunden-Sammelurin nach Gabe von 0,1 bis 10 mg Acrylamid/kg KG zeigte, dass die absolute Ausscheidung von AAMA und GAMA linear mit der Dosis ansteigt.
Alle derzeit in Deutschland gültigen Bemessungsnormen sind für Neubauten oder neu anzufertigende Bauteile konzipiert. Diese Normen unterliegen dem semi-probabilistischen Sicherheitskonzept, das mithilfe von Teilsicherheitsbeiwerten und charakteristischen Werten der Materialien bzw. Einwirkungen die in DIN 1055-100 (2001) geforderte Zuverlässigkeit sicherstellen soll. Die Nachbemes-sung von Stahlbetonbauteilen im Bestand, die beispielweise eine direkte Lasterhöhung infolge einer Nutzungsänderung erfahren, hat grundsätzlich nach aktueller DIN 1045-1 (2008) zu erfolgen. Die direkte Anwendung der Nachweisfor-mate der DIN 1045-1 ist aber in vielen Fällen nicht zielführend, da alle Unsicherheiten der Planungs- und Errichtungsphase durch die Teilsicher-heitsbeiwerte mit abgedeckt werden. Im Bestand können die Unsicherheiten z. B. der Geometrie, der Materialkennwerte sowie Lage und Menge der vorhandenen Bewehrung oder der ständigen Einwirkungen infolge einer qualifizierten Bestandsaufnahme eingeschränkt werden. Die Tatsache, dass die oben genannten streuenden Größen genauer quantifiziert werden können, erlaubt eine Anpassung der Teilsicherheitsbeiwerte an die am Bauwerk vorherrschenden Streuungen der Festigkeitswerte und geometrischen Größen. Ziel dieser Arbeit ist die Ausweisung modifizierter Teilsicherheitsbeiwerte unter Beachtung des geforderten Zielzuverlässigkeitsniveaus für im Bestand übliche Nachweisformate. Die tabelliert ausgewiesenen Teilsicherheitsbeiwerte auf Widerstandsseite ermöglichen je nach angetroffener Materialstreuung eine praxisgerechte, wirtschaftliche und erfolgreiche Nachweisführung von Bestandsbauten bei Anwendung des semiprobabilistischen Teilsicherheitskonzeptes.
We introduce a class of models for time series of counts which include INGARCH-type models as well as log linear models for conditionally Poisson distributed data. For those processes, we formulate simple conditions for stationarity and weak dependence with a geometric rate. The coupling argument used in the proof serves as a role model for a similar treatment of integer-valued time series models based on other types of thinning operations.
Vor kurzem wurde MOT1 als Molybdat-Transportprotein in Arabidopsis thaliana identifiziert. Unter Zuhilfenahme von GFP-Fusionsproteinen konnte als subzelluläre Lokalisierung des Proteins die Membran des Endoplasmatischen Retikulums (ER) in dieser Arbeit identifiziert werden. Auch wurde hier demonstriert, dass das mit Abstand nächste Homolog des Proteins, MOT2, ist in der vakuolären Membran, dem Tonoplasten, lokalisiert ist. Unter Standarbedingungen zeigten mot1-KO-Pflanzen reduzierte Molybdatgehalte im Blatt und Keimlinge wiesen Wachstumsdefizite in Abwesenheit von Molybdat auf. Dies führte zu der Annahme, dass MOT1 nicht, wie bislang angenommen, den Hauptimporter für Molybdat in die Zelle darstellt. Durch die Quantifizierung vakuolärer Molybdatgehalte konnte einerseits die Vakuole als Hauptspeicherort für Molybdat in der pflanzlichen Mesophyllzelle und andererseits MOT1 als wichtigstes Protein zur Beladung der Vakuole mit dem Spurenelement identifiziert werden. Die Blätter von mot2-KO-Pflanzen zeigten erhöhte Molybdatgehalte und die Bedeutung des Proteins für die Remobilisierung des essentiellen Molybdats während der Seneszenz konnte mittels Transkriptanalysen und Molybdatquantifizierung in Samen und seneszenten Blättern gezeigt werden. Mittels Fluoreszenzanalysen konnte zusätzlich eine wichtige Determinante der Zielsteuerung von Proteinen zum Tonoplasten identifiziert werden. Durch Mutagenese zweier Leucinreste am N-Terminus von MOT2 ist das korrekte Targeting in die vakuoläre Membran gestört und das Protein lokalisiert fälschlicherweise in der Plasmamembran. Es konnte ein Modell für den intrazellulären Molybdattransport vorgestellt werden. So transportiert MOT1 das Anion ins ER, von wo aus es über Vesikelfluss zur Vakuole gelangt. MOT2 stellt das tonoplastidäre Protein für den Export des Spurenelements aus der Vakuole, besonders während der Seneszenz, dar. Auch konnte eine Korrelation zwischen dem Molybdatgehalt und der Konzentration von Moco, sowie dessen Vorstufe MPT, identifiziert werden. Dies liefert Hinweise auf eine Regulation der Moco-Biosynthese in Abhängigkeit von der zellulären Molybdatkonzentration.
We consider multiple objective combinatiorial optimization problems in which the first objective is of arbitrary type and the remaining objectives are either bottleneck or k-max objective functions. While the objective value of a bottleneck objective is determined by the largest cost value of any element in a feasible solution, the kth-largest element defines the objective value of the k-max objective. An efficient solution approach for the generation of the complete nondominated set is developed which is independent of the specific combinatiorial problem at hand. This implies a polynomial time algorithm for several important problem classes like shortest paths, spanning tree, and assignment problems with bottleneck objectives which are known to be NP-hard in the general multiple objective case.
Point defects in piezoelectric materials – continuum mechanical modelling and numerical simulation
(2010)
The topic of this work is the continuum mechanic modelling of point defects in piezoelectric materials. Devices containing piezoelectric material and especially ferroelectrics require a high precision and are exposed to a high number of electrical and mechanical load cycles. As a result, the relevant material properties may decrease with increasing load cycles. This phenomenon is called electric fatigue. The transported ionic and electric charge carriers can interact with each other, as well as with structural elements (grain boundaries, inhomogeneities) or with material interfaces (domain walls). A reduced domain wall mobility also reduces the electromechanical coupling effect, which leads to the electric fatigue effect. The materials considered here are barium titanate and lead zirconate titanate (PZT), in which oxygen vacancies is the most mobile and most frequently appearing defect species. Intentionally introduced foreign atoms (dopants) can adjust the material properties according to their field of application by generating electric dipoles with the vacancies. Agglomerations of point defects can strongly influence the domain wall motion. The domain wall can be slowed down or even be stopped by the locally varying fields in the vicinity of the clusters. Accumulations of point defects can be detected at electrodes, pores or in the bulk of fatigued samples. The present thesis concentrates focuses on the self interaction behaviour of point defects in the bulk. A micro mechanical continuum model is used to show the qualitative and the quantitative interaction behaviour of defects in a static setup and during drift processes. The modelling neglects the ferroelectric switching mechanisms, but is applicable to every piezoelectric material. The underlying differential equations are solved by means of analytical (Green's functions) and numerical (Finite Differences with discrete Fourier Transform) methods, depending on the boundary conditions. The defects are introduced as localised Eigenstrains, as electric charges and as electric dipoles. The required defect parameters are obtained by comparisons with atomistic methods (lattice statics). There are no standardised procedures available for the parameter identification. In this thesis, the mechanical parameter is obtained by a comparison of relaxation volumes of the atomic lattice and the continuum solution. Parameters for isotropic and anisotropic defect descriptions are identified. The strength of the electric defect is obtained by a comparison of the electric internal energies of atomistics and continuum. The appearing singularities are eliminated by taking only the energy difference of a infinite crystal and a periodic cell into account. Both identification processes are carried out for the cubic structure of barium titanate, which decouples the mechanical and the electrical problem. The defect interaction is analysed by means of configurational forces. The mechanical defect parameter generates a directional short-range attraction between defects. An electrical defect parameter produces the long-range Coulomb interaction, which predicts a repulsion of two similar charges. Additionally, an interaction with defect dipoles is taken into account. It is shown that a defect agglomeration is possible for any static defect configuration. Finally, defect drift is simulated using a thermodynamically motivated migration law based on configurational forces. In this context, the migration of point defects due to self interaction, and the influence of external fields is investigated.
In recent years the consumption of polymer based composites in many engineering
fields where friction and wear are critical issues has increased enormously. Satisfying
the growing industrial needs can be successful only if the costly, labor-intensive and
time-consuming cycle of manufacturing, followed by testing, and additionally followed
by further trial-and-error compounding is reduced or even avoided. Therefore, the
objective is to get in advance as much fundamental understanding as possible of the
interaction between various composite components and that of the composite against
its counterface. Sliding wear of polymers and polymer composites involves very
complex and highly nonlinear processes. Consequently, to develop analytical models
for the simulation of the sliding wear behavior of these materials is extremely difficult
or even impossible. It necessitates simplifying hypotheses and thus compromising
accuracy. An alternative way, discussed in this work, is an artificial neural network
based modeling. The principal benefit of artificial neural networks (ANNs) is their ability
to learn patterns through a training experience from experimentally generated data
using self-organizing capabilities.
Initially, the potential of using ANNs for the prediction of friction and wear properties
of polymers and polymer composites was explored using already published friction
and wear data of 101 independent fretting wear tests of polyamide 46 (PA 46) composites.
For comparison, ANNs were also applied to model the mechanical properties
of polymer composites using a commercial data bank of 93 pairs of independent Izod
impact, tension and bending tests of polyamide 66 (PA 66) composites. Different
stages in the development of ANN models such as selection of optimum network
configuration, multi-dimensional modeling, training and testing of the network were
addressed at length. The results of neural network predictions appeared viable and
very promising for their application in the field of tribology.
A case example was subsequently presented to model the sliding friction and wear
properties of polymer composites by using newly measured datasets of polyphenylene
sulfide (PPS) matrix composites. The composites were prepared by twinscrew
extrusion and injection molding. The dataset investigated was generated from
pin-on-disc testing in dry sliding conditions under various contact pressures and sliding speeds. Initially the focus was placed on exploring the possible synergistic effects
between traditional reinforcements and particulate fillers, with special emphasis on
sub-micro TiO2 particles (300 nm average diameter) and short carbon fibers (SCFs).
Subsequently, the lubricating contributions of graphite (Gr) and polytetrafluoroethylene
(PTFE) in these multiphase materials were also studied. ANNs were trained
using a conjugate gradient with Powell/Beale restarts (CGB) algorithm as well as a
variable learning rate backpropagation (GDX) algorithm in order to learn compositionproperty
relationships between the inputs and outputs of the system. Likewise, the
influence of the operating parameters (contact pressure (p) and sliding speed (v))
was also examined. The incorporation of short carbon fibers and sub-micro TiO2
particles resulted in both a lower friction and a great improvement in the wear resistance
of the PPS composites within the low and medium pv-range. The mechanical
characterization and surface analysis after wear testing revealed that this beneficial
tribological performance could be explained by the following phenomena: (i)
enhanced mechanical properties through the inclusion of short carbon fibers, (ii)
favorable protection of the short carbon fibers by the sub-micro particles diminishing
fiber breakage and removal, (iii) self-repairing effects with the sub-micro particles, (iv)
formation of quasi-spherical transfer particles free to roll at the tribological contact.
Still, in the high pv-range stick-slip sliding motion was observed with these hybrid
materials. The adverse stick-slip behavior could be effectively eliminated through the
additional inclusion of solid lubricant reservoirs (Gr and PTFE), analogous to the
lubricants used in real ball bearings. Likewise, solid lubricants improved the wear resistance
of the multiphase system PPS/SCF/TiO2 in the high pv-range (≥ 9 MPa·m/s).
Yet, their positive effect, especially that of graphite, was limited up to certain volume
fraction and loading conditions. The optimum results were obtained by blending
comparatively low amounts of Gr and PTFE (≈ 5 vol.% from each additive). An introduction
of softer sub-micro particles did not bring the desired ball bearing effect and
fiber protection. The ANN prediction profiles for PPS tribo-compounds exhibited very
good or even perfect agreement with the measured results demonstrating that the
target of achieving a well trained network was reached. The results of employing a
validation test dataset indicated that the trained neural network acquired enough
generalization capability to extend what it has learned about the training patterns to
data that it has not seen before from the same knowledge domain. Optimal brain surgeon (OBS) algorithm was employed to perform pruning of the network
topology by eliminating non-useful weights and bias in order to determine if the
performance of the pruned network was better than the fully-connected network.
Pruning resulted in accuracy gains over the fully-connected network, but induced
higher computational cost in coding the data in the required format. Within an importance
analysis, the sensitivity of the network response variable (frictional coefficient
or specific wear rate) to characteristic mechanical and thermo-mechanical input variables
was examined. The goal was to study the relationships between the diverse
input variables and the characteristic tribological parameters for a better understanding
of the sliding wear process with these materials. Finally, it was demonstrated that
the well-trained networks might be applied for visualization what will happen if a certain
filler is introduced into a composite, or what the impacts of the testing conditions
on the frictional coefficient and specific wear rate are. In this way, they might be a
helpful tool for design engineers and materials experts to explore materials and to
make reasoned selection and substitution decisions early in the design phase, when
they incur least cost.
Prostate cancer preferentially metastasizes to the skeleton and abundant evidence exists that osteoblasts specifically support the metastatic process, including cancer stem cell niche formation. At early stages of bone metastasis, crosstalk of prostate cancer cells and osteoblasts through soluble molecules results in a decrease of cancer cell proliferation, accompanied by altered adhesive properties and increased expression of bone-specific genes, or osteomimicry. Osteoblasts synthesize a plethora of biologically active factors, which comprise the unique bone microenvironment. By means of quantitative real-time RT-PCR it was determined that exposure to the osteoblast secretome induced gene expression changes in prostate cancer cells, including the upregulation of osteomimetic genes such as BMP2, AP, COL1A1, OPG and RANKL. IL6 and TGFbeta1 signaling pathway components also became upregulated at early time points. Moreover, osteoblast-released IL6 and TGFbeta1 contributed to the upregulation of OPG mRNA in LNCaP. Thus, the earliest response of prostate cancer cells to osteoblast-released factors, which ultimately cause metastatic cells to assume an osteomimetic phenotype, involved activation of paracrine and autocrine IL6 and TGFbeta signaling. On the other hand, a microarray analysis showed that osteoblasts exposed to the secretome of prostate cancer cells exhibited gene expression alterations suggestive of repressed proliferation, decreased matrix synthesis and inhibited immune response, which together indicate enhanced preosteocytic differentiation. TGFbeta signaling, known to inhibit osteoblast maturation, was strongly suppressed, as shown by elevated expression of negative regulators, downregulation of pathway components and of numerous target genes. Transcriptional downregulation of osteoblast inhibitory molecules such as DKK1 and FST also occurred, with concomitant upregulation of the osteoinductive molecules ADM, STC1 and BMP2, and of the transcription factors CBFA1 and HES1, which promote osteoblast differentiation. Finally, the mRNA encoding NPPB, the precursor of a molecule implicated in the inhibition of TGFbetaeffects, in bone formation and in stem cell maintenance, became upregulated after coculture both in osteoblasts and in prostate cancer cells. These results provide an insight into potential mechanisms of dysregulated bone formation in metastatic prostate cancer, as well as mechanisms by which osteoblasts might enhance the invasive, osteomimetic and stem cell-like properties of the tumor cells. In particular, the differential modulation of TGFbetasignaling in prostate cancer cells and osteoblasts appears to merit further research.
In der Diskussion zur Nachhaltigen Entwicklung hat die soziale Dimension im Verhältnis zu den beiden anderen, d.h. der ökonomischen und der ökologischen Dimensionen, bisher eine relativ geringe Zuwendung erfahren. Dabei ist soziale Nachhaltigkeit, die den gesellschaftlichen Zusammenhalt in Humanität, Freiheit und Gerechtigkeit zum Ziel hat, nicht weniger bedeutend, um die Zukunftsfähigkeit einer Gesellschaft aber auch einer Volkswirtschaft zu gewährleisten. Zum Konzept der sozialen Nachhaltigkeit gibt es verschiedene Zugänge. Dieser Beitrag beleuchtet das Thema aus Sicht der Neuen Institutionsökonomik, einem Forschungsgebiet, das auf dem Konzept des Grenznutzens beruht. Mit der Kohäsionsfunktion, den interdependenten Nutzenfunktionen und dem Transaktionskostenansatz, die in diesem Beitrag erläutert werden, bietet es eine theoretische Grundlage zum Verständnis des gesellschaftlichen Zusammenhalts.
Um die bei modernen stationären Industriegasturbinen geforderten Leistungsdichten bei hohem Wirkungsgrad zu erreichen, werden sehr oft transsonische Axialkompressoren eingesetzt. Neben vielen Vorteilen, haben sie eine erhöhte Sensibilität gegenüber Ungleichförmigkeiten im Geschwindigkeits- und Druckprofil der Zuströmung als entscheidenden Nachteil. Da diese Ungleichförmigkeiten direkt von der Gestaltung des Einlaufgehäuses mitbestimmt werden, spielt das Design eine außerordentlich wichtige Rolle bei der Auslegung der Gesamtmaschine. Diese Arbeit beschäftigt sich mit den Strömungen in der ersten Transsonikstufe eines mehrstufigen Axialverdichters und untersucht deren Wechselwirkung mit den Strömungen im Einlaufgehäuse. Durch die Geometrie des Einlaufgehäuses, welche die Strömung in den meisten Fällen von vertikaler in horizontale Richtung umlenkt, entstehen Ungleichförmigkeiten im Strömungsprofil, die den Druckaufbau, den Wirkungsgrad und den stabilen Betriebsbereich der Maschine einschränken können. Zusätzlich können stärkere Blattschwingungen auftreten, die die mechanische Beanspruchung der Rotorstruktur erhöhen. Mit Hilfe der numerischen Strömungsmechanik werden drei verschiedene Einlaufgehäuse untersucht, um festzustellen, welche Strömungsungleichförmigkeiten auftreten und wie diese die Strömung in der Transsonikstufe beeinflussen. Zwei der drei Varianten sind um 90° umlenkend und entsprechen denen, wie sie in realen Gasturbinen eingesetzt werden. Dabei ist eine Variante strömungstechnisch optimiert, die andere im Sinne einer möglichst einfachen Fertigung gestaltet. Die dritte Variante ist ein rein axiales Gehäuse mit einer eingebauten Versperrung, um zu untersuchen, wie gut sich Strömungsungleichförmigkeiten, die in einem radial umlenkenden Einlaufgehäuse einer stationären Gasturbine entstehen, durch Einbauten simulieren lassen. Desweiteren bietet sich diese Simulation an, da das Einlaufgehäuse zusammen mit dem 5-stufigen Axialkompressor auf einem Prüfstand vermessen wurde und so ein Vergleich mit Messwerten möglich ist. Die Simulationen haben gezeigt, dass es möglich ist, mit einem aerodynamisch günstig gestalteten Einlaufgehäuse Zuströmbedingungen zu erzeugen, die in der darauffolgenden Transsonikstufe nicht zu nennenswerten Einschränkungen in Wirkungsgrad, Druckverhältnis und Betriebsbereich führen. Eine Parameterstudie mit verschiedenen axialen Baulängen hat gezeigt, dass eine Verkürzung des Einlaufgehäuses durchgeführt werden kann, ohne zusätzliche Verluste in Kauf nehmen zu müssen. Erst bei Unterschreitung eines kritischen Maßes kommt es zu deutlichen Verlusten und einer Reduktion des Druckverhältnisses. Hier ist eine Anpassung der Vorleitreihe nötig, um den geänderten Zuströmbedingungen der Vorleitreihe hinter der verkürzten Einlaufgehäusevariante Rechnung zu tragen. Die zweite radial umlenkende Einlaufgehäusevariante ist aus aerodynamischer Sicht ungünstiger gestaltet. Hier zeigen die Simulationen, dass sich im Einlaufgehäuse Wirbel ausbilden, die zum einen im Einlaufgehäuse selbst und zum anderen in der Transsonikstufe hohe Verluste hervorrufen. Darüber hinaus kommt es zu einer Abnahme des Stufendruckverhältnisses, und es ist auch mit negativen Auswirkung auf folgende Stufen zu rechnen, da die Wirbel hinter der ersten Stufe immer noch abgeschwächt vorhanden sind. Obwohl die hinter einem radial umlenkenden Einlaufgehäuse entstehenden Geschwindigkeitsprofile komplex sind, lassen sie sich auch in einem axialen Einlaufgehäuse durch Einbauten simulieren. Auch wenn sich die verschiedenen Verlustentstehungsmechanismen gegenseitig beeinflussen und eine exakte Trennung nicht möglich ist, konnte mit einer groben Abschätzung festgestellt werden, wie groß der Anteil der Stoß- und Spaltverluste an den Gesamtverlusten ist. So haben beispielsweise im Auslegungspunkt nur etwa 15 % der Verluste ihre Ursache in den Verdichtungsstößen, und weniger als 10 % der Verluste sind auf die Spaltströmung zwischen Rotorblattspitze und Gehäuse zurückzuführen. Mit fast 80 % entsteht der überwiegende Anteil der Verluste in den Profil- und Seitenwandgrenzschichten. Die berechneten Strömungs- und Druckprofile zeigen eine sehr gute Übereinstimmung mit den durchgeführten Messungen.
Annual Report 2009
(2010)
Annual Report, Jahrbuch AG Magnetismus
Während der bayerisch-böhmische Grenzraum früher mit dem Image der Rückständigkeit behaftet war, stellt seine Lage an zwei Märkten und zwei Kulturregionen heute eine gewisse Standortgunst dar. Die abnehmende Bedeutung der Staatsgrenze führt dazu, dass Unter-nehmen die neuen Optionen zur Gewinnung von Arbeitskräften, Geschäftspartnern und Kunden im Nachbarland nutzen und horizontale und vertikale Kooperationen im Nachbarland eingehen. Dies bietet die Chance, die grenzüberschreitenden Verflechtungen weiter-zu entwickeln. Voraussetzung hierfür ist allerdings der erfolgreiche Umgang mit der kulturellen Diversität des Raumes. Kulturelle Diversität in Grenzregionen wird durch die durchlässige Grenze verursacht, z. B. durch Aufenthalte im Nachbarland. In jeder Verflechtung treffen fremdkulturelle Partner aufeinander und nutzen ihre kulturelle Prägung weiter als Orientierungssystem. Ein hohes Interesse an Kultur ist grenzüberschreitenden Akteuren aus der Wirtschaft zuzuschreiben. Oft werden die Kooperationen zwischen Deutschland und Tschechien als ein Dilemma be-zeichnet. Obwohl die Rahmenbedingungen für grenzüberschreitende Kooperationen als gut und die Notwendigkeit der Zusammenarbeit als offensichtlich einzustufen sind, sind viele Kooperationen wenig erfolgreich. Ziel der bewussten Zusammenarbeit fremdkultureller Partner ist die Erzielung kultureller Synergien. Es gilt zum Einen die enormen Potenziale unterschiedlicher Denk- und Handlungsweisen in Europa ökonomisch zu nutzen. Zum Anderen muss kultursensibles Verhalten gelehrt werden, um Fehleinschätzungen und Konflikten vor-beugen zu können. Kultur ist universell und dient den Angehörigen einer Kultur als Orientierungssystem. Sie ist die Basis, unter der Menschen Wirtschaftsformen und -prozesse entwickeln. Bei einer Zusammenarbeit von Partnern aus beiden Teilen der Grenzregionen, die beide entsprechend ihrer kulturellen Prägung ein und dasselbe Umfeld unterschiedlich wahrnehmen, ist die Entstehung von Konflikten häufig. BERNREUTHER sieht kulturelle Nähe daher als eine Voraussetzung für ökonomische Verflechtungen an. Ausgangspunkt ist die Überlegung, dass ökonomisches Handeln nicht zwischen isolierten Akteuren, sondern in sozialen Systemen eingebettet ist. Für die Qualität der Beziehungen sind Vertrauen und der Wille zur Zusammenarbeit entscheidend. Durch die Zugehörigkeit der Akteure zu verschiedenen Kulturen bei grenzüberschreitenden Interaktionen vergrößert sich die soziokulturelle Heterogenität, wo-mit der Vertrauensaufbau schwieriger wird. Es können aber auch kulturelle Synergien ent-stehen und die regionale Innovationsfähigkeit gesteigert werden. So belegen empirische Studien, dass Regionen mit einer hohen Multikulturalität ein sehr hohes Innovationspotenzial besitzen. Der ostbayerische Grenzlandkreis Cham konnte sich in den 1990er Jahren von einer Problemregion zu einem prosperierenden Standort entwickeln. Es gibt bereits gute Erfahrungen mit grenzüberschreitenden Projekten und kulturellen Synergien. Der Landkreise wurde als qualitatives Fallbeispiel ausgewählt, um auf Grundlage von Experteninterviews zu analysieren, wie kulturelle Diversität auf die Handlungsfelder der Wirtschaftsförderung wirkt und kulturelle Synergien entstehen. Regionale Herausforderungen sind die Anlässe im Landkreis Cham, die die Zusammenarbeit mit der westböhmischen Nachbarregion befördern. So gibt es einen direkten Bezug zwischen den aktuellen Herausforderungen und der Erhöhung grenzüberschreitender Verflechtungen. Als Herausforderungen der wirtschaftlichen Entwicklung werden von den befragten Experten -demographischer Wandel/Fachkräftemangel -Erhöhung der regionalen Innovationsfähigkeit -Weiterentwicklung des Fremdenverkehrs (durch regionale Kooperationen) -Abgrenzung zu den Metropolregionen München und Nürnberg genannt. Die kulturelle Diversität wirkt sich über wirtschaftliche Verflechtungen aus. Grenzüberschreitende Verflechtungen und somit kulturelle Synergien mit der tschechischen Nachbarregion sind für die Wirtschaftsförderung von zunehmender Bedeutung. Das tschechische Improvisationsgeschick wird als Basis für die bayerisch-böhmische Synergieentwicklung und eine langfristige Zusammenarbeit angesehen. Auf Grund der kulturellen Gegebenheiten ist ein Vertrauensaufbau nur über gegenseitige persönliche Wertschätzung zu erlangen. Dieses Vertrauen ist grundsätzlich für die Entfaltung des tschechischen Improvisationsgeschicks notwendig. Vertrauen ist in diesem Kontext stark personalisiert und eng an die hohe Bedeutung der Netzwerkreputation verknüpft. Für die Kontaktaufnahme ist deshalb der Leumund einer Person über dem Akteur bekannte Dritte ein wichtiges Faktum. So haben in Tschechien informelle Netzwerke einen hohen Stellenwert. Sie sind die Basis, um in Kontakt zu treten und Kooperationen aufzubauen.
This thesis deals with the solution of special problems arising in financial engineering or financial mathematics. The main focus lies on commodity indices. Chapter 1 addresses the important issue for the financial engineering practice of developing well-suited models for certain assets (here: commodity indices). Descriptive analysis of the Dow Jones-UBS commodity index compared to the Standard & Poor 500 stock index provides us with first insights of some features of the corresponding distributions. Statistical tests of normality and mean reversion then helps us in setting up a model for commodity indices. Additionally, chapter 1 encompasses a thorough introduction to commodity investment, history of commodities trading and the most important derivatives, namely futures and European options on futures. Chapter 2 proposes a model for commodity indices and derives fair prices for the most important derivatives in the commodity markets. It is a Heston model supplemented with a stochastic convenience yield. The Heston model belongs to the model class of stochastic volatility models and is currently widely used in stock markets. For the application in the commodity markets the stochastic convenience yield is included in the drift of the instantaneous spot return process. Motivated by the results of chapter 1 it seems reasonable to model the convenience yield by a mean reverting Ornstein-Uhlenbeck process. Since trading desks only apply and consider models with closed form solutions for options I derive such formulas for commodity futures by solving the corresponding partial differential equation. Additionally, semi-closed form formulas for European options on futures are determined. The Cauchy problem with respect to these options is more challenging than the first one. A solution can be provided. Unlike equities, which typically entitle the holder to a continuing stake in a corporation, commodity futures contracts normally specify a certain date for the delivery of the underlying physical commodity. In order to avoid the delivery process and maintain a futures position, nearby contracts must be sold and contracts that have not yet reached the delivery period must be purchased (so called rolling). Optimal trading days for selling and buying futures are determined by applying statistical tests for stochastic dominance. Besides the optimization of the rolling procedure for commodity futures we dedicate ourselves in chapter 3 with the optimization of the weightings of the commodity futures that make up the index. To this end, I apply the Markowitz approach or mean-variance optimization. The mean-variance optimization penalizes up-side and down-side risk equally, whereas most investors do not mind up-side risk. To overcome this, I consider in the next step other risk measures, namely Value-at-Risk and Conditional Value-at-Risk. The Conditional Value-at-Risk is generalized to discontinuous cumulative distribution functions of the loss. For continuous loss distributions, the Conditional Value-at-Risk at a given confidence level is defined as the expected loss exceeding the Value-at-Risk. Loss distributions associated with finite sampling or scenario modeling are, however, discontinuous. Various risk measures involving discontinuous loss distributions shall be introduced and compared. I then apply the theoretical results to the field of portfolio optimization with commodity indices. Furthermore, I uncover graphically the behavior of these risk measures. For this purpose, I consider the risk measures as a function of the confidence level. Based on a special discrete loss distribution, the graphs demonstrate the different properties of these risk measures. The goal of the first section of chapter 4 is to apply the mathematical concept of excursions for the creation of optimal highly automated or algorithmic trading strategies. The idea is to consider the gain of the strategy and the excursion time it takes to realize the gain. In this section I calculate formulas for the Ornstein-Uhlenbeck process. I show that the corresponding formulas can be calculated quite fast since the only function appearing in the formulas is the so called imaginary error function. This function is already implemented in many programs, such as in Maple. My main contribution of this topic is the optimization of the trading strategy for Ornstein-Uhlenbeck processes via the Banach fixed-point theorem. The second section of chapter 4 deals with statistical arbitrage strategies, a long horizon trading opportunity that generates a riskless profit. The results of this section provide an investor with a tool to investigate empirically if some strategies (for example momentum strategies) constitute statistical arbitrage opportunities or not.
This paper discusses a numerical subgrid resolution approach for solving the Stokes-Brinkman system of equations, which is describing coupled ow in plain and in highly porous media. Various scientic and industrial problems are described by this system, and often the geometry and/or the permeability vary on several scales. A particular target is the process of oil ltration. In many complicated lters, the lter medium or the lter element geometry are too ne to be resolved by a feasible computational grid. The subgrid approach presented in the paper is aimed at describing how these ne details are accounted for by solving auxiliary problems in appropriately chosen grid cells on a relatively coarse computational grid. This is done via a systematic and a careful procedure of modifying and updating the coecients of the Stokes-Brinkman system in chosen cells. This numerical subgrid approach is motivated from one side from homogenization theory, from which we borrow the formulations for the so called cell problem, and from the other side from the numerical upscaling approaches, such as Multiscale Finite Volume, Multiscale Finite Element, etc. Results on the algorithm's eciency, both in terms of computational time and memory usage, are presented. Comparison with solutions on full ne grid (when possible) are presented in order to evaluate the accuracy. Advantages and limitations of the considered subgrid approach are discussed.
We present a two-scale finite element method for solving Brinkman’s and Darcy’s equations. These systems of equations model fluid flows in highly porous and porous media, respectively. The method uses a recently proposed discontinuous Galerkin FEM for Stokes’ equations byWang and Ye and the concept of subgrid approximation developed by Arbogast for Darcy’s equations. In order to reduce the “resonance error” and to ensure convergence to the global fine solution the algorithm is put in the framework of alternating Schwarz iterations using subdomains around the coarse-grid boundaries. The discussed algorithms are implemented using the Deal.II finite element library and are tested on a number of model problems.
A theory of discrete Cosserat rods is formulated in the language of discrete Lagrangian mechanics. By exploiting Kirchho's kinetic analogy, the potential energy density of a rod is a function on the tangent bundle of the conguration manifold and thus formally corresponds to the Lagrangian function of a dynamical system. The equilibrium equations are derived from a variational principle using a formulation that involves null{space matrices. In this formulation, no Lagrange multipliers are necessary to enforce orthonormality of the directors. Noether's theorem relates rst integrals of the equilibrium equations to Lie group actions on the conguration bundle, so{called symmetries. The symmetries relevant for rod mechanics are frame{indierence, isotropy and uniformity. We show that a completely analogous and self{contained theory of discrete rods can be formulated in which the arc{length is a discrete variable ab initio. In this formulation, the potential energy density is dened directly on pairs of points along the arc{length of the rod, in analogy to Veselov's discrete reformulation of Lagrangian mechanics. A discrete version of Noether's theorem then identies exact rst integrals of the discrete equilibrium equations. These exact conservation properties confer the discrete solutions accuracy and robustness, as demonstrated by selected examples of application. Copyright c 2010 John Wiley & Sons, Ltd.
Mrázek et al. [25] proposed a unified approach to curve estimation which combines localization and regularization. Franke et al. [10] used that approach to discuss the case of the regularized local least-squares (RLLS) estimate. In this thesis we will use the unified approach of Mrázek et al. to study some asymptotic properties of local smoothers with regularization. In particular, we shall discuss the Huber M-estimate and its limiting cases towards the L2 and the L1 cases. For the regularization part, we will use quadratic regularization. Then, we will define a more general class of regularization functions. Finally, we will do a Monte Carlo simulation study to compare different types of estimates.
Mit der Erweiterten Technischen Biegelehre (ETB) steht eine Möglichkeit zur Verfügung, den Gesamtverzerrungszustand von biege- und schubbeanspruchten Stahlbeton- und Spannbetonquerschnitten sowohl für den Grenzzustand der Gebrauchstauglichkeit (GZG) als auch den Grenzzustand der Tragfähigkeit (GZT) zu ermitteln. Bisher fehlte jedoch für eine allgemeine Anwendung der ETB eine statistische Absicherung durch einen umfangreichen Vergleich mit Versuchen. Als Grundlage für diesen Vergleich wurde zunächst ein Konzept zur Berücksichtigung von Tension-Stiffening und Tension-Softening in der Berechnung erarbeitet. Die Integration dieses Konzepts in die ETB erfolgte durch Dr. Hartung, der die ETB ursprünglich entwickelt hat. Im Rahmen der vorliegenden Arbeit wurden dann an der TU Kaiserslautern insgesamt 222 Querkraftversuche an Stahlbeton- und Spannbetontragern mit der ETB nachgerechnet. Dazu mussten zunachst fur die in den Versuchen auftretenden drei Schubbrucharten geeignete Versagenskriterien definiert werden. Aus der abschliesenden statistischen Bewertung ergaben sich mit der ETB fur die Tragfahigkeit gegenuber dem Fachwerkmodell wesentlich wirtschaftlichere Ergebnisse. Sowohl die verbleibende, nicht nutzbare Modellsicherheit war im Mittel deutlich geringer, als auch die Streuung der erzielten Ergebnisse. Damit wird eine Anwendung der ETB fur den GZT grundsatzlich ermoglicht. Auffallig ist hier u. a. die gegenuber dem Fachwerkmodell deutlich bessere Erfassung des Tragverhaltens von Spannbetontragern. Hier schrankt die untere Begrenzung der Druckstrebenneigung auf 18,4° die Effektivitat des Fachwerkmodells stark ein. Weiterhin wurde im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern an insgesamt sechs großmaßstäblichen Versuchen das Trag- und Verformungsverhalten von Stahlbeton- und Spannbetonträgern untersucht. Für die Bügeldehnungen ergaben sich daraus auch auf dem Niveau des Gebrauchszustandes gute Übereinstimmungen zwischen Versuch und Berechnung. Die bei einem Versuch im Momentennullpunkt erfolgten Messungen der Längsdehnungen haben zudem gezeigt, dass die durch die Schubbeanspruchung bedingte Stabverlängerung bereits im GZG nennenswerte Größen annehmen kann und somit bei Spannungsnachweisen berücksichtigt werden sollte. Eine statistische Absicherung für den GZG war jedoch aufgrund der geringen Anzahl der Versuche nicht möglich. In Verbindung mit der Vorstellung eines auf der ETB basierenden Bemessungskonzeptes wurde abschließend noch auf die Frage der erforderlichen Mindestquerkraftbewehrung eingegangen. Für den Nachweis von bestehenden Tragwerken wurde hier ein zu DIN 1045-1 2008 alternativer Nachweis der erforderlichen Duktilität auf Basis der ETB aufgezeigt.