Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Universität (1)
Ökonomische Prozessanalyse und Modellintegration zur Kostenberechnung von Faser-Kunststoff-Verbunden
(2006)
The introduction to the topic is a description of the techno-economic evolution of
composites. Apart from this, today’s market state of the art of composites is also explained.
As a conclusion, the principal trend towards the higher quality by the increased
application of carbon fibers is ascertained. In particular, it is pointed out that
the restraints of the market growth are mainly caused by the high price, most notably,
of the fiber materials. This situation, in connection with the maturation of the composite
manufacturing processes, demands the need of a cost calculation tool.
In the second step, former composite cost models and their implementations into
software – if available – are described and benchmarked. As a result it is proposed to
combine, different approaches because of their fundamental potential as well as the
deficits. It is suggested to use a resource-based methodology combined with the
PBKM (prozessbasierte Kostenmodellierung = process-based cost modelling) and to
implement the models in a cost calculation software.
The first aim is an economic process analysis which is carried out to receive an abstract
and modular system. Thereby, it is possible to describe the production processes
by successive refinement more and more detailed. The process is divided in
multiple steps which are itself subdivided in technical activities or handlings. The
relevant cost objects with the identifiable cost positions are assigned to those handlings.
This approach assures modularity and offers the possibility of an easy software
implementation. In addition, the functionality of this methodology is demonstrated
considering the two examples “thermoplastic tape placement” and “continuous
pressing”. For that reason these composite manufacturing techniques are analyzed
and the structure is mapped within the use of suggested methodology.
The next topic deals with the modelling of the cycle time for the thermoplastic tape
placement with the use of the PBKM. Within this methodology the derivation of the
cycle time depends only on physical process parameters, which results in a geometrical
complexity based model. The developed model is verified by comparing of the
theoretically derived values with practical experiments. Along with this, the assumptions
for this model are revised and verified. As a technical enhancement of the tape
placement process, different designs of a geometry-adaptive consolidation role are introduced. This technical extension of the process technology is necessary for the
final verification of the model. The new consolidation unit enables to move all geometrical
degrees of freedom and complexities with the same laminate quality. Finally,
a possibility to transfer the methodology of the PBKM to other technologies is proved.
Therefore, it is offered a modus operandi how the continuous pressing technique can
be modelled with the help of the PBKM.
The last chapter deals with the cost calculation tool concerning the structural configuration,
design, and functionality of the software. It is the consequential synthesis of
the results of the economic process analysis and the cycle time models. The practicability
of the modularity is proved by its application in the design phase of the software
and by the integration of the modelling into the tool. The developed cost calculation
software for composite manufacturing processes offers a standardization of the
inputs and calculation algorithms by the use of introduced process analysis, the subdivision
into smallest units. The cycle time calculation models are process specific
know-how which can easily be used unlike an expert's system. The separation of the
single functional entities assures a stringent data management, possibilities for the
advancement, and furthermore, the variableness of representation and reuse of the
derived data. The functionality of the cost tool concerning evaluations and comparisons
are pointed out with two case studies. Plus, the postulated transferability of the
methodology on other composite technologies is demonstrated. The main advantage
of this system is that the modelling offers economical statements of different process
variations without experimentation. Besides, the values ascertained by the PBKM are
more precise compared to other existing models. Therefore, the PBKM can be the
basis for investment decisions like technology change or modifications and helps to
identify techno-economic limitations and potentials.
This version of the cost calculation software offers only the standard repertoire of
cost evaluations and comparisons which turn out to be upgradeable. Thus, there exists
potential to enhance the functionality concerning sensitivity analyses, the integration
of cycle time models for other composite processing technologies, and further
possibilities for the graphic processing. As a conclusion the software with the combination
of different attempts offers a good starting position with respect to the current
evolution status and should be extended.
Im ersten Teil der vorliegenden Arbeit wurde Knochenmarksmaterial von 110 Leukämiepatienten auf das Vorliegen von p53-Gen-Deletionen untersucht. Zu diesem Zweck wurden sowohl Interphasezellkerne als auch Metaphasen der Leukämiezellen mittels der Fluoreszenz-in-situ-Hybridisierungstechnik (FISH) mit der p53-Gen-Sonde untersucht. Dabei konnte in keinem der 55 untersuchten Patienten mit lymphatischer Leukämie eine Alleldeletion des p53-Gens nachgewiesen werden. Da die p53-Gen-Deletion nach den Literaturangaben bei etwa 7% der Patienten mit lymphatischer Leukämie vorkommt, widersprechen die eigenen Ergebnisse diesen Angaben. Als Grund kann die zu geringe Anzahl der untersuchten Fälle genannt werden. Bei den 55 hier untersuchten Patienten, die an myeloischer Leukämie erkrankt waren, konnte in 7 Fällen (13%) eine Deletion im p53-Gen mittels FISH nachgewiesen werden. Der Anteil der gefundenen p53-Gen-Deletionen war deutlich höher als aufgrund der Literaturangaben erwartet. Die sieben Patienten, bei denen eine p53-Gen-Deletion nachgewiesen wurde, waren alle an akuter myeloischer Leukämie (AML) erkrankt. Alle Patienten, die eine p53-Gen-Deletion aufwiesen, zeigten auch einen numerisch und strukturell aberranten Karyotyp. Im zweiten Arbeitsabschnitt wurden Knochenmarkszellen von 21 Patienten mit hämatologischen Erkrankungen mittels spektraler Karyotypisierung (SKY) untersucht und mit dem zytogenetischen Routinebefund verglichen. Ziel der Untersuchung war die Identifizierung von numerischen und strukturellen Chromosomenaberrationen, die durch die konventionelle zytogenetische Untersuchung nicht identifiziert werden konnten. Bei 17 (81%) der Fälle wurden durch SKY zusätzliche Chromosomenaberrationen festgestellt. Nur bei 4 (19%) der Fälle wurde der zytogenetische Befund bestätigt. Im dritten Arbeitsabschnitt wurden Meningeome untersucht. Bei 22 Meningeomen (17 benigne und 5 atypische Meningeomen) wurde mittels Interphase-FISH nach einer Alleldeletion des p53-Gens gesucht. Es konnte jedoch in keinem Fall eine solche Deletion nachgewiesen werden. Weiterhin wurden bei 24 Meningeomen 96 frische Biopsieproben von verschiedenen Tumorarealen mit G-Bänderungstechnik zytogenetisch analysiert. Zur besseren Aufklärung komplex aberranter Karyotypen wurden zwei Fälle (Nr. 1 und Nr. 7) auch mittels SKY-Analyse untersucht. Ziel der vorliegenden Arbeit war es festzustellen, ob zytogenetische Unterschiede zwischen den unterschiedlichen Arealen innerhalb eines Tumors vorliegen. Es gab bei 13 von 24 Meningeomen (54%) zytogenetische Unterschiede zwischen den verschiedenen Arealen innerhalb eines Tumors. 24 (83%) von 29 Meningeomen wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft und 5 (17%) von 29 Meningeomen in den Tumorgrad II. Die Tumorgradverteilung in dieser Arbeit entspricht den Literaturangaben. 13 von 24 Tumoren wiesen entweder einen normalen Karyotyp oder nur eine Monosomie 22 auf. Alle 13 Tumoren wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft. Vier Meningeome wiesen stark aberrante Karyotypen auf, was vermutlich ein Zeichen für die Tumorprogression darstellt. Es wurde auch untersucht, ob eine Korrelation zwischen dem zytogenetischen und histologischen Befunden vorliegt. In der vorliegenden Arbeit hat bei sechs Fällen der histologische Befund nicht mit dem zytogenetischen Befund übereingestimmt, da die Tumore in den Tumorgrad I eingestuft wurden, der zytogenetische Befund aber einen aberranten Chromosomensatz aufwies, der normalerweise nicht bei niedriggradigen Meningeomen, sondern bei atypischen und anaplastischen Meningeomen vorkommt. Die Untersuchungsergebnisse deuten darauf hin, dass die Kombination verschiedener zytogenetischer und molekularzytogenetischer Methoden zur Charakterisierung Chromosomaler Aberrationen bei Meningeomen sinnvoll ist.
Die vorliegende Arbeit liefert zutreffende zyklische Lastverformungs- und Rissfortschrittsbeziehungen für Trägerverbundfugen mit Kopfbolzendübel 22mm (Durchmesser) anhand derer man in der Lage ist, den Schädigungs- und Lastverformungszustand in einem Verbundträger unter zyklischer Belastung zu bestimmen. Die Modelle wurden auf Grundlage einer hohen Anzahl von weggeregelten Push-Out-Versuchen abgeleitet und an einigen zyklischen Trägerversuchen verifiziert. Mit den gefundenen Zusammenhängen ist es möglich, sehr genaue Lebensdauerprognosen für Kopfbolzendübel in Trägerverbundfugen abzugeben. Weiter wird ein einfaches Bemessungskonzept für Kopfbolzenermüdung vorgeschlagen.
Die Inhalte der in zwei verschiedenen Bundesländern angebotenen Weiterbildungsveranstaltungen für Lehrer und Lehrerinnen aus dem psychologischen Themenfeld wurden den Themenbereichen des Rahmencurriculums "Psychologie in den Lehramtsstudiengängen" der Deutschen Gesellschaft für Psychologie (DGPs, 2002) zugeordnet. Sodann wurden die Angebote der Weiterbildungsinstitute mit Relevanzeinschätzungen derselben Themenbereiche durch Lehrkräfte aller Schularten verglichen. Diese Relevanzeinschätzungen waren in einer Fragebogenstudie (Dutke & Singleton, 2006a,b) von 233 Lehrkräften erhoben worden. Angebots- und Relevanzprofile waren korreliert. Im Vergleich zu den Relevanzurteilen unterrepräsentiert waren Themen wie motivationale und emotionale Bedingungen des Lernens und Lehrens, Interventionsmöglichkeiten bei Lern- und Leistungsauffälligkeiten oder der Umgang mit sozial-emotional auffälligem Verhalten. Im Angebot eher überrepräsentiert schienen Grundlagenfragen der Beratung und Intervention zu sein. Implikationen einer nachfrageorientierten Gestaltung der Weiterbildungsangebote sowie Konsequenzen für die Positionierung der Psychologie im Weiterbildungssektor für Lehrkräfte werden diskutiert.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
Wetting of a solid surface with liquids is an important parameter in the chemical engineering process such as distillation, absorption and desorption. The degree of wetting in packed columns mainly contributes in the generating of the effective interfacial area and then enhancing of the heat and mass transfer process. In this work the wetting of solid surfaces was studied in real experimental work and virtually through three dimensional CFD simulations using the multiphase flow VOF model implemented in the commercial software FLUENT. That can be used to simulate the stratified flows [1]. The liquid rivulet flow which is a special case of the film flow and mostly found in packed columns has been discussed. Wetting of a solid flat and wavy metal plate with rivulet liquid flow was simulated and experimentally validated. The local rivulet thickness was measured using an optically assisted mechanical sensor using a needle which is moved perpendicular to the plate surface with a step motor and in the other two directions using two micrometers. The measured and simulated rivulet profiles were compared to some selected theoretical models founded in the literature such as Duffy & Muffatt [2], Towell & Rothfeld [3] and Al-Khalil et al. [4]. The velocity field in a cross section of a rivulet flow and the non-dimensional maximum and mean velocity values for the vertical flat plate was also compared with models from Al-Khalil et al. [4] and Allen & Biggin [5]. Few CFD simulations for the wavy plate case were compared to the experimental findings, and the Towel model for a flat plate [3]. In the second stage of this work 3-D CFD simulations and experimental study has been performed for wetting of a structured packing element and packing sheet consisting of three elements from the type Rombopak 4M, which is a product of the company Kuhni, Switzerland. The hydrodynamics parameters of a packed column, e. i. the degree of wetting, the interfacial area and liquid hold-up have been depicted from the CFD simulations for different liquid systems and liquid loads. Flow patterns on the degree of wetting have been compared to that of the experiments, where the experimental values for the degree of wetting were estimated from the snap shooting of the flow on the packing sheet in a test rig. A new model to describe the hydrodynamics of packed columns equipped with Rombopak 4M was derived with help of the CFD–simulation results. The model predicts the degree of wetting, the specific or interfacial area and liquid hold-up at different flow conditions. This model was compared to Billet & Schultes [6], the SRP model Rocha et al. [7-9], to Shi & Mersmann [10] and others. Since the pressure drop is one of the most important parameter in packed columns especially for vacuum operating columns, few CFD simulations were performed to estimate the dry pressure drop in a structured and flat packing element and were compared to the experimental results. It was found a good agreement from one side, between the experimental and the CFD simulation results, and from the other side between the simulations and theoretical models for the rivulet flow on an inclined plate. The flow patterns and liquid spreading behaviour on the packing element agrees well with the experimental results. The VOF (Volume of Fluid) was found very sensitive to different liquid properties and can be used in optimization of the packing geometries and revealing critical details of wetting and film flow. An extension of this work to perform CFD simulations for the flow inside a block of the packing to get a detailed picture about the interaction between the liquid and packing surfaces is recommended as further perspective.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
Im ersten Teil dieser Arbeit konnte gezeigt werden, dass die Spin-Label Aminosäure HO3007 (ein Derivat des Alanins, dessen Seitenkette mit dem Spinlabel 2,2,5,5-Tetramethylpyrrolin-nitroxid modifiziert ist) mit der Methode der amber-Suppression in Proteine inkorporiert werden kann. Der Einbau wurde ESR-spektroskopisch nachgewiesen. Dazu wurde eine neue amber-Suppressor tRNA synthetisiert. Am Akzeptorstamm trägt die tRNA die Spin-Label-Aminosäure HO3007, mit ihrem Anticodon erkennt die tRNA das amber Codon. Der Einbau der Aminosäure erfolgte in ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins in vitro. Zu diesem Zweck wurde in den in vitro Expressionsvektor pIVEX2.3MCS das Gen für ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins einkloniert. Das Gen wurde so mutiert, dass sich an der Position des Codons für die Aminosäure Phe113 (TAC) die amber-Mutation (TAG) befindet. Der neu synthetisierte Vektor trägt die Bezeichnung pIVEX2.3MCSMtj1pN-term. Der Vektor und die amber-Suppressor tRNA wurden in einem E.coli in vitro Translationssystem eingesetzt. Die hohen gebundenen Anteile der anschließend gemessenen ESR-Spektren zeigen, dass die Spin-Label Aminosäure in das nativ gefaltete N-terminale Fragment des Mtj1p-Proteins eingebaut wurde. Im zweiten Teil der vorliegenden Arbeit konnte nachgewiesen werden, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch in der isolierten -Untereinheit der FOF1-ATP-Synthase des thermophilen Bacillus PS3 an die katalytische Bindungsstelle bindet und somit für weitergehende Untersuchungen von Struktur-Funktionsbeziehungen als Reportermolekül geeignet ist. Dazu wurde die isolierte -Untereinheit mit dem Substratanalogon 2-N3-2’,3’-SL-ATP kovalent markiert und anschließend tryptisch verdaut. Die entstandenen Peptidfragmente wurden mittels MALDI-TOF Massenspektrometrie analysiert. Mit Hilfe der MASCOT-Datenbank und der Software BioTools der Fa. Bruker konnte ein Fragment identifiziert werden, bei dem Tyr 341, das sich in der katalytischen Bindungsstelle befindet, mit dem ADP-Derivat von 2-N3-2’,3’-SL-ATP kovalent markiert ist. Einen weiteren Hinweis für die erfolgreiche kovalente Modifizierung der -Untereinheit mit 2-N3-2’,3’-SL-ATP lieferte die Untersuchung des unverdauten Proteins im MALDI-TOF Massenspektrometer. Im Vergleich zum unmodifizierten Protein weist der Peak der modifizierten -Untereinheit ein deutliches Peak-tailing zu höheren Massen auf. Da die Proben vor der Messung entsalzt wurden, spricht diese Beobachtung deutlich für die kovalente Modifizierung des Proteins. Die Ergebnisse dieses Teils der Arbeit beweisen, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch im Fall der isolierten -Untereinheit an die katalytische Bindungsstelle bindet.
Die Simulation von Prüfständen und insbesondere von Baugruppen und Gesamtfahrzeugen auf Prüfständen durch Kopplung von Mehrkörpersimulation mit Modellen für Regelung und Aktuatorik leistet einen wesentlichen Beitrag zur Entwicklungszeitverkürzung. In diesem Beitrag wird ein Kooperationsprojekt vorgestellt, in dem ein Co- Simulationsmodell für die beweglichen Massen sowie die Regelung und Hydraulik eines Gesamtfahrzeugprüfstands erstellt wurde. Es wird sowohl auf die Validierung des Fahrzeugmodells durch Straßenmessungen als auch auf die Identifikation und Validierung des Prüfstandsmodells einschließlich Servohydraulik und Regelung eingegangen.
Die vorliegende Arbeit beschäftigt sich mit der Laserlicht-Gewebe-Wechselwirkung für unterschiedliche biologische Materialien und Lasersysteme. Zum einen wurde die Ablationsdynamik bei Femtosekunden-Pulsen und Hartgewebe untersucht. Hierzu wurden Laserpulse der Wellenlänge 800 nm mit einer Pulsenergie bis 1,6 mJ und einer Pulslänge von 45 fs auf Knochengewebe fokussiert und somit eine Ablation induziert. Die Dynamik dieses Vorgangs wurde mit Kurzzeitfotografie über eine ns-Blitzlampe und einer Kamera dargestellt, analysiert und so das Risiko einer Schädigung bei Mittelohroperationen durch einzelne Ablationsschritte abgeschätzt. Die ermittelten Werte für einen äquivalenten Schalldruck von 122 dB liegen dabei im Bereich einer möglichen Schädigung für das Innenohr. Die theoretisch zu erwartende Luftionisation vor dem Laserfokus wurde experimentell bestätigt und stellt ebenfalls eine Gefahr für die Umgebung des Operationsfeldes dar. Zum anderen erfolgte eine Charakterisierung der Wechselwirkung von Hochleistungs-Diodenlaserstrahlung mit Weichgewebe an unterschiedlichen Modellsystemen. Für diese Untersuchungen wurde ein in-vivo Lungen-Perfusionssystem aufgebaut, wodurch erstmals Messungen an durchblutetem Lungengewebe in einem Modellsystem verwirklicht wurden. Die vom Lasersystem simultan emittierten Wellenlängen lagen bei 804 nm und 930 nm; die Leistungsdichten wurden, bei Pulsdauern im Bereich von 500 ms, zwischen 7,1*10^4 W/cm^2 und 2,5*10^5 W/cm^2 variiert. Die erreichten Ablationstiefen von einem bis vier mm und die erreichte Dichtheit des Operationsfeldes gegenüber Luft- und Blutaustritt lassen einen Einsatz des Systems in der Lungenchirurgie zu. Untersuchungen zur Wechselwirkung mit einzelnen Blutgefäßen erfolgten an der Chorioallantoismembran eine Hühnereies (das sogenannte Hühnerei-Modell) und damit erstmals in-vivo ohne Tierversuch. Die Leistungsdichte lag bei diesen Untersuchungen zwischen 37,7 W/cm^2 und 44 W/cm^2 bei Bestrahlungszeiten um 10 ms. Dabei wurden Blutgefäße bis etwa 1 mm Durchmesser wahlweise vollständig oder zum Teil verschlossen.
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Epidemiologische Studien geben Hinweise, dass eine obst- und gemüsereiche Kost präventiv gegen verschiedene ROS-assoziierte Krankheiten wirksam ist. Aufgrund der komplexen Zusammensetzung von Nahrungsmitteln ist schwer zu erfassen, welche Inhaltsstoffe für die Wirksamkeit maßgeblich sind. Phenolische Apfelsaftextrakte (AEs) aus Säften unterschiedlicher Apfelsorten und ein Tresterextrakt (APE03) wurden auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Darmzellen untersucht. Ein zweistufiges Inkubationsprotokoll kam in humanen Kolonzelllinien (Caco-2, HT29) zur Anwendung: basierend auf einer 24 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Die Apfelsaftextrakte wurden im Vergleich zu als Antioxidanzien beschriebenen Saftinhaltsstoffen (Rutin, Phloridzin, Epicatechin, Kaffeesäure, Chlorogensäure) und zu entsprechenden rekonstituierten Mischungen (rAEs) geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level und Glutathionspiegel. Zusätzlich wurden antioxidative Kapazität und die Stabilität der Einzelstoffe unter Inkubationsbedingungen erfasst. Die Apfelsaftextrakte zeigten eine ausgeprägte antioxidative Kapazität (3.6-4.2 mM Trolox), der Tresterextrakt APE03 war dabei wirksamer als die drei Saftextrakte. Die höheren TEAC-Werte der entsprechenden rAEs (4.7-7.3 mM Trolox) deuten auf eine zentrale Rolle der Einzelstoffe in der Mischung hin. Der zelluläre ROS-Level wurde durch die Extrakte AE01, AE02 und APE03 (1-100 µg/mL) und rAEs (0.5-50 µg/mL) in beiden Zelllinien signifikant verringert. AE04 war nur in HT29 Zellen wirksam. Oxidative DNA-Schäden in Caco-2 Zellen wurden durch die Extrakte (50-100 µg/mL) und deutlicher durch die rekonstituierten Mischungen (1 µg/mL) von AE01 und APE03 verringert. Von den Saftinhaltsstoffen zeigten Kaffeesäure und Rutin das höchste Potenzial zur Verringerung von DNA-Schäden; der zelluläre ROS-Level wurde am effektivsten durch Kaffeesäure und Chlorogensäure verringert. Der Glutathionspiegel von Caco-2 Zellen wurde durch AE02 und APE03 sowie durch Kaffeesäure, nicht jedoch durch andere Einzelstoffe oder Mischungen erhöht. Die Aglyka Quercetin und Phloretin, die aus Glykosiden im Intestinaltrakt freigesetzt werden können, wiesen in allen Endpunkten die höchste Wirksamkeit auf. Humane primäre Kolonzellen erwiesen sich in den Untersuchungen als ein weniger geeignetes Modellsystem, möglicherweise aufgrund der Art der gewählten Inkubation. Insgesamt erwiesen sich die phenolischen Apfelsaftextrakte als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzelllinien. Mit den begleitenden Untersuchungen von Mischungen und Einzelstoffen wurden Polyphenole (Kaffeesäure, Rutin, Chlorogensäure) identifiziert, die wesentlich zur protektiven Wirkung der Saftextrakte beitragen. Der gewählte in vitro-Prüfansatz erwies sich dabei als geeignet zur Charakterisierung der antioxidativen Wirksamkeit von Apfelsaftinhaltsstoffen in Darmzellen. Die antioxidative Wirksamkeit kann nicht alleine auf die untersuchten Hauptkomponenten zurückgeführt werden. Es liegt nahe, dass auch bisher nicht charakterisierte Substanzen/ Substanzgruppen ebenfalls einen Beitrag an der antioxidativen Wirksamkeit leisten. Eine möglichst umfassende Charaktersisierung von Apfelsaftinhaltsstoffen ist notwendig, gerade im Hinblick auf eine mögliche Prävention von Darmerkrankungen durch die Aufnahme von Apfelsaft.
Im Rahmen dieser Arbeit wurden verschiedene Verbesserungspotentiale von Ottomotoren mit besonderer Berücksichtigung von Verbrauch und Drehmoment mit Hilfe der Motorprozeßrechnung untersucht. Insbesondere wurden die Zusammenhänge von Ursache und Wirkung einzelner Verbesserungsmaßnahmen herausgestellt. Zur Modellierung realer Motoren wurde die Simulationssoftware GT-Power verwendet, wobei die Regelung über Matlab/Simulink vorgenommen wurde. Aber auch mit vereinfachten Rechenmodellen, die unter dem Fortran-Programm VOMO oder der Rapid-Prototype-Software ASCET-SD erstellt wurden, waren aussagekräftige Motormodelle erstellt und Potentiale abgeleitet worden. Wenn das Auslassventil öffnet, geht dem Arbeitsprozeß in der Hochdruckschleife ein nicht unerheblicher Anteil an Abgasenergie verloren. Rechnungen zeigen ein hohes Potential zur Wirkungsgradsteigerung, wenn das Abgas bis zum Umgebungsdruck entspannt werden könnte. Die zur vollständigen Abgasexpansion notwendigen Expansionsverhältnisse lassen jedoch einen sinnvollen Motorbetrieb nicht zu. Eine realistischere Abschätzung mit einem vorgegeben Expansionsverhältnis von 20 zeigt immer noch ein theoretisches Wirkungsgradpotential von 7 bis 10%. Der drosselgesteuerte Ottomotor hat stets den Nachteil von hohen Pumpverlusten während des Ladungswechsels in der Teillast. Hier gibt es verschiedene Ansätze, diese Verluste zu minimieren. Benzin-Direkt-Einspritzung nutzt das Verfahren einer Verbrennung mit sehr hohem Luftüberschuss und erreicht dadurch nahezu eine vollständige Entdrosselung des Motors. Das Problem ist hierbei jedoch der erhöhte Mehraufwand zur Abgasnachbehandlung. Eine andere Möglichkeit, die selbe Wirkung der Entdrosselung zu erzielen, ist, den Motor mit sehr hohem Überschuss an Restgas zu betreiben. Der Vorteil gegenüber BDE ist, dass die Verbrennung konventionell mit Lambda=1 ablaufen kann. Die sehr hohe AGR-Rate, die hierfür notwendig ist, reduziert NOx gleichermaßen auf ein Minimum. Die hohen AGR-Mengen können durch einen variablen Ventiltrieb mit geeigneten Steuerzeiten bereit gestellt werden. Simulationen zeigen, dass in Teillastpunkten bei 60% AGR der Kraftstoffverbrauch um bis zu 20% verringert werden kann. Die Aufladung nimmt bei Ottomotoren einen immer wichtigeren Stellenwert ein. Der freisaugende Motor hat jedoch immer noch einige Vorteile, was Vollastverbrauch, transienten Hochlauf und Katalysator Light-off angeht. Mit einer variablen Saugrohrgeometrie, gepaart mit einem variablem Einlassventil, ist es möglich, in einem weiten Drehzahlbereich den Luftaufwand zu verbessern. Simulationen zeigen, dass bei optimaler Auslegung der Saugrohrlänge Luftaufwände von 110% erreicht werden können. Überlagert man hierbei noch ein variables Einlassventil, bringt dies darüber hinaus weitere Vorteile im Bereich des Anfahrdrehmomentes des Motors. Downsizing-Konzepte sind die konsequente Umsetzung turboaufgeladener Motoren zur Reduktion des Kraftstoffverbrauchs. Die Kombination von Abgasturboaufladung, BDE und variabler Einlassnockenwelle wurde an einem hubraumkleinen Forschungsmotor getestet und nachgebildet. Bei früher Phasenstellung war es möglich, das Drehmoment um 50% zu steigern. In diesen Betriebspunkten mit extrem hoher Ventilüberschneidung kommt es jedoch auch zu einem unerwünscht hohen Anteil von Überspülen von Frischluft, was zur Verminderung des Fanggrades führt. Die Abgaszusammensetzung ist hier charakterisiert durch Auftreten über- und unterstöchiometrischer Bereiche, bedingt durch Überspülen einerseits und fetter Verbrennung andererseits. Gelänge die vollständige Oxidation der unverbrannten Komponenten vor der Abgasturbine, könnte das Drehmoment um 30% angehoben werden. Eine weitere Möglichkeit, das stationäre und das transiente Drehmoment ottoaufgeladener Motoren zu verbessern, ist die Unterstützung durch einen elektrisch angetriebenen zusätzlichen Verdichter. Experimentelle Untersuchungen mit einem 14V betriebenen Zusatzverdichter im Fahrzeug dienten als Basis, um rechnerische Optimierungspotentiale herauszuarbeiten. Eine Strombegrenzung in Abhängigkeit von der Motordrehzahl erscheint sinnvoll, um die Belastung auf den Motor und das Bordnetz zu minimieren. Stromstärken zwischen 120 und 180A und kurzzeitige Leistungsanforderungen von 1,5 bis 2,4kW sind ausreichend, um einen transienten Hochlauf innerhalb 1 sec zu gewähren. Der Einfluss unterschiedlicher Verdichterradwerkstoffe spielt hierbei nur eine untergeordnete Rolle auf die Dynamik des Systems.
Die zunehmende Leistungsfähigkeit moderner Dieselmotoren in Verbindung mit leistungsbezogen geringen Kraftstoffverbräuchen sorgte in den letzten Jahren für eine starke Zunahme der Diesel-PKW in Deutschland. Während beim konventionellen Ottomotor durch den 3-Wege-Katalysator die gesetzlich limitierten Schadstoffkomponenten in hohem Maße (> 98 %) umgesetzt werden können, beschränkte sich beim Dieselmotor die Abgasnachbehandlung bisher im wesentlichen auf den Einsatz eines Oxidationskatalysators zur Verringerung des CO- und HC-Ausstoßes. Stickoxide und Partikel wurden bisher weitgehend über innermotorische Maßnahmen auf das gesetzlich vorgeschriebene Niveau gebracht. Mittlerweile wurde der Partikelfilters als Serienstandard eingeführt. Damit ergeben sich zwar Möglichkeiten zur Stickoxid-optimierten Motorauslegung, ob dies aber ausreicht, um einer weiteren Verschärfung der Abgasgesetzgebung zu begegnen, kann in Frage gestellt werden. Weiterhin wird, um den in der Dieselmotorentwicklung führenden europäischen Herstellern den US-amerikanischen Markt weiter zu öffnen, die Einhaltung der kalifornischen SULEV Grenzwerte als Benchmark angesehen. Diese Grenzwerte können nach heutigem Stand der Technik zwar für CO, HC und Partikel-Emissionen realisiert werden, nicht aber in bezug auf Stickoxide. Aufgrund dieser Überlegungen werden zur Zeit verstärkt Forschungsarbeiten auf dem Gebiet der DeNOx-Technologien durchgeführt. Besonders der SCR-Technologie wird eine hohe Serientauglichkeit zugetraut. Die Selektive Katalytische Reduktion bezieht sich hierbei auf die gezielte Umsetzung der Stickoxide am Katalysator mit Unterstützung eines Reduktionsmittels. Dabei können z.B. Kohlenwasserstoffe aber vor allem auch Ammoniak NH3 eingesetzt werden. Da Ammoniak als Gefahrstoff eingestuft ist und somit nur bedingt im Fahrzeug mitgeführt werden kann, befasst sich diese Arbeit mit der bereits bekannten und sowohl in stationären Anwendungen, als auch im Nutzfahrzeugbereich erprobten Harnstoff-SCR-Technologie. Dazu wurde ein Audi A8 2,5 TDI mit einer Flüssigharnstoff-SCR-Anlage ausgestattet. Es handelt sich dabei um ein druckluftunterstütztes System mit einem elektrischen Kompressor. Die Harnstofflösung wird über ein Taktventil in eine Mischkammer dosiert. Das Harnstoff- Luftgemisch wird im Zulauftrichter des Unterboden-SCR-Katalysators über ein Dosierrohr mit Radialdüse verteilt. Die Reduktionsmitteldosierung wird über einen NOx-Sensor und ein Thermoelement gesteuert. Ein weiterer NOx-Sensor dient zur online-Umsatzbestimmung im Fahrbetrieb. Um die Tieftemperaturaktivität des Systems zu steigern, wurden zwei Zusatzvorkatalysatoren verbaut. Damit konnte das im niedrigen Temperaturbereich umsatzentscheidende NO2-Verhältnis vor SCR-Katalysator deutlich gesteigert werden. Ohne Eingriffe in die Motorsteuerung konnten im MVEG_B-Kalttest Stickoxidkonvertierungsraten bis 63 % erreicht werden. Der Schwerpunkt der Untersuchungen lag auf dem Katalysatorsystem. Dazu wurden zwei Alterungsmessreihen durchgeführt. Die generelle Fahrzeugtauglichkeit des Systems konnte nachgewiesen werden. Auch im realen, transienten Fahrbetrieb lassen sich hohe Stickoxidkonvertierungsraten ohne messbaren Ammoniakschlupf erzielen. Zusätzliche Motorprüfstandsuntersuchungen lassen erkennen, dass durch Katalysatorheizmaßnahmen nicht nur eine weitere NOx-Umsatzsteigerung erzielt werden kann, sondern auch die Dosierstrategie einfacher zu realisieren ist, weil der NH3-Einspeicherungsbereich des Katalysators schneller durchlaufen wird. Zur Abschätzung des Verkleinerungspotentials von SCR-Katalysatoren wurde am Motorprüfstand eine Untersuchungsreihe mit besonderen Katalysatorträgerstrukturen im Vergleich zu Standardträgern durchgeführt. Die Trägerstrukturen erhöhen die Stoffaustauschrate im Katalysator und führen zu einer Verbesserung der Katalysatorausnutzung. Gerade im Bereich höherer Raumgeschwindigkeiten konnten zum Teil deutliche Steigerungsraten der Stickoxidkonvertierung im Vergleich zum Standardträger realisiert werden.
Die vorliegende Arbeit befasst sich mit dem Tragverhalten eines belasteten quadratischen Fundamentes, das durch nachträglich oder gleichzeitig hergestellte Bohrpfähle unterfangen wird. Die Auswirkungen nachträglich unter Fundamenten hergestellter Pfähle auf das Tragverhalten des Gesamtsystems Fundament und Pfähle werden untersucht. Es sind sowohl numerische Untersuchungen als auch Versuche an einem großmaßstäblichen Labor-Modell durchgeführt worden. Die Einflüsse einer nachträglichen Herstellung von Bohrpfählen auf das Fundamenttragverhalten sowie Herstellungseinflüsse werden numerisch simuliert und mit Hilfe der Methode der Finiten Elemente (FEM) untersucht. Als Untergrund ist Sand angenommen. Es sind sowohl die unterfangenen Fundamente als auch zum Vergleich eine Fundamentplatte untersucht. Für die Fundamentplatte sowie die Pfähle wird ein linear elastisches Materialverhalten angenommen. Das Materialverhalten des Sandes ist durch ein elasto-plastisches Stoffmodell beschrieben. Die numerische Berechnungen sind mit dem 3D-Finite Elemente Programm NONSAP durchgeführt, in das das Stoffmodell für trockenen Sand implementiert wurde. Zur Überprüfung der Güte des verwendeten numerischen Rechenverfahrens einschließlich Stoffgesetz sind die Ergebnisse aus Modellversuche herangezogen. In den Parameterstudien wird das Tragverhalten des Pfahl-Fundamentes in Abhängigkeit verschiedener Parameter, z.B. Pfahllänge, Pfahldurchmesser, Porenzahl des Sands sowie Überlagerungsdruck numerisch berechnet. Anhand dieser Ergebnisse werden geschlossene analytische Beziehungen hergeleitet, mit denen das Tragverhalten des untersuchten Modells prognostiziert werden kann. Weiter sind die Widerstände des Fundamentes und der Pfähle getrennt ermittelt und es ist das Interaktionsverhalten beider Gründungselemente aufgezeigt worden.
With the burgeoning computing power available, multiscale modelling and simulation has these days become increasingly capable of capturing the details of physical processes on different scales. The mechanical behavior of solids is oftentimes the result of interaction between multiple spatial and temporal scales at different levels and hence it is a typical phenomena of interest exhibiting multiscale characteristic. At the most basic level, properties of solids can be attributed to atomic interactions and crystal structure that can be described on nano scale. Mechanical properties at the macro scale are modeled using continuum mechanics for which we mention stresses and strains. Continuum models, however they offer an efficient way of studying material properties they are not accurate enough and lack microstructural information behind the microscopic mechanics that cause the material to behave in a way it does. Atomistic models are concerned with phenomenon at the level of lattice thereby allowing investigation of detailed crystalline and defect structures, and yet the length scales of interest are inevitably far beyond the reach of full atomistic computation and is rohibitively expensive. This makes it necessary the need for multiscale models. The bottom line and a possible avenue to this end is, coupling different length scales, the continuum and the atomistics in accordance with standard procedures. This is done by recourse to the Cauchy-Born rule and in so doing, we aim at a model that is efficient and reasonably accurate in mimicking physical behaviors observed in nature or laboratory. In this work, we focus on concurrent coupling based on energetic formulations that links the continuum to atomistics. At the atomic scale, we describe deformation of the solid by the displaced positions of atoms that make up the solid and at the continuum level deformation of the solid is described by the displacement field that minimize the total energy. In the coupled model, continuum-atomistic, a continuum formulation is retained as the overall framework of the problem and the atomistic feature is introduced by way of constitutive description, with the Cauchy-Born rule establishing the point of contact. The entire formulation is made in the framework of nonlinear elasticity and all the simulations are carried out within the confines of quasistatic settings. The model gives direct account to measurable features of microstructures developed by crystals through sequential lamination.
In this paper a known orthonormal system of time- and space-dependent functions, that were derived out of the Cauchy-Navier equation for elastodynamic phenomena, is used to construct reproducing kernel Hilbert spaces. After choosing one of the spaces the corresponding kernel is used to define a function system that serves as a basis for a spline space. We show that under certain conditions there exists a unique interpolating or approximating, respectively, spline in this space with respect to given samples of an unknown function. The name "spline" here refers to its property of minimising a norm among all interpolating functions. Moreover, a convergence theorem and an error estimate relative to the point grid density are derived. As numerical example we investigate the propagation of seismic waves.
We consider optimal design problems for semiconductor devices which are simulated using the energy transport model. We develop a descent algorithm based on the adjoint calculus and present numerical results for a ballistic diode. Further, we compare the optimal doping profile with results computed on basis of the drift diffusion model. Finally, we exploit the model hierarchy and test the space mapping approach, especially the aggressive space mapping algorithm, for the design problem. This yields a significant reduction of numerical costs and programming effort.
Tropical geometry is a rather new field of algebraic geometry. The main idea is to replace algebraic varieties by certain piece-wise linear objects in R^n, which can be studied with the aid of combinatorics. There is hope that many algebraically difficult operations become easier in the tropical setting, as the structure of the objects seems to be simpler. In particular, tropical geometry shows promise for application in enumerative geometry. Enumerative geometry deals with the counting of geometric objects that are determined by certain incidence conditions. Until around 1990, not many enumerative questions had been answered and there was not much prospect of solving more. But then Kontsevich introduced the moduli space of stable maps which turned out to be a very useful concept for the study of enumerative geometry. A well-known problem of enumerative geometry is to determine the numbers N_cplx(d,g) of complex genus g plane curves of degree d passing through 3d+g-1 points in general position. Mikhalkin has defined the analogous number N_trop(d,g) for tropical curves and shown that these two numbers coincide (Mikhalkin's Correspondence Theorem). Tropical geometry supplies many new ideas and concepts that could be helpful to answer enumerative problems. However, as a rather new field, tropical geometry has to be studied more thoroughly. This thesis is concerned with the ``translation'' of well-known facts of enumerative geometry to tropical geometry. More precisely, the main results of this thesis are: - a tropical proof of the invariance of N_trop(d,g) of the position of the 3d+g-1 points, - a tropical proof for Kontsevich's recursive formula to compute N_trop(d,0) and - a tropical proof of Caporaso's and Harris' algorithm to compute N_trop(d,g). All results were derived in joint work with my advisor Andreas Gathmann. (Note that tropical research is not restricted to the translation of classically well-known facts, there are actually new results shown by means of tropical geometry that have not been known before. For example, Mikhalkin gave a tropical algorithm to compute the Welschinger invariant for real curves. This shows that tropical geometry can indeed be a tool for a better understanding of classical geometry.)
This work deals with the mathematical modeling and numerical simulation of the dynamics of a curved inertial viscous Newtonian fiber, which is practically applicable to the description of centrifugal spinning processes of glass wool. Neglecting surface tension and temperature dependence, the fiber flow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the fiber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional fiber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms. For the numerical simulation of the derived model a finite volume code is developed. The results of the numerical scheme for high Reynolds numbers are validated by comparing them with the analytical solution of the inviscid problem. Moreover, the influence of parameters, like viscosity and rotation on the fiber dynamics are investigated. Finally, an application based on industrial data is performed.
Histondeacetylase-Inhibitoren (HDACi) stehen im Mittelpunkt zahlreicher Forschungsinteressen, seit gezeigt werden konnte, dass sie Onkoprotein-vermittelte Genrepression von bedeutenden Differenzierungsgenen in Leukämiezellen, aufheben können. Es hat sich herausgestellt, dass HDACi in vielen Tumorzellen Proliferationsstopp und Apoptose sowie teilweise Differenzierung induzieren. Gesundes Gewebe ist von diesen Auswirkungen kaum betroffen. Viele strukturell verschiedene HDACi, darunter auch die auf Grund ihrer anti-epileptischen Wirkung weltweit eingesetzte Valproinsäure (VPA), werden gegenwärtig in klinischen Studien getestet. Der therapeutische Nutzen dieser Inhibitoren scheint besonders hoch zu sein, wenn man sie mit weiteren Chemotherapeutika kombiniert. Die Ergebnisse dieser Arbeit zeigen, dass VPA den anti-leukämischen Effekt von Dexamethason in vitro und in vivo synergistisch verstärkt. Glucocorticoide (GCs) werden seit Jahrzehnten für die Therapie von Krebserkrankungen mit lymphatischem Ursprung eingesetzt. Die Glucocorticoide Prednisolon bzw. Dexamethason spielen eine Schlüsselrolle bei der Induktionstherapie gegen Akute Lymphatische Leukämie (ALL). Ein Großteil der Untersuchungen wurde an Nalm-6 Zellen durchgeführt, ursprünglich etabliert aus dem Blut eines jungen Mannes mit rezidivierender ALL. An Nalm-6 Zellen konnte gezeigt werden, dass die Behandlung mit VPA, Dexamethason und der Kombination der beiden Wirkstoffe zum programmierten Zelltod führt. Weiterhin wiesen die durchflusszytometrisch durchgeführten Messungen der Zelltodraten darauf, dass VPA und Dexamethason bezüglich der Apoptose-Induktion positiv zusammenwirken. Mit Hilfe der Calcusyn Software konnte aus den gemessenen Apoptoseraten die Stärke der Wechselwirkung zwischen den zwei Wirkstoffen berechnet werden. Die Analyse ergab einen stark synergistischen Effekt, für die kombinierte Behandlung von Nalm-6 Zellen mit VPA und Dexamethason, über den gesamten untersuchten Konzentrationsbereich. Die eingesetzten VPA-Konzentrationen deckten dabei den Bereich ab, der erfahrungsgemäß im Serum von Patienten erreicht werden kann. Auch in vier weiteren prä-B-Zelllinien führte die Behandlung mit VPA und Dexamethason zur synergistischen Apoptose-Induktion. SUP-B15 und BV-173 Zellen reagierten dabei, wie Nalm-6 Zellen, sehr sensitiv auf Dexamethason-Behandlung. Die Zelllinien SD-1 und SEM zeigten eine deutlich ausgeprägte Resistenz gegenüber dem Glucocorticoid, reagierten aber sehr stark auf VPA- und Kombinationsbehandlung. Trotz intensiver Untersuchungen ist über den molekularen Mechanismus der GC-vermittelten Apoptose nur wenig bekannt. Das ausreichende Vorhandensein eines funktionierenden Glucocorticoidrezeptors (GR) wird aber als essentiell, für das Ansprechen der Zelle auf GC-Behandlung, angesehen. Da der GR ein Transkriptionsfaktor ist, werden die Ursachen für den GC-induzierten Zelltod vornehmlich in einer veränderten Genexpression gesucht. Da HDACi ebenfalls großen Einfluss auf die Genregulation ausüben, wurden im Rahmen dieser Arbeit Genexpressionsanalysen an den behandelten Nalm-6 Zellen durchgeführt, um die Ursachen für den gefundenen Synergismus zwischen VPA und Dexamethason aufzuklären. Die Ergebnisse dieser Untersuchungen zeigten eine verstärkte Hochregulation von Proteinen, die Zellzyklusstopp und Apoptose bewirken sowie eine verstärkte Repression von Faktoren, die anti-apoptotisch bzw. wachstumsfördernd wirken, in Folge der Kombinationsbehandlung. Die starke Herunterregulierung des pro-apoptotischen Proteins Aven, durch die Wirkstoffkombination, konnte in Nalm-6 Zellen auch mittels Westernblot-Analyse auf Proteinebene nachgewiesen werden. Der potentielle Nutzen einer Kombinationstherapie mit VPA und Dexamethason konnte an einem Tiermodell für ALL überprüft werden. Das Tiermodell wurde über das Einbringen von Nalm-6 Zellen in immundefiziente SCID Mäuse generiert. Die Behandlung mit der Wirkstoffkombination führte zu einer signifikant reduzierten Infiltration von Knochenmark und Milz durch die humanen Blasten, im Vergleich zur Behandlung mit Dexamethason oder PBS als Kontrolle. Weiterhin wurde für die Tiere, die mit der Wirkstoffkombination behandelt wurden, eine signifikante Erhöhung der Überlebenswahrscheinlichkeit beobachtet. Auch für Vincristin, L Asparaginase und Daunorubicin, weitere Wirkstoffe der Induktionstherapie bei pädiatrischer ALL, konnte ein synergistisches Zusammenwirken mit VPA bezüglich der Apoptose-Induktion in Nalm-6 Zellen gezeigt werden. Die Ergebnisse der vorliegenden Arbeit zeigen, dass VPA die Effektivität der Polychemotherapie gegen ALL erhöhen könnte. Auf Grund des stark synergistischen Zusammenwirkens mit Dexamethason könnte VPA möglicherweise auch eine potentielle Alternative für schlecht verträgliche bzw. risikobehaftete Chemotherapeutika der Induktionstherapie darstellen.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Stop Location Design in Public Transportation Networks: Covering and Accessibility Objectives
(2006)
In StopLoc we consider the location of new stops along the edges of an existing public transportation network. Examples of StopLoc include the location of bus stops along some given bus routes or of railway stations along the tracks in a railway system. In order to measure the ''convenience'' of the location decision for potential customers in given demand facilities, two objectives are proposed. In the first one, we give an upper bound on reaching a closest station from any of the demand facilities and minimize the number of stations. In the second objective, we fix the number of new stations and minimize the sum of the distances between demand facilities and stations. The resulting two problems CovStopLoc and AccessStopLoc are solved by a reduction to a classical set covering and a restricted location problem, respectively. We implement the general ideas in two different environments - the plane, where demand facilities are represented by coordinates and in networks, where they are nodes of a graph.
The new international capital standard for credit institutions (“Basel II”) allows banks to use internal rating systems in order to determine the risk weights that are relevant for the calculation of capital charge. Therefore, it is necessary to develop a system that enfolds the main practices and methods existing in the context of credit rating. The aim of this thesis is to give a suggestion of setting up a credit rating system, where the main techniques used in practice are analyzed, presenting some alternatives and considering the problems that can arise from a statistical point of view. Finally, we will set up some guidelines on how to accomplish the challenge of credit scoring. The judgement of the quality of a credit with respect to the probability of default is called credit rating. A method based on a multi-dimensional criterion seems to be natural, due to the numerous effects that can influence this rating. However, owing to governmental rules, the tendency is that typically one-dimensional criteria will be required in the future as a measure for the credit worthiness or for the quality of a credit. The problem as described above can be resolved via transformation of a multi-dimensional data set into a one-dimensional one while keeping some monotonicity properties and also keeping the loss of information (due to the loss of dimensionality) at a minimum level.
The paper at hand presents a slender body theory for the dynamics of a curved inertial viscous Newtonian ber. Neglecting surface tension and temperature dependence, the ber ow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the ber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional ber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms.
Ownership Domains generalize ownership types. They support programming patterns like iterators that are not possible with ordinary ownership types. However, they are still too restrictive for cases in which an object X wants to access the public domains of an arbitrary number of other objects, which often happens in observer scenarios. To overcome this restriction, we developed so-called loose domains which abstract over several precise domains. That is, similar to the relation between supertypes and subtypes we have a relation between loose and precise domains. In addition, we simplified ownership domains by reducing the number of domains per object to two and hard-wiring the access permissions between domains. We formalized the resulting type system for an OO core language and proved type soundness and a fundamental accessibility property.
Linear and integer programs are considered whose coefficient matrices can be partitioned into K consecutive ones matrices. Mimicking the special case of K=1 which is well-known to be equivalent to a network flow problem we show that these programs can be transformed to a generalized network flow problem which we call semi-simultaneous (se-sim) network flow problem. Feasibility conditions for se-sim flows are established and methods for finding initial feasible se-sim flows are derived. Optimal se-sim flows are characterized by a generalization of the negative cycle theorem for the minimum cost flow problem. The issue of improving a given flow is addressed both from a theoretical and practical point of view. The paper concludes with a summary and some suggestions for possible future work in this area.
Der Begriff ‚Risiko’ ist heutzutage durch Gesetzesänderungen, wie das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich [KonTraG] und Verordnungen wie Basel II sowie spektakuläre Unternehmenszusammenbrüche, aber auch verstärkt wahrgenommene alltägliche Gefahren, in aller Munde. In der betriebswirtschaftlichen Forschung ist der Begriff schon seit vielen Jahrzehnten bekannt und findet eine häufige Anwendung. Immer wieder wird festgestellt, dass dieser langjährige Risikodiskurs nicht zu einer Präzisierung der Begrifflichkeit geführt hat. Da die Risikodefinition Ausgangspunkt der betriebswirtschaftlichen Beschäftigung mit Risiko darstellt, Begriffsklarheit Grundlage jeder ernsten Forschung ist und Aussagen über die Realität voraussetzen, dass ein Zusammenhang zwischen Sprache und Realität gebildet wurde, bildet die Festlegung eines Risikobegriffes einen essentiellen Anfangspunkt für das weitere Vorgehen in Wissenschaft und Praxis. Bei der hier gewählten Vorgehensweise ist es nicht das Ziel, über die Sezierung jedes einzelnen Begriffes und der Ansicht der einzelnen Autoren den ‚wahren’ Risikobegriff zu finden. Dies ist darauf zurückzuführen, dass keine ‚wahren’ Definitionen existieren, sondern eine Definition immer nur mehr oder weniger zweckmäßig sein kann. Damit ist die Grundlage dieser Analyse, dass die meisten Definitionen aus dem Blickwinkel ihres Zweckes eine bestimmte Relevanz haben und folglich die Perspektive wesentlich für die Aufstellung der Risikodefinition ist. Infolgedessen liegt das Hauptziel der Ausführungen darin, die Breite der existierenden Begrifflichkeiten in strukturierter Art und Weise darzustellen und damit eine Hilfestellung beim Auffinden der adäquaten Definition für jeden Anwendungsfall zu geben. Zur Strukturierung wird auf das Hilfsmittel des semantischen Kastens zurückgegriffen. Zur Analyse der Verwendung der einzelnen Begriffsmerkmale des gebildeten semantischen Kastens wird die breite Basis an existierenden Risikodefinitionen verwendet, um eine quantitativ-deskriptive Publikationsanalyse auf Basis der Inhaltsanalyse durchzuführen.
Im Zusammenhang mit dem Präventivkrieg der Vereinigten Staaten gegen den Irak ist von einem Versagen der parlamentarischen Kontrolle die Rede. Analog zur Tonkin-Gulf-Resolution von 1964, mit der das amerikanische Parlament Präsident Lyndon B. Johnson praktisch eine Blankovollmacht für den Vietnamkrieg erteilt hatte, sei der US-Kongress im Oktober 2002 davor zurückgeschreckt, seiner verfassungs-rechtlichen Verantwortung, welche ihm vor allem aus dem alleinigen Recht zur Kriegserklärung erwächst, auch nur in Ansätzen nachzu-kommen. Häufig wird dieses Verhalten auf die Bedrohungslage und das politische Klima nach dem 11. September zurückgeführt. Wie eine kur-sorische Durchsicht der einschlägigen Literatur zeigt, handelt es sich bei der mangelnden institutionellen Selbstbehauptung des Kongresses im Zusammenhang mit Militäreinsätzen jedoch um kein neues Phänomen: Die Interventionspolitik galt auch schon vor den Terroranschlägen von New York und Washington als ein Politikfeld, in dem es der Legislative allenfalls partiell gelungen ist, die Exekutive nach den Auswüchsen der so genannten imperialen Präsidentschaft wieder stärker zu kontrollieren. Eine Deutung, die in den vergangenen Jahren verstärkt Zulauf erfahren hat, versucht den Ausnahmecharakter der Interventionspolitik mit dem sozialkonstruktivistisch grundierten Konzept einer Kultur der Unterordnung zu erklären. Es existiert aber auch eine rationalistisch argumentie-rende These, wonach politische Kalküle und Zwänge, die aus einem medial erzeugten Wählerdruck resultieren, das Parlament veranlassen, sich dem Präsidenten in der militärischen Interventionspolitik unterzuord-nen. Die Studie will anhand von zwei Fallbeispielen aus den 1990er Jahren, dem zweiten Golfkrieg und dem Kosovokrieg, klären, welcher Stellenwert diesen beiden Faktoren für die mangelnde institutionelle Selbstbehauptung des Kongresses in der militärischen Interventionspolitik zukommt. Unser Befund deutet darauf hin, dass eine separate, besonders stark ausgeprägte Teilkultur der Unterordnung auf Seiten der Republikaner existiert, die ceteris paribus dazu führt, dass sich eine von der Grand Old Party kontrollierte Legislative in Fragen, die Krieg und Frieden betreffen, institutionell grundsätzlich weniger stark behaupten kann als ein demokratisch dominierter Kongress.
Over a period of 30 years, ITU-T’s Specification and Description Language (SDL) has matured to a sophisticated formal modelling language for distributed systems and communication protocols. The language definition of SDL-2000, the latest version of SDL, is complex and difficult to maintain. Full tool support for SDL is costly to implement. Therefore, only subsets of SDL are currently supported by tools. These SDL subsets - called SDL profiles - already cover a wide range of systems, and are often suffcient in practice. In this report, we present our approach for extracting the formal semantics for SDL profiles from the complete SDL semantics. We then formalise the approach, present our SDL-profile tool, and report on our experiences.
Biological Soil Crusts (BSCs), composed of lichens, mosses, green algae, microfungi and cyanobacteria are an ecological important part of the perennial landcover of many arid and semiarid regions (Belnap et al. 2001a), (Büdel 2002). In many arid and hyperarid areas BSCs form the only perennial "vegetation cover" largely due to their extensive resistance to drought (Lange et al. 1975). For the Central Namib Desert (Namibia), BSCs consisting of extraordinary vast lichen communities were recently mapped and classified into six morphological classes for a coastal area of 350 km x 60 km. Embedded into the project "BIOTA" (www.biota-africa.org) financed by the German Federal Ministry of Education and Research the study was undertaken in the framework of the PhD thesis by Christoph Schultz. Some of these lichen communities grouped together in so called "lichen fields" have already been studied concerning their ecology and diversity in the past (Lange et al. 1994), (Loris & Schieferstein 1992), (Loris et al. 2004), (Ullmann & Büdel 2001a), (Wessels 1989). Multispectral LANDSAT 7 ETM+ and LANDSAT 5 TM satellite imagery was utilized for an unitemporal supervised classification as well as for the establishment of a monitoring based on a combined retrospective supervised classification and change detection approach (Bock 2003), (Weiers et al. 2003). Results comprise the analysis of the mapped distribution of lichen communities for the Central Namib Desert as of 2003 as well as reconstructed distributions for the years 2000, 1999, 1992 and 1991 derived from retrospective supervised classification. This allows a first monitoring of the disturbance, destruction and recovery of the lichen communities in these arid environments including the analysis of the major abiotic processes involved. Further analysis of these abiotic processes is key for understanding the influence of Namib lichen communities on overall aeolian and water induced erosion rates, nutrient cycles, water balance and pedogenic processes (Belnap & Gillette 1998), (Belnap et al. 2001b), (Belnap 2001c), (Evans & Lange 2001), (McKenna Neumann & Maxwell 1999). In order to aid the understanding of these processes SRTM digital elevation model data as well as climate data sets were used as reference. Good correlation between geomorphological form elements as well as hydrological drainage system and the disturbance patterns derived from individual post classification change comparisons between the timeframes could be observed. Conjoined with the climate data sets sporadic foehn-like windstorms as well as extraordinary precipitation events were identified to largely affect the distribution patterns of lichen communities. Therefore the analysis and monitoring of the diversity, distribution and spatiotemporal change of Central Namib BSCs with the means of Remote Sensing and GIS applications proof to be important tools to create further understanding of desertification and degradation processes in these arid regions.
Katja is a tool generating order-sorted recursive data types as well as position types for Java, from specifications using an enhanced ML like notation. Katja’s main features are its conciseness of specifications, the rich interface provided by the generated code and the Java atypical immutability of types. After several stages of extending and maintaining the Katja project, it became apparent many changes had to be done. The original design of Katja wasn’t prepared for the introduction of several backends, the introduction of position sorts and constant feature enhancements and bug fixes. By supplying this report Katja reaches release status for the first time.
Nowadays piezoelectric and ferroelectric materials are becoming more and more an interesting part of smart materials in scientific and engineering applications. Precision machining in manufacturing, micropositioning in metrology, common rail systems with piezo fuel injection control in automobile industry, and ferroelectric random access memories (FRAM) in microelectromechanical systems (MEMS) besides commercial piezo actuators and sensors can be very good examples for the application of piezoceramic and ferroelectric materials. In spite of having good characteristics, piezoelectric and ferroelectric materials have significant nonlinearities, which limit the applications in high performance usage. Domain switching (ferroelastic or ferroelectric) is the main reason for the nonlinearity of ferroelectric materials. External excessive electromechanical loads (mechanical stress and electric field) are driving forces for domain switching. In literature, various important experiments related to the non-linear properties of piezoelectric and ferroelectric materials are reported. Simulations of nonlinear properties of piezoelectric and ferroelectric materials based on physical insights of the material have been performed during the last two decades by using micromechanical and phenomenological models. The most significant experiments and models are deeply discussed in the literature survey. In this thesis the nonlinear behaviour of tetragonal perovskite type piezoceramic materials is simulated theoretically using two and three dimensional micromechanical models which are based on physical insights of the material. In the simulations a bulk piezoceramic material which has numerous grains is considered. Each grain has random orientation in properties of polarization and strain. Randomness of orientations is given by Euler angles equally distributed between \(0\) and \(2\pi\). Each element in the micromechanical model has been assumed to have the same properties of the real piezoelectric grain. In the first part of the simulations, quasi-static characteristics of piezoelectric materials are investigated by applying cyclic, rate independent, bipolar, uni-axial and external electrical loading with an amplitude of 2 kV/mm gradually starting from zero value in virgin state. Moreover, the simulations are undertaken for these materials which are subjected to quasi-static, uni-polar, uni-axial mechanical stress, namely compressive stress. The calculations are performed at each element based on linear constitutive equations, nonlinear domain switching and a probability theory for domain switching. In order to fit the simulations to the experimental data, some parameters such as spontaneous polarization, spontaneous strain, piezoelectric and dielectric constants are chosen from literature. The domain switching of each grain is determined by an electromechanical energy criterion. Depending on the actual energy related to a critical energy a certain probability is introduced for domain switching of the polarization direction. Same energy levels are assumed in the electromechanical energy relation for different types of domain switching like 90º and 180º for perovskite type tetragonal or 70.5º and 109.5º for rhombohedral microstructures. It is assumed that intergranular effects between grains can be modelled by such probability functions phenomenologically. The macroscopic response of the material to the applied electromechanical loading is calculated by using Euler transformations and averaging the individual grains. Properties of piezoelectric materials under fixed mechanical stresses are also investigated by applying constant compressive stress in addition to cyclic electrical loading in the simulations. Compressive stress is applied and kept constant before cyclic bipolar electrical loading is implemented. In the following chapters, a three-dimensional micromechanical model is extended for the simulation of the rate dependent properties of certain perovskite type tetragonal piezoelectric materials. The frequency dependent micromechanical model is now not only based on linear constitutive and nonlinear domain switching but also linear kinetics theories. The material is loaded both electrically and mechanically in separate manner with an alternating electrical voltage and mechanical stress values of various moderate frequencies, which are in the order of 0.01 Hz to 1 Hz. Electromechanical energy equation in combination with a probability function is again used to determine the onset of the domain switching inside the grains. The propagation of the domain wall during the domain switching process in grains is modelled by means of linear kinetics relations after a new domain nucleates. Electric displacement versus electric field hysteresis loops, mechanical strain versus mechanical stress and electric displacement versus mechanical stress for different frequencies and amplitudes of the alternating electric fields and compressive stresses are simulated and presented. A simple micromechanical model without using probabilistic approach is compared with the one that takes it into account. Both models give important insights into the rate dependency of piezoelectric materials, which was observed in some experiments reported in the literature. Intergranular effects are other significant factors for nonlinearities of polycrystalline ferroelectric materials. Even piezoelectric actuators and sensors show nonlinearities when they are operated with electrical loading, which is much lower than the coercive electric field level. Intergranular effects are the main cause of such small hysteresis loops. In the corresponding chapter, two basic field effects which are electrical and mechanical are taken into account for the consideration of intergranular effects micromechanically in the simulations of the two dimensional model. Therefore, a new electromechanical energy equation for the threshold of domain switching is introduced to explain nonlinearities stemming from both domain switching and intergranular effects. The material parameters like coercive electric field and critical spontaneous polarization or strain quantities are not implemented in the electromechanical energy relation. But, this relation contains new parameters which consider both mechanical and electrical field characteristics of neighbouring elements. By using this new model, mechanical strain versus electric field butterfly curves under small electrical loading conditions are also simulated. Hence, a rate dependent concept is applied in butterfly curves by means of linear kinetics model. As a result, the simulations have better matching with corresponding experiments in literature. In the next step, the model can be extended in three dimensional case and the parameters of electromechanical energy relation can be improved in order to get better simulations of nonlinear properties of polycrystalline piezoelectric materials.
This thesis discusses methods for the classification of finite projective planes via exhaustive search. In the main part the author classifies all projective planes of order 16 admitting a large quasiregular group of collineations. This is done by a complete search using the computer algebra system GAP. Computational methods for the construction of relative difference sets are discussed. These methods are implemented in a GAP-package, which is available separately. As another result --found in cooperation with U. Dempwolff-- the projective planes defined by planar monomials are classified. Furthermore the full automorphism group of the non-translation planes defined by planar monomials are classified.
Vor dem Hintergrund anstehender Reformen der Lehramtsstudiengänge schätzten 233 erfahrene Lehrkräfte die Relevanz psychologischer Themen für das Lehramtsstudium und die Weiterbildung von Lehrerinnen und Lehrern in einer Fragenbogenstudie ein. Die Themensammlung basierte auf dem von der Deutschen Gesellschaft für Psychologie vorgeschlagenen Rahmencurriculum. Die Ergebnisse zeigen eine themenspezifische Variation der Relevanzurteile: So wurde eher handlungsrelevanten Themen wie „Intervention und Beratung“ Vorrang vor vermeintlich theorieorientierten Inhalten, wie „Entwicklungspsychologische Grundlagen“ gegeben. Hierbei zeigten sich schulart- und dienstalterabhängige Urteilsunterschiede. Auch Themen, die die Schule als Organisation betreffen (z. B. Qualitäts¬sicherung) wurden als weniger relevant bewertet. Die Ergebnisse werden hinsichtlich ihrer Implikationen für die Vermittlung psychologischen Wissens in den neuen Lehramtsstudiengängen diskutiert.
Retentionsbodenfilter dienen der weitergehenden Behandlung von Entlastungsabflüssen konventioneller Regenüberlaufbecken. Sie kommen zum Einsatz, wenn der Schutz des betroffenen Gewässers eine Reduzierung der Belastung durch Mischwassereinleitungen erfordert. Verschiedene Untersuchungen an Pilotanlagen belegen zwar grundsätzlich eine hohe Reinigungsleistung der Filterpassage, eine gesicherte Prognose der Wirksamkeit und eine Optimierung des Verfahrens erfordern jedoch eine Weiterentwicklung des vorhandenen Kenntnisstandes. Die vorliegende Arbeit soll einen Beitrag zu einem besseren Verständnis der bei der Filterpassage in RBF ablaufenden Reinigungsprozesse liefern. Im Vordergrund stehen dabei Rückhalt und Umsatz organischer Kohlenstoffverbindungen und Stickstoffverbindungen. An einer großtechnischen Anlage wurden über zwei mehrmonatige Messphasen zu- und abfließende Stoffströme erfasst. Durch die gezielte Beeinflussung des Beschickungsverhaltens wurde ein breites Spektrum unterschiedlicher Belastungszustände realisiert. Ergänzend hierzu wurden bodenkundliche Versuche durchgeführt, die der Untersuchung des Stoffumsatzes während der Trockenphasen zwischen den Beschickungsereignissen dienten. In Laborversuchen wurden darüber hinaus einzelne Teilprozesse des Stoffrückhaltes isoliert und unter definierten Randbedingungen betrachtet. Die Ergebnisse belegen, dass die Reinigungswirkung von Retentionsbodenfiltern in Bezug auf NH4 überwiegend auf einem zweistufigen Prozess beruht. Während der Durchströmung wird NH4 im Filterkörper sorbiert, um in der anschließenden Trockenphase nitrifiziert zu werden. Dauerhafte Beschickungen, wie sie unter starkem Fremdwassereinfluss auftreten, können zu einem Durchbruch der NH4-Konzentration führen. Unmittelbar nach dem Ende der Durchströmung setzt mit der Wiederbelüftung des Filterkörpers eine intensive Nitrifikation ein. Das Sorptionsvermögen regeneriert sich innerhalb weniger Tage annähernd vollständig. Bei der Prognose der Wirksamkeit von Retentionsbodenfilter mit Hilfe von Simulationsmodellen kann der NH4-Rückhaltes vereinfacht als Speicher dargestellt werden. Organische Kohlenstoffverbindungen – repräsentiert durch den CSB – weisen ein weniger eindeutiges Verhalten auf. Die partikuläre Fraktion wird während des Betriebs weitgehend an der Filteroberfläche zurückgehalten und in den Trockenphasen mineralisiert. Diese Wirkung kann als unbegrenzter Speicher modelliert werden. Hinsichtlich der gelösten Anteile konnte nicht eindeutig ermittelt werden, ob der unmittelbare Abbau während der Durchströmung dominiert oder ob auch diese Anteile wie das NH4 zunächst sorbiert werden. Die Wirkung der Filterpassage auf die gelösten und feindispersen Anteile des CSB kann annähernd durch einen konstanten Wirkungsgrad beschrieben werden.
Web-based authentication is a popular mechanism implemented by Wireless Internet Service Providers (WISPs) because it allows a simple registration and authentication of customers, while avoiding the high resource requirements of the new IEEE 802.11i security standard and the backward compatibility issues of legacy devices. In this work we demonstrate two different and novel attacks against web-based authentication. One attack exploits operational anomalies of low- and middle-priced devices in order to hijack wireless clients, while the other exploits an already known vulnerability within wired-networks, which in dynamic wireless environments turns out to be even harder to detect and protect against.
Die vorliegende Arbeit beschäftigt sich mit der Löslichkeit von Gasen in chemisch reagierenden wässrigen Lösungen. Dabei werden zwei Beispiele näher betrachtet: Die simultane Löslichkeit von Ammoniak und Schwefeldioxid in wässrigen salzhaltigen Lösungen und die Löslichkeit von Kohlendioxid in wässrigen Lösungen von N-Methyldiethanolamin (MDEA), Piperazin und deren Mischungen. Die Phasengleichgewichte in solchen Systemen werden wesentlich durch die in der flüssigen Phase auftretenden chemischen Reaktionen und die dabei entstehenden ionischen Spezies beeinflusst. Die Lösungen weisen auch aufgrund der weitreichenden Coulombschen Wechselwirkungen ein stark reales Verhalten auf. Die Untersuchungen der vorliegenden Arbeit bauen auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Technischen Universität Kaiserslautern auf. In diesen Arbeiten wurden u.a. Modelle zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes in den Systemen NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser und CO2+MDEA+Piperazin+Wasser entwickelt. Diese Modelle wurden hier weiterentwickelt und verbessert. Beim System Ammoniak+Schwefeldioxid+Wasser wurde mittels ATR-IR-spektroskopischer Untersuchungen festgestellt, dass Pyrosulfit in den wässrigen Lösungen in nicht zu vernachlässigbarem Umfang auftritt. Deshalb muss die chemische Reaktion der Pyrosulfitbildung berücksichtigt werden, wenn die thermodynamischen Eigenschaften solcher Lösungen zuverlässig beschrieben werden sollen. Die chemische Gleichgewichtskonstante für die Pyrosulfitbildungsreaktion wurde aus IR-spektroskopischen und kalorimetrischen Untersuchungen des Systems Na2S2O5+H2O ermittelt. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes und der Enthalpieänderung beim Verdünnen des Systems NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser wurde zur Berücksichtigung sowohl der Pyrosulfitbildungsreaktion als auch der neuen experimentellen Daten für die Verdünnungsenthalpie von Meyer [70] erweitert. Das Modell ermöglicht Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht und Enthalpieänderungen der quaternären Systeme. Während die Gaslöslichkeit im System NH3+SO2+Na2SO4+Wasser zuverlässig beschrieben wird, sind die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems NH3+SO2+(NH4)2SO4+Wasser nicht so gut. Ein Grund dafür mag darin liegen, dass bei den Untersuchungen an diesem System die Ionenstärke deutlich größer war (I=20 molal) als bei den Untersuchungen am System NH3+SO2+Na2SO4+Wasser (I=10 molal). Die Verdünnungsenthalpie wird für beide quaternäre Systeme gut vorhergesagt. Mithilfe NMR-spektroskopischer Untersuchungen am System CO2+Piperazin+D2O wurden die chemischen Gleichgewichtskonstanten der drei in diesem System auftretenden Carbamatbildungsreaktionen ermittelt. Außerdem wurde der Partialdruck von Kohlendioxid in den wässrigen Lösungen von MDEA oder Piperazin bzw. deren Mischungen bei 313 und 353 K gemessen. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes wurde unter Einbeziehung der neuen experimentellen Daten überarbeitet. Das überarbeitete Modell ermöglicht die zuverlässige Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes der Systeme CO2+MDEA+Wasser und CO2+Piperazin+Wasser sowohl im Hochdruck- als auch im Niederdruckbereich. Das Modell ermöglicht auch Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems CO2+MDEA+Piperazin+Wasser. Die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht sind nicht so gut. Der Grund liegt vermutlich in der Vernachlässigung der Wechselwirkungen zwischen Piperazin- und MDEA- Spezies.
This thesis introduces so-called cone scalarising functions. They are by construction compatible with a partial order for the outcome space given by a cone. The quality of the parametrisations of the efficient set given by the cone scalarising functions are then investigated. Here, the focus lies on the (weak) efficiency of the generated solutions, the reachability of effiecient points and continuity of the solution set. Based on cone scalarising functions Pareto Navigation a novel, interactive, multiobjective optimisation method is proposed. It changes the ordering cone to realise bounds on partial tradeoffs. Besides, its use of an equality constraint for the changing component of the reference point is a new feature. The efficiency of its solutions, the reachability of efficient solutions and continuity is then analysed. Potential problems are demonstrated using a critical example. Furthermore, the use of Pareto Navigation in a two-phase approach and for nonconvex problems is discussed. Finally, its application for intensity-modulated radiotherapy planning is described. Thereby, its realisation in a graphical user interface is shown.
In this paper we address the improvement of transfer quality in public mass transit networks. Generally there are several transit operators offering service and our work is motivated by the question how their timetables can be altered to yield optimized transfer possibilities in the overall network. To achieve this, only small changes to the timetables are allowed. The set-up makes it possible to use a quadratic semi-assignment model to solve the optimization problem. We apply this model, equipped with a new way to assess transfer quality, to the solution of four real-world examples. It turns out that improvements in overall transfer quality can be determined by such optimization-based techniques. Therefore they can serve as a first step towards a decision support tool for planners of regional transit networks.
For the last decade, optimization of beam orientations in intensity-modulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity profiles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity profiles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity profiles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity profiles for every selection of beam orientations, making the dependence between beam orientations and its intensity profiles less important. This thesis takes advantage of this property to accelerate the optimization process through an approximation of the intensity profiles that are used for multiple selections of beam orientations, saving a considerable amount of calculation time. A dynamic algorithm (DA) and evolutionary algorithm (EA), for beam orientations in IMRT planning will be presented. The DA mimics, automatically, the methods of beam's eye view and observer's view which are recognized in conventional conformal radiation therapy. The EA is based on a dose-volume histogram evaluation function introduced as an attempt to minimize the deviation between the mathematical and clinical optima. To illustrate the efficiency of the algorithms they have been applied to different clinical examples. In comparison to the standard equally spaced beams plans, improvements are reported for both algorithms in all the clinical examples even when, for some cases, fewer beams are used. A smaller number of beams is always desirable without compromising the quality of the treatment plan. It results in a shorter treatment delivery time, which reduces potential errors in terms of patient movements and decreases discomfort.
Traffic flow on road networks has been a continuous source of challenging mathematical problems. Mathematical modelling can provide an understanding of dynamics of traffic flow and hence helpful in organizing the flow through the network. In this dissertation macroscopic models for the traffic flow in road networks are presented. The primary interest is the extension of the existing macroscopic road network models based on partial differential equations (PDE model). In order to overcome the difficulty of high computational costs of PDE model an ODE model has been introduced. In addition, steady state traffic flow model named as RSA model on road networks has been dicsussed. To obtain the optimal flow through the network cost functionals and corresponding optimal control problems are defined. The solution of these optimization problems provides an information of shortest path through the network subject to road conditions. The resulting constrained optimization problem is solved approximately by solving unconstrained problem invovling exact penalty functions and the penalty parameter. A good estimate of the threshold of the penalty parameter is defined. A well defined algorithm for solving a nonlinear, nonconvex equality and bound constrained optimization problem is introduced. The numerical results on the convergence history of the algorithm support the theoretical results. In addition to this, bottleneck situations in the traffic flow have been treated using a domain decomposition method (DDM). In particular this method could be used to solve the scalar conservation laws with the discontinuous flux functions corresponding to other physical problems too. This method is effective even when the flux function presents more than one discontinuity within the same spatial domain. It is found in the numerical results that the DDM is superior to other schemes and demonstrates good shock resolution.
This thesis deals with modeling aspects of generalized Newtonian and of non-Newtonian fluids, as well as with development and validation of algorithms used in simulation of such fluids. The main contribution in the modeling part are the introduction and analysis of a new model for the generalized Newtonian fluids, where constitutive equation is of an algebraic form. Distinction between shear and extensional viscosities leads to anisotropic viscosity model. It can be considered as a natural extension of the well known (isotropic viscosity) Carreau model, which deals only with shear viscosity properties of the fluid. The proposed model takes additionally into account extensional viscosity properties. Numerical results show that the anisotropic viscosity model gives much better agreement with experimental observations than the isotropic one. Another contribution of the thesis consists of the development and analysis of robust and reliable algorithms for simulation of generalized Newtonian fluids. For such fluids the momentum equations are strongly coupled through mixed derivatives appearing in the viscous term (unlike the case of Newtonian fluids). It is shown in this thesis, that a careful treatment of those derivatives is essential in deriving robust algorithms. A modification of a standard SIMPLE-like algorithm is given, where all the viscous terms from the momentum equations are discretized in an implicit manner. Moreover, it is shown that a block diagonal preconditioner to the viscous operator is good enough to be used in simulations. Furthermore, different solution techniques, namely projection type methods (consists of solving momentum equations and pressure correction equation) and fully coupled methods (momentum and continuity equations are solved together), are compared. It is shown, that explicit discretization of the mixed derivatives lead to stability problems. Further, analytical estimates of eigenvalue distribution for three different preconditioners, applied to the transformed system arising after discretization and linearization of the momentum and continuity equations, are provided. We propose to apply a block Gauss-Seidel preconditioner to the transformed system. The analysis shows, that this preconditioner is able to cluster eigenvalues around unity independent of the transformation step. It is not the case for other preconditioners applied to the transformed system as discussed in the thesis. The block Gauss-Seidel preconditioner has also shown the best behavior (among all preconditioners discussed in the thesis) in numerical experiments. Further contribution consists of comparison and validation of numerical algorithms applied in simulations of non-Newtonian fluids modeled by time integral constitutive equations. Numerical results from simulations of dilute polymer solutions, described by the integral Oldroyd B model, have shown very good quantitative agreement with the results obtained by differential Oldroyd B counterpart in 4:1 planar contraction domain at low Weissenberg numbers. In this case, the Weissenberg number is changed by changing the relaxation time. However, contrary to the differential Oldroyd B model, the integral one allows to perform stable simulations also in the range of high Weissenberg numbers. Moreover, very good agreement with experimental observations has been achieved. Simulations of concentrated polymer solutions (polystyrene and polybutadiene solutions), modeled by the integral Doi Edwards model, supplemented by chain length fluctuations, have shown very good qualitative agreement with the results obtained by its differential approximation in 4:1:4 constriction domain. Again, much higher Weissenberg numbers can be achieved when the integral model is used. Moreover, very good quantitative results with experimental data of polystyrene solution for the first normal stress difference and shear viscosity defined here as the quotient of a shear stress and a shear rate. Finally, comparison of the two methods used for approximating the time integral constitutive equation, namely Deformation Field Method (DFM) and Backward Lagrangian Particle Method (BLPM), is performed. In BLPM the particle paths are recalculated at every time step of the simulations, what has never been tried before. The results have shown, that in the considered geometries both methods give similar results.
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
On a multigrid solver for the threedimensional Biot poroelasticity system in multilayered domains
(2006)
In this paper, we present problem–dependent prolongation and problem–dependent restriction for a multigrid solver for the three-dimensional Biot poroelasticity system, which is solved in a multilayered domain. The system is discretized on a staggered grid using the finite volume method. During the discretization, special care is taken of the discontinuous coefficients. For the efficient multigrid solver, a need in operator-dependent restriction and/or prolongation arises. We derive these operators so that they are consistent with the discretization. They account for the discontinuities of the coefficients, as well as for the coupling of the unknowns within the Biot system. A set of numerical experiments shows necessity of use of the operator-dependent restriction and prolongation in the multigrid solver for the considered class of problems.
In this paper we propose a finite volume discretization for the threedimensional Biot poroelasticity system in multilayered domains. For the stability reasons, staggered grids are used. The discretization accounts for discontinuity of the coefficients across the interfaces between layers with different physical properties. Numerical experiments, based on the proposed discretization showed second order convergence in the maximum norm for the primary as well as flux unknowns of the system. A certain application example is presented as well.