Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Universität (1)
Im ersten Teil dieser Arbeit konnte gezeigt werden, dass die Spin-Label Aminosäure HO3007 (ein Derivat des Alanins, dessen Seitenkette mit dem Spinlabel 2,2,5,5-Tetramethylpyrrolin-nitroxid modifiziert ist) mit der Methode der amber-Suppression in Proteine inkorporiert werden kann. Der Einbau wurde ESR-spektroskopisch nachgewiesen. Dazu wurde eine neue amber-Suppressor tRNA synthetisiert. Am Akzeptorstamm trägt die tRNA die Spin-Label-Aminosäure HO3007, mit ihrem Anticodon erkennt die tRNA das amber Codon. Der Einbau der Aminosäure erfolgte in ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins in vitro. Zu diesem Zweck wurde in den in vitro Expressionsvektor pIVEX2.3MCS das Gen für ein 137 Aminosäuren langes N-terminales Fragment des humanen Mtj1p-Proteins einkloniert. Das Gen wurde so mutiert, dass sich an der Position des Codons für die Aminosäure Phe113 (TAC) die amber-Mutation (TAG) befindet. Der neu synthetisierte Vektor trägt die Bezeichnung pIVEX2.3MCSMtj1pN-term. Der Vektor und die amber-Suppressor tRNA wurden in einem E.coli in vitro Translationssystem eingesetzt. Die hohen gebundenen Anteile der anschließend gemessenen ESR-Spektren zeigen, dass die Spin-Label Aminosäure in das nativ gefaltete N-terminale Fragment des Mtj1p-Proteins eingebaut wurde. Im zweiten Teil der vorliegenden Arbeit konnte nachgewiesen werden, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch in der isolierten -Untereinheit der FOF1-ATP-Synthase des thermophilen Bacillus PS3 an die katalytische Bindungsstelle bindet und somit für weitergehende Untersuchungen von Struktur-Funktionsbeziehungen als Reportermolekül geeignet ist. Dazu wurde die isolierte -Untereinheit mit dem Substratanalogon 2-N3-2’,3’-SL-ATP kovalent markiert und anschließend tryptisch verdaut. Die entstandenen Peptidfragmente wurden mittels MALDI-TOF Massenspektrometrie analysiert. Mit Hilfe der MASCOT-Datenbank und der Software BioTools der Fa. Bruker konnte ein Fragment identifiziert werden, bei dem Tyr 341, das sich in der katalytischen Bindungsstelle befindet, mit dem ADP-Derivat von 2-N3-2’,3’-SL-ATP kovalent markiert ist. Einen weiteren Hinweis für die erfolgreiche kovalente Modifizierung der -Untereinheit mit 2-N3-2’,3’-SL-ATP lieferte die Untersuchung des unverdauten Proteins im MALDI-TOF Massenspektrometer. Im Vergleich zum unmodifizierten Protein weist der Peak der modifizierten -Untereinheit ein deutliches Peak-tailing zu höheren Massen auf. Da die Proben vor der Messung entsalzt wurden, spricht diese Beobachtung deutlich für die kovalente Modifizierung des Proteins. Die Ergebnisse dieses Teils der Arbeit beweisen, dass das Substratanalogon 2-N3-2’,3’-SL-ATP auch im Fall der isolierten -Untereinheit an die katalytische Bindungsstelle bindet.
Linear and integer programs are considered whose coefficient matrices can be partitioned into K consecutive ones matrices. Mimicking the special case of K=1 which is well-known to be equivalent to a network flow problem we show that these programs can be transformed to a generalized network flow problem which we call semi-simultaneous (se-sim) network flow problem. Feasibility conditions for se-sim flows are established and methods for finding initial feasible se-sim flows are derived. Optimal se-sim flows are characterized by a generalization of the negative cycle theorem for the minimum cost flow problem. The issue of improving a given flow is addressed both from a theoretical and practical point of view. The paper concludes with a summary and some suggestions for possible future work in this area.
Im Rahmen dieser Arbeit ist eine existierende, hochpräzise Mehrachsendrehmaschine untersucht worden. Die Drehmaschine ist durch einen unkonventionellen Aufbau in der Summe als neuartig zu benennen. Vom Üblichen abweichende Führungen (Doppelprismenführungen als berührende Gleitführungen statt Wälzführung oder berührungsfreie Gleitpaarung) werden durch schwingungsanregende Motoren (Schrittmotoren statt Servomotoren) angetrieben. Durch den Einsatz von Schrittmotoren wird die Position der Achsen gesteuert und nicht geregelt, eine Anzeige der Achsstellungen wird nur zur Arbeitserleichterung bei der Einstellung von Referenzpunkten verwendet. Aufgrund der Unkonventionalität des Maschinenaufbaus bestand trotz grundsätzlich nachgewiesener Eignung zu höchst präziser Fertigung Unsicherheit hinsichtlich erreichbarer Oberflächengüte und Formtreue für typische Bearbeitungsaufgaben der Metalloptikherstellung. Die Eignung der Maschine zur Herstellung einer weiteren Kategorie höchst präziser Optikelemente, Gitter oder allgemeiner Mikrostrukturen, wurde in der Vergangenheit zwar immer wieder gefordert, postuliert und teilweise auch nachgewiesen, eine Grenze der auf dieser Maschine möglichen Mikrostrukturgenauigkeiten ist jedoch bisher nicht nachgewiesen worden. Zur Erlangung besserer Planungssicherheit für die Weiterentwicklung und auch tägliche Arbeit mit dieser Maschine wurde eine mathematische Beschreibung inkl. Fehlerbetrachtung der Werkzeugposition in Abhängigkeit der Achsstellungen erstellt. In diese Fehlerbetrachtung fließt mit der praktischen Ausrichtung und Justierung der Maschine ein wichtiger genauigkeitsbestimmender Arbeitsschritt ein. Weitere Fehlerfaktoren, z.B. thermisch induzierte Positionsfehler und Schwingungen, wurden in den auftretenden Wirkungen beobachtet und angegeben. Dieses mathematische Modell und die Fehlerbetrachtung werden auf beispielhafte, typische Bearbeitungsaufgaben aus dem Bereich der Metalloptiken (Spiegel: Planflächen, sphärisch konkave Flächen, asphärisch konkave Flächen) und zusätzlich Gitter als Mikrostrukturierung angewendet. Es wird die aus dem mathematischen Modell abgeleitete Vorhersage erreichbarer Oberflächen / Rauheiten mit den tatsächlich erreichten Werten verglichen. Dieser Vergleich stützt bei Planflächen, Sphären und Asphären das Modell, gleichzeitig kann nur geringes Verbesserungspotential ausgemacht werden. Bei Gittern stützt der Vergleich im Betriebsmodus kontinuierliches Vorschubdrehen ebenfalls das Modell, jedoch kann aus Modell und Praxis Verbesserungspotential durch kleinere Winkelschritte der Antriebsmotoren abgeleitet werden. Die Grenze des Modells wird bei der Gitterherstellung durch nicht kontinuierliches Vorschubdrehen (Burst-Mode, Feuerstoß-Vorschub) aufgezeigt: Diese Betriebsart regt mit harten Stößen die gesamte Maschine zu deutlichen Schwingungen an und überfordert zusätzlich die Gleiteigenschaften der Führungen, so dass entgegen theoretischer Vorhersagen eine deutliche Verschlechterung der Konstanz der Grabenabstände realisiert wird. Die gesammelten Erkenntnisse führen im Kapitel Ausblick zu einer Vielzahl an Verbesserungsmöglichkeiten. Letztendlich wird prinzipbedingt eine Schwäche bei der Mikrostrukturierung nachgewiesen, wodurch sich hier das höchste Verbesserungspotential ableiten lässt. Bei realistischer Betrachtungsweise wird jedoch eine Empfehlung zur Bearbeitung kontinuierlicher Oberflächen erkannt werden. Hier liegt das Verbesserungspotential allerdings vorwiegend in einer Rationalisierung der Programmierung und Achssteuerung für häufig wechselnde Prototypen, also auf wenig wissenschaftlichem Gebiet. Als Fortführung dieser Arbeit wird das Aufstellen und Überprüfen eines thermischen Modells der Maschine empfohlen. Hieraus könnten nicht nur weitere Verbesserungsmöglichkeiten abgeleitet werden, darüber hinaus sind die beim Aufstellen und Überprüfen des thermischen Modells gefundenen Kenntnisse schon jetzt im Bereich der UP-Fertigung wichtig und werden weiter an Bedeutung gewinnen.
The validity of formulas w.r.t. a specification over first-order logic with a semantics based on all models is semi-decidable. Therefore, we may implement a proof procedure which finds a proof for every valid formula fully automatically. But this semantics often lacks intuition: Some pathological models such as the trivial model may produce unexpected results w.r.t. validity. Instead, we may consider just a class of special models, for instance, the class of all data models. Proofs are then performed using induction. But, inductive validity is not semi-decidable -- even for first-order logic. This theoretical drawback manifests itself in practical limitations: There are theorems that cannot be proved by induction directly but only generalizations can be proved. For their definition, we may have to extend the specification. Therefore, we cannot expect to prove interesting theorems fully automatically. Instead, we have to support user-interaction in a suitable way. In this thesis, we aim at developing techniques that enhance automatic proof control of (inductive) theorem provers and that enable user-interaction in a suitable way. We integrate our new proof techniques into the inductive theorem prover QuodLibet and validate them with various case studies. Essentially, we introduce the following three proof techniques: -We integrate a decision procedure for linear arithmetic into QuodLibet in a close way by defining new inference rules that perform the elementary steps of the decision procedure. This allows us to implement well-known heuristics for automatic proof control. Furthermore, we are able to provide special purpose tactics that support the manual speculation of lemmas if a proof attempt gets stuck. The integration improves the ability of the theorem prover to prove theorems automatically as well as its efficiency. Our approach is competitive with other approaches regarding efficiency; it provides advantages regarding the speculation of lemmas. -The automatic proof control searches for a proof by applying inference rules. The search space is not only infinite, but grows dramatically with the depth of the search. In contrast to this, checking and analyzing performed proofs is very efficient. As the search space also has a high redundancy, it is reasonable to reuse subproofs found during proof search. We define new notions for the contribution of proof steps to a proof. These notions enable the derivation of pruned proofs and the identification of superfluous subformulas in theorems. A proof may be reused in two ways: upward propagation prunes a proof by eliminating superfluous proof steps; sideward reuse closes an open proof obligation by replaying an already found proof. -For interactive theorem provers, it is essential not only to prove automatically as many lemmas as possible but also to restrict proof search in such a way that the proof process stops within a reasonable amount of time. We introduce different markings in the goals to be proved and the lemmas to be applied to restrict proof search in a flexible way: With a forbidden marking, we can simulate well-known approaches for applying conditional lemmas. A mandatory marking provides a new heuristics which is inspired by local contribution of proof steps. With obligatory and generous markings, we can fine-tune the degree of efficiency and extent of proof search manually. With an elaborate case study, we show the benefits of the different techniques, in particular the synergetic effect of their combination.
The primary object of this work is the development of a robust, accurate and efficient time integrator for the dynamics of flexible multibody systems. Particularly a unified framework for the computational dynamics of multibody systems consisting of mass points, rigid bodies and flexible beams forming open kinematic chains or closed loop systems is developed. In addition, it aims at the presentation of (i) a focused survey of the Lagrangian and Hamiltonian formalism for dynamics, (ii) five different methods to enforce constraints with their respective relations, and (iii) three alternative ways for the temporal discretisation of the evolution equations. The relations between the different methods for the constraint enforcement in conjunction with one specific energy-momentum conserving temporal discretisation method are proved and their numerical performances are compared by means of theoretical considerations as well as with the help of numerical examples.
Using covering problems (CoP) combined with binary search is a well-known and successful solution approach for solving continuous center problems. In this paper, we show that this is also true for center hub location problems in networks. We introduce and compare various formulations for hub covering problems (HCoP) and analyse the feasibility polyhedron of the most promising one. Computational results using benchmark instances are presented. These results show that the new solution approach performs better in most examples.
Die cyclischen Alkylamine Aziridin und Azetidin wurden auf ihre Reaktivität in der mehrfachen Palladium-katalysierten Arylaminierung untersucht. Obwohl es sich hierbei um gespannte Heterocyclen handelt, ließen sich mit beiden Aminen gezielte und effiziente Kupplungen verschiedener Bromaryle durchführen. Durch den gegenüber anderen sekundären Aminen geringen sterischen Anspruch lässt sich die konkurrierende Beta-Hydrideliminierung weitestgehend zurückdrängen. Durch die verhältnismäßig geringe Basizität des Aziridins ließen sich Aminierungen von Monobromarylen und elektronenarmen Oligobromarylen mit der schwachen Base Cs2CO3 bewerkstelligen. Erst bei der mehrfachen Arylaminierung von zunehmend elektronenreicheren Substraten bedurfte es der Verwendung einer stärkeren Base, wie dem verwendeten NaOtBu. Im Falle des Azetidins ließen sich dagegen effektive Umsetzungen bereits bei den monosubstituierten Substraten nur unter Einsatz einer starken Base erreichen. Darüber hinaus zeigten sowohl Aziridin als auch Azetidin eine außerordentlich hohe Reaktivität gegenüber Iodarylen. Im Gegensatz zu den Kupplungen der Bromaryle, ließen sich bei einer reduzierten Katalysatormenge die entsprechenden Arylamine innerhalb einer kürzeren Reaktionszeit erhalten. Bei der Palladium-katalysierten Aminierung von Iodbenzol reichte bereits eine Katalysatormenge von 0,3 mol% für eine effiziente Kupplung aus. Bei der Verwendung von XantPhos als Ligand lassen mit Azetidin auch effektiv Kupplungen von Iodarylen bei Raumtemperatur durchführen. Auf diese Weise lässt sich unter anderem 1,2,4,5-Tetraazetidinobenzol in exzellenter Ausbeute synthetisieren. Durch den geringen sterischen Anspruch des Aziridins in Verbindung mit seiner schlechten Elektronendonoreigenschaft ist es zudem erstmals gelungen eine sechsfache Palladium-katalysierte Arylaminierung durchzuführen. Das Reaktionsprodukt der sechsfachen Kupplung – Hexaaziridinobenzol, erweist sich als unerwartet stabile Verbindung. Obwohl Hexaaziridinobenzol ein elektronenreiches Benzolderivat ist, wie durch UV/Vis-Spektroskopie und Cyclovoltammetrie belegt werden konnte, neigt es unter Luft nicht zur Oxidation. Die Struktur des Hexaaziridinobenzols konnte durch ab initio Rechnungen und durch eine Kristallstrukturanalyse ermittelt werden. Hierbei zeigte sich, dass gegenüber dem freien Aziridin die Dreiringe des Hexaaziridinobenzols durch die Anordnung im Molekül wesentlich gespannter sind, was an den verkürzten Bindungen innerhalb der Aziridinringe zu erkennen ist. Durch die angestiegene Ringspannung lässt sich Hexaaziridinobenzol im Gegensatz zu anderen elektronenreichen Hexaamino-benzolen nicht in stabile Kationen oder Übergangsmetallkomplexe überführen.
Arealweite Phylogeografie und Populationsgenetik der temperat-montanen Meum athamanticum (Apiaceae)
(2006)
Die vorliegende Arbeit befasst sich mit der molekularen Biogeografie und der Populationsgenetik von Meum athamanticum (Apiaceae). Die Untersuchung stellt dabei die erste arealweite Phylogeografie einer europäischen temperat-montanen Pflanzenart dar. Neben der biogeografischen Struktur lag ein Schwerpunkt dieser Arbeit auf der Untersuchung der M. athamanticum-Populationen des mitteleuropäischen Periglazialgebietes. Dadurch sollte ein Beitrag zur aktuell geführten Debatte und Theoriebildung der postglazialen Arealentwicklung temperater Arten geleistet und die Rolle des mitteleuropäischen Mittelgebirgsraums für die historische Entwicklung der Art beleuchtet werden. Auf der Basis populationsgenetischer Analysen sollten außerdem Aussagen zum Schutz der gefährdeten Art M. athamanticum getroffen werden. Für die Arbeit wurden AFLP-Untersuchungen an 173 Individuen aus 23 Populationen aus dem gesamten Verbreitungsgebiet von M. athamanticum durchgeführt. Außerdem wurden von 24 Individuen ITS- und ETS-Sequenzen erzeugt und analysiert, um Hinweise auf die ursprünglichen Evolutionsvorgänge innerhalb der Art zu erhalten. Für die feinere Auflösung des mitteleuropäischen Teilareals wurde in einem zweiten AFLP-Datensatz 210 Individuen aus 14 Populationen untersucht. Innerhalb der Art ist eine deutliche Nord-Süd-Differenzierung nachweisbar, die durch eine intermediäre Populationsgruppe in den Südwest-Alpen, die vermutlich eine sekundäre Kontaktzone repräsentiert, getrennt wird. Die starke genetische Separierung südlicher Populationen und die Existenz distinkter ITS/ETS-Haplotypen liefern Hinweise darauf, dass die Auftrennung innerhalb M. athamanticum relativ alt ist. Das wird gestützt durch die Tatsache, dass in allen drei großen geografischen Regionen Populationen mit hoher genetischer Diversität und genetisch alte Reliktpopulationen, die durch eine hohe Zahl eigener Fragmente gekennzeichnet sind, existieren. Die Ergebnisse der individuellen und populationsbezogenen Diversitätsanalysen zeigen, dass M. athamanticum sich nicht an den großräumigen Rekolonisationsvorgängen der europäischen Flora beteiligte, sondern zumindest das letzte glaziale Maximum im periglazialen Mitteleuropa überdauerte. Ein Refugialgebiet bestand wahrscheinlich im Umfeld des französischen Zentralmassivs, ein weiteres vermutlich im Randbereich von Ardennen/Eifel. Weiter gibt es Hinweise darauf, dass rund um den Gebirgsbogen des Erzgebirges und im Umfeld des Schwarzwaldes Refugien der Art gelegen haben. Und schließlich wird eine glaziale Persistenz im Bereich der Britischen Inseln postuliert. Eine Gruppe mit Populationen aus dem Thüringer Wald und dem Bayerischen Alpenvorland sind als Übergangsgruppe und sekundäre Kontaktzone zwischen den mitteleuropäischen Refugien zu deuten. Die Ergebnisse weisen auf unterschiedliche Migrationsmuster von M. athamanticum hin, die durch die topografischen Gegebenheiten in den geografischen Teilräumen geprägt sind. Im nördlichen Teilareal von M. athamanticum kam es bei einem vergleichbar wenig ausgeprägten Relief (heutige Vorkommen zwischen 200 und 1020 m ü. NN) zu geografisch weiträumigen longitudinalen und latitudinalen Migrationen, was die Bildung intramontaner Populationen und den genetischen Austausch mit benachbarten Populationen ermöglichte. Demgegenüber kam es in Südeuropa während kalter Perioden im Zuge der klimabedingten Absenkung der Vegetationszonen zu geografisch eng begrenzten, altitudinalen Wanderungsbewegungen (heutige Vorkommen zwischen 1400 und 2900 m ü. NN), womit ein genetischer Austausch zwischen benachbarten Populationen auch in den Kaltphasen eingeschränkt war. Die genetischen Merkmale (AMOVA: Differenzierung zwischen den Populationen; NJ: längere Äste; modellbasiertes Clusterverfahren: höhere Likelihood für Differenzierung; hohe Anzahl privater und fixierter privater Fragmente und isolation-by-distance der Populationen des südlichen Arealrandes (rear edge) reflektieren insgesamt Isolationsereignisse, die vermutlich bis in das Tertiär zurückreichen. Aus den Ergebnissen der arealweiten phylogeografischen Studie als auch der mitteleuropäischen populationsgenetischen Studie können Schlussfolgerungen für den Schutz von M. athamanticum gezogen werden können. Dabei werden die rear-edge-Populationen der südeuropäischen Hochgebirge, genetisch rezent verarmte Kleinpopulationen in Mitteleuropa und die genetisch diversen Populationen in allen Teilarealen als prioritär für den Erhalt der Art eingestuft.
We consider a volume maximization problem arising in gemstone cutting industry. The problem is formulated as a general semi-infinite program (GSIP) and solved using an interiorpoint method developed by Stein. It is shown, that the convexity assumption needed for the convergence of the algorithm can be satisfied by appropriate modelling. Clustering techniques are used to reduce the number of container constraints, which is necessary to make the subproblems practically tractable. An iterative process consisting of GSIP optimization and adaptive refinement steps is then employed to obtain an optimal solution which is also feasible for the original problem. Some numerical results based on realworld data are also presented.
We present the application of a meshfree method for simulations of interaction between fluids and flexible structures. As a flexible structure we consider a sheet of paper. In a two-dimensional framework this sheet can be modeled as curve by the dynamical Kirchhoff-Love theory. The external forces taken into account are gravitation and the pressure difference between upper and lower surface of the sheet. This pressure difference is computed using the Finite Pointset Method (FPM) for the incompressible Navier-Stokes equations. FPM is a meshfree, Lagrangian particle method. The dynamics of the sheet are computed by a finite difference method. We show the suitability of the meshfree method for simulations of fluid-structure interaction in several applications.
The desire to simulate more and more geometrical and physical features of technical structures and the availability of parallel computers and parallel numerical solvers which can exploit the power of these machines have lead to a steady increase in the number of grid elements used. Memory requirements and computational time are too large for usual serial PCs. An a priori partitioning algorithm for the parallel generation of 3D nonoverlapping compatible unstructured meshes based on a CAD surface description is presented in this paper. Emphasis is given to practical issues and implementation rather than to theoretical complexity. To achieve robustness of the algorithm with respect to the geometrical shape of the structure authors propose to have several or many but relatively simple algorithmic steps. The geometrical domain decomposition approach has been applied. It allows us to use classic 2D and 3D high-quality Delaunay mesh generators for independent and simultaneous volume meshing. Different aspects of load balancing methods are also explored in the paper. The MPI library and SPMD model are used for parallel grid generator implementation. Several 3D examples are shown.
With the burgeoning computing power available, multiscale modelling and simulation has these days become increasingly capable of capturing the details of physical processes on different scales. The mechanical behavior of solids is oftentimes the result of interaction between multiple spatial and temporal scales at different levels and hence it is a typical phenomena of interest exhibiting multiscale characteristic. At the most basic level, properties of solids can be attributed to atomic interactions and crystal structure that can be described on nano scale. Mechanical properties at the macro scale are modeled using continuum mechanics for which we mention stresses and strains. Continuum models, however they offer an efficient way of studying material properties they are not accurate enough and lack microstructural information behind the microscopic mechanics that cause the material to behave in a way it does. Atomistic models are concerned with phenomenon at the level of lattice thereby allowing investigation of detailed crystalline and defect structures, and yet the length scales of interest are inevitably far beyond the reach of full atomistic computation and is rohibitively expensive. This makes it necessary the need for multiscale models. The bottom line and a possible avenue to this end is, coupling different length scales, the continuum and the atomistics in accordance with standard procedures. This is done by recourse to the Cauchy-Born rule and in so doing, we aim at a model that is efficient and reasonably accurate in mimicking physical behaviors observed in nature or laboratory. In this work, we focus on concurrent coupling based on energetic formulations that links the continuum to atomistics. At the atomic scale, we describe deformation of the solid by the displaced positions of atoms that make up the solid and at the continuum level deformation of the solid is described by the displacement field that minimize the total energy. In the coupled model, continuum-atomistic, a continuum formulation is retained as the overall framework of the problem and the atomistic feature is introduced by way of constitutive description, with the Cauchy-Born rule establishing the point of contact. The entire formulation is made in the framework of nonlinear elasticity and all the simulations are carried out within the confines of quasistatic settings. The model gives direct account to measurable features of microstructures developed by crystals through sequential lamination.
Die vorliegende Arbeit beschäftigt sich mit der Laserlicht-Gewebe-Wechselwirkung für unterschiedliche biologische Materialien und Lasersysteme. Zum einen wurde die Ablationsdynamik bei Femtosekunden-Pulsen und Hartgewebe untersucht. Hierzu wurden Laserpulse der Wellenlänge 800 nm mit einer Pulsenergie bis 1,6 mJ und einer Pulslänge von 45 fs auf Knochengewebe fokussiert und somit eine Ablation induziert. Die Dynamik dieses Vorgangs wurde mit Kurzzeitfotografie über eine ns-Blitzlampe und einer Kamera dargestellt, analysiert und so das Risiko einer Schädigung bei Mittelohroperationen durch einzelne Ablationsschritte abgeschätzt. Die ermittelten Werte für einen äquivalenten Schalldruck von 122 dB liegen dabei im Bereich einer möglichen Schädigung für das Innenohr. Die theoretisch zu erwartende Luftionisation vor dem Laserfokus wurde experimentell bestätigt und stellt ebenfalls eine Gefahr für die Umgebung des Operationsfeldes dar. Zum anderen erfolgte eine Charakterisierung der Wechselwirkung von Hochleistungs-Diodenlaserstrahlung mit Weichgewebe an unterschiedlichen Modellsystemen. Für diese Untersuchungen wurde ein in-vivo Lungen-Perfusionssystem aufgebaut, wodurch erstmals Messungen an durchblutetem Lungengewebe in einem Modellsystem verwirklicht wurden. Die vom Lasersystem simultan emittierten Wellenlängen lagen bei 804 nm und 930 nm; die Leistungsdichten wurden, bei Pulsdauern im Bereich von 500 ms, zwischen 7,1*10^4 W/cm^2 und 2,5*10^5 W/cm^2 variiert. Die erreichten Ablationstiefen von einem bis vier mm und die erreichte Dichtheit des Operationsfeldes gegenüber Luft- und Blutaustritt lassen einen Einsatz des Systems in der Lungenchirurgie zu. Untersuchungen zur Wechselwirkung mit einzelnen Blutgefäßen erfolgten an der Chorioallantoismembran eine Hühnereies (das sogenannte Hühnerei-Modell) und damit erstmals in-vivo ohne Tierversuch. Die Leistungsdichte lag bei diesen Untersuchungen zwischen 37,7 W/cm^2 und 44 W/cm^2 bei Bestrahlungszeiten um 10 ms. Dabei wurden Blutgefäße bis etwa 1 mm Durchmesser wahlweise vollständig oder zum Teil verschlossen.
We study model reduction techniques for frequency averaging in radiative heat transfer. Especially, we employ proper orthogonal decomposition in combination with the method of snapshots to devise an automated a posteriori algorithm, which helps to reduce significantly the dimensionality for further simulations. The reliability of the surrogate models is tested and we compare the results with two other reduced models, which are given by the approximation using the weighted sum of gray gases and by an frequency averaged version of the so-called \(\mathrm{SP}_n\) model. We present several numerical results underlining the feasibility of our approach.
Im Rahmen dieser Arbeit wurden verschiedene Verbesserungspotentiale von Ottomotoren mit besonderer Berücksichtigung von Verbrauch und Drehmoment mit Hilfe der Motorprozeßrechnung untersucht. Insbesondere wurden die Zusammenhänge von Ursache und Wirkung einzelner Verbesserungsmaßnahmen herausgestellt. Zur Modellierung realer Motoren wurde die Simulationssoftware GT-Power verwendet, wobei die Regelung über Matlab/Simulink vorgenommen wurde. Aber auch mit vereinfachten Rechenmodellen, die unter dem Fortran-Programm VOMO oder der Rapid-Prototype-Software ASCET-SD erstellt wurden, waren aussagekräftige Motormodelle erstellt und Potentiale abgeleitet worden. Wenn das Auslassventil öffnet, geht dem Arbeitsprozeß in der Hochdruckschleife ein nicht unerheblicher Anteil an Abgasenergie verloren. Rechnungen zeigen ein hohes Potential zur Wirkungsgradsteigerung, wenn das Abgas bis zum Umgebungsdruck entspannt werden könnte. Die zur vollständigen Abgasexpansion notwendigen Expansionsverhältnisse lassen jedoch einen sinnvollen Motorbetrieb nicht zu. Eine realistischere Abschätzung mit einem vorgegeben Expansionsverhältnis von 20 zeigt immer noch ein theoretisches Wirkungsgradpotential von 7 bis 10%. Der drosselgesteuerte Ottomotor hat stets den Nachteil von hohen Pumpverlusten während des Ladungswechsels in der Teillast. Hier gibt es verschiedene Ansätze, diese Verluste zu minimieren. Benzin-Direkt-Einspritzung nutzt das Verfahren einer Verbrennung mit sehr hohem Luftüberschuss und erreicht dadurch nahezu eine vollständige Entdrosselung des Motors. Das Problem ist hierbei jedoch der erhöhte Mehraufwand zur Abgasnachbehandlung. Eine andere Möglichkeit, die selbe Wirkung der Entdrosselung zu erzielen, ist, den Motor mit sehr hohem Überschuss an Restgas zu betreiben. Der Vorteil gegenüber BDE ist, dass die Verbrennung konventionell mit Lambda=1 ablaufen kann. Die sehr hohe AGR-Rate, die hierfür notwendig ist, reduziert NOx gleichermaßen auf ein Minimum. Die hohen AGR-Mengen können durch einen variablen Ventiltrieb mit geeigneten Steuerzeiten bereit gestellt werden. Simulationen zeigen, dass in Teillastpunkten bei 60% AGR der Kraftstoffverbrauch um bis zu 20% verringert werden kann. Die Aufladung nimmt bei Ottomotoren einen immer wichtigeren Stellenwert ein. Der freisaugende Motor hat jedoch immer noch einige Vorteile, was Vollastverbrauch, transienten Hochlauf und Katalysator Light-off angeht. Mit einer variablen Saugrohrgeometrie, gepaart mit einem variablem Einlassventil, ist es möglich, in einem weiten Drehzahlbereich den Luftaufwand zu verbessern. Simulationen zeigen, dass bei optimaler Auslegung der Saugrohrlänge Luftaufwände von 110% erreicht werden können. Überlagert man hierbei noch ein variables Einlassventil, bringt dies darüber hinaus weitere Vorteile im Bereich des Anfahrdrehmomentes des Motors. Downsizing-Konzepte sind die konsequente Umsetzung turboaufgeladener Motoren zur Reduktion des Kraftstoffverbrauchs. Die Kombination von Abgasturboaufladung, BDE und variabler Einlassnockenwelle wurde an einem hubraumkleinen Forschungsmotor getestet und nachgebildet. Bei früher Phasenstellung war es möglich, das Drehmoment um 50% zu steigern. In diesen Betriebspunkten mit extrem hoher Ventilüberschneidung kommt es jedoch auch zu einem unerwünscht hohen Anteil von Überspülen von Frischluft, was zur Verminderung des Fanggrades führt. Die Abgaszusammensetzung ist hier charakterisiert durch Auftreten über- und unterstöchiometrischer Bereiche, bedingt durch Überspülen einerseits und fetter Verbrennung andererseits. Gelänge die vollständige Oxidation der unverbrannten Komponenten vor der Abgasturbine, könnte das Drehmoment um 30% angehoben werden. Eine weitere Möglichkeit, das stationäre und das transiente Drehmoment ottoaufgeladener Motoren zu verbessern, ist die Unterstützung durch einen elektrisch angetriebenen zusätzlichen Verdichter. Experimentelle Untersuchungen mit einem 14V betriebenen Zusatzverdichter im Fahrzeug dienten als Basis, um rechnerische Optimierungspotentiale herauszuarbeiten. Eine Strombegrenzung in Abhängigkeit von der Motordrehzahl erscheint sinnvoll, um die Belastung auf den Motor und das Bordnetz zu minimieren. Stromstärken zwischen 120 und 180A und kurzzeitige Leistungsanforderungen von 1,5 bis 2,4kW sind ausreichend, um einen transienten Hochlauf innerhalb 1 sec zu gewähren. Der Einfluss unterschiedlicher Verdichterradwerkstoffe spielt hierbei nur eine untergeordnete Rolle auf die Dynamik des Systems.
Die zunehmende Leistungsfähigkeit moderner Dieselmotoren in Verbindung mit leistungsbezogen geringen Kraftstoffverbräuchen sorgte in den letzten Jahren für eine starke Zunahme der Diesel-PKW in Deutschland. Während beim konventionellen Ottomotor durch den 3-Wege-Katalysator die gesetzlich limitierten Schadstoffkomponenten in hohem Maße (> 98 %) umgesetzt werden können, beschränkte sich beim Dieselmotor die Abgasnachbehandlung bisher im wesentlichen auf den Einsatz eines Oxidationskatalysators zur Verringerung des CO- und HC-Ausstoßes. Stickoxide und Partikel wurden bisher weitgehend über innermotorische Maßnahmen auf das gesetzlich vorgeschriebene Niveau gebracht. Mittlerweile wurde der Partikelfilters als Serienstandard eingeführt. Damit ergeben sich zwar Möglichkeiten zur Stickoxid-optimierten Motorauslegung, ob dies aber ausreicht, um einer weiteren Verschärfung der Abgasgesetzgebung zu begegnen, kann in Frage gestellt werden. Weiterhin wird, um den in der Dieselmotorentwicklung führenden europäischen Herstellern den US-amerikanischen Markt weiter zu öffnen, die Einhaltung der kalifornischen SULEV Grenzwerte als Benchmark angesehen. Diese Grenzwerte können nach heutigem Stand der Technik zwar für CO, HC und Partikel-Emissionen realisiert werden, nicht aber in bezug auf Stickoxide. Aufgrund dieser Überlegungen werden zur Zeit verstärkt Forschungsarbeiten auf dem Gebiet der DeNOx-Technologien durchgeführt. Besonders der SCR-Technologie wird eine hohe Serientauglichkeit zugetraut. Die Selektive Katalytische Reduktion bezieht sich hierbei auf die gezielte Umsetzung der Stickoxide am Katalysator mit Unterstützung eines Reduktionsmittels. Dabei können z.B. Kohlenwasserstoffe aber vor allem auch Ammoniak NH3 eingesetzt werden. Da Ammoniak als Gefahrstoff eingestuft ist und somit nur bedingt im Fahrzeug mitgeführt werden kann, befasst sich diese Arbeit mit der bereits bekannten und sowohl in stationären Anwendungen, als auch im Nutzfahrzeugbereich erprobten Harnstoff-SCR-Technologie. Dazu wurde ein Audi A8 2,5 TDI mit einer Flüssigharnstoff-SCR-Anlage ausgestattet. Es handelt sich dabei um ein druckluftunterstütztes System mit einem elektrischen Kompressor. Die Harnstofflösung wird über ein Taktventil in eine Mischkammer dosiert. Das Harnstoff- Luftgemisch wird im Zulauftrichter des Unterboden-SCR-Katalysators über ein Dosierrohr mit Radialdüse verteilt. Die Reduktionsmitteldosierung wird über einen NOx-Sensor und ein Thermoelement gesteuert. Ein weiterer NOx-Sensor dient zur online-Umsatzbestimmung im Fahrbetrieb. Um die Tieftemperaturaktivität des Systems zu steigern, wurden zwei Zusatzvorkatalysatoren verbaut. Damit konnte das im niedrigen Temperaturbereich umsatzentscheidende NO2-Verhältnis vor SCR-Katalysator deutlich gesteigert werden. Ohne Eingriffe in die Motorsteuerung konnten im MVEG_B-Kalttest Stickoxidkonvertierungsraten bis 63 % erreicht werden. Der Schwerpunkt der Untersuchungen lag auf dem Katalysatorsystem. Dazu wurden zwei Alterungsmessreihen durchgeführt. Die generelle Fahrzeugtauglichkeit des Systems konnte nachgewiesen werden. Auch im realen, transienten Fahrbetrieb lassen sich hohe Stickoxidkonvertierungsraten ohne messbaren Ammoniakschlupf erzielen. Zusätzliche Motorprüfstandsuntersuchungen lassen erkennen, dass durch Katalysatorheizmaßnahmen nicht nur eine weitere NOx-Umsatzsteigerung erzielt werden kann, sondern auch die Dosierstrategie einfacher zu realisieren ist, weil der NH3-Einspeicherungsbereich des Katalysators schneller durchlaufen wird. Zur Abschätzung des Verkleinerungspotentials von SCR-Katalysatoren wurde am Motorprüfstand eine Untersuchungsreihe mit besonderen Katalysatorträgerstrukturen im Vergleich zu Standardträgern durchgeführt. Die Trägerstrukturen erhöhen die Stoffaustauschrate im Katalysator und führen zu einer Verbesserung der Katalysatorausnutzung. Gerade im Bereich höherer Raumgeschwindigkeiten konnten zum Teil deutliche Steigerungsraten der Stickoxidkonvertierung im Vergleich zum Standardträger realisiert werden.
Die Phagozytose apoptotischer Zellen ist ein essentieller Schritt bei der Embryogenese und dem Erhalt der Gewebehomöostase. Phagozyten beseitigen dabei nicht nur die sterbenden Zellen und verhindern damit eine Freisetzung immunogener zellulärer Bestandteile ins umliegende Gewebe, sondern unterdrücken aktiv pro-inflammatorische Antworten, wie die Sekretion von TNFalpha oder die Produktion von NO. Das Wissen über die zugrunde liegenden Prozesse und Mechanismen ist noch lückenhaft. Auch wenn bereits eine Vielzahl von beteiligten Rezeptoren und Reaktionen der Phagozytenzellen auf apoptotische Zellen (AZ) bekannt sind, sind die verantwortlichen und vermutlich sehr komplexen Signalwege noch relativ wenig erforscht. Die Produktion von kleinen reaktiven Molekülen wie NO oder Sauerstoffradikale (ROS) durch Makrophagen ist ein initialer Schritt zur Bekämpfung von Pathogenen. Zu Beginn meiner Promotion lagen noch keinerlei Daten bezüglich eines Einflusses apoptotischen Materials auf die ROS-Produktion aktivierter Makrophagen vor. Der grundlegende anti-inflammatorische Makrophagenphänotyp nach der Phagozytose von AZ führte zur Hypothese, dass auch diese durch AZ beeinflusst würde. Diese Überlegung bildete den Ausgangspunkt für meine Studien: Zunächst gelang es mir, ein Testsystem zur Untersuchung anti-inflammatorischer Effekte in Makrophagen nach der Phagozytose von AZ zu etablieren. Dabei konnte ich zeigen, dass die von mir verwendeten apoptotischen Jurkat-Zellen von murinen RAW264.7-Makrophagen aufgenommen werden und deren pro-inflammatorische Antwort, gemäß der Literatur, zu hemmen vermögen. In durchflusszytometrischen Untersuchungen konnte ich mittels eines Redox-sensitiven Farbstoffs zeigen, dass AZ im Gegensatz zu nekrotischen oder vitalen Zellen die TPA-vermittelte ROS-Produktion in Makrophagen inhibieren. Sowohl durch EMSA und Western Blot-Analysen, als auch durch die Verwendung von d/n PPARgamma und PKCalpha-überexprimierenden Makrophagen, konnte ich nachweisen, dass die initiale Hemmung des ‚oxidative burst’ (innerhalb 1 Stunde) über eine PPARgamma-induzierte Inhibition der PKCalpha-vermittelt wird. Für diese reicht eine Bindung von AZ an die Makrophagen aus, während zu späteren Zeitpunkten andere, noch unbekannte Faktoren involviert scheinen. Dieser Mechanismus scheint auch in primären humanen Makrophagen von Bedeutung zu sein. Die Beobachtung, dass es nach der Behandlung aktivierter Makrophagen mit AZ zu einer verminderten IFNgamma-vermittelten NO-Produktion bei stark exprimierter iNOS kommt, ließ die Theorie zu, dass nicht - wie bisher vermutet - TGFbeta für diesen Effekt verantwortlich ist. Auch hier gelang es mir, neue Erkenntnisse über den zugrunde liegenden Mechanismus der AZ-vermittelten NO-Inhibition zu erlangen: Mittels eines Aktivitäts-Assays und durch Einsatz des spezifischen Arginaseinhibitors nor-NOHA konnte ich zeigen, dass der Einfluss von AZ auf aktivierte Makrophagen nicht etwa deren iNOS-Aktivität verringert, sondern vielmehr aus einer erhöhten Arginaseaktivität resultiert. Diese führt scheinbar zu einer verminderten Substratverfügbarkeit für die iNOS und hemmt so die NO-Produktion. Western Blot- und quantitative PCR-Versuche zeigten eine erhöhte Arginase II-Expression nach Stimulation mit AZ, welches ebenfalls meine Theorie unterstützt. Ferner konnte ich durch den Einsatz von AZ-konditioniertem Medium zeigen, dass ein noch unbekannter, von AZ sekretierter löslicher Faktor für die Hemmung der NO-Produktion verantwortlich ist. Die Beobachtung einer sehr frühen COX-2-Expression nach der Inkubation von Makrophagen mit AZ und das Nichtvorhandensein entsprechender Beobachtungen in der Literatur führten dazu, dass ich mich im letzten Teil meiner Arbeit mit dem hierfür verantwortlichen Mechanismus befasste: Unter Verwendung eines Luziferase-Assays, bei dem das Luziferasegen mit der 3´-UTR oder AREs des COX-2-Gens gekoppelt war, konnte ich zeigen, dass - wie schon bei der Inhibition der NO-Produktion durch die Arginase II - ein von AZ sekretierter löslicher Faktor für eine schnelle, AZ-spezifische und höchstwahrscheinlich durch COX-2-mRNA-Stabilisierung vermittelte Proteinexpression verantwortlich war. Eine schnelle Erhöhung der COX-2-mRNA nach AZ-Stimulus sowie jüngste Untersuchungen unserer Arbeitsgruppe, welche eine erhöhte COX-2-mRNA-Halbwertszeit zeigen, unterstützen diese Hypothese. Die von mir gewonnenen neuen Erkenntnisse über die Makrophagenreprogrammierung nach der Erkennung von AZ tragen zu einem tieferen Verständnis der zugrunde liegenden Signalwege und Mechanismen bei. Es besteht die hoffnungsvolle Aussicht, dass das Verstehen und die Manipulation der ablaufenden Prozesse bei der Phagozytose von AZ eines Tages einerseits neue Therapiemöglichkeiten zur Behandlung von Infektions- und Autoimmunkrankheiten und andererseits verbesserte Strategien zur Bekämpfung von Krebs ermöglichen werden.
Epidemiologische Studien geben Hinweise, dass eine obst- und gemüsereiche Kost präventiv gegen verschiedene ROS-assoziierte Krankheiten wirksam ist. Aufgrund der komplexen Zusammensetzung von Nahrungsmitteln ist schwer zu erfassen, welche Inhaltsstoffe für die Wirksamkeit maßgeblich sind. Phenolische Apfelsaftextrakte (AEs) aus Säften unterschiedlicher Apfelsorten und ein Tresterextrakt (APE03) wurden auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Darmzellen untersucht. Ein zweistufiges Inkubationsprotokoll kam in humanen Kolonzelllinien (Caco-2, HT29) zur Anwendung: basierend auf einer 24 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Die Apfelsaftextrakte wurden im Vergleich zu als Antioxidanzien beschriebenen Saftinhaltsstoffen (Rutin, Phloridzin, Epicatechin, Kaffeesäure, Chlorogensäure) und zu entsprechenden rekonstituierten Mischungen (rAEs) geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level und Glutathionspiegel. Zusätzlich wurden antioxidative Kapazität und die Stabilität der Einzelstoffe unter Inkubationsbedingungen erfasst. Die Apfelsaftextrakte zeigten eine ausgeprägte antioxidative Kapazität (3.6-4.2 mM Trolox), der Tresterextrakt APE03 war dabei wirksamer als die drei Saftextrakte. Die höheren TEAC-Werte der entsprechenden rAEs (4.7-7.3 mM Trolox) deuten auf eine zentrale Rolle der Einzelstoffe in der Mischung hin. Der zelluläre ROS-Level wurde durch die Extrakte AE01, AE02 und APE03 (1-100 µg/mL) und rAEs (0.5-50 µg/mL) in beiden Zelllinien signifikant verringert. AE04 war nur in HT29 Zellen wirksam. Oxidative DNA-Schäden in Caco-2 Zellen wurden durch die Extrakte (50-100 µg/mL) und deutlicher durch die rekonstituierten Mischungen (1 µg/mL) von AE01 und APE03 verringert. Von den Saftinhaltsstoffen zeigten Kaffeesäure und Rutin das höchste Potenzial zur Verringerung von DNA-Schäden; der zelluläre ROS-Level wurde am effektivsten durch Kaffeesäure und Chlorogensäure verringert. Der Glutathionspiegel von Caco-2 Zellen wurde durch AE02 und APE03 sowie durch Kaffeesäure, nicht jedoch durch andere Einzelstoffe oder Mischungen erhöht. Die Aglyka Quercetin und Phloretin, die aus Glykosiden im Intestinaltrakt freigesetzt werden können, wiesen in allen Endpunkten die höchste Wirksamkeit auf. Humane primäre Kolonzellen erwiesen sich in den Untersuchungen als ein weniger geeignetes Modellsystem, möglicherweise aufgrund der Art der gewählten Inkubation. Insgesamt erwiesen sich die phenolischen Apfelsaftextrakte als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzelllinien. Mit den begleitenden Untersuchungen von Mischungen und Einzelstoffen wurden Polyphenole (Kaffeesäure, Rutin, Chlorogensäure) identifiziert, die wesentlich zur protektiven Wirkung der Saftextrakte beitragen. Der gewählte in vitro-Prüfansatz erwies sich dabei als geeignet zur Charakterisierung der antioxidativen Wirksamkeit von Apfelsaftinhaltsstoffen in Darmzellen. Die antioxidative Wirksamkeit kann nicht alleine auf die untersuchten Hauptkomponenten zurückgeführt werden. Es liegt nahe, dass auch bisher nicht charakterisierte Substanzen/ Substanzgruppen ebenfalls einen Beitrag an der antioxidativen Wirksamkeit leisten. Eine möglichst umfassende Charaktersisierung von Apfelsaftinhaltsstoffen ist notwendig, gerade im Hinblick auf eine mögliche Prävention von Darmerkrankungen durch die Aufnahme von Apfelsaft.
Stop Location Design in Public Transportation Networks: Covering and Accessibility Objectives
(2006)
In StopLoc we consider the location of new stops along the edges of an existing public transportation network. Examples of StopLoc include the location of bus stops along some given bus routes or of railway stations along the tracks in a railway system. In order to measure the ''convenience'' of the location decision for potential customers in given demand facilities, two objectives are proposed. In the first one, we give an upper bound on reaching a closest station from any of the demand facilities and minimize the number of stations. In the second objective, we fix the number of new stations and minimize the sum of the distances between demand facilities and stations. The resulting two problems CovStopLoc and AccessStopLoc are solved by a reduction to a classical set covering and a restricted location problem, respectively. We implement the general ideas in two different environments - the plane, where demand facilities are represented by coordinates and in networks, where they are nodes of a graph.
Nowadays piezoelectric and ferroelectric materials are becoming more and more an interesting part of smart materials in scientific and engineering applications. Precision machining in manufacturing, micropositioning in metrology, common rail systems with piezo fuel injection control in automobile industry, and ferroelectric random access memories (FRAM) in microelectromechanical systems (MEMS) besides commercial piezo actuators and sensors can be very good examples for the application of piezoceramic and ferroelectric materials. In spite of having good characteristics, piezoelectric and ferroelectric materials have significant nonlinearities, which limit the applications in high performance usage. Domain switching (ferroelastic or ferroelectric) is the main reason for the nonlinearity of ferroelectric materials. External excessive electromechanical loads (mechanical stress and electric field) are driving forces for domain switching. In literature, various important experiments related to the non-linear properties of piezoelectric and ferroelectric materials are reported. Simulations of nonlinear properties of piezoelectric and ferroelectric materials based on physical insights of the material have been performed during the last two decades by using micromechanical and phenomenological models. The most significant experiments and models are deeply discussed in the literature survey. In this thesis the nonlinear behaviour of tetragonal perovskite type piezoceramic materials is simulated theoretically using two and three dimensional micromechanical models which are based on physical insights of the material. In the simulations a bulk piezoceramic material which has numerous grains is considered. Each grain has random orientation in properties of polarization and strain. Randomness of orientations is given by Euler angles equally distributed between \(0\) and \(2\pi\). Each element in the micromechanical model has been assumed to have the same properties of the real piezoelectric grain. In the first part of the simulations, quasi-static characteristics of piezoelectric materials are investigated by applying cyclic, rate independent, bipolar, uni-axial and external electrical loading with an amplitude of 2 kV/mm gradually starting from zero value in virgin state. Moreover, the simulations are undertaken for these materials which are subjected to quasi-static, uni-polar, uni-axial mechanical stress, namely compressive stress. The calculations are performed at each element based on linear constitutive equations, nonlinear domain switching and a probability theory for domain switching. In order to fit the simulations to the experimental data, some parameters such as spontaneous polarization, spontaneous strain, piezoelectric and dielectric constants are chosen from literature. The domain switching of each grain is determined by an electromechanical energy criterion. Depending on the actual energy related to a critical energy a certain probability is introduced for domain switching of the polarization direction. Same energy levels are assumed in the electromechanical energy relation for different types of domain switching like 90º and 180º for perovskite type tetragonal or 70.5º and 109.5º for rhombohedral microstructures. It is assumed that intergranular effects between grains can be modelled by such probability functions phenomenologically. The macroscopic response of the material to the applied electromechanical loading is calculated by using Euler transformations and averaging the individual grains. Properties of piezoelectric materials under fixed mechanical stresses are also investigated by applying constant compressive stress in addition to cyclic electrical loading in the simulations. Compressive stress is applied and kept constant before cyclic bipolar electrical loading is implemented. In the following chapters, a three-dimensional micromechanical model is extended for the simulation of the rate dependent properties of certain perovskite type tetragonal piezoelectric materials. The frequency dependent micromechanical model is now not only based on linear constitutive and nonlinear domain switching but also linear kinetics theories. The material is loaded both electrically and mechanically in separate manner with an alternating electrical voltage and mechanical stress values of various moderate frequencies, which are in the order of 0.01 Hz to 1 Hz. Electromechanical energy equation in combination with a probability function is again used to determine the onset of the domain switching inside the grains. The propagation of the domain wall during the domain switching process in grains is modelled by means of linear kinetics relations after a new domain nucleates. Electric displacement versus electric field hysteresis loops, mechanical strain versus mechanical stress and electric displacement versus mechanical stress for different frequencies and amplitudes of the alternating electric fields and compressive stresses are simulated and presented. A simple micromechanical model without using probabilistic approach is compared with the one that takes it into account. Both models give important insights into the rate dependency of piezoelectric materials, which was observed in some experiments reported in the literature. Intergranular effects are other significant factors for nonlinearities of polycrystalline ferroelectric materials. Even piezoelectric actuators and sensors show nonlinearities when they are operated with electrical loading, which is much lower than the coercive electric field level. Intergranular effects are the main cause of such small hysteresis loops. In the corresponding chapter, two basic field effects which are electrical and mechanical are taken into account for the consideration of intergranular effects micromechanically in the simulations of the two dimensional model. Therefore, a new electromechanical energy equation for the threshold of domain switching is introduced to explain nonlinearities stemming from both domain switching and intergranular effects. The material parameters like coercive electric field and critical spontaneous polarization or strain quantities are not implemented in the electromechanical energy relation. But, this relation contains new parameters which consider both mechanical and electrical field characteristics of neighbouring elements. By using this new model, mechanical strain versus electric field butterfly curves under small electrical loading conditions are also simulated. Hence, a rate dependent concept is applied in butterfly curves by means of linear kinetics model. As a result, the simulations have better matching with corresponding experiments in literature. In the next step, the model can be extended in three dimensional case and the parameters of electromechanical energy relation can be improved in order to get better simulations of nonlinear properties of polycrystalline piezoelectric materials.
Regenüberlaufbecken (RÜB) sind wichtige Bauwerke in Entwässerungsnetzen nach dem Mischverfahren. Sie tragen durch ihre Rückhaltewirkung dazu bei, den Schmutzaustrag in die Gewässer zu vermindern und die nachfolgende Kläranlage während der Niederschlagsereignisse zu entlasten. Obwohl nach einheitlichen Richtlinien bemessene Regenüberlaufbecken in großer An-zahl in Deutschland in Betrieb sind, ist über die Wirkung dieser recht teuren Bauwerke noch sehr wenig bekannt. Das gilt auch für alternative Anlagen wie hydrodynamische Abscheider und Kombinationsbauwerke, die in den letzten Jahren gebaut worden sind. Hier knüpft die vorliegende Arbeit an, deren Ziel es war, die Wirkung eines Kombinati-onsbauwerks in Bexbach/Rothmühle, bestehend aus Durchlaufbecken im Nebenschluss und zwei parallel beschickten hydrodynamischen Abscheidern als Trennbauwerke, zu untersuchen und modelltechnisch nachzubilden. Am Anfang der Arbeit steht ein Exkurs über Anlagen der Regenwasserbehandlung im Mischsystem und Faktoren, die für deren Reinigungswirkung maßgebend sind. Es wer-den die Grundlagen der Sedimentation und Ansätze zur Bilanzierung von Wirkungsgrad und Effektivität behandelt. Die Bedeutung des Bilanzierungszeitraums wird herausgestellt. Anschließend werden die Randbedingungen für die Untersuchungen des RÜB Bex-bach/Rothmühle sowie die Konzeption und der Betrieb des Bauwerks erläutert. Um die Wirkungsweise des Bauwerks zu ermitteln, wurden umfangreiche Messungen der Abflussquantität und -qualität an verschiedenen Punkten des Bauwerks durchgeführt. Die gemessenen Daten dienten dann als Grundlage zur Bestimmung der Wir-kungsgrade und Effektivitäten der einzelnen Anlagenteile sowie der Gesamtanlage für einige Entlastungsereignisse. Die Ergebnisse der Auswertungen über die Reinigungswirkung wurden mit den Resultaten ähnlicher Untersuchungen an anderen Anlagen verglichen und es wurde eine qualitative Wertung des untersuchten Bauwerks vorgenom-men. Im nächsten Schritt wurden sowohl die Ergebnisse der Untersuchungen als auch eines Tracerversuchs dazu genutzt, ein MATLAB/SIMULINK-Modell zur Nachbildung der Reinigungsvorgänge zu entwickeln. Durch die Verknüpfung dieses Modells mit dem Schmutzfrachtmodell WKosmoCOM gelang es, das Langzeitverhalten des Kombinati-onsbauwerks zu untersuchen. In einer vergleichenden Betrachtung der langfristigen Entlastungstätigkeit der unter-suchten Anlage mit der eines fiktiven Durchlaufbeckens im Nebenschluss herkömmli-cher Bauart wurde abgeschätzt, ob Speichervolumen durch den Einsatz der Kombinati-on von Wirbelabscheider und Durchlaufbecken eingespart werden kann. Die angesetzte Reinigungswirkung des fiktiven Durchlaufbeckens orientierte sich dabei an derjenigen, die für die Durchlaufbeckenstufe des untersuchten Bauwerks festgestellt wurde zuzüglich eines Aufschlags zur Verbesserung der Rückhaltewirkung. In mehreren Simulationsläufen auf der Basis des MATLAB/SIMULINK-Modells, gekoppelt mit dem Schmutzfrachtmodell WKosmoCOM, wurde das Volumen des fiktiven Beckens variiert, bis die Rückhaltewirkung der des realen Beckens entsprach. Der aus dem Vergleich resultierende Volumenunterschied ist ein Maß für das Einsparpotenzial. Die Simulationen erga-ben, dass die Reinigungswirkung des untersuchten Kombinationsbauwerks durch ein herkömmliches Durchlaufbecken erreicht wird, dessen Speichervolumen um etwa 17% größer ist.
Ownership Domains generalize ownership types. They support programming patterns like iterators that are not possible with ordinary ownership types. However, they are still too restrictive for cases in which an object X wants to access the public domains of an arbitrary number of other objects, which often happens in observer scenarios. To overcome this restriction, we developed so-called loose domains which abstract over several precise domains. That is, similar to the relation between supertypes and subtypes we have a relation between loose and precise domains. In addition, we simplified ownership domains by reducing the number of domains per object to two and hard-wiring the access permissions between domains. We formalized the resulting type system for an OO core language and proved type soundness and a fundamental accessibility property.
This work deals with the mathematical modeling and numerical simulation of the dynamics of a curved inertial viscous Newtonian fiber, which is practically applicable to the description of centrifugal spinning processes of glass wool. Neglecting surface tension and temperature dependence, the fiber flow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the fiber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional fiber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms. For the numerical simulation of the derived model a finite volume code is developed. The results of the numerical scheme for high Reynolds numbers are validated by comparing them with the analytical solution of the inviscid problem. Moreover, the influence of parameters, like viscosity and rotation on the fiber dynamics are investigated. Finally, an application based on industrial data is performed.
Die vorliegende Arbeit stellt die Ergebnisse vor, die unter Einsatz von optischer Molekülspektroskopie und quantenchemischen Berechnungen von Merocyanin-Dimeraggregaten erzielt wurden. Mit Hilfe der UV/Vis-Spektroskopie konnten aus der Vielzahl der zur Verfügung stehenden Farbstoffe diejenigen mit ausgeprägter Aggregationsneigung identifiziert werden. Für neun positiv getestete Verbindungen wurden konzentrations- und temperaturabhängige UV/Vis-Spektren aufgenommen. Die Auswertung gelang dabei mit einem selbst entwickelten Algorithmus, der neben der Aggregationskonstante auch die reinen Spektren von Monomer und Dimer berechnet. Für eine Serie von acht neuen Merocyaninen wurde eine umfassende Charakterisierung der elektrooptischen Eigenschaften vorgestellt und die Ergebnisse im Hinblick auf deren Anwendung diskutiert. Für zwei weitere Farbstoffe konnte eine Beeinflussung der Dimerisierung durch ein äußeres elektrisches Feld frei von Diskrepanzen bestätigt werden. Implikationen der beobachteten Befunde auf das Design photonischer Materialien mit exzitonisch gekoppelten Dimeren wurden besprochen. Durch die stationären und dynamischen Fluoreszenzmessungen konnte das bislang nur für einen Farbstoff bekannte Phänomen der Emission von H-Typ Dimeren an drei weiteren Merocyaninen nachgewiesen werden. Es gelang eine präzise spektrale Trennung der Teilbeiträge von Monomer und Dimer in Absorption sowie Emission vorzunehmen und damit erstmals den von Kasha[1] 1965 vorhergesagten Relaxationskanal für H-Typ Aggregate in allen Details quantitativ zu belegen. Durch quantenchemische Berechnungen auf MP2-Niveau konnte die Geometrie von sechs Monomeren und Dimeren optimiert und mit Hilfe experimenteller Strukturinformationen verifiziert werden. Auf Basis dieser Geometrien wurden essentielle Eigenschaften vom elektronischen Grund- und Anregungszustand berechnet und damit Übereinstimmungen und Unterschiede zu den Experimenten aufgezeigt. Weiterhin wurde eine Möglichkeit zur Vorhersage der Aggregationsneigung für einen gegebenen Strukturtyp alleine auf Grundlage von quantenchemischen Ergebnissen vorgestellt. Im Hinblick auf die grundlegenden Triebkräfte der Aggregation ergab die Analyse, dass die Dimerisierung im Wesentlichen auf elektrostatischen Dipol-Dipol- und Dispersionswechselwirkungen beruht, daneben aber auch von der Topologie der Chromophore abhängige lokale Wechselwirkungen einen Beitrag leisten.
Discontinuities can appear in different fields of mechanics. Some examples where discontinuities arise are more obvious such as the formation of cracks. Other sources of discontinuities are less apparent such as interfaces between different materials. Furthermore continuous fields with steep gradients can also be considered as discontinuous fields. This work aims at the inclusion of arbitrary discontinuities within the finite element method. Although the finite element method is the most sophisticated numerical tool in modern engineering, the inclusion of discontinuities is still a challenging task. Traditionally within finite the framework of FE methods discontinuities are modeled explicitely by the construction of the mesh. Thus, when a fixed mesh is used, the position of the discontinuity is prescribed by the location of interelement boundaries and not by the physical situation. The simulation of crack growth requires a frequent adaption of the mesh and that can be a difficult and computationally expensive task. Thus a more flexible numerical approach is needed which leads to the mesh-independent representation of the discontinuity. A challenging field where the accurate description of discontinuities is of vital importance is the modeling of failure in engineering materials. The load capacity of a structure is limited by the material strength. If the load limit is exceeded failure zones arise and increase. Representative examples of failure mechanisms are are cracks in brittle materials or shear bands in metals or soils. Failure processes are often accompanied by a strain softening material behaviour (decreasing load carrying capacity with increasing strain at a material point). It is known that the inclusion of strain softening material behaviour within a continuum description requires regularization techniques to preserve the well- posedness of the governing equations. One possibility is the consideration of non-local or gradient terms in the constitutive equations but these approaches require a sufficiently fine discretization in the localization zone, which leads to a high numerical effort. If the extent of the failure zone and the failure process to the point of the development of discrete cracks is considered it seems reasonable to include strong discontinuities. In the framework of fracture mechanics the inclusion of displacement jumps is intuitively comprehensible. However, the modeling of localized failure processes demands the consideration of inelastic material behaviour. Cohesive zone models represent an approach which is especially suited for the incorporation within the finite element framework. It is supposed that cohesive tractions are transmitted between the discontinuity surfaces. These tractions are constitutively prescribed by a phenomenological traction separation law and thus allow for the modeling of different inelastic mechanisms, like micro-crack evolution, initiation of voids, plastic flow or crack bridging. The incorporation of a displacement discontinuity in combination with a cohesive traction separation law leads to a sound model to describe failure processes and crack propagation. Another area where the existence of discontinuities is not as obvious is the occurence of material interfaces, inclusions or holes. The accurate modeling of such internal interfaces is important to predict the mechanical behaviour of components. The present discontinuity is of different nature: the displacement field is continuous but there is a jump in the strains, which is denoted by the expression weak discontinuity. Usually in FE methods material interfaces are taken into account by the mesh construction. But if the structure exhibits multiple inclusions of complex geometry it can be advantageous if the interface does not have to be meshed. And when we look at at problems where the interface moves with time, e. g. phase transformation, the mesh-independent modeling of the weak discontinuities naturally holds major advantages. The greatest challenge in the modeling of discontinuities is their incorporation into numerical methods. The focus of the present work is the development, analysis and application of a finite element approach to model mesh-independent discontinuities. The method shall be robust and flexible to be applicable to both, strong and weak discontinuities.
Um die in der Automatisierung zunehmenden Anforderungen an Vorschubachsen hinsichtlich Dynamik, Präzision und Wartungsaufwand bei niedriger Bauhöhe und kleiner werdendem Bauvolumen gerecht zu werden, kommen immer mehr Synchron-Linearmotoren in Zahnspulentechnik mit Permanentmagneterregung in Werkzeugmaschinen zum Einsatz. Als hauptsächlicher Vorteil gegenüber der rotierenden Antriebslösung mit Getriebeübersetzung und Kugelrollspindel wird die direkte Kraftübertragung ohne Bewegungswandler genannt. Der Übergang vom konventionellen linearen Antriebssystem zum Direktantriebssystem eröffnet dem Werkzeugmaschinenherstellern und den Industrieanwendungen eine Vielzahl neuer Möglichkeiten durch beeindruckende Verfahrgeschwindigkeit und hohes Beschleunigungsvermögen sowie Positionier- und Wiederholgenauigkeit und bietet darüber hinaus die Chance zu einer weiteren Produktivitäts- und Qualitätssteigerung. Um alle dieser Vorteile ausnutzen zu können, muss der Antrieb zuerst hinsichtlich der für Linearmotoren typisch Kraftwelligkeit optimiert werden. Die Suche nach wirtschaftlichen und praxistauglichen Gegenmaßnahmen ist ein aktuelles Forschungsthema in der Antriebstechnik. In der vorliegenden Arbeit werden die Kraftschwankungen infolge Nutung, Endeffekt und elektrischer Durchflutung in PM-Synchron-Linearmotor rechnerisch und messtechnisch untersucht. Ursachen und Eigenschaften der Kraftwelligkeit werden beschrieben und Einflussparameter aufgezeigt. Es besteht die Möglichkeit, die Kraftwelligkeit durch bestimmte Maßnahmen zu beeinflussen, z. B. mit Hilfe des Kraftwelligkeitsausgleichs bestehend aus ferromagnetischem Material oder durch gegenseitigen Ausgleich mehrerer zusammengekoppelter Primärteile. Wie die Untersuchungen gezeigt haben, ist eine Abstimmung der Einflussparameter auf analytischem Weg kaum möglich, in der Praxis führt das auf eine experimentell-iterative Optimierung mit FEM-Unterstützung. Die gute Übereinstimmung zwischen Messung und Simulation bietet einen klaren Hinweis, dass die hier vorgestellten Maßnahmen als geeignet angesehen werden können, sie ermöglichen eine Kraftwelligkeitsreduzierung von ursprünglichen 3-5% bis auf 1%, wobei eine leichte Herabsetzung der Kraftdichte in Kauf genommen werden muss. Beim Maschinenentwurf muss rechtzeitig ermittelt werden, welches Kompensationsverfahren günstig ist bezüglich der vorgesehenen Anwendungen.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
Vor dem Hintergrund anstehender Reformen der Lehramtsstudiengänge schätzten 233 erfahrene Lehrkräfte die Relevanz psychologischer Themen für das Lehramtsstudium und die Weiterbildung von Lehrerinnen und Lehrern in einer Fragenbogenstudie ein. Die Themensammlung basierte auf dem von der Deutschen Gesellschaft für Psychologie vorgeschlagenen Rahmencurriculum. Die Ergebnisse zeigen eine themenspezifische Variation der Relevanzurteile: So wurde eher handlungsrelevanten Themen wie „Intervention und Beratung“ Vorrang vor vermeintlich theorieorientierten Inhalten, wie „Entwicklungspsychologische Grundlagen“ gegeben. Hierbei zeigten sich schulart- und dienstalterabhängige Urteilsunterschiede. Auch Themen, die die Schule als Organisation betreffen (z. B. Qualitäts¬sicherung) wurden als weniger relevant bewertet. Die Ergebnisse werden hinsichtlich ihrer Implikationen für die Vermittlung psychologischen Wissens in den neuen Lehramtsstudiengängen diskutiert.
Annual Report 2005
(2006)
Annual Report, Jahrbuch AG Magnetismus
Biological Soil Crusts (BSCs), composed of lichens, mosses, green algae, microfungi and cyanobacteria are an ecological important part of the perennial landcover of many arid and semiarid regions (Belnap et al. 2001a), (Büdel 2002). In many arid and hyperarid areas BSCs form the only perennial "vegetation cover" largely due to their extensive resistance to drought (Lange et al. 1975). For the Central Namib Desert (Namibia), BSCs consisting of extraordinary vast lichen communities were recently mapped and classified into six morphological classes for a coastal area of 350 km x 60 km. Embedded into the project "BIOTA" (www.biota-africa.org) financed by the German Federal Ministry of Education and Research the study was undertaken in the framework of the PhD thesis by Christoph Schultz. Some of these lichen communities grouped together in so called "lichen fields" have already been studied concerning their ecology and diversity in the past (Lange et al. 1994), (Loris & Schieferstein 1992), (Loris et al. 2004), (Ullmann & Büdel 2001a), (Wessels 1989). Multispectral LANDSAT 7 ETM+ and LANDSAT 5 TM satellite imagery was utilized for an unitemporal supervised classification as well as for the establishment of a monitoring based on a combined retrospective supervised classification and change detection approach (Bock 2003), (Weiers et al. 2003). Results comprise the analysis of the mapped distribution of lichen communities for the Central Namib Desert as of 2003 as well as reconstructed distributions for the years 2000, 1999, 1992 and 1991 derived from retrospective supervised classification. This allows a first monitoring of the disturbance, destruction and recovery of the lichen communities in these arid environments including the analysis of the major abiotic processes involved. Further analysis of these abiotic processes is key for understanding the influence of Namib lichen communities on overall aeolian and water induced erosion rates, nutrient cycles, water balance and pedogenic processes (Belnap & Gillette 1998), (Belnap et al. 2001b), (Belnap 2001c), (Evans & Lange 2001), (McKenna Neumann & Maxwell 1999). In order to aid the understanding of these processes SRTM digital elevation model data as well as climate data sets were used as reference. Good correlation between geomorphological form elements as well as hydrological drainage system and the disturbance patterns derived from individual post classification change comparisons between the timeframes could be observed. Conjoined with the climate data sets sporadic foehn-like windstorms as well as extraordinary precipitation events were identified to largely affect the distribution patterns of lichen communities. Therefore the analysis and monitoring of the diversity, distribution and spatiotemporal change of Central Namib BSCs with the means of Remote Sensing and GIS applications proof to be important tools to create further understanding of desertification and degradation processes in these arid regions.
The paper at hand presents a slender body theory for the dynamics of a curved inertial viscous Newtonian ber. Neglecting surface tension and temperature dependence, the ber ow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the ber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional ber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms.
On a multigrid solver for the threedimensional Biot poroelasticity system in multilayered domains
(2006)
In this paper, we present problem–dependent prolongation and problem–dependent restriction for a multigrid solver for the three-dimensional Biot poroelasticity system, which is solved in a multilayered domain. The system is discretized on a staggered grid using the finite volume method. During the discretization, special care is taken of the discontinuous coefficients. For the efficient multigrid solver, a need in operator-dependent restriction and/or prolongation arises. We derive these operators so that they are consistent with the discretization. They account for the discontinuities of the coefficients, as well as for the coupling of the unknowns within the Biot system. A set of numerical experiments shows necessity of use of the operator-dependent restriction and prolongation in the multigrid solver for the considered class of problems.
In this paper we address the improvement of transfer quality in public mass transit networks. Generally there are several transit operators offering service and our work is motivated by the question how their timetables can be altered to yield optimized transfer possibilities in the overall network. To achieve this, only small changes to the timetables are allowed. The set-up makes it possible to use a quadratic semi-assignment model to solve the optimization problem. We apply this model, equipped with a new way to assess transfer quality, to the solution of four real-world examples. It turns out that improvements in overall transfer quality can be determined by such optimization-based techniques. Therefore they can serve as a first step towards a decision support tool for planners of regional transit networks.
This report discusses two approaches for a posteriori error indication in the linear elasticity solver DDFEM: An indicator based on the Richardson extrapolation and Zienkiewicz-Zhu-type indicator. The solver handles 3D linear elasticity steady-state problems. It uses own input language to describe the mesh and the boundary conditions. Finite element discretization over tetrahedral meshes with first or second order shape functions (hierarchical basis) has been used to resolve the model. The parallelization of the numerical method is based on the domain decomposition approach. DDFEM is highly portable over a set of parallel computer architectures supporting the MPI-standard.
Entwicklung eines Freilandtests zur Überprüfung der Wirksamkeit von Pheromonanwendungen im Weinbau
(2006)
Bei der Insektenbekämpfung durch die Paarungsstörung wird das synthetisch hergestellte Pheromon des Schädlings durch Dispenser in größeren Mengen im Freiland ausgebracht, wodurch die Paarung der Falter gestört wird. Zur Optimierung dieser Methode ist es entscheidend, die für einen wirksamen Effekt notwendigen Pheromonkonzentrationen im Freiland zu kennen. In-situ Messungen der Pheromonkonzentrationen mit gleichzeitiger Erhebung des Schadens scheiden als Methode aus, da die Messmethoden für die Pheromonkonzentration im Freiland sehr aufwendig und nicht ausreichend genau sind. Somit ergibt sich die Notwendigkeit alternative Methoden zu entwickeln, mit denen die Wirksamkeit einer bestimmten Dispenserbehandlung abschätzbar wird. Generell sind die bisher üblichen Nachweismethoden für die Wirksamkeit einer Pheromonanwendung mit großen Unsicherheiten und Kosten behaftet. In dieser Arbeit wird ein neu entwickeltes System beschrieben, mit dem es möglich ist in sehr kurzer Zeit und mit vertretbarem Aufwand die Wirksamkeit einer Pheromonanwendung abzuschätzen. Hierbei wird ein Käfig mit 8,5 m3 Volumen in einem pheromonbehandelten Weinberg aufgestellt und im Zentrum mit einer mit Weibchen der entsprechenden Art bestückten Lockfalle versehen. In diesen Käfig werden genau definierte Anzahlen von Männchen freigelassen und die in der Weibchenfalle gefangenen Männchen über mehrere Tage registriert. Ein identischer Käfig mit gleichem Männchenbesatz und Weibchenfalle in einem unbehandelten Weinberg dient als Kontrolle. Aus den Unterschieden in den Rückfangergebnissen lässt sich die Wirksamkeit einer Pheromonbehandlung bestimmen. Das Mess-System wurde mit unterschiedlichen Methoden auf seine Tauglichkeit für die angestrebten Fragestellungen überprüft. Hierbei ergab sich, dass über die Fragen der Paarungsstörung hinaus eine Vielzahl anderer Verhaltensuntersuchungen möglich wird. Erste Ergebnisse liefern unter anderem eine Dosis-Wirkungskurve für Lobesia botrana und Eupoecilia ambiguella mit der abgeschätzt werden kann, welche Abgaberate die Dispenser haben müssen um eine wirksame Paarungsstörung zu gewährleisten.
Die Verwendung organischer Moleküle in der nichtlinearen Optik (NLO) ist seit mehr als 20 Jahren Gegenstand intensiver Forschung. Man verspricht sich davon wesentliche Vorteile gegenüber den in der Anwendung weit verbreiteten anorganischen Kristallen. Diese zeigen gegenüber organischen Materialien ein wesentlich langsameres Antwortverhalten und gerin-gere nichtlinear-optische Effizienz. Als Wirtssysteme für organische Farbstoffe dienen vor allem Polymere, die mit geeigneten Methoden gepolt werden müssen. Die Weiterverarbeitung solcher Polymere zu elektrooptischen- oder nichtlinear-optischen Bauteilen ist dabei beson-ders einfach. Man kann sie in jede gewünschte Form bringen und vor allem dünne Filme ho-her Effizienz herstellen. Dies eröffnet neue interessante Perspektiven für die Anwendung in der Optoelektronik. In dieser Arbeit wurden eine Reihe interessanter neuer Chromophore für die NLO un-tersucht. Es handelt sich dabei sowohl um einfache eindimensionale Strukturen, als auch um hoch effiziente mehrdimensionale Farbstoffe. Die untersuchten ionischen Chromophore bie-ten die Möglichkeit zur einfachen Herstellung kristalliner Phasen, welche direkt in optoe-lektronische Bauteile eingesetzt werden können. Als Abschluss wurden CT-Komplexe, als Systeme niedriger nichtlinear-optischer Effizienz untersucht. Der NLO-Effekt entsteht in die-sem Fall durch intermolekulare Wechselwirkungen und nicht durch den internen Ladungs-transfer von der Donor- zur Akzeptor-Einheit des Moleküls. Die Moleküle wurden mittels polarisationsabhängiger feldinduzierter Frequenzverdoppe-lung (EFISHG) und Hyper Rayleigh-Streuung (HRS) untersucht. Die Apparatur zur Beobach-tung dieser NLO-Prozesse wurde im Rahmen dieser Arbeit neu aufgebaut und mit Erfolg wieder in den Messbetrieb überführt. Grundlegende Synthesekonzepte zur Optimierung von NLO-Chromophoren (NLOphoren) konnten mit den vorliegenden Messungen bestätigt wer-den. Die Gültigkeit des Zwei-Niveau-Modells für eindimensionale NLOphore wurde bestätigt und der Einfluss der Donor/Akzeptor-Stärke, sowie der Konjugationslänge auf die NLO-Effizienz untersucht. Für den nichtdipolaren Chromophor mit größter Konjugationslänge zeigt eine der größten für diese Art von Chromophoren je ermittelten Polarisierbarkeiten zweiter Ordnung.
In contrast to the spatial motion setting, the material motion setting of continuum mechanics is concerned with the response to variations of material placements of particles with respect to the ambient material. The material motion point of view is thus extremely prominent when dealing with defect mechanics to which it has originally been introduced by Eshelby more than half a century ago. Its primary unknown, the material deformation map is governed by the material motion balance of momentum, i.e. the balance of material forces on the material manifold in the sense of Eshelby. Material (configurational) forces are concerned with the response to variations of material placements of 'physical particles' with respect to the ambient material. Opposed to that, the common spatial (mechanical) forces in the sense of Newton are considered as the response to variations of spatial placements of 'physical particles' with respect to the ambient space. Material forces as advocated by Maugin are especially suited for the assessment of general defects as inhomogeneities, interfaces, dislocations and cracks, where the material forces are directly related to the classical J-Integral in fracture mechanics, see also Gross & Seelig. Another classical example of a material - or rather configurational - force is emblematized by the celebrated Peach-Koehler force, see e.g. the discussion in Steinmann. The present work is mainly divided in four parts. In the first part we will introduce the basic notions of the mechanics and numerics of material forces for a quasi-static conservative mechanical system. In this case the internal potential energy density per unit volume characterizes a hyperelastic material behaviour. In the first numerical example we discuss the reliability of the material force method to calculate the vectorial J-integral of a crack in a Ramberg-Osgood type material under mode I loading and superimposed T-stresses. Secondly, we study the direction of the single material force acting as the driving force of a kinked crack in a geometrically nonlinear hyperelastic Neo-Hooke material. In the second part we focus on material forces in the case of geometrically nonlinear thermo-hyperelastic material behaviour. Therefore we adapt the theory and numerics to a transient coupled problem, and elaborate the format of the Eshelby stress tensor as well as the internal material volume forces induced by the gradient of the temperature field. We study numerically the material forces in a bimaterial bar under tension load and the time dependent evolution of material forces in a cracked specimen. The third part discusses the material force method in the case of geometrically nonlinear isotropic continuum damage. The basic equations are similar to those of the thermo-hyperelastic problem but we introduce an alternative numerical scheme, namely an active set search algorithm, to calculate the damage field as an additional degree of freedom. With this at hand, it is an easy task to obtain the gradient of the damage field which induces the internal material volume forces. Numeric examples in this part are a specimen with an elliptic hole with different semi-axis, a center cracked specimen and a cracked disc under pure mode I loading. In the fourth part of this work we elaborate the format of the Eshelby stress tensor and the internal material volume forces for geometrically nonlinear multiplicative elasto-plasticity. Concerning the numerical implementation we restrict ourselves to the case of geometrically linear single slip crystal plasticity and compare here two different numerical methods to calculate the gradient of the internal variable which enters the format of the internal material volume forces. The two numerical methods are firstly, a node point based approach, where the internal variable is addressed as an additional degree of freedom, and secondly, a standard approach where the internal variable is only available at the integration points level. Here a least square projection scheme is enforced to calculate the necessary gradients of this internal variable. As numerical examples we discuss a specimen with an elliptic inclusion and an elliptic hole respectively and, in addition, a crack under pure mode I loading in a material with different slip angles. Here we focus on the comparison of the two different methods to calculate the gradient of the internal variable. As a second class of numerical problems we elaborate and implement a geometrically linear von Mises plasticity with isotropic hardening. Here the necessary gradients of the internal variables are calculated by the already mentioned projection scheme. The results of a crack in a material with different hardening behaviour under various additional T-stresses are given.