Refine
Year of publication
- 2007 (64) (remove)
Document Type
- Doctoral Thesis (64) (remove)
Has Fulltext
- yes (64)
Keywords
- Phasengleichgewicht (4)
- Visualisierung (3)
- Apoptosis (2)
- Computergraphik (2)
- Cyclopeptide (2)
- Elastoplastizität (2)
- Fluoreszenz (2)
- Modellierung (2)
- Nichtlineare Finite-Elemente-Methode (2)
- UML (2)
- Verbundbauweise (2)
- computational mechanics (2)
- cyclopeptides (2)
- A-infinity-bimodule (1)
- A-infinity-category (1)
- A-infinity-functor (1)
- ANTR5 (1)
- ASM (1)
- Abrasiver Verschleiß (1)
- Abrechnungsmanagement (1)
- Accounting Agent (1)
- Ackerschmalwand (1)
- Acrylamid (1)
- Adaptive Entzerrung (1)
- Alterung (1)
- Anionenerkennung (1)
- Anionenrezeptoren (1)
- Anisotropie (1)
- Anthocyane (1)
- Aroniabeere (1)
- Asympotic Analysis (1)
- Asymptotic Analysis (1)
- Asymptotic Expansion (1)
- Asymptotische Entwicklung (1)
- Ausfällen (1)
- Ausschnitt <Öffnung> (1)
- Automatisierungssystem (1)
- Avirulence (1)
- Bemessung (1)
- Benutzer (1)
- Berry fruit juice (1)
- Beschränkte Arithmetik (1)
- Bettungsmodul (1)
- Biokatalyse (1)
- Biomechanik (1)
- Biorthogonalisation (1)
- Biotechnologie (1)
- Biotrophy (1)
- Bondindizes (1)
- Buntsaftkonzentrat (1)
- CSOs treatment (1)
- Caspase (1)
- Cobalt (1)
- Comet Assay (1)
- Composites (1)
- Computational Fluid Dynamics (1)
- Cyclin-abhängige Kinasen (1)
- DCE <Programm> (1)
- DNA-Schädigung (1)
- Damage (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Datenbank (1)
- DesLaNAS (1)
- Diclofenac (1)
- Diskontinuität (1)
- Downlink (1)
- Dreidimensionale Strömung (1)
- Durchlaufträger (1)
- Dynamischer Test (1)
- EMPO (1)
- EPR-Spectroscopy (1)
- Eisen (1)
- Elasticity (1)
- Elastizität (1)
- Elastoplasticity (1)
- Elektronenspinresonanzspektroskopie (1)
- Endliche Geometrie (1)
- Energieeinsparung (1)
- Epoxidation (1)
- Epoxide (1)
- Erweiterte Realität <Informatik> (1)
- Ethan (1)
- Ethylen (1)
- Experiment (1)
- Experimentauswertung (1)
- Farbe (1)
- Farbstabilität (1)
- Farnesylpyrophosphat-Synthase (1)
- Feature (1)
- Feige (1)
- Fertigungslogistik (1)
- Festkörper (1)
- Filterauslegung (1)
- Filterkuchenwiderstand (1)
- Filtermittelwiderstand (1)
- Filterversuche (1)
- Filtration (1)
- Filtrierbarkeit (1)
- Finite-Elemente-Methode (1)
- Flechten (1)
- Fließgelenk (1)
- Flugzeitmassenspektrometrie (1)
- Fluorescence (1)
- Flüssig-Flüssig-Extraktion (1)
- Flüssig-Flüssig-Gleichgewicht (1)
- Flüssig-Flüssig-System (1)
- Flüssigkeitsreibung (1)
- GPU (1)
- Genetische Algorithmen (1)
- Geoinformationssystem (1)
- Geometrical Nonlinear Thermomechanics (1)
- Gleitlager (1)
- Glycogen-Synthase-Kinase-3 (1)
- Golgi-Apparat (1)
- Google Earth (1)
- Granular flow (1)
- Grapevine Fanleaf Virus (1)
- Halogenasen (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Harmonische Spline-Funktion (1)
- Haustoria (1)
- Helmholtz Type Boundary Value Problems (1)
- Hepatotoxizität (1)
- Hochdrucktechnik (1)
- Homologische Algebra (1)
- Hydrogel (1)
- Hydrovinylierung (1)
- IP Address (1)
- IP Traffic Accounting (1)
- ITC (1)
- In vitro (1)
- In vivo (1)
- Indirubin (1)
- Informationslogistik (1)
- Infrarotspektroskopie (1)
- Innenstadt (1)
- Interfaces (1)
- Internationale Diversifikation (1)
- Isopropylacrylamid Natriummethacrylat N-Vinyl-2-pyrrolidon (1)
- Kategorientheorie (1)
- Keramik <T (1)
- Kinetik (1)
- Kontinuumsmechanik (1)
- Kopolymere (1)
- Kristallisation (1)
- Kultivierung (1)
- Kurve (1)
- Lagerung (1)
- Leberepithelzelle (1)
- Liquid-liquid-equilibrium (1)
- Locally Supported Zonal Kernels (1)
- Logistik (1)
- Lysozyme (1)
- MIMO (1)
- Marine Biotechnologie (1)
- Membranprotein (1)
- Messtechnik (1)
- Meter (1)
- Mindesthaltbarkeitsdatum (1)
- Mischwasserbehandlung (1)
- Mixed Reality (1)
- Mobilfunk (1)
- Model checking (1)
- Modeling (1)
- Modellgetriebene Entwicklung (1)
- Modularisierung (1)
- Molekularstrahl (1)
- Monomer (1)
- Multigenanalyse (1)
- Multiresolution Analysis (1)
- N (1)
- N-Nitroso-verbindungen (1)
- N-isopropyl acrylamide (1)
- N-tridentate Liganden (1)
- NMR und ITC (1)
- Natriumsulfat (1)
- Naturfasern (1)
- Naturstoffverteilung (1)
- Nematode (1)
- Nephrotoxizit (1)
- Networked Automation Systems (1)
- Netzbasierte Automatisierungssysteme (1)
- Netzwerk (1)
- Nichtlineare Mechanik (1)
- Nitrone (1)
- Nitrones (1)
- OFDM (1)
- Optimale Portfolios (1)
- Optimierung (1)
- Optimization (1)
- Optionspreistheorie (1)
- Organoblech (1)
- Ovoid (1)
- Oxidation (1)
- PPARgamma (1)
- PTA (1)
- Parameter identification (1)
- Parameteridentifikation (1)
- Pathogenabwehr (1)
- Peng-Robinson-EoS (1)
- Peptide (1)
- Phylogenie (1)
- Phylogeographie (1)
- Plastizität (1)
- Poly( vinyl pyrrolidone) (1)
- Polyme (1)
- Polymere (1)
- Polymerisation (1)
- Polyphenole (1)
- Polyvinylpyrrolidon (1)
- Portfoliomanagement (1)
- Produktionssystem (1)
- Propanole (1)
- Proteine (1)
- Pseudomonas syringae (1)
- Pumpe (1)
- Pyrazole (1)
- Pyrimidin (1)
- Quadratischer Raum (1)
- Quellung (1)
- Quellung in wässrigen Lösungen (1)
- Querkraft (1)
- Querkrafttragfähigkeit (1)
- Quorum Sensing (1)
- RFID (1)
- RNAi (1)
- RNS-Interferenz (1)
- RNS-Viren (1)
- Radial Basis Functions (1)
- Randwertproblem (1)
- Ray casting (1)
- Reaktionskinetik (1)
- Regenwasserbehandlung (1)
- Reibung (1)
- Repeated-Batch (1)
- Resistenz (1)
- Response-Zeit (1)
- Retentionsbodenfilter (1)
- Rote Traube (1)
- Rust effector (1)
- Ruthenium (1)
- SDL (1)
- SDZ IMM125 (1)
- Salzlösung (1)
- Schlauchflechten (1)
- Schnittstelle (1)
- Schwarze Johannisbeere (1)
- Schädigung (1)
- Sekundärstruktur (1)
- Sensoren (1)
- Sensorik (1)
- Sepsis (1)
- Serre functor (1)
- Siliciumcarbid (1)
- Simplex-Algorithmus (1)
- Simulationsdaten (1)
- Smart Production (1)
- Sobolev spaces (1)
- Sodium methacrylate (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Softwarespezifikation (1)
- Spherical Fast Wavelet Transform (1)
- Sphärische Approximation (1)
- Spin trapping (1)
- Spline-Approximation (1)
- Sprachdefinition (1)
- Sprachprofile (1)
- Sprung-Diffusions-Prozesse (1)
- Stadtentwicklung (1)
- Stadtplanung (1)
- Stahlbetonbau (1)
- Stegöffnung (1)
- Stilbenderivate (1)
- Stilbene derivatives (1)
- Stochastische Zinsen (1)
- Stochastische dynamische Optimierung (1)
- Stochastischer Automat (1)
- Stop- und Spieloperator (1)
- Streptomyces (1)
- Sulfonaterkennung (1)
- Supramolekulare Chemie (1)
- Swelling equilibrium in aqueous solution (1)
- Synchronisation zyklischer Prozesse (1)
- T cells (1)
- T-Zellen (1)
- Technische Mechanik (1)
- Thermoformen (1)
- Thermomechanische Behandlung (1)
- Thiazolidindione (1)
- Toxikologie (1)
- Tragfähigkeit (1)
- Transaktionskosten (1)
- Transferred proteins (1)
- Tribologie (1)
- Tryptophan-Halogenasen (1)
- Trägerbohlwand (1)
- Two-Phase System (1)
- UrbanSim (1)
- User Model (1)
- Vectorfield approximation (1)
- Vektorfeldapproximation (1)
- Verbundträger (1)
- Verbundwerkstoffe (1)
- Verschleißprüfung (1)
- Vinyl-2-pyrrolidon (1)
- Virusübertragung (1)
- Viskoelastizität (1)
- Völklingen (1)
- Wasserstoff-ATPase (1)
- Wave Based Method (1)
- Weinrebe (1)
- Wohnen (1)
- Wurzelreaktion (1)
- Wärmeleitung (1)
- Wässrige Lösung (1)
- Xiphinema index (1)
- Zweiphasensysteme (1)
- affine arithmetic (1)
- alpha (1)
- anion recognition (1)
- anionic receptors (1)
- anisotropy (1)
- anthocyanins (1)
- apoptosis (1)
- beta-ungesättigte Carbonylverbindungen (1)
- biochemical characterisation (1)
- biomechanics (1)
- bocses (1)
- boundary value problem (1)
- cake filtration (1)
- chemically crosslinked hydrogels (1)
- chemisch vernetzte Hydrogele (1)
- colour stability (1)
- composite beam (1)
- computational fluid dynamics (1)
- computer graphics (1)
- continuum mechanics (1)
- curves and surfaces (1)
- degenerations of an elliptic curve (1)
- elastoplasticity (1)
- electroporation (1)
- esterases (1)
- experiment (1)
- filter media resistance (1)
- finite deformations (1)
- finite elements (1)
- finite volume method (1)
- flow visualization (1)
- fluid structure (1)
- fluorescence (1)
- gene silencing (1)
- genetic algorithms (1)
- hPRT-Genmutations-Assay (1)
- halogenases (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hydrodynamische Injektion (1)
- hyperbolic systems (1)
- image analysis (1)
- infrared spectroscopy (1)
- interface problem (1)
- interference resistance (1)
- interval arithmetic (1)
- inverse problem (1)
- language definition (1)
- language profiles (1)
- lattice Boltzmann (1)
- lichens (1)
- lipases (1)
- liquid-liquid-extraction of natural products (1)
- localizing basis (1)
- marine biotechnology (1)
- matrix problems (1)
- model (1)
- modularisation (1)
- molecular beam (1)
- multi-gene analysis (1)
- multicategory (1)
- multidimensional datasets (1)
- multigrid method (1)
- multinomial regression (1)
- multiplicative decomposition (1)
- multiplikative Zerlegung (1)
- nahekritischer Zustandsbereich (1)
- naturfaserverstärkte Kunststoffe (1)
- near-critical ethene+water+propanol (1)
- nonlinear diffusion filtering (1)
- numerische Mechanik (1)
- peptide (1)
- phase equilibria (1)
- phylogeny (1)
- phylogeography (1)
- polyphenols (1)
- poroelasticity (1)
- precipitation (1)
- probabilistic model checking (1)
- probabilistic timed automata (1)
- protein (1)
- quorum sensing (1)
- ray casting (1)
- ray tracing (1)
- reinforced thermoplastics (1)
- repeated batch cultivation (1)
- retention soil filter (1)
- root-reactions (1)
- salt (1)
- secondary structure (1)
- seismic tomography (1)
- sensors (1)
- sepsis (1)
- shear bearing capacity (1)
- siRNA (1)
- simplex algorithm (1)
- sodium sulfate (1)
- spherical approximation (1)
- spin trapping (1)
- splines (1)
- stop- and play-operator (1)
- storage (1)
- sulfonate recognition (1)
- supramolecular chemistry (1)
- synchronization of cyclic processes (1)
- thiazolidinediones (1)
- time of flight mass spectrometry (1)
- time-varying flow fields (1)
- topological asymptotic expansion (1)
- topological incongruence (1)
- topologische Inkongruenz (1)
- transfection (1)
- urban planning (1)
- vector bundles (1)
- vector field visualization (1)
- virus-transmission (1)
- viscoelasticity (1)
- visualization (1)
- wahrscheinlichkeitsbasierte Modellverifikation (1)
- water (1)
- web opening (1)
- zeitabhängige Strömungen (1)
- zoledronic acid (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (19)
- Kaiserslautern - Fachbereich Mathematik (14)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich Informatik (7)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
The main aim of this work was to obtain an approximate solution of the seismic traveltime tomography problems with the help of splines based on reproducing kernel Sobolev spaces. In order to be able to apply the spline approximation concept to surface wave as well as to body wave tomography problems, the spherical spline approximation concept was extended for the case where the domain of the function to be approximated is an arbitrary compact set in R^n and a finite number of discontinuity points is allowed. We present applications of such spline method to seismic surface wave as well as body wave tomography, and discuss the theoretical and numerical aspects of such applications. Moreover, we run numerous numerical tests that justify the theoretical considerations.
Thermoelasticity represents the fusion of the fields of heat conduction and elasticity in solids and is usually characterized by a twofold coupling. Thermally induced stresses can be determined as well as temperature changes caused by deformations. Studying the mutual influence is subject of thermoelasticity. Usually, heat conduction in solids is based on Fourier’s law which describes a diffusive process. It predicts unnatural infinite transmission speed for parts of local heat pulses. At room temperature, for example, these parts are strongly damped. Thus, in these cases most engineering applications are described satisfactorily by the classical theory. However, in some situations the predictions according to Fourier’s law fail miserable. One of these situations occurs at temperatures near absolute zero, where the phenomenon of second sound1 was discovered in the 20th century. Consequently, non-classical theories experienced great research interest during the recent decades. Throughout this thesis, the expression “non-classical” refers to the fact that the constitutive equation of the heat flux is not based on Fourier’s law. Fourier’s classical theory hypothesizes that the heat flux is proportional to the temperature gradient. A new thermoelastic theory, on the one hand, needs to be consistent with classical thermoelastodynamics and, on the other hand, needs to describe second sound accurately. Hence, during the second half of the last century the traditional parabolic heat equation was replaced by a hyperbolic one. Its coupling with elasticity leads to non-classical thermomechanics which allows the modeling of second sound, provides a passage to the classical theory and additionally overcomes the paradox of infinite wave speed. Although much effort is put into non-classical theories, the thermoelastodynamic community has not yet agreed on one approach and a systematic research is going on worldwide.Computational methods play an important role for solving thermoelastic problems in engineering sciences. Usually this is due to the complex structure of the equations at hand. This thesis aims at establishing a basic theory and numerical treatment of non-classical thermoelasticity (rather than dealing with special cases). The finite element method is already widely accepted in the field of structural solid mechanics and enjoys a growing significance in thermal analyses. This approach resorts to a finite element method in space as well as in time.
The nowadays increasing number of fields where large quantities of data are collected generates an emergent demand for methods for extracting relevant information from huge databases. Amongst the various existing data mining models, decision trees are widely used since they represent a good trade-off between accuracy and interpretability. However, one of their main problems is that they are very instable, which complicates the process of the knowledge discovery because the users are disturbed by the different decision trees generated from almost the same input learning samples. In the current work, binary tree classifiers are analyzed and partially improved. The analysis of tree classifiers goes from their topology from the graph theory point of view to the creation of a new tree classification model by means of combining decision trees and soft comparison operators (Mlynski, 2003) with the purpose to not only overcome the well known instability problem of decision trees, but also in order to confer the ability of dealing with uncertainty. In order to study and compare the structural stability of tree classifiers, we propose an instability coefficient which is based on the notion of Lipschitz continuity and offer a metric to measure the proximity between decision trees. This thesis converges towards its main part with the presentation of our model ``Soft Operators Decision Tree\'\' (SODT). Mainly, we describe its construction, application and the consistency of the mathematical formulation behind this. Finally we show the results of the implementation of SODT and compare numerically the stability and accuracy of a SODT and a crisp DT. The numerical simulations support the stability hypothesis and a smaller tendency to overfitting the training data with SODT than with crisp DT is observed. A further aspect of this inclusion of soft operators is that we choose them in a way so that the resulting goodness function (used by this method) is differentiable and thus allows to calculate the best split points by means of gradient descent methods. The main drawback of SODT is the incorporation of the unpreciseness factor, which increases the complexity of the algorithm.
Unternehmen sind heute mit einem globalen Wettbewerb und großen Herausforderungen konfrontiert, wie z. B. kurzen Produktlebenszyklen oder hohen Anforderungen an die Prozess- und Ergebnissicherheit. Verschiedene daten- und technologiegetriebene sowie prozessorientierte Ansätze der Produktionsgestaltung versuchen, Lösungen für Produktionssysteme zu entwickeln, um diese Herausforderungen zu bewältigen und im globalen Wettbewerb bestehen zu können. Jede einzelne Richtung der Produktionsgestaltung weist dabei Vorteile und Defizite auf. Durch „Smart Production Systems“ werden die Grundideen der einzelnen Ansätze, die bisher als unvereinbar galten, zusammengeführt. Dadurch können einzelne Defizite ausgeglichen werden, ohne auf die bekannten Vorteile zu verzichten. Der Grundgedanke von „Smart Production Systems“ ist es, „wissensinkorporierte Objekte“ in Produktionsprozessen einzusetzen, um die Abläufe jederzeit nachvollziehbar und damit das zugehörige Produktionssystem sicher, effizient und flexibel zu gestalten. Wissensinkorporierte Objekte stellen dabei Produktionsobjekte dar, die neben ihrer eigentlichen Funktion informationstechnische Funktionen besitzen, mittels derer sie Daten speichern und wieder bereitstellen können. Der Einsatz wissensinkorporierter Objekte in „Smart Production Systems“ kann mit Hilfe des Konzepts Gestaltungswürfels „Smart Cube“ strukturiert analysiert, geplant, konzeptioniert, bewertet, implementiert, genutzt und gesichert werden. Das Konzept des Gestaltungswürfels „Smart Cube“ wird durch ein Organisations-, ein Referenz-, ein Umsetzungsmodell und mehrere spezifische Anwendungsmodelle beschrieben: 1) Das Organisationsmodell erläutert als Ansatzpunkt von „Smart Production Systems“ die Stellung des Informationsflusses und Materialfluss sowie den Zusammenhang zwischen Datenmenge und Entscheidungsreichweite innerhalb einer Produktionsorganisation. 2) Das Referenzmodell wird aus den drei räumlichen Achsen Wirkungs-, Objekt- und Prozess- sowie Informationsstruktur aufgebaut. Es erfüllt folgende Aufgaben: - Es beschreibt die grundsätzlichen Ausprägungen von Wirkungs-, Objekt- und Prozess- sowie Informationsstrukturen und deren Kombinationsmöglichkeiten innerhalb von Produktionssystemen. - Es erläutert die Zusammenhänge zwischen Technologie-, Logistik- und Kommunikationskomplexität und ermöglicht damit die Einordnung von spezifischen Produktionssystemen in das Referenzmodell. - Mit den verschiedenen Koordinaten der einzelnen Achsen liefert es eine Systematik zur Bezeichnung der verschiedenen möglichen Kombinationen, die es ermöglicht, Anwendungsmodelle aus dem Referenzmodell abzuleiten. 3) Die Anwendungsmodelle konkretisieren das Referenzmodell hinsichtlich der in einem Produktionssystem enthaltenen Objekte und Prozesse. Aufgrund der verschiedenen möglichen Kombinationen der Ausprägungen der einzelnen Strukturen im Referenzmodell lassen sich 27 verschiedene Anwendungsmodelle bilden. 4) Das Umsetzungsmodell beschreibt das Vorgehen bei der Gestaltung von Produktionssystemen mit Hilfe des Gestaltungswürfels „Smart Cube“ . Am Beispiel eines Neugestaltungsprojektes in einem Unternehmen aus der Automobilzulieferindustrie wird gezeigt, wie mit Hilfe des entwickelten Konzeptes Gestaltungswürfel „Smart Cube“ der Einsatz von wissensinkorporierten Objekten systematisch gestaltet werden kann: - Mit der Gestaltung von Kanbankarten zu wissensinkorporierten Objekten kann der manuelle Buchungsaufwand minimiert und der Anteil nicht-wertschöpfender Tätigkeiten klein gehalten werden. - Mit Hilfe des Einsatzes wissensinkorporierter Objekte in einem Fabriksystem können Zielkonflikte zwischen Sicherheit und Effizienz gelöst werden.
In this thesis we classify simple coherent sheaves on Kodaira fibers of types II, III and IV (cuspidal and tacnode cubic curves and a plane configuration of three concurrent lines). Indecomposable vector bundles on smooth elliptic curves were classified in 1957 by Atiyah. In works of Burban, Drozd and Greuel it was shown that the categories of vector bundles and coherent sheaves on cycles of projective lines are tame. It turns out, that all other degenerations of elliptic curves are vector-bundle-wild. Nevertheless, we prove that the category of coherent sheaves of an arbitrary reduced plane cubic curve, (including the mentioned Kodaira fibers) is brick-tame. The main technical tool of our approach is the representation theory of bocses. Although, this technique was mainly used for purely theoretical purposes, we illustrate its computational potential for investigating tame behavior in wild categories. In particular, it allows to prove that a simple vector bundle on a reduced cubic curve is determined by its rank, multidegree and determinant, generalizing Atiyah's classification. Our approach leads to an interesting class of bocses, which can be wild but are brick-tame.
Embedded systems have become ubiquitous in everyday life, and especially in the automotive industry. New applications challenge their design by introducing a new class of problems that are based on a detailed analysis of the environmental situation. Situation analysis systems rely on models and algorithms of the domain of computational geometry. The basic model is usually an Euclidean plane, which contains polygons to represent the objects of the environment. Usual implementations of computational geometry algorithms cannot be directly used for safety-critical systems. First, a strict analysis of their correctness is indispensable and second, nonfunctional requirements with respect to the limited resources must be considered. This thesis proposes a layered approach to a polygon-processing system. On top of rational numbers, a geometry kernel is formalised at first. Subsequently, geometric primitives form a second layer of abstraction that is used for plane sweep and polygon algorithms. These layers do not only divide the whole system into manageable parts but make it possible to model problems and reason about them at the appropriate level of abstraction. This structure is used for the verification as well as the implementation of the developed polygon-processing library.
The lattice Boltzmann method (LBM) is a numerical solver for the Navier-Stokes equations, based on an underlying molecular dynamic model. Recently, it has been extended towardsthe simulation of complex fluids. We use the asymptotic expansion technique to investigate the standard scheme, the initialization problem and possible developments towards moving boundary and fluid-structure interaction problems. At the same time, it will be shown how the mathematical analysis can be used to understand and improve the algorithm. First of all, we elaborate the tool "asymptotic analysis", proposing a general formulation of the technique and explaining the methods and the strategy we use for the investigation. A first standard application to the LBM is described, which leads to the approximation of the Navier-Stokes solution starting from the lattice Boltzmann equation. As next, we extend the analysis to investigate origin and dynamics of initial layers. A class of initialization algorithms to generate accurate initial values within the LB framework is described in detail. Starting from existing routines, we will be able to improve the schemes in term of efficiency and accuracy. Then we study the features of a simple moving boundary LBM. In particular, we concentrate on the initialization of new fluid nodes created by the variations of the computational fluid domain. An overview of existing possible choices is presented. Performing a careful analysis of the problem we propose a modified algorithm, which produces satisfactory results. Finally, to set up an LBM for fluid structure interaction, efficient routines to evaluate forces are required. We describe the Momentum Exchange algorithm (MEA). Precise accuracy estimates are derived, and the analysis leads to the construction of an improved method to evaluate the interface stresses. In conclusion, we test the defined code and validate the results of the analysis on several simple benchmarks. From the theoretical point of view, in the thesis we have developed a general formulation of the asymptotic expansion, which is expected to offer a more flexible tool in the investigation of numerical methods. The main practical contribution offered by this work is the detailed analysis of the numerical method. It allows to understand and improve the algorithms, and construct new routines, which can be considered as starting points for future researches.
Stadtentwicklungsplanung erfährt in Mittelstädten im Strukturwandel und Schrumpfungsprozess einen Bedeu-tungszuwachs. Die Renaissance einer umfassenderen integrierten Entwicklungsplanung durch die Programme „Soziale Stadt“ und „Stadtumbau-West“ führt dazu, dass ressortübergreifende Zusammenarbeit innerhalb der Kommunalverwaltung einer Steuerung durch die Stadtentwicklungsplanung bedarf. Die Aufgabe der Erstellung integrativer Konzepte, der Beobachtung von Entwicklungsprozessen, der Schaffung von Ämternetzwerken und besonderer Organisationsformen außerhalb der Hierarchie im Rahmen des Projektmanagements, die Aktivierung der Bürgerschaft und neue Formen der Zusammenarbeit mit wirtschaftlichen Akteuren erfordern eine stärkere Einbeziehung der Stadtentwicklungsplanung in die strategische Verantwortung im Rahmen des Neuen Steuerungsmodells. Schrumpfende Städte bedürfen einer verstärkten Teilhabe aller Bevölkerungsgruppen an einer nachhaltigen Stadtentwicklung. Die kommunale Finanznotlage und ein verstärktes Demokratiebedürfnis führen zu einer Forderung nach einer aktiven Bürgerkommune, die Teilbereiche des öffentlichen Lebens übernimmt. Der Wandel im Selbstverständnis der Verwaltung vom government zur governance ist untrennbar verbunden mit einer verstärkten Einbeziehung der gesellschaftlichen und wirtschaftlichen Akteure in die Stadtentwicklung und führt zu einem neuen Rollenverständnis der Stadtentwicklungsplanung. Die vergangenen Anforderungen der Industriegesellschaft unterscheiden sich von den aktuellen Anforderungen der Dienstleistungs- und Wissensgesellschaft an die städtische Infrastruktur und Gesellschaft. Nachhaltigkeit einer neu zu erarbeitenden Stadtentwicklungsstrategie kann daher nur erzeugt werden, wenn die Änderungsprozesse erfasst und in das Anforderungsprofil der Stadtentwicklung miteinbezogen werden. Zusammen mit den Forderungen nach mehr Partizipation und Kommunikation folgt daraus für die Raumplanung, dass nicht nur ein verantwortungsvoller und handwerklich genauer Einsatz der ingenieurwissenschaftlichen Methoden und Instrumente gefragt ist, sondern auch im verstärkten Maße eine soziale und kommunikative Kompetenz der Planerinnen und Planer gefordert ist. Vor dem Hintergrund der aktuellen Schrumpfungsprozesse und dem Wandel der Industriegesellschaft zur Dienstleistungs- und Wissensgesellschaft wird dem in der wissenschaftlichen Diskussion teilweise in Frage gestellten Leitbild der Europäischen Stadt eine neue Bedeutung zugemessen. Indem die Kernstädte Infrastruktur-leistungen bündeln, ein größeres Angebot für verschiedene Lebensstile zulassen und als Kommunikations- und Knotenpunkt für neue Akteure in der Dienstleistungs- und Wissensgesellschaft dienen, wächst wieder die Be-deutung der Kernstädte im Verhältnis zu den Umlandgemeinden. Zusammenfassend ist festzustellen, dass eine nachhaltige zukunftsorientierte Urban Governance geprägt ist von einer kommunalen Kooperations- und Kommunikationsstruktur, in der Politik, Verwaltung – und hier insbeson-dere die Stadtentwicklungsplanung- gemeinsam mit den Akteuren aus Bürgerschaft und Wirtschaft tragfähige Visionen entwickeln, Ziele und Maßnahmen formulieren und gemeinsam realisieren.
Software stellt ein komplexes Werkzeug dar, das durch seine umfassenden Möglichkeiten die moderne Gesellschaft entscheidend geprägt hat. Daraus ergibt sich eine Abhängigkeit von Funktion und Fehlfunktion der Software, die eine an den funktionalen Anforderungen orientierte Entwicklung und Qualitätssicherung der Software notwendig macht. Die vorliegende Arbeit schafft durch Formalisierung und Systematisierung der Verfahren im funktionsorientierten Test eine fundierte Basis für eine Hinwendung zu den funktionsorientierten Techniken in Softwareentwicklung und –qualitätssicherung. Hierzu wird in der Arbeit zunächst ein formales Modell für das Vorgehen im dynamischen Test beschrieben, das sich an der Begriffsbildung der Literatur und dem Verständnis der Praxis orientiert. Das Modell beruht auf wenigen zentralen Annahmen, eignet sich für formale Untersuchungen und Nachweise und ist wegen seiner sehr allgemein gehaltenen Definitionen breit anwendbar und einfach erweiterbar. Auf dieser Basis werden Vorgehen und Verfahren zum funktionsorientierten Test analysiert. Zunächst wird dazu das Vorgehen im funktionsorientierten Test im Rahmen des Modells dargestellt. Darauf aufbauend werden zentrale Verfahren des funktionsorientierten Tests analysiert, die zum Gegenstand die systematische Prüfung der Umsetzung von weitgehend informal beschriebenen Anforderungen in einem Softwareprodukt haben. Betrachtet werden Verfahren der funktionalen Partitionierung, der funktionalen Äquivalenzklassenanalyse und Grenzwertbildung, Verfahren zur Prüfung von kausalen Zusammenhängen zwischen Ursachen und Wirkungen, Verfahren zur Prüfung von graphisch spezifizierter Funktionalität in Syntaxdiagrammen, Aktivitätsdiagrammen, Sequenz- und Kollaborationsdiagrammen und Petrinetzen, Verfahren zum Test zustandsbasierter Systeme sowie Ansätze einer funktionalen Dekomposition. Die Analyse und Diskussion der bekannten Verfahren im formalisierten Rahmenwerk führt zu zahlreichen Ergebnissen und Verfahrensergänzungen. So zeigt sich, dass in den klassischen, informalen Beschreibungen häufig Unklarheiten bestehen. Diese werden hier adressiert und durch Angabe von Kriterien präzisiert, Optimierungsmöglichkeiten werden aufgezeigt. Darüber hinaus wird an der einheitlichen formalen Darstellung der in der Literatur meist separat betrachteten Verfahren deutlich, welche Vergleichbarkeit zwischen den Verfahren besteht, welche Verfahrenskombinationen sinnvoll sind und wie durch ein kombiniert funktions- und strukturorientiertes Vorgehen eine hohe Aussagekraft in der analytischen Qualitätssicherung erreicht werden kann. Bei der Formulierung der Verfahren im Rahmen des Modells wird herausgearbeitet, wo zur Verfahrensdurchführung die kreative Leistung des Testers notwendig ist und welche Anteile formalisiert und damit automatisiert unterstützt werden können. Diese Betrachtungen bilden die Grundlage für die Skizzierung einer integrierten Entwicklungsumgebung, in der ein funktionsorientiertes Vorgehen in Entwicklung und Qualitätssicherung umgesetzt wird: Hier helfen funktionsorientierte Beschreibungsformen bei der Angabe der Spezifikation, ihrer Verfeinerung und ihrer Vervollständigung, sie unterstützen die Entwicklung durch Modellbildung, sie liefern die Basis für eine funktionsorientierte Testdatenselektion mit Adäquatheitsprüfung, sie können bei geeigneter Interpretierbarkeit über den Datenbereichen zur automatisierten Testfallgenerierung genutzt werden und unterstützen als suboptimale Testorakel eine automatisierte Auswertung des dynamischen Tests. Diese Skizze zeigt die praktische Umsetzbarkeit der vorwiegend theoretischen Ergebnisse dieser Arbeit und setzt einen Impuls für ein verstärktes Aufgreifen funktionsorientierter Techniken in Wissenschaft und Praxis.
Wässrige Lösungen sowohl neutraler als auch ionischer Polymerer gewinnen ein zunehmendes Interesse in vielen Bereichen. Für den Einsatz solcher Systeme muss deren Phasenverhalten bekannt sein. Die vorliegende Arbeit liefert einen Beitrag zum Phasengleichgewicht solcher Systeme. Als Bausteine der Polymere werden dabei sowohl die neutrale organischen Komponente Vinylpyrrolidon (VP) als auch ein ionisches Monomer auf Basis von Imidazolium (3-Methyl-1-vinyl-1H-Imidazoliummethylsulfat - QVI), als niedrigmolekularer Elektrolyt ausschließlich Natriumsulfat verwendet. Die vorliegende Arbeit hat zum Ziel, das Phasenverhalten einer Reihe technisch interessierender Systeme in experimentellen Untersuchungen bei 25 und 65°C zu bestimmen und damit eine Datenbasis für theoretische Arbeiten zu liefern, die im Anschluss an diese Untersuchungen im Zusammenhang mit der Entwicklung von Modellen zur Korrelation bzw. Vorhersage solcher Phasengleichgewichte vorgesehen sind. Die Grenze zwischen einem einphasigen, flüssigen Bereich und Zwei- bzw. Drei-Phasen-Gebieten wurde durch visuelle Bestimmung der Trübung bei der Titration einer wässrigen Lösung (entweder des Polymeren oder des Salzes) bestimmt. Die Zusammensetzung der koexistierenden Phasen wurde in Phasengleichgewichtsexperimenten bestimmt, bei denen Proben der koexistierenden Phasen analysiert wurden. Dazu wurden mehrere Analysenmethoden entwickelt/erprobt (z. B. die Gefriertrocknung, die thermische (gravimetrische) Analyse, die Gaschromatographie und die Ionenchromatographie). Insgesamt wurden für 42 Systeme der Verlauf der Trübungskurve und für 34 Systeme das Phasengleichgewicht bestimmt. Dabei handelte es sich überwiegend um ternäre Systeme aus einem Polymeren (auf Basis von VP und/bzw. QVI), Natriumsulfat und Wasser, teilweise auch um quaternäre Systeme aus den zuvor erwähnten Komponenten und einem der Monomeren (VP bzw. QVI). Dabei zeigte die Mehrzahl der untersuchten Systeme eine flüssig-flüssig Entmischung, teilweise jedoch auch nur die häufiger anzutreffenden Fest-Flüssig-Phasengleichgewichte (z.B. Ausfall eines Salzes als Feststoff). Die experimentellen Untersuchungen wurden insbesondere bei hohen Polymerkonzentrationen durch die Zähigkeit der wässrigen Lösungen erschwert. Neben den Untersuchungen zum Phasengleichgewicht in ternären und quaternären Systemen wurden im Hinblick auf die in weiterführenden Arbeiten geplanten Modellierungsarbeiten auch experimentelle Untersuchungen an binären Subsystemen durchgeführt. Dabei handelte es sich ausschließlich um sogenannte isopiestische Messungen an wässrigen Lösungen der Polymere bzw. der Monomere. In solchen Untersuchungen wird der Einfluss der Wechselwirkungen zwischen den Molekülen eines in Wasser gelösten Stoffes auf den Dampfdruck der Lösung bestimmt. Der dabei quantitativ bestimmte Einfluss von Art und Menge des Polymeren auf den Dampfdrucks des Lösungsmittels soll in weiterführenden Arbeiten zur Bestimmung von Parametern thermodynamischer Modelle zur Beschreibung der Gibbsschen Exzessenergie wässriger Polymerlösungen verwendet werden. Die Ergebnisse der experimentellen Untersuchungen zum Flüssig-Flüssig bzw. Fest-Flüssig-Phasengleichgewicht lassen sich folgendermaßen charakterisieren: In fast allen Systemen mit Polymeren auf Basis von Vinylpyrrolidon wurden Flüssig-Flüssig-Gleichgewichte mit einer salzreichen, nahezu polymerfreien wässrigen Phase und einer polymerreichen wässrigen auch salzhaltigen flüssigen Phase gefunden. D. h. in einem Gibbsschen Dreiecksdiagramm, in dem die Zusammensetzung einer ternären Mischung (mit Hilfe des Konzentrationsmaßes „Massenanteil“ ausgedrückt) durch einen Punkt dargestellt wird zeigt die Phasengrenze zwischen dem einphasigen und dem mehrphasigen Gebiet eine starke Asymmetrie. Der Wassergehalt der polymerreichen Phase ist dabei häufig deutlich geringer als der Wassergehalt der salzreichen Phase. In Systemen mit (Natriumsulfat und) Polymeren auf Basis des Imidazoliumsalzes QVI wurden dagegen überwiegend Fest-Flüssig-Gleichgewichte beobachtet. Es zeigte sich, dass die Molmasse der verwendeten Polymere nur einen vergleichsweise geringen Einfluss auf die Ausdehnung des einphasigen flüssigen Gebietes hat. I. d. R. nimmt mit steigender Molmasse die Ausdehnung der Mischungslücke zu. Auch der Temperatureinfluss auf die beobachteten Phasengleichgewichte ist relativ gering. Dies war im Fall der Polymere auf Basis von Vinylpyrrolidon aus früheren Untersuchungen an wässrigen, salzfreien Lösungen dieser Polymere zu erwarten. Wie schon erwähnt, sind die Ergebnisse der vorliegenden Arbeit im Zusammenhang mit dem Einsatz solcher polymer- und salzhaltigen Systeme in verschiedenen Bereichen von Interesse. Sie bilden aber auch die Datenbasis für anstehende theoretische Arbeiten, die sich mit der Entwicklung thermodynamischer Modelle zur Beschreibung von Phasengleich- gewichten salz- und polymerhaltiger, wässriger Systeme beschäftigen werden.
In der vorliegenden Arbeit werden Sekundärstrukturmotive von isolierten Peptiden und Peptid-Aggregaten in der Gasphase analysiert. Zur Untersuchung ihrer intrinsischen Eigenschaften werden die isolierten Peptide durch adiabatische Abkühlung in Molekularstrahlen erzeugt. Durch die Anwendung hochsensitiver Techniken der Doppelresonanzspektroskopie, Resonante zwei Photonen Ionisation (R2PI) und Infrarot/Resonante zwei Photonen Ionisation (IR/R2PI), werden die Peptide und Peptid-Aggregate hinsichtlich ihrer Elektronen – und Schwingungsübergängen analysiert. Die Schwingungsfrequenzen im Bereich der Amid A, I, II Moden und im oberen „Fingerprintbereich“ von Peptiden sind sehr signifikant für die Geometrie des Rückgrates und der Seitenketten, z.B. unterscheiden sich Schwingungen von Gruppen, die an Wasserstoffbrückenbindungen beteiligt sind, sehr stark durch ihre Lage und Intensität gegenüber Schwingungen von frei vorliegenden Gruppen. Ein Vergleich mit berechneten Schwingungsfrequenzen aus ab initio und Dichtefunktionaltheorie Rechnungen ermöglicht eine Zuordnung zu einer bestimmten Struktur. Es werden in dieser Arbeit verschiedene Sekundärstrukturen über die Analyse von geschützten Aminosäuren, Di- und Tripeptiden untersucht. Insbesondere gelang es erstmals, ein ß-Faltblattmodellsystem für ein isoliertes Dimer eines Peptids nachzuweisen. Weiterhin werden zum molekularen Verständnis der Mikrosolvatation Aggregate mit Wassermolekülen betrachtet und somit der Einfluss auf die Sekundärstruktur durch sukzessive Aggregation von Wassermolekülen analysiert. In Kooperation mit Prof. Schrader (Universität Duisburg-Essen) werden Templatmoleküle charakterisiert, um ihre Fähigkeiten zur Anlagerung an schädliche ß-Faltblattstrukturen zu untersuchen, die in sogenannten neurodegenerativen Krankheiten häufig auftreten. Die Effizienz ist sowohl über die Analyse der Zahl und Stärke der inter- und intramolekularen Wasserstoffbrückenbindungen als auch über die gebildete Clusterstruktur untersucht worden.
The visualization of numerical fluid flow datasets is essential to the engineering processes that motivate their computational simulation. To address the need for visual representations that convey meaningful relations and enable a deep understanding of flow structures, the discipline of Flow Visualization has produced many methods and schemes that are tailored to a variety of visualization tasks. The ever increasing complexity of modern flow simulations, however, puts an enormous demand on these methods. The study of vortex breakdown, for example, which is a highly transient and inherently three-dimensional flow pattern with substantial impact wherever it appears, has driven current techniques to their limits. In this thesis, we propose several novel visualization methods that significantly advance the state of the art in the visualization of complex flow structures. First, we propose a novel scheme for the construction of stream surfaces from the trajectories of particles embedded in a flow. These surfaces are extremely useful since they naturally exploit coherence between neighboring trajectories and are highly illustrative in nature. We overcome the limitations of existing stream surface algorithms that yield poor results in complex flows, and show how the resulting surfaces can be used a building blocks for advanced flow visualization techniques. Moreover, we present a visualization method that is based on moving section planes that travel through a dataset and sample the flow. By considering the changes to the flow topology on the plane as it moves, we obtain a method of visualizing topological structures in three-dimensional flows that are not accessible by conventional topological methods. On the same algorithmic basis, we construct an algorithm for the tracking of critical points in such flows, thereby enabling the treatment of time-dependent datasets. Last, we address some problems with the recently introduced Lagrangian techniques. While conceptually elegant and generally applicable, they suffer from an enormous computational cost that we significantly use by developing an adaptive approximation algorithm. This allows the application of such methods on very large and complex numerical simulations. Throughout this thesis, we will be concerned with flow visualization aspect of general practical significance but we will particularly emphasize the remarkably challenging visualization of the vortex breakdown phenomenon.
Modelling languages are important in the process of software development. The suitability of a modelling language for a project depends on its applicability to the target domain. Here, domain-specific languages have an advantage over more general modelling languages. On the other hand, modelling languages like the Unified Modeling Language can be used in a wide range of domains, which supports the reuse of development knowledge between projects. This thesis treats the syntactical and semantical harmonisation of modelling languages and their combined use, and the handling of complexity of modelling languages by providing language subsets - called language profiles - with tailor-made formal semantics definitions, generated by a profile tool. We focus on the widely-used modelling languages SDL and UML, and formal semantics definitions specified using Abstract State Machines.
Die Architekturen vieler technischer Systeme sind derzeit im Umbruch. Der fortschreitende Einsatz von Netzwerken aus intelligenten rechnenden Knoten führt zu neuen Anforderungen an den Entwurf und die Analyse der resultierenden Systeme. Dabei spielt die Analyse des Zeitverhaltens mit seinen Bezügen zu Sicherheit und Performanz eine zentrale Rolle. Netzbasierte Automatisierungssysteme (NAS) unterscheiden sich hierbei von anderen verteilten Echtzeitsystemen durch ihr zyklisches Komponentenverhalten. Das aus der asynchronen Verknüpfung entstehende Gesamtverhalten ist mit klassischen Methoden kaum analysierbar. Zur Analyse von NAS wird deshalb der Einsatz der wahrscheinlichkeitsbasierten Modellverifikation (PMC) vorgeschlagen. PMC erlaubt detaillierte, quantitative Aussagen über das Systemverhalten. Für die dazu notwendige Modellierung des Systems auf Basis wahrscheinlichkeitsbasierter, zeitbewerteter Automaten wird die Beschreibungssprache DesLaNAS eingeführt. Exemplarisch werden der Einfluss verschiedener Komponenten und Verhaltensmodi auf die Antwortzeit eines NAS untersucht und die Ergebnisse mittels Labormessungen validiert.
In this dissertation we present analysis of macroscopic models for slow dense granular flow. Models are derived from plasticity theory with yield condition and flow rule. Corner stone equations are conservation of mass and conservation of momentum with special constitutive law. Such models are considered in the class of generalised Newtonian fluids, where viscosity depends on the pressure and modulo of the strain-rate tensor. We showed the hyperbolic nature for the evolutionary model in 1D and ill-posed behaviour for 2D and 3D. The steady state equations are always hyperbolic. In the 2D problem we derived a prototype nonlinear backward parabolic equation for the velocity and the similar equation for the shear-rate. Analysis of derived PDE showed the finite blow up time. Blow up time depends on the initial condition. Full 2D and antiplane 3D model were investigated numerically with finite element method. For 2D model we showed the presence of boundary layers. Antiplane 3D model was investigated with the Runge Kutta Discontinuous Galerkin method with mesh addoption. Numerical results confirmed that such a numerical method can be a good choice for the simulations of the slow dense granular flow.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung fluoreszenzmarkierter Pyrrolin-N-oxide sowie von Stilbennitronen. Diese Verbindungen sind aufgrund ihrer chemischen Struktur zum Abfangen kurzlebiger Radikale befähigt, wobei sie selbst zu einem langlebigen Radikal-Addukt reagieren. Diese Methode ist unter dem Namen „Spin-Trapping“ bekannt und wird bevorzugt zum Nachweis reaktiver Sauerstoffspezies in biologischen Systemen eingesetzt. Zu diesem Zweck wurde zunächst die Synthese der Spin-Trap EMPO etabliert und versucht, diese durch Umesterung mit einem Fluoreszenzfarbstoff zu markieren. Da dieser Syntheseweg erfolglos blieb, wurden die neuen Spin-Trap-Verbindungen BocAEMPO, AEMPO, BocEAEMPO und EAEMPO synthetisiert. Versuche zur Umsetzung dieser Verbindungen mit einer Reihe von Fluoreszenzfarbstoffen verliefen jedoch ebenfalls ohne Erfolg. Ursache hierfür ist die ausgeprägte Reaktivität der zum Spin-Trapping benötigten Nitron-Gruppe. Die hierzu benötigten NBD- und BODIPY-Farbstoffderivate wurden ebenfalls selbst synthetisiert. Weiterhin wurden Versuche zur Direktsynthese einer fluoreszenzmarkierten Spin-Trap unternommen. Ziel war hierbei, vor dem Erzeugen der Nitron-Gruppe bereits ein Fluorophor im Molekül einzubauen. Diese Versuche scheiterten jedoch an der Empfindlichkeit der verwendeten Farbstoffe. In einem Fall konnte zwar ein BODIPY-System erfolgreich unter den Bedingungen der Nitronsynthese erhalten werden, jedoch war das erhaltene Produkt nicht eindeutig charakterisierbar. Weiterhin wurde die Synthese von DEPMPO etabliert und erste Versuche zur Modifikation dieser Spin-Trap unternommen. Die neu synthetisierten Spin-Traps wurden mit sechs verschiedenen Radikalen zu ihren Addukten umgesetzt und durch ESR-Spektroskopie charakterisiert. Aus den durchgeführten Kinetikmessungen wurden die Zerfallskonstanten und die Halbwertszeiten der Spin-Addukte bestimmt. In einem weiteren Teil dieser Arbeit wurden Stilbennitrone hergestellt. Hierbei wurde die Synthese von Stilbenaldehyd-Derivaten mittels Heck-Reaktionen etabliert und im Anschluss drei verschiedenen Stilbennitrone synthetisiert. Diese wurden sowohl ESR- als auch UV- und Fluoreszenz-spektroskopisch charakterisiert. Mit der Verbindung Nitrostilbennitron wurden erste Versuche zum Fluoreszenzquenching und zur Inkubation von COS7-Zellen unternommen. Bei den Quenchingversuchen konnten die erwarteten Effekte bei der Reaktion mit OH-Radikalen gemessen werden. Die Inkubation der COS7-Zellen verlief ebenfalls erfolgreich, wobei hier jedoch aufgrund technischer Limitierungen auf Seiten der verfügbaren Mikroskope keine Aussagen zur Spezifität der erreichten Färbung getroffen werden können.
Feature Based Visualization
(2007)
In this thesis we apply powerful mathematical tools such as interval arithmetic for applications in computational geometry, visualization and computer graphics, leading to robust, general and efficient algorithms. We present a completely novel approach for computing the arrangement of arbitrary implicit planar curves and perform ray casting of arbitrary implicit functions by jointly achieving, for the first time, robustness, efficiency and flexibility. Indeed we are able to render even the most difficult implicits in real-time with guaranteed topology and at high resolution. We use subdivision and interval arithmetic as key-ingredients to guarantee robustness. The presented framework is also well-suited for applications to large and unstructured data sets due to the inherent adaptivity of the techniques that are used. We also approach the topic of tensors by collaborating with mechanical engineers on comparative tensor visualization and provide them with helpful visualization paradigms to interpret the data.
The main concern of this contribution is the computational modeling of biomechanically relevant phenomena. To minimize resource requirements, living biomaterials commonly adapt to changing demands. One way to do so is the optimization of mass. For the modeling of biomaterials with changing mass, we distinguish between two different approaches: the coupling of mass changes and deformations at the constitutive level and at the kinematic level. Mass change at the constitutive level is typically realized by weighting the free energy function with respect to the density field, as experimentally motivated by Carter and Hayes [1977] and computationally realized by Harrigan and Hamilton [1992]. Such an ansatz enables the simulation of changes in density while the overall volume remains unaffected. In this contribution we call this effect remodeling. Although in principle applicable for small and large strains, this approach is typically adopted for hard tissues, e.g. bone, which usually undergo small strain deformations. Remodeling in anisotropic materials is realized by choosing an appropriate anisotropic free energy function. <br> Within the kinematic coupling, a changing mass is characterized through a multiplicative decomposition of the deformation gradient into a growth part and an elastic part, as first introduced in the context of plasticity by Lee [1969]. In this formulation, which we will refer to as growth in the following, mass changes are attributed to changes in volume while the material density remains constant. This approach has classically been applied to model soft tissues undergoing large strains, e.g. the arterial wall. The first contribution including this ansatz is the work by Rodriguez, Hoger and McCulloch [1994]. To model anisotropic growth, an appropriate anisotropic growth deformation tensor has to be formulated. In this contribution we restrict ourselves to transversely isotropic growth, i.e., growth characterized by one preferred direction. On that account, we define a transversely isotropic growth deformation tensor determined by two variables, namely the stretch ratios parallel and perpendicular to the characteristic direction. <br> Another method of material optimization is the adaption of the inner structure f a material to its loading conditions. In anisotropic materials this can be realized by a suitable orientation of the material directions. For example, the trabeculae in the human femur head are oriented such that they can carry the daily loads with an optimum mass. Such a behavior can also be observed in soft tissues. For instance, the fibers of muscles and the collagen fibers in the arterial wall are oriented along the loading directions to carry a maximum of mechanical load. If the overall loading conditions change, for instance during a balloon angioplasty or a stent implantation, the material orientation readapts, which we call reorientation. The anisotropy type in biomaterials is often characterized by fiber reinforcement. A particular subclass of tissues, which includes muscles, tendons and ligaments, is featured by one family of fibers. More complex microstructures, such as arterial walls, show two fiber families, which do not necessarily have to be perpendicular. Within this contribution we confine ourselves to the first case, i.e., transversely isotropic materials indicated by one characteristic direction. The reorientation of the fiber direction in biomaterials is commonly smooth and continuous. For transverse isotropy it can be described by a rotation of the characteristic direction. Analogous to the theory of shells, we additionally exclude drilling rotations, see also Menzel [2006]. However, the driving force for these reorientation processes is still under discussion. Mathematical considerations promote strain driven reorientations. As discussed, for instance, in Vianello [1996], the free energy reaches a critical state for coaxial stresses and strains. For transverse isotropy, it can be shown that this can be achieved if the characteristic direction is aligned with a principal strain direction. From a biological point of view, depending on the kind of material (i.e. bone, muscle tissue, cartilage tissue, etc.), both strains and stresses can be suggested as stimuli for reorientation. Thus, whithin this contribution both approaches are investigated. <br> In contrast to previous works, in which remodeling, growth and reorientation are discussed separately, the present work provides a framework comprising all of the three mentioned effects at once. This admits a direct comparison how and on which level the individual phenomenon is introduced into the material model, and which influence it has on the material behavior. For a uniform description of the phenomenological quantities an internal variable approach is chosen. Moreover, we particularly focus on the algorithmic implementation of the three effects, each on its own, into a finite element framework. The nonlinear equations on the local and the global level are solved by means of the Newton-Raphson scheme. Accordingly, the local update of the internal variables and the global update of the deformation field are consistently linearized yielding the corresponding tangent moduli. For an efficient implementation into a finite element code, unitized update algorithms are given. The fundamental characteristics of the effects are illustrated by means of some representative numerical simulations. Due to the unified framework, combinations of the individual effects are straightforward.
In the thesis the author presents a mathematical model which describes the behaviour of the acoustical pressure (sound), produced by a bass loudspeaker. The underlying physical propagation of sound is described by the non--linear isentropic Euler system in a Lagrangian description. This system is expanded via asymptotical analysis up to third order in the displacement of the membrane of the loudspeaker. The differential equations which describe the behaviour of the key note and the first order harmonic are compared to classical results. The boundary conditions, which are derived up to third order, are based on the principle that the small control volume sticks to the boundary and is allowed to move only along it. Using classical results of the theory of elliptic partial differential equations, the author shows that under appropriate conditions on the input data the appropriate mathematical problems admit, by the Fredholm alternative, unique solutions. Moreover, certain regularity results are shown. Further, a novel Wave Based Method is applied to solve appropriate mathematical problems. However, the known theory of the Wave Based Method, which can be found in the literature, so far, allowed to apply WBM only in the cases of convex domains. The author finds the criterion which allows to apply the WBM in the cases of non--convex domains. In the case of 2D problems we represent this criterion as a small proposition. With the aid of this proposition one is able to subdivide arbitrary 2D domains such that the number of subdomains is minimal, WBM may be applied in each subdomain and the geometry is not altered, e.g. via polygonal approximation. Further, the same principles are used in the case of 3D problem. However, the formulation of a similar proposition in cases of 3D problems has still to be done. Next, we show a simple procedure to solve an inhomogeneous Helmholtz equation using WBM. This procedure, however, is rather computationally expensive and can probably be improved. Several examples are also presented. We present the possibility to apply the Wave Based Technique to solve steady--state acoustic problems in the case of an unbounded 3D domain. The main principle of the classical WBM is extended to the case of an external domain. Two numerical examples are also presented. In order to apply the WBM to our problems we subdivide the computational domain into three subdomains. Therefore, on the interfaces certain coupling conditions are defined. The description of the optimization procedure, based on the principles of the shape gradient method and level set method, and the results of the optimization finalize the thesis.
Nichtlinearer Horizontaler Bettungsmodulansatz für Trägerbohlwände in mitteldicht gelagertem Sand
(2007)
In der allgemeinen Baugrubenstatik für Trägerbohlwände werden haltende Kräfte vor dem im Baugrund einbindenden Teil des Trägers dem Erdwiderstand gleichgesetzt. Der Erwiderstand kann jedoch nur im Grenzzustand vollständig mobilisiert werden, was ausreichend große Verschiebungen am Trägerfuß voraussetzt. Die Abhängigkeit der tatsächlich mobilisierten Erdwiderstandsspannungen von den Verschiebungen kann mathematisch durch den hori-zontalen Bettungsmodul ausgedrückt werden. Bislang liegen zum horizontalen Bettungsmodul nur grobe Näherungsansätze vor, die die tatsächlichen Wechselwirkungen zwischen Spannun-gen und Verschiebungen für beliebige Verschiebungsbilder nicht realitätsnah erfassen. Ziel dieser Arbeit ist eine realitätsnahe Beschreibung des horizontalen Bettungsmoduls und damit einer realistischere Berechnung des Trag- und Verformungsverhaltens von Trägerbohl-wänden. Zur Ermittlung des Bettungsmoduls in Größe und Verlauf sowie zur Untersuchung von Einflussfaktoren auf den Bettungsmodul werden dreidimensionale Berechnungen nach der Finiten-Elemente-Methode (FEM) durchgeführt. Dabei werden die maßgebendenden Einfluss-faktoren im Rahmen von Parameterstudien für in der Praxis häufig vorkommende Werte-intervalle untersucht. Die FEM-Berechnungen erfolgen für freistehende, einfach rückverankerte und zweifach rückverankterte Trägerbohlwände in mitteldicht gelagertem Sand. Den Berechnungen liegt ein nichtlineares, elastoplastisches Stoffgesetz zugrunde. Die FEM-Berechnungen werden an den Messergebnissen vorhandener Großversuche kalibriert. Die FEM-Parameterstudien belegen eine Abhängigkeit des Bettungsmoduls von der Verschiebung u, der Tiefe z/t und der Druckflächenbreite b. Aus den FEM-Parameterstudien abgeleitet wird ein iterativer, nichtlinearer Berechnungsansatz für den horizontalen Bettungsmodul ksh erarbeitet. Darüber hinaus wird als Anfangswert der Iteration in der Ingenieurpraxis ein einfacher, linearer Näherungsansatz für den horizontalen Bettungsmodul ermittelt.