Refine
Year of publication
- 2007 (145) (remove)
Document Type
- Doctoral Thesis (64)
- Report (37)
- Preprint (14)
- Periodical Part (13)
- Study Thesis (5)
- Working Paper (4)
- Diploma Thesis (3)
- Article (2)
- Conference Proceeding (2)
- Habilitation (1)
Keywords
- Phasengleichgewicht (4)
- numerical upscaling (4)
- Dienstgüte (3)
- Elastoplastizität (3)
- Model checking (3)
- Networked Automation Systems (3)
- Netzwerk (3)
- Response-Zeit (3)
- Visualisierung (3)
- hub location (3)
- probabilistic model checking (3)
- wahrscheinlichkeitsbasierte Modellverifikation (3)
- Apoptosis (2)
- Asymptotic Expansion (2)
- Automatisierungssystem (2)
- Computergraphik (2)
- Cyclopeptide (2)
- Darcy’s law (2)
- Elastoplasticity (2)
- Fluoreszenz (2)
- Formalisierung (2)
- GPU (2)
- Kontinuumsmechanik (2)
- Mixture Models (2)
- Modellierung (2)
- Multiresolution Analysis (2)
- Netzbasierte Automatisierungssysteme (2)
- Nichtlineare Finite-Elemente-Methode (2)
- Optionspreistheorie (2)
- Sobolev spaces (2)
- Spline-Approximation (2)
- Synchronisation zyklischer Prozesse (2)
- UML (2)
- Verbundbauweise (2)
- anisotropy (2)
- computational fluid dynamics (2)
- computational mechanics (2)
- continuum mechanics (2)
- cyclopeptides (2)
- distributed control systems (2)
- effective heat conductivity (2)
- finite volume method (2)
- heuristic (2)
- localizing basis (2)
- regularization (2)
- single phase flow (2)
- synchronization of cyclic processes (2)
- verteilte Steuerungen (2)
- 2-d kernel regression (1)
- 3D (1)
- A-infinity-bimodule (1)
- A-infinity-category (1)
- A-infinity-functor (1)
- ANTR5 (1)
- ASM (1)
- Abrasiver Verschleiß (1)
- Abrechnungsmanagement (1)
- Access Points (1)
- Accounting Agent (1)
- Ackerschmalwand (1)
- Acrylamid (1)
- Ad-hoc-Netz (1)
- Adaptive Entzerrung (1)
- Adjazenz-Beziehungen (1)
- Algorithmics (1)
- Alterung (1)
- Analyse (1)
- Anionenerkennung (1)
- Anionenrezeptoren (1)
- Anisotropie (1)
- Anthocyane (1)
- Aroniabeere (1)
- Asympotic Analysis (1)
- Asymptotic Analysis (1)
- Asymptotische Entwicklung (1)
- Ausfällen (1)
- Ausschnitt <Öffnung> (1)
- Automated Calibration (1)
- Automatische Messung (1)
- Automatisierungstechnik (1)
- Avirulence (1)
- Bayesian Model Averaging (1)
- Bedeutung (1)
- Bemessung (1)
- Benutzer (1)
- Berry fruit juice (1)
- Beschränkte Arithmetik (1)
- Betriebsfestigkeit (1)
- Bettungsmodul (1)
- Biokatalyse (1)
- Biomechanik (1)
- Biorthogonalisation (1)
- Biotechnologie (1)
- Biotrophy (1)
- Bondindizes (1)
- Boolean polynomials (1)
- Bootstrap (1)
- Boundary Value Problem (1)
- Buntsaftkonzentrat (1)
- CIR model (1)
- CSOs treatment (1)
- CUDA (1)
- Caspase (1)
- Cobalt (1)
- Comet Assay (1)
- Composites (1)
- Computational Fluid Dynamics (1)
- Continuum mechanics (1)
- Controlling (1)
- Coq (1)
- Cyclin-abhängige Kinasen (1)
- DCE <Programm> (1)
- DNA-Schädigung (1)
- Damage (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Datenbank (1)
- Delaunay mesh generation (1)
- DesLaNAS (1)
- Deutschland / Bundesnetzage (1)
- Dezentralisation (1)
- Diclofenac (1)
- Diskontinuität (1)
- DoS (1)
- DoS-Attacke (1)
- Downlink (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Strömung (1)
- Durchlaufträger (1)
- Dynamischer Test (1)
- EMPO (1)
- EPR-Spectroscopy (1)
- Earth's disturbing potential (1)
- Eingebettete Systeme (1)
- Eisen (1)
- Elasticity (1)
- Elastizität (1)
- Elektrizitätsverbrauch (1)
- Elektrizitätsversorgung (1)
- Elektronenspinresonanzspektroskopie (1)
- Embedded software (1)
- Endliche Geometrie (1)
- Energieeinsparung (1)
- Epoxidation (1)
- Epoxide (1)
- Erweiterte Realität <Informatik> (1)
- Ethan (1)
- Ethylen (1)
- Existence of Solutions (1)
- Experiment (1)
- Experimentauswertung (1)
- Facility location (1)
- Farbe (1)
- Farbstabilität (1)
- Farnesylpyrophosphat-Synthase (1)
- Fault Prediction (1)
- Feature (1)
- Fehler (1)
- Feige (1)
- Fertigungslogistik (1)
- Festkörper (1)
- Filterauslegung (1)
- Filterkuchenwiderstand (1)
- Filtermittelwiderstand (1)
- Filterversuche (1)
- Filtration (1)
- Filtrierbarkeit (1)
- Finanzmathematik (1)
- Finite-Elemente-Methode (1)
- Flechten (1)
- Fließgelenk (1)
- Flooding Attack (1)
- Flugzeitmassenspektrometrie (1)
- Fluorescence (1)
- Flüssig-Flüssig-Extraktion (1)
- Flüssig-Flüssig-Gleichgewicht (1)
- Flüssig-Flüssig-System (1)
- Flüssigkeitsreibung (1)
- Fokker-Planck Equation (1)
- Framework <Informatik> (1)
- Funknetz (1)
- Gauge Distances (1)
- Genetische Algorithmen (1)
- Geoinformationssystem (1)
- Geometric Ergodicity (1)
- Geometrical Nonlinear Thermomechanics (1)
- Geostrophic flow (1)
- Gleitlager (1)
- Glycogen-Synthase-Kinase-3 (1)
- Golgi-Apparat (1)
- Google Earth (1)
- Granular flow (1)
- Grapevine Fanleaf Virus (1)
- Gröber basis (1)
- HOL (1)
- Halogenasen (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Harmonische Spline-Funktion (1)
- Haustoria (1)
- Helmholtz Type Boundary Value Problems (1)
- Hepatotoxizität (1)
- Hochdrucktechnik (1)
- Homologische Algebra (1)
- Homotopiehochhebungen (1)
- Homotopy lifting (1)
- Hub-and-Spoke-System (1)
- Hydrogel (1)
- Hydrovinylierung (1)
- Hysterese (1)
- IMRT planning (1)
- IP Address (1)
- IP Traffic Accounting (1)
- ITC (1)
- Identifiability (1)
- In vitro (1)
- In vivo (1)
- Indirubin (1)
- Informationslogistik (1)
- Infrarotspektroskopie (1)
- Injectivity of mappings (1)
- Injektivität von Abbildungen (1)
- Innenstadt (1)
- Instrument (1)
- Integer programming (1)
- Intel XScale (1)
- Interfaces (1)
- Internationale Diversifikation (1)
- Inverses Problem (1)
- Isabelle/HOL (1)
- Isopropylacrylamid Natriummethacrylat N-Vinyl-2-pyrrolidon (1)
- Jiang's constitutive model (1)
- Jiangsches konstitutives Gesetz (1)
- Kategorientheorie (1)
- Keramik <T (1)
- Kinetik (1)
- Knapsack (1)
- Kombinatorische Optimierung (1)
- Komplexitätsklasse NP (1)
- Kopolymere (1)
- Kristallisation (1)
- Kultivierung (1)
- Kurve (1)
- Lagerung (1)
- Leberepithelzelle (1)
- Legendre Wavelets (1)
- Liberalisierung (1)
- Lineare Integralgleichung (1)
- Liquid-liquid-equilibrium (1)
- Literaturempirie (1)
- Locally Supported Zonal Kernels (1)
- Location Theory (1)
- Logistik (1)
- Lysozyme (1)
- MIMO (1)
- Machine Scheduling (1)
- Mapping (1)
- Marine Biotechnologie (1)
- Markov Chain (1)
- Maximum-Likelihood (1)
- Mehrdimensionale Spline-Funktion (1)
- Membranprotein (1)
- Messtechnik (1)
- Meter (1)
- Mindesthaltbarkeitsdatum (1)
- Minimal spannender Baum (1)
- Mischwasserbehandlung (1)
- Mixed Reality (1)
- Mobilfunk (1)
- Model Checking (1)
- Modeling (1)
- Modellgetriebene Entwicklung (1)
- Modularisierung (1)
- Molekularstrahl (1)
- Monomer (1)
- Multigenanalyse (1)
- Multipoint flux approximation (1)
- Multiscale problem (1)
- Multiscale problems (1)
- N (1)
- N-Nitroso-verbindungen (1)
- N-isopropyl acrylamide (1)
- N-tridentate Liganden (1)
- NMR und ITC (1)
- NP (1)
- NP-hard (1)
- Natriumsulfat (1)
- Naturfasern (1)
- Naturstoffverteilung (1)
- Navier-Stokes-Brinkmann system of equations (1)
- Nematode (1)
- Nephrotoxizit (1)
- Network design (1)
- Netzbasierte Automatisierungssysteme (NAS) (1)
- Neural networks (1)
- Nichtlineare Mechanik (1)
- Nichtlineare/große Verformungen (1)
- Nitrone (1)
- Nitrones (1)
- Non-homogeneous Poisson Process (1)
- Nonlinear/large deformations (1)
- Nonparametric AR-ARCH (1)
- Nvidia (1)
- OFDM (1)
- Optimale Portfolios (1)
- Optimierung (1)
- Optimization (1)
- Organoblech (1)
- Ornstein-Uhlenbeck Process (1)
- Ovoid (1)
- Oxidation (1)
- PPARgamma (1)
- PTA (1)
- Parameter identification (1)
- Parameteridentifikation (1)
- Pathogenabwehr (1)
- Peng-Robinson-EoS (1)
- Peptide (1)
- Phylogenie (1)
- Phylogeographie (1)
- Plastizität (1)
- Poly( vinyl pyrrolidone) (1)
- Polyme (1)
- Polymere (1)
- Polymerisation (1)
- Polyphenole (1)
- Polyvinylpyrrolidon (1)
- Portfoliomanagement (1)
- Position Sensitive Device (1)
- Price-Cap-Regulierung (1)
- Problemlösung (1)
- Produktionssystem (1)
- Propanole (1)
- Proteine (1)
- Pseudomonas syringae (1)
- Pumpe (1)
- Pyrazole (1)
- Pyrimidin (1)
- Quadratischer Raum (1)
- Quellung (1)
- Quellung in wässrigen Lösungen (1)
- Querkraft (1)
- Querkrafttragfähigkeit (1)
- Quorum Sensing (1)
- RFID (1)
- RNAi (1)
- RNS-Interferenz (1)
- RNS-Viren (1)
- Radial Basis Functions (1)
- Randwertproblem (1)
- Ratenunabhängigkeit (1)
- Ray casting (1)
- Reaktionskinetik (1)
- Regenwasserbehandlung (1)
- Regulierung (1)
- Reibung (1)
- Reliability Prediction (1)
- Repeated-Batch (1)
- Reservierungsprotokoll (1)
- Resistenz (1)
- Retentionsbodenfilter (1)
- Robot Calibration (1)
- Robotics (1)
- Robotik (1)
- Rogue AP (1)
- Rotational Fiber Spinning (1)
- Rote Traube (1)
- Routing (1)
- Rust effector (1)
- Ruthenium (1)
- SDL (1)
- SDZ IMM125 (1)
- Salzlösung (1)
- Schlauchflechten (1)
- Schnittstelle (1)
- Schwarze Johannisbeere (1)
- Schädigung (1)
- Seismische Tomographie (1)
- Sekundärstruktur (1)
- Sensoren (1)
- Sensorik (1)
- Sepsis (1)
- Serre functor (1)
- Siliciumcarbid (1)
- Simplex-Algorithmus (1)
- Simulationsdaten (1)
- Slender body theory (1)
- Smart Production (1)
- Sobolevräume (1)
- Sodium methacrylate (1)
- Software (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Softwarespezifikation (1)
- Spezifikation (1)
- Spherical Fast Wavelet Transform (1)
- Spherical Wavelets (1)
- Sphärische Approximation (1)
- Spin trapping (1)
- Spline-Interpolation (1)
- Sprachdefinition (1)
- Sprachprofile (1)
- Sprung-Diffusions-Prozesse (1)
- Stadtentwicklung (1)
- Stadtplanung (1)
- Stahlbetonbau (1)
- Stegöffnung (1)
- Stereovision (1)
- Stilbenderivate (1)
- Stilbene derivatives (1)
- Stochastic Differential Equations (1)
- Stochastische Zinsen (1)
- Stochastische dynamische Optimierung (1)
- Stochastischer Automat (1)
- Stop- und Spieloperator (1)
- Streptomyces (1)
- Sulfonaterkennung (1)
- Supply Chain Management (1)
- Supramolekulare Chemie (1)
- Swelling equilibrium in aqueous solution (1)
- System Abstractions (1)
- T cells (1)
- T-Zellen (1)
- Technische Mechanik (1)
- Thermoformen (1)
- Thermomechanische Behandlung (1)
- Thiazolidindione (1)
- Time-Space Multiresolution Analysis (1)
- Toxikologie (1)
- Tragfähigkeit (1)
- Transaktionskosten (1)
- Transferred proteins (1)
- Translation Validation (1)
- Tribologie (1)
- Tryptophan-Halogenasen (1)
- Trägerbohlwand (1)
- Two-Phase System (1)
- UrbanSim (1)
- User Model (1)
- Variationsungleichungen (1)
- Vasicek model (1)
- Vectorfield approximation (1)
- Vektorfeldapproximation (1)
- Verbundträger (1)
- Verbundwerkstoffe (1)
- Verschleißprüfung (1)
- Vinyl-2-pyrrolidon (1)
- Virusübertragung (1)
- Viscous Fibers (1)
- Viskoelastizität (1)
- Volatilität (1)
- Völklingen (1)
- Wasserstoff-ATPase (1)
- Wave Based Method (1)
- Weibull (1)
- Weinrebe (1)
- Wireless Networks (1)
- Wissensarten (1)
- Wohnen (1)
- Wurzelreaktion (1)
- Wärmeleitung (1)
- Wässrige Lösung (1)
- Xiphinema index (1)
- Zugriffskonflikte (1)
- Zweiphasensysteme (1)
- a-priori domain decomposition (1)
- access conflict (1)
- adjacency relations (1)
- affine arithmetic (1)
- aktive Netzbetreiber (1)
- algebraic cryptoanalysis (1)
- algorithm (1)
- algorithm by Bortfeld and Boyer (1)
- alpha (1)
- anion recognition (1)
- anionic receptors (1)
- anisotropic plasticity (1)
- anthocyanins (1)
- apoptosis (1)
- beta-ungesättigte Carbonylverbindungen (1)
- big triangle small triangle method (1)
- binarization (1)
- biochemical characterisation (1)
- biomechanics (1)
- bocses (1)
- boundary value problem (1)
- bounds (1)
- cake filtration (1)
- chemically crosslinked hydrogels (1)
- chemisch vernetzte Hydrogele (1)
- colour stability (1)
- combinatorial optimization (1)
- compiler (1)
- composite beam (1)
- computer graphics (1)
- conditional quantile (1)
- configurational mechanics (1)
- consistency (1)
- convergence (1)
- convex (1)
- convex optimization (1)
- curved viscous fibers with surface tension (1)
- curves and surfaces (1)
- cut (1)
- cut basis problem (1)
- data structure (1)
- data-adaptive bandwidth choice (1)
- decomposition (1)
- defect detection (1)
- deflections of the vertical (1)
- degenerations of an elliptic curve (1)
- density gradient equation (1)
- discontinuous coefficients (1)
- discriminant analysis (1)
- domain decomposition (1)
- elastoplasticity (1)
- electroporation (1)
- elliptic equation (1)
- energy consumption (1)
- esterases (1)
- experiment (1)
- fibrous insulation materials (1)
- filter media resistance (1)
- filtration (1)
- finite deformations (1)
- finite elements (1)
- finite-volume method (1)
- flow visualization (1)
- fluid structure (1)
- fluorescence (1)
- formal verification (1)
- framework (1)
- free boundary value problem (1)
- functional Hilbert space (1)
- fundamental cut (1)
- gene silencing (1)
- genetic algorithms (1)
- global optimization (1)
- graph and network algorithm (1)
- growth and remodelling (1)
- hPRT-Genmutations-Assay (1)
- halogenases (1)
- heterogeneous porous media (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hydrodynamische Injektion (1)
- hyperbolic systems (1)
- hysteresis (1)
- image analysis (1)
- image denoising (1)
- image processing (1)
- image segmentation (1)
- infrared spectroscopy (1)
- integer programming (1)
- intensity maps (1)
- intensity modulated radiotherapy planning (1)
- interactive multi-objective optimization (1)
- interface problem (1)
- interference resistance (1)
- interval arithmetic (1)
- inverse problem (1)
- inverse problems (1)
- iterative bandwidth choice (1)
- kernel estimate (1)
- kernel function (1)
- knapsack (1)
- language definition (1)
- language profiles (1)
- lattice Boltzmann (1)
- lichens (1)
- lipases (1)
- liquid-liquid-extraction of natural products (1)
- local approximation of sea surface topography (1)
- local bandwidths (1)
- local multiscale (1)
- localization (1)
- locally supported (Green's) vector wavelets (1)
- locally supported (Green’s) vector wavelets (1)
- lokalisierende Basis (1)
- loss of information (1)
- marine biotechnology (1)
- matrix problems (1)
- measurement (1)
- metal foams (1)
- minimal spanning tree (1)
- minimum cost flows (1)
- minimum fundamental cut basis (1)
- model (1)
- modularisation (1)
- molecular beam (1)
- multi-gene analysis (1)
- multicategory (1)
- multidimensional datasets (1)
- multigrid (1)
- multigrid method (1)
- multinomial regression (1)
- multiplicative decomposition (1)
- multiplikative Zerlegung (1)
- multiscale problem (1)
- nahekritischer Zustandsbereich (1)
- naturfaserverstärkte Kunststoffe (1)
- near-critical ethene+water+propanol (1)
- network flows (1)
- neural network (1)
- non-linear optimization (1)
- non-overlapping constraints (1)
- nonlinear diffusion filtering (1)
- nonlinear finite element method (1)
- numerics (1)
- numerische Mechanik (1)
- ordered median (1)
- oscillating coefficients (1)
- paper machine (1)
- penalization (1)
- peptide (1)
- permeability of fractured porous media (1)
- phase equilibria (1)
- phylogeny (1)
- phylogeography (1)
- planar location (1)
- polyhedral analysis (1)
- polyphenols (1)
- poroelasticity (1)
- porous media (1)
- precipitation (1)
- preconditioner (1)
- probabilistic timed automata (1)
- protein (1)
- qualitative threshold model (1)
- quorum sensing (1)
- rate-independency (1)
- ray casting (1)
- ray tracing (1)
- rectangular packing (1)
- reinforced thermoplastics (1)
- repeated batch cultivation (1)
- reproducing kernel (1)
- retention soil filter (1)
- root-reactions (1)
- salt (1)
- satisfiability (1)
- secondary structure (1)
- seismic tomography (1)
- sensors (1)
- sepsis (1)
- sequences (1)
- shear bearing capacity (1)
- siRNA (1)
- sieve estimate (1)
- simplex algorithm (1)
- smoothing (1)
- smoothness (1)
- sodium sulfate (1)
- spherical approximation (1)
- spin trapping (1)
- splines (1)
- stop- and play-operator (1)
- storage (1)
- sulfonate recognition (1)
- supramolecular chemistry (1)
- textile quality control (1)
- texture classification (1)
- theorem prover (1)
- theory of materials (1)
- thiazolidinediones (1)
- time of flight mass spectrometry (1)
- time series (1)
- time-varying flow fields (1)
- topological asymptotic expansion (1)
- topological incongruence (1)
- topologische Inkongruenz (1)
- transfection (1)
- translation validation (1)
- transportation (1)
- two-grid algorithm (1)
- uncapacitated facility location (1)
- unstructured grid (1)
- urban planning (1)
- variational inequalities (1)
- vector bundles (1)
- vector field visualization (1)
- virus-transmission (1)
- viscoelasticity (1)
- visualization (1)
- water (1)
- web opening (1)
- wild bootstrap test (1)
- zeitabhängige Strömungen (1)
- zoledronic acid (1)
Faculty / Organisational entity
- Fachbereich Mathematik (34)
- Fraunhofer (ITWM) (28)
- Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Fachbereich Informatik (19)
- Fachbereich Sozialwissenschaften (10)
- Fachbereich Chemie (9)
- Fachbereich ARUBI (6)
- Fachbereich Biologie (6)
- Fachbereich Elektrotechnik und Informationstechnik (5)
- Fachbereich Wirtschaftswissenschaften (5)
The visualization of numerical fluid flow datasets is essential to the engineering processes that motivate their computational simulation. To address the need for visual representations that convey meaningful relations and enable a deep understanding of flow structures, the discipline of Flow Visualization has produced many methods and schemes that are tailored to a variety of visualization tasks. The ever increasing complexity of modern flow simulations, however, puts an enormous demand on these methods. The study of vortex breakdown, for example, which is a highly transient and inherently three-dimensional flow pattern with substantial impact wherever it appears, has driven current techniques to their limits. In this thesis, we propose several novel visualization methods that significantly advance the state of the art in the visualization of complex flow structures. First, we propose a novel scheme for the construction of stream surfaces from the trajectories of particles embedded in a flow. These surfaces are extremely useful since they naturally exploit coherence between neighboring trajectories and are highly illustrative in nature. We overcome the limitations of existing stream surface algorithms that yield poor results in complex flows, and show how the resulting surfaces can be used a building blocks for advanced flow visualization techniques. Moreover, we present a visualization method that is based on moving section planes that travel through a dataset and sample the flow. By considering the changes to the flow topology on the plane as it moves, we obtain a method of visualizing topological structures in three-dimensional flows that are not accessible by conventional topological methods. On the same algorithmic basis, we construct an algorithm for the tracking of critical points in such flows, thereby enabling the treatment of time-dependent datasets. Last, we address some problems with the recently introduced Lagrangian techniques. While conceptually elegant and generally applicable, they suffer from an enormous computational cost that we significantly use by developing an adaptive approximation algorithm. This allows the application of such methods on very large and complex numerical simulations. Throughout this thesis, we will be concerned with flow visualization aspect of general practical significance but we will particularly emphasize the remarkably challenging visualization of the vortex breakdown phenomenon.
Die Architekturen vieler technischer Systeme sind derzeit im Umbruch. Der fortschreitende Einsatz von Netzwerken aus intelligenten rechnenden Knoten führt zu neuen Anforderungen an den Entwurf und die Analyse der resultierenden Systeme. Dabei spielt die Analyse des Zeitverhaltens mit seinen Bezügen zu Sicherheit und Performanz eine zentrale Rolle. Netzbasierte Automatisierungssysteme (NAS) unterscheiden sich hierbei von anderen verteilten Echtzeitsystemen durch ihr zyklisches Komponentenverhalten. Das aus der asynchronen Verknüpfung entstehende Gesamtverhalten ist mit klassischen Methoden kaum analysierbar. Zur Analyse von NAS wird deshalb der Einsatz der wahrscheinlichkeitsbasierten Modellverifikation (PMC) vorgeschlagen. PMC erlaubt detaillierte, quantitative Aussagen über das Systemverhalten. Für die dazu notwendige Modellierung des Systems auf Basis wahrscheinlichkeitsbasierter, zeitbewerteter Automaten wird die Beschreibungssprache DesLaNAS eingeführt. Exemplarisch werden der Einfluss verschiedener Komponenten und Verhaltensmodi auf die Antwortzeit eines NAS untersucht und die Ergebnisse mittels Labormessungen validiert.
This paper presents a wavelet analysis of temporal and spatial variations of the Earth's gravitational potential based on tensor product wavelets. The time--space wavelet concept is realized by combining Legendre wavelets for the time domain and spherical wavelets for the space domain. In consequence, a multiresolution analysis for both, temporal and spatial resolution, is formulated within a unified concept. The method is then numerically realized by using first synthetically generated data and, finally, several real data sets.
Acrylamid (AA) ist ein Kanzerogen, das beim Braten, Backen und Frittieren stärkehaltiger Le-bensmittel im Wesentlichen aus dem Vorläufer Asparagin in Gegenwart reduzierender Zucker in substantiellen Mengen gebildet wird. AA wird im Organismus metabolisch zu Glycidamid (GA) umgewandelt. Für GA wurden DNA-Addukte insbesondere mit dem N7 des Guanins nachgewiesen. Von besonderem Interesse für die Risikobewertung von AA ist Aufklärung des kanzerogenen Wirkmechanismus sowie des genotoxischen Potentials im Vergleich zu anderen bekannten Kanzerogenen. Ziel der Arbeit war es daher, das genotoxische Potential von AA und seinen Metaboliten GA sowie deren genotoxischen Wirkmechanismus zu charakterisieren. AA wurde im Vergleich zu den alpha, beta-ungesättigten Carbonylverbindungen Acrolein (Ac) und Hexenal (Hex) getestet, GA vergleichend zu aktiven Formen der Kanzerogene Benzo[a]pyren (B[a]P) und N-Nitrosodiethanolamin (NDELA) sowie den N-Nitrosoharnstoffen MNU und HENU und ausgewählten N-Nitroso-oxazolidinonen, einer Gruppe von N-Nitrosaminen, welche möglicherweise endogen im Organismus gebildet und nach Hydrolyse in ihre biologisch aktive Form überführt werden. Humanes Vollblut, isolierte Lymphozyten sowie V79-Säugerzellen wurden als Testsysteme verwendet. Als Endpunkte der Genotoxizität wurde die Induktion und Kinetik der Abnahme von DNA-Strangbrüchen sowie der Einfluss von Glutathion auf die DNA-Strangbruchinduktion im Comet Assay bestimmt. Die Sensitivität und Selektivität des Comet Assays wurde durch zusätzliche Behandlung der DNA mit dem DNA-Reparaturenzym Formamido-pyrimidin-DNA-glykosylase (FPG) gesteigert. FPG erkennt AP Stellen, ring-geöffnete Pyrimidine sowie oxidierte Purine und überführt diese in zusätzliche DNA-Strangbrüche. Das mutagene Potential der Verbindungen nach 5-tägiger Expressionszeit wurde in V79 Zellen mittels hPRT-Genmutations-Assay untersucht. AA erwies sich in allen Testsystemen als nicht genotoxisch. Die im Vergleich getesteten alpha, beta-ungesättigten Carbonylverbindungen Ac und Hex waren ebenfalls in humanem Vollblut nicht genotoxisch, verursachten jedoch in isolierten Lymphozyten in hohen Konzentrationen(> 3000 µM) DNA-Strangbrüche. GA war in allen Testsystemen genotoxisch. Im Comet Assay ohne FPG zeigten sich DNA-Strangbrüche ab 300 µM (1h). Nach zusätzlicher Behandlung der DNA mit FPG wurden bereits ab 10 µM (4h) DNA-Strangbrüche detektiert. DNA-Schäden waren erst ab einer Inkubationszeit von einer Stunde signifikant und erreichten nach 24h ein Maximum. GA induzierte in V79 Zellen zudem erst in 80-fach höheren Konzentrationen hPRT-Mutationen (800 µM) als DNA-Strangbrüche. Zusätzlich zeigte sich, dass die Mutationsrate erst in Konzentrationen signifikant erhöht war, in denen eine Reduktion der DNA-Schäden nicht mehr effektiv erfolgte. Die Genotoxizität von GA beruht vermutlich auf der präferentiellen Bindung an N7-Guanin. Die entstehenden N7-G-Addukte werden entweder spontan zur AP Stelle depuriniert oder zum Formamido-pyrimidin ring-geöffnet. Beide Arten von Folgeprodukten sind FPG-Substrate und werden vermutlich effizient repariert, sodass es erst bei hohen lokalen Konzentrationen (> 800 µM) zu einer signifikanten Ausprägung von Mutationen kommt. Die im Vergleich zu GA getesteten Kanzerogene (±)-BPDE und alpha-Acetoxy-NDELA waren im Comet Assay bei ähnlichen Konzentrationen genotoxisch (10-30 µM; 1h). Im Gegensatz zu GA induzierten beide allerdings hPRT-Mutationen (3-10 µM) im gleichen Konzentrationsbereich wie DNA-Strangbrüche. Ähnliche genotoxische Eigenschaften zeigten auch die im Vergleich zu GA getesteten N-Nitrosoverbindungen. Die Gruppe der N-Nitroso-oxazolidinone wurde erstmals im Hinblick auf Genotoxizität und Mutagenität geprüft. NOZ-2 induzierte in V79 Zellen bereits nach 15’ ab 3 µM maximal DNA-Strangbrüche. HENU induzierte DNA-Strangbrüche ab 100 µM (15’). In beiden Fällen hatte FPG keinen Einfluss auf die DNA-Strangbruchinduktion. Sowohl NOZ-2 als auch HENU sind hydroxyethylierend. Im Gegensatz dazu, waren das carboxymethylierende oder methylierende NOZ-5 und das methylierende MNU im Comet Assay ohne FPG nur gering aktiv (> 300 resp. 1000 µM; 15’), während nach FPG-Behandlung die Aktivität im Comet Assay (NOZ-5: >10µM; MNU: >100µM; 15’) deutlich gesteigert war. Die Kinetik der Abnahme von DNA-Strangbrüchen ist für die Verbindungen unterschiedlich. Während die NOZ-2-induzierten DNA-Läsionen (30µM) persistieren, wurden die durch NOZ-5 und HENU induzierten DNA-Schäden -vergleichbar mit GA- effektiv innerhalb einer 8-stündigen Nachbehandlungszeit reduziert. Für alle untersuchten N-Nitrosoverbindungen waren hPRT-Mutationen im gleichen Konzentrationsbereich wie DNA-Strangbrüche im Comet Assay mit FPG nachweisbar. Die N-Nitrosoverbindungen sind damit insgesamt deutlich potenter mutagen als GA. NOZ-2 und HENU führen vermutlich vergleichbar mit alpha-Acetoxy-NDELA zu einer Hydroxyethylierung der DNA-Phosphodiester. Die resultierenden Phosphotriester sind instabil und werden voraussichtlich schnell in DNA-Strangbrüche gespalten. Des Weiteren ist die Bildung instabiler N7-G- und promutagener O6-G-2-Hydroxyethyl-Addukte zu erwarten. Das potentiell DNA-carboxymethylierende/methylierende NOZ-5 und das DNA-methylierende MNU alkylieren ver-mutlich die gleichen Positionen in der DNA. Allerdings scheinen die gebildeten Methyl- oder Carboxymethyl-Phosphotriester stabil zu sein und werden nicht spontan in Strangbrüche überführt. Die gebildeten N7-G-Addukte sind FPG-Substrate, was sich am FPG-vermittelten Anstieg der DNA-Strangbruchrate zeigt. Dies steht im Gegensatz zu NOZ-2, bei welchem FPG keinen Einfluss auf die DNA-Strangbruchinduktion hatte. Vermutlich ist dies auf die Hydroxyethylierung der Phosphat-Gruppen durch NOZ-2 zurückzuführen, deren spontane DNA-Strangbruch-Induktion den Nachweis von N7-G-Addukten mittels FPG überlagert. Weiterhin zeigte sich, dass trotz vergleichbar hoher hPRT-Mutagenität, NOZ-5-induzierte DNA-Schäden deutlich geringer persistent als entsprechende NOZ-2-Läsionen sind. Das mutagene Potential von NOZ-5 ist daher vermutlich, neben anderen nicht reparierten DNA-Schäden, auf promutagene O6-G-Addukte zurückzuführen, welche in MGMT-defizienten V79 Zellen nicht repariert werden. Orientierend wurde der Einfluss detoxifizierender Makromoleküle auf die Genotoxizität von GA und alpha, beta-ungesättigten Carbonylverbindungen durch Vergleich der Aktivitäten in humanem Vollblut und isolierten Lymphozyten sowie durch Co-Inkubation mit Glutathion (GSH) in V79 Zellen untersucht. Während Ac und Hex in isolierten Lymphozyten deutlich potenter DNA-schädigend als in humanem Vollblut sind, ist GA in beiden Systemen vergleichbar genotoxisch. Offensichtlich wird in humanem Vollblut die Aktivität von GA durch detoxifizierende Blutbestandteile nur unwesentlich beeinflusst. Ein entsprechender Effekt zeigt sich auch bei der Co-Inkubation von V79 Zellen. Während GSH die DNA-schädigende Wirkung von Ac und Hex in V79 Zellen deutlich reduzierte, war für GA kein signifikanter Unterschied zur DNA-Strangbruchrate in ausschließlich GA-behandelten Zellen nachzuweisen. Zusammenfassend konnte mit dieser Arbeit gezeigt werden, dass AA selbst nicht genotoxisch bzw. mutagen ist; Ac und Hex in humanem Vollblut ebenfalls nicht genotoxisch sind, allerdings in isolierten Lymphozyten bei hohen Konzentrationen (> 3000 µM) Genotoxizität induzieren; die genotoxische/ mutagene Wirkung von AA durch GA vermittelt wird; GA im Vergleich zu anderen potenten Kanzerogenen Genotoxizität nur sehr langsam induziert (signifikant nach 1h) und eher schwach mutagen ist; GA-induzierte DNA-Läsionen schnell (innerhalb von 8h) repariert werden;die physiologische Umgebung in Humanblut nur geringen Einfluss auf die biologische Aktivität von GA hat; NOZ-2 vergleichbar mit HENU mit und ohne FPG-Behandlung signifikant DNA-Strangbrüche erzeugt. Vermutlich führt die Hydroxylierung am Phosphat-Rückgrad zu spontanen Strangbrüchen, die den FPG-Effekt überlagern; NOZ-5 (vermutlich methylierend oder carboxymethylierend im Comet Assay) im Gegensatz dazu ohne FPG-Behandlung im Comet Assay nur schwach aktiv ist, während nach FPG-Behandlung offenbar die vermutete Bildung von N7-G-Addukten zum Tragen kommt; NOZ’s in V79-Zellen potente Mutagene sind; dies vermutlich in Folge von O6-Guanin-Addukt-Bildung, welche in MGMT-defizienten V79 Zellen nicht repariert werden; durch Kombination unterschiedlicher Protokolle des Comet-Genotoxizitäts- und hPRT-Mutagenitätstests orientierende Aussagen über den Zusammenhang zwischen DNA-Alkylierung, Detoxifizierung, DNA-Reparatur und der Entstehung von Mutationen gemacht werden können.
The main concern of this contribution is the computational modeling of biomechanically relevant phenomena. To minimize resource requirements, living biomaterials commonly adapt to changing demands. One way to do so is the optimization of mass. For the modeling of biomaterials with changing mass, we distinguish between two different approaches: the coupling of mass changes and deformations at the constitutive level and at the kinematic level. Mass change at the constitutive level is typically realized by weighting the free energy function with respect to the density field, as experimentally motivated by Carter and Hayes [1977] and computationally realized by Harrigan and Hamilton [1992]. Such an ansatz enables the simulation of changes in density while the overall volume remains unaffected. In this contribution we call this effect remodeling. Although in principle applicable for small and large strains, this approach is typically adopted for hard tissues, e.g. bone, which usually undergo small strain deformations. Remodeling in anisotropic materials is realized by choosing an appropriate anisotropic free energy function. <br> Within the kinematic coupling, a changing mass is characterized through a multiplicative decomposition of the deformation gradient into a growth part and an elastic part, as first introduced in the context of plasticity by Lee [1969]. In this formulation, which we will refer to as growth in the following, mass changes are attributed to changes in volume while the material density remains constant. This approach has classically been applied to model soft tissues undergoing large strains, e.g. the arterial wall. The first contribution including this ansatz is the work by Rodriguez, Hoger and McCulloch [1994]. To model anisotropic growth, an appropriate anisotropic growth deformation tensor has to be formulated. In this contribution we restrict ourselves to transversely isotropic growth, i.e., growth characterized by one preferred direction. On that account, we define a transversely isotropic growth deformation tensor determined by two variables, namely the stretch ratios parallel and perpendicular to the characteristic direction. <br> Another method of material optimization is the adaption of the inner structure f a material to its loading conditions. In anisotropic materials this can be realized by a suitable orientation of the material directions. For example, the trabeculae in the human femur head are oriented such that they can carry the daily loads with an optimum mass. Such a behavior can also be observed in soft tissues. For instance, the fibers of muscles and the collagen fibers in the arterial wall are oriented along the loading directions to carry a maximum of mechanical load. If the overall loading conditions change, for instance during a balloon angioplasty or a stent implantation, the material orientation readapts, which we call reorientation. The anisotropy type in biomaterials is often characterized by fiber reinforcement. A particular subclass of tissues, which includes muscles, tendons and ligaments, is featured by one family of fibers. More complex microstructures, such as arterial walls, show two fiber families, which do not necessarily have to be perpendicular. Within this contribution we confine ourselves to the first case, i.e., transversely isotropic materials indicated by one characteristic direction. The reorientation of the fiber direction in biomaterials is commonly smooth and continuous. For transverse isotropy it can be described by a rotation of the characteristic direction. Analogous to the theory of shells, we additionally exclude drilling rotations, see also Menzel [2006]. However, the driving force for these reorientation processes is still under discussion. Mathematical considerations promote strain driven reorientations. As discussed, for instance, in Vianello [1996], the free energy reaches a critical state for coaxial stresses and strains. For transverse isotropy, it can be shown that this can be achieved if the characteristic direction is aligned with a principal strain direction. From a biological point of view, depending on the kind of material (i.e. bone, muscle tissue, cartilage tissue, etc.), both strains and stresses can be suggested as stimuli for reorientation. Thus, whithin this contribution both approaches are investigated. <br> In contrast to previous works, in which remodeling, growth and reorientation are discussed separately, the present work provides a framework comprising all of the three mentioned effects at once. This admits a direct comparison how and on which level the individual phenomenon is introduced into the material model, and which influence it has on the material behavior. For a uniform description of the phenomenological quantities an internal variable approach is chosen. Moreover, we particularly focus on the algorithmic implementation of the three effects, each on its own, into a finite element framework. The nonlinear equations on the local and the global level are solved by means of the Newton-Raphson scheme. Accordingly, the local update of the internal variables and the global update of the deformation field are consistently linearized yielding the corresponding tangent moduli. For an efficient implementation into a finite element code, unitized update algorithms are given. The fundamental characteristics of the effects are illustrated by means of some representative numerical simulations. Due to the unified framework, combinations of the individual effects are straightforward.
In this thesis we classify simple coherent sheaves on Kodaira fibers of types II, III and IV (cuspidal and tacnode cubic curves and a plane configuration of three concurrent lines). Indecomposable vector bundles on smooth elliptic curves were classified in 1957 by Atiyah. In works of Burban, Drozd and Greuel it was shown that the categories of vector bundles and coherent sheaves on cycles of projective lines are tame. It turns out, that all other degenerations of elliptic curves are vector-bundle-wild. Nevertheless, we prove that the category of coherent sheaves of an arbitrary reduced plane cubic curve, (including the mentioned Kodaira fibers) is brick-tame. The main technical tool of our approach is the representation theory of bocses. Although, this technique was mainly used for purely theoretical purposes, we illustrate its computational potential for investigating tame behavior in wild categories. In particular, it allows to prove that a simple vector bundle on a reduced cubic curve is determined by its rank, multidegree and determinant, generalizing Atiyah's classification. Our approach leads to an interesting class of bocses, which can be wild but are brick-tame.
This technical report is the Emerging Trends proceedings of the 20th International Conference on Theorem Proving in Higher Order Logics (TPHOLs 2007), which was held during 10-13 September in Kaiserslautern, Germany. TPHOLs covers all aspects of theorem proving in higher order logics as well as related topics in theorem proving and verification.
Die enorme Nachfrage nach neuartigen Naturstoffen sowie Leitstrukturen für die (Teil-) Synthese pharmazeutischer Produkte verlangt ständig nach neuen Innovationen. Ein bedeutender Impuls ist dabei von der Marinen Biotechnologie zu erwarten, die seit einigen Jahren versucht, die sich bietenden medizinischen Potentiale auszuschöpfen. So können neuartige Wirkstoffe bzw. die für deren Produktion verantwortlichen Organismen und Enzyme isoliert und bereitgestellt werden. Häufig ist das Wachstum der Organismen jedoch stark limitiert sowie eine Produktion der Ziel-Metabolite nur unter bestimmten Bedingungen möglich, weshalb ein enormes Interesse an neuen Optimiermethoden zur Lösung des Problems besteht. Neuartige Lösungsansätze sollten daher im Rahmen dieser Arbeit verfolgt werden. Untersucht wurde eine „biochemische“ Wachstums- und Produktionsoptimierung mariner Bakterien durch einen Zusatz von Homoserinlactonen zum Kultivierungsmedium. Dabei konnte neben einem verbesserten Wachstum diverser Prokaryonten eine leichte Variation im Metabolitspektrum ermittelt sowie eine geringfügig erhöhte Produktion biologisch aktiver Substanzen detektiert werden. Soll das Wachstum von (marinen) Mikroorganismen optimiert werden, wird vom Anwender häufig eine unstrukturierte one-factor-at-a-time-Methode angewendet. Da diese in der Regel keine Beeinflussung der zu optimierenden variablen Parameter beachtet, wurden in dieser Arbeit alternativ rechnergestützte Optimierungen zur Umgehung dieses Problems durchgeführt. Zum Einsatz kam dabei eine Kombination aus einem Genetischen Algorithmus, welcher die Identifikation des globalen Optimums erlaubt und einem Simplex-Algorithmus, der zur Verfeinerung des bereits aufgefundenen Optimums dient. Hiermit konnte die Produktion einer marinen L-Serindehydratase im Rahmen einer Nährmediumsoptimierung um mehr als 50 % im Vergleich zum Referenzmedium gesteigert werden. Des Weiteren wurde ein im Polyketidscreening positiv aufgefallenes Bakterium (Halomonas marina) als Modellorganismus für ein neuartiges rechnergestütztes Verfahren eingesetzt, welches eine schnelle Identifizierung der Güte von Wachstumsparametern erlaubt und dabei eine repetitiv geführte Batch-Betriebsweise von Bioreaktoren nutzt. Ein weiterer Schwerpunkt dieser Arbeit ist die Charakterisierung einer rekombinant exprimierten Tryptophan-5-Halogenase. Hierbei konnte nach der Identifizierung des Aktivitätsoptimums hinsichtlich des einzustellenden pH-Werts sowie der Temperatur die Halbwertszeit des Enzyms bei verschiedenen Temperaturen bestimmt und mittels 2 D-Gelelektrophorese der pI-Wert des Enzyms erstmalig determiniert werden. Ein Fokus dieser Untersuchungen lag auf der Optimierung der Enzymkinetik. Dabei konnte insgesamt eine Verbesserung der Ausbeute um den Faktor 1,6 erzielt werden.
In der biotechnologischen Herstellung von Proteinen ist die Fällung mit Hilfe von Salzen (z. B. Ammoniumsulfat) ein unkompliziertes und verbreitetes Verfahren, wobei die biologischen Eigenschaften der Proteine (meistens) erhalten bleiben. Dieses Verfahren basiert auf dem sogenannten „Aussalzeffekt“. Obwohl das „Aussalzen“ von Proteinen seit langem bekannt ist, ist das Phasenverhalten in Systemen aus Proteinen, Salzen und Wasser weitgehend ungeklärt. Das Phasenverhalten eines proteinhaltigen Systems wird durch eine Vielzahl von Parametern, z. B. Art und Konzentration der Stoffe, Temperatur, pH-Wert und Ionenstärke, beeinflusst. Darüber hinaus können beim Ausfällen der Proteine sowohl stabile als auch metastabile Phasengleichgewichte auftreten. In der vorliegenden Arbeit wurden experimentelle Untersuchungen zum Phasenverhalten ternärer Systeme (Protein + Salz + Wasser) bei Umgebungstemperatur durchgeführt. Das Ausfällen von Lysozym, Bovin Serum Albumin, Ovalbumin und Trypsin mit Hilfe verschiedener Salze (Ammoniumsulfat, Natriumsulfat und teilweise der flüchtigen Salze Ammoniumcarbamat und Ammoniumbicarbonat) wurde untersucht. Die experimentellen Untersuchungen erfolgten einerseits durch Bestimmung der Trübungskurven und andererseits durch Bestimmung der Zusammensetzung der koexistierenden Phasen. Zusätzlich wurden mikroskopische Untersuchungen durchgeführt, um die Struktur der proteinreichen Phase (amorph, kristallin) aufzuklären. Die vorliegende Arbeit trägt zur Aufklärung der das Ausfällen von Proteinen verursachenden physikalisch-chemischen Effekte am Beispiel einiger Modellsysteme bei. Es wurde gezeigt, dass flüchtige Salze (d. h. die Salze auf Basis von Ammoniak und Kohlendioxid) erfolgreich für die Aufarbeitung der wässrigen Proteinlösungen eingesetzt werden können. Die Ergebnisse der experimentellen Untersuchungen sollen die Grundlage für eine in weiterführenden Arbeiten vorgesehene Modellierung solcher Phasengleichgewichte bilden.
Abstraction is intensively used in the verification of large, complex or infinite-state systems. With abstractions getting more complex it is often difficult to see whether they are valid. However, for using abstraction in model checking it has to be ensured that properties are preserved. In this paper, we use a translation validation approach to verify property preservation of system abstractions. We formulate a correctness criterion based on simulation between concrete and abstract system for a property to be verified. For each distinct run of the abstraction procedure the correctness is verified in the theorem prover Isabelle/HOL. This technique is applied in the verification of embedded adaptive systems. This paper is an extended version a previously published work.
Stadtentwicklungsplanung erfährt in Mittelstädten im Strukturwandel und Schrumpfungsprozess einen Bedeu-tungszuwachs. Die Renaissance einer umfassenderen integrierten Entwicklungsplanung durch die Programme „Soziale Stadt“ und „Stadtumbau-West“ führt dazu, dass ressortübergreifende Zusammenarbeit innerhalb der Kommunalverwaltung einer Steuerung durch die Stadtentwicklungsplanung bedarf. Die Aufgabe der Erstellung integrativer Konzepte, der Beobachtung von Entwicklungsprozessen, der Schaffung von Ämternetzwerken und besonderer Organisationsformen außerhalb der Hierarchie im Rahmen des Projektmanagements, die Aktivierung der Bürgerschaft und neue Formen der Zusammenarbeit mit wirtschaftlichen Akteuren erfordern eine stärkere Einbeziehung der Stadtentwicklungsplanung in die strategische Verantwortung im Rahmen des Neuen Steuerungsmodells. Schrumpfende Städte bedürfen einer verstärkten Teilhabe aller Bevölkerungsgruppen an einer nachhaltigen Stadtentwicklung. Die kommunale Finanznotlage und ein verstärktes Demokratiebedürfnis führen zu einer Forderung nach einer aktiven Bürgerkommune, die Teilbereiche des öffentlichen Lebens übernimmt. Der Wandel im Selbstverständnis der Verwaltung vom government zur governance ist untrennbar verbunden mit einer verstärkten Einbeziehung der gesellschaftlichen und wirtschaftlichen Akteure in die Stadtentwicklung und führt zu einem neuen Rollenverständnis der Stadtentwicklungsplanung. Die vergangenen Anforderungen der Industriegesellschaft unterscheiden sich von den aktuellen Anforderungen der Dienstleistungs- und Wissensgesellschaft an die städtische Infrastruktur und Gesellschaft. Nachhaltigkeit einer neu zu erarbeitenden Stadtentwicklungsstrategie kann daher nur erzeugt werden, wenn die Änderungsprozesse erfasst und in das Anforderungsprofil der Stadtentwicklung miteinbezogen werden. Zusammen mit den Forderungen nach mehr Partizipation und Kommunikation folgt daraus für die Raumplanung, dass nicht nur ein verantwortungsvoller und handwerklich genauer Einsatz der ingenieurwissenschaftlichen Methoden und Instrumente gefragt ist, sondern auch im verstärkten Maße eine soziale und kommunikative Kompetenz der Planerinnen und Planer gefordert ist. Vor dem Hintergrund der aktuellen Schrumpfungsprozesse und dem Wandel der Industriegesellschaft zur Dienstleistungs- und Wissensgesellschaft wird dem in der wissenschaftlichen Diskussion teilweise in Frage gestellten Leitbild der Europäischen Stadt eine neue Bedeutung zugemessen. Indem die Kernstädte Infrastruktur-leistungen bündeln, ein größeres Angebot für verschiedene Lebensstile zulassen und als Kommunikations- und Knotenpunkt für neue Akteure in der Dienstleistungs- und Wissensgesellschaft dienen, wächst wieder die Be-deutung der Kernstädte im Verhältnis zu den Umlandgemeinden. Zusammenfassend ist festzustellen, dass eine nachhaltige zukunftsorientierte Urban Governance geprägt ist von einer kommunalen Kooperations- und Kommunikationsstruktur, in der Politik, Verwaltung – und hier insbeson-dere die Stadtentwicklungsplanung- gemeinsam mit den Akteuren aus Bürgerschaft und Wirtschaft tragfähige Visionen entwickeln, Ziele und Maßnahmen formulieren und gemeinsam realisieren.
Elastomeric and other rubber-like materials are often simultaneously exposed to short- and long-time loads within engineering applications. When aiming at establishing a general simulation tool for viscoelastic media over these different time scales, a suitable material model and its corresponding material parameters can only be determined if an appropriate number of experimental data is taken into account. In this work an algorithm for the identification of material parameters for large strain viscoelasticity is presented. Thereby, data of multiple experiments are considered. Based on this method the experimental loading intervals for long-time experiments can be shortened in time and the parameter identification procedure is now referred to experimental data of tests under short- and long-time loads without separating the parameters due to these different time scales. The employed viscoelastic material law is based on a nonlinear evolution law and valid far from thermodynamic equilibrium. The identification is carried out by minimizing a least squares functional comparing inhomogeneous displacement fields from experiments and FEM simulations at given (measured) force loads. Within this optimization procedure all material parameters are identified simultaneously by means of a gradient based method for which a semi-analytical sensitivity analysis is calculated. Representative numerical examples are referred to measured data for different polyurethanes. In order to show the general applicability of the identification method for multiple tests, in the last part of this work the parameter identification for small strain plasticity is presented. Thereby three similar test programs on three specimen of the aluminum alloy AlSi9Cu3 are analyzed, and the parameter sets for the respective individual identifications, and for the combination of all tests in one identification, is compared.
The main goal of this work is to examine various aspects of `inelastic continuum mechanics': first, fundamental aspects of a general finite deformation theory based on a multiplicative decomposition of the deformation gradient with special emphasis on the incompatibility of the so-called intermediate configuration are discussed in detail. Moreover, various balance of linear momentum representations together with the corresponding volume forces are derived in a configurational mechanics context. Subsequent chapters are consequently based on these elaborations so that the applied multiplicative decomposition generally serves as a fundamental modelling concept in this work; after generalised strain measures are introduced, a kinematic hardening model coupled with anisotropic damage, a substructure evolution framework as well as two different growth and remodelling formulations for biological tissues are presented.
Modelling languages are important in the process of software development. The suitability of a modelling language for a project depends on its applicability to the target domain. Here, domain-specific languages have an advantage over more general modelling languages. On the other hand, modelling languages like the Unified Modeling Language can be used in a wide range of domains, which supports the reuse of development knowledge between projects. This thesis treats the syntactical and semantical harmonisation of modelling languages and their combined use, and the handling of complexity of modelling languages by providing language subsets - called language profiles - with tailor-made formal semantics definitions, generated by a profile tool. We focus on the widely-used modelling languages SDL and UML, and formal semantics definitions specified using Abstract State Machines.
In this article, we present an analytic solution for Jiang's constitutive model of elastoplasticity. It is considered in its stress controlled form for proportional stress loading under the assumptions that the one-to-one coupling of the yield surface radius and the memory surface radius is switched off, that the transient hardening is neglected and that the ratchetting exponents are constant.
Wässrige Lösungen sowohl neutraler als auch ionischer Polymerer gewinnen ein zunehmendes Interesse in vielen Bereichen. Für den Einsatz solcher Systeme muss deren Phasenverhalten bekannt sein. Die vorliegende Arbeit liefert einen Beitrag zum Phasengleichgewicht solcher Systeme. Als Bausteine der Polymere werden dabei sowohl die neutrale organischen Komponente Vinylpyrrolidon (VP) als auch ein ionisches Monomer auf Basis von Imidazolium (3-Methyl-1-vinyl-1H-Imidazoliummethylsulfat - QVI), als niedrigmolekularer Elektrolyt ausschließlich Natriumsulfat verwendet. Die vorliegende Arbeit hat zum Ziel, das Phasenverhalten einer Reihe technisch interessierender Systeme in experimentellen Untersuchungen bei 25 und 65°C zu bestimmen und damit eine Datenbasis für theoretische Arbeiten zu liefern, die im Anschluss an diese Untersuchungen im Zusammenhang mit der Entwicklung von Modellen zur Korrelation bzw. Vorhersage solcher Phasengleichgewichte vorgesehen sind. Die Grenze zwischen einem einphasigen, flüssigen Bereich und Zwei- bzw. Drei-Phasen-Gebieten wurde durch visuelle Bestimmung der Trübung bei der Titration einer wässrigen Lösung (entweder des Polymeren oder des Salzes) bestimmt. Die Zusammensetzung der koexistierenden Phasen wurde in Phasengleichgewichtsexperimenten bestimmt, bei denen Proben der koexistierenden Phasen analysiert wurden. Dazu wurden mehrere Analysenmethoden entwickelt/erprobt (z. B. die Gefriertrocknung, die thermische (gravimetrische) Analyse, die Gaschromatographie und die Ionenchromatographie). Insgesamt wurden für 42 Systeme der Verlauf der Trübungskurve und für 34 Systeme das Phasengleichgewicht bestimmt. Dabei handelte es sich überwiegend um ternäre Systeme aus einem Polymeren (auf Basis von VP und/bzw. QVI), Natriumsulfat und Wasser, teilweise auch um quaternäre Systeme aus den zuvor erwähnten Komponenten und einem der Monomeren (VP bzw. QVI). Dabei zeigte die Mehrzahl der untersuchten Systeme eine flüssig-flüssig Entmischung, teilweise jedoch auch nur die häufiger anzutreffenden Fest-Flüssig-Phasengleichgewichte (z.B. Ausfall eines Salzes als Feststoff). Die experimentellen Untersuchungen wurden insbesondere bei hohen Polymerkonzentrationen durch die Zähigkeit der wässrigen Lösungen erschwert. Neben den Untersuchungen zum Phasengleichgewicht in ternären und quaternären Systemen wurden im Hinblick auf die in weiterführenden Arbeiten geplanten Modellierungsarbeiten auch experimentelle Untersuchungen an binären Subsystemen durchgeführt. Dabei handelte es sich ausschließlich um sogenannte isopiestische Messungen an wässrigen Lösungen der Polymere bzw. der Monomere. In solchen Untersuchungen wird der Einfluss der Wechselwirkungen zwischen den Molekülen eines in Wasser gelösten Stoffes auf den Dampfdruck der Lösung bestimmt. Der dabei quantitativ bestimmte Einfluss von Art und Menge des Polymeren auf den Dampfdrucks des Lösungsmittels soll in weiterführenden Arbeiten zur Bestimmung von Parametern thermodynamischer Modelle zur Beschreibung der Gibbsschen Exzessenergie wässriger Polymerlösungen verwendet werden. Die Ergebnisse der experimentellen Untersuchungen zum Flüssig-Flüssig bzw. Fest-Flüssig-Phasengleichgewicht lassen sich folgendermaßen charakterisieren: In fast allen Systemen mit Polymeren auf Basis von Vinylpyrrolidon wurden Flüssig-Flüssig-Gleichgewichte mit einer salzreichen, nahezu polymerfreien wässrigen Phase und einer polymerreichen wässrigen auch salzhaltigen flüssigen Phase gefunden. D. h. in einem Gibbsschen Dreiecksdiagramm, in dem die Zusammensetzung einer ternären Mischung (mit Hilfe des Konzentrationsmaßes „Massenanteil“ ausgedrückt) durch einen Punkt dargestellt wird zeigt die Phasengrenze zwischen dem einphasigen und dem mehrphasigen Gebiet eine starke Asymmetrie. Der Wassergehalt der polymerreichen Phase ist dabei häufig deutlich geringer als der Wassergehalt der salzreichen Phase. In Systemen mit (Natriumsulfat und) Polymeren auf Basis des Imidazoliumsalzes QVI wurden dagegen überwiegend Fest-Flüssig-Gleichgewichte beobachtet. Es zeigte sich, dass die Molmasse der verwendeten Polymere nur einen vergleichsweise geringen Einfluss auf die Ausdehnung des einphasigen flüssigen Gebietes hat. I. d. R. nimmt mit steigender Molmasse die Ausdehnung der Mischungslücke zu. Auch der Temperatureinfluss auf die beobachteten Phasengleichgewichte ist relativ gering. Dies war im Fall der Polymere auf Basis von Vinylpyrrolidon aus früheren Untersuchungen an wässrigen, salzfreien Lösungen dieser Polymere zu erwarten. Wie schon erwähnt, sind die Ergebnisse der vorliegenden Arbeit im Zusammenhang mit dem Einsatz solcher polymer- und salzhaltigen Systeme in verschiedenen Bereichen von Interesse. Sie bilden aber auch die Datenbasis für anstehende theoretische Arbeiten, die sich mit der Entwicklung thermodynamischer Modelle zur Beschreibung von Phasengleich- gewichten salz- und polymerhaltiger, wässriger Systeme beschäftigen werden.
In the theoretical part of this thesis, the difference of the solutions of the elastic and the elastoplastic boundary value problem is analysed, both for linear kinematic and combined linear kinematic and isotropic hardening material. We consider both models in their quasistatic, rate-independent formulation with linearised geometry. The main result of the thesis is, that the differences of the physical obervables (the stresses, strains and displacements) can be expressed as composition of some linear operators and play operators with respect to the exterior forces. Explicit homotopies between both solutions are presented. The main analytical devices are Lipschitz estimates for the stop and the play operator. We present some generalisations of the standard estimates. They allow different input functions, different initial memories and different scalar products. Thereby, the underlying time involving function spaces are the Sobolov spaces of first order with arbitrary integrability exponent between one and infinity. The main results can easily be generalised for the class of continuous functions with bounded total variation. In the practical part of this work, a method to correct the elastic stress tensor over a long time interval at some chosen points of the body is presented and analysed. In contrast to widespread uniaxial corrections (Neuber or ESED), our method takes multiaxiality phenomena like cyclic hardening/softening, ratchetting and non-masing behaviour into account using Jiang's model of elastoplasticity. It can be easily adapted to other constitutive elastoplastic material laws. The theory for our correction model is developped for linear kinematic hardening material, for which error estimated are derived. Our numerical algorithm is very fast and designed for the case that the elastic stress is piecewise linear. The results for the stresses can be significantly improved with Seeger's empirical strain constraint. For the improved model, a simple predictor-correcor algorithm for smooth input loading is established.
In the present work the modelling and numerical treatment of discontinuities in thermo-mechanical solids is investigated and applied to diverse physical problems. From this topic a structure for this work results, which considers the formulation of thermo-mechanical processes in continua in the first part and which forms the mechanical and thermodynamical framework for the description of discontinuities and interfaces, that is performed in the second part. The representation of the modelling of solid materials bases on the detailed derivation of geometrically nonlinear kinematics, that yields different strain and stress measures for the material and spatial configuration. Accordingly, this results in different formulations of the mechanical and thermodynamical balance equations. On these foundations we firstly derive by means of the concepts of the plasticity theory an elasto-plastic prototype-model, that is extended subsequently. In the centre of interest is the formulation of damage models in consideration of rate-dependent material behaviour. In the next step follows the extension of the isothermal material models to thermo-mechanically coupled problems, whereby also the special case of adiabatic processes is discussed. Within the representation of the different constitutive laws, the importance is attached to their modular structure. Moreover, a detailed discussion of the isothermal and the thermo-mechanically coupled problem with respect to their numerical treatment is performed. For this purpose the weak forms with respect to the different configurations and the corresponding linearizations are derived and discretized. The derived material models are highlighted by numerical examples and also proved with respect to plausibility. In order to take discontinuities into account appropriate kinematics are introduced and the mechanical and thermodynamical balance equations have to be modified correspondingly. The numerical description is accomplished by so-called interface-elements, which are based on an adequate discretization. In this context two application fields are distinguished. On the one side the interface elements provide a tool for the description of postcritical processes in the framework of localization problems, which include material separation and therefore they are appropriate for the description of cutting processes. Here in turn one has to make the difference between the domain-dependent and the domain-independent formulation, which mainly differ in the definition of the interfacial strain measure. On the other side material properties are attached to the interfaces whereas the spatial extension is neglectable. A typical application of this type of discontinuities can be found in the scope of the modelling of composites, for instance. In both applications the corresponding thermo-mechanical formulations are derived. Finally, the different interface formulations are highlighted by some numerical examples and they are also proved with respect to plausibility.
Anionenrezeptoren aus Cyclopeptiden mit 6-Aminopicolinsäure- und substituierten Prolinuntereinheiten
(2007)
Ziel dieser Arbeit war es, neue Cyclopeptide auf Basis der in der Arbeitsgruppe um S. Kubik untersuchten Anionenrezeptoren aus L-Prolin- und 6-Aminopicolinsäure zu entwickeln und hinsichtlich ihrer Rezeptor- und Sensoreigenschaften zu untersuchen. Das Hauptaugenmerk lag dabei auf dem Einfluss von Substituenten an den Prolinuntereinheiten auf die Bindungsaffinität und -selektivität. Durch eine systematische Syntheseoptimierung konnte eine effiziente Strategie für ein 4R-Amino-L-prolin-haltiges Dipeptid erarbeitet werden, welches es ermöglicht, verschiedene Substituenten mit der gewünschten Konfiguration an den C(γ)-Atomen der Prolineinheiten einzuführen. Aus den funktionalisierten Dipeptiden konnten anschließend die entsprechenden Cyclopeptide nach Standardmethoden aufgebaut werden. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener Sulfonate und Acetat erfolgte mittels NMR-Spektroskopie und isothermer Titrationskalorimetrie in unterschiedlichen Lösungsmitteln. Die Untersuchungen zeigten, dass die Struktur und die Flexibilität der peripheren Substituenten um den Cyclopeptidhohlraum einen signifikanten Einfluss auf die Substratbindung besitzt.
The main aim of this work was to obtain an approximate solution of the seismic traveltime tomography problems with the help of splines based on reproducing kernel Sobolev spaces. In order to be able to apply the spline approximation concept to surface wave as well as to body wave tomography problems, the spherical spline approximation concept was extended for the case where the domain of the function to be approximated is an arbitrary compact set in R^n and a finite number of discontinuity points is allowed. We present applications of such spline method to seismic surface wave as well as body wave tomography, and discuss the theoretical and numerical aspects of such applications. Moreover, we run numerous numerical tests that justify the theoretical considerations.
In an undirected graph G we associate costs and weights to each edge. The weight-constrained minimum spanning tree problem is to find a spanning tree of total edge weight at most a given value W and minimum total costs under this restriction. In this thesis a literature overview on this NP-hard problem, theoretical properties concerning the convex hull and the Lagrangian relaxation are given. We present also some in- and exclusion-test for this problem. We apply a ranking algorithm and the method of approximation through decomposition to our problem and design also a new branch and bound scheme. The numerical results show that this new solution approach performs better than the existing algorithms.
In this article we give a sufficient condition that a simply connected flexible body does not penetrate itself, if it is subjected to a continuous deformation. It is shown that the deformation map is automatically injective, if it is just locally injective and injective on the boundary of the body. Thereby, it is very remarkable that no higher regularity assumption than continuity for the deformation map is required. The proof exclusively relies on homotopy methods and the Jordan-Brouwer separation theorem.
Zwei zentrale Probleme der modernen Finanzmathematik sind die Portfolio-Optimierung und die Optionsbewertung. Während es bei der Portfolio-Optimierung darum geht, das Vermögen optimal auf verschiedene Anlagemöglichkeiten zu verteilen, versucht die Optionsbewertung faire Preise von derivativen Finanzinstrumenten zu bestimmen. In dieser Arbeit werden Fragestellungen aus beiden dieser Themenbereiche bearbeitet. Die Arbeit beginnt mit einem Kapitel über Grundlagen, in dem zum Beispiel das Portfolio-Problem von Merton dargestellt und die Black/Scholes-Formel zur Optionsbewertung hergeleitet wird. In Kapitel 2 wird das Portfolio-Problem von Morton und Pliska betrachtet, die in das Merton-Modell fixe Transaktionskosten eingeführt haben. Dabei muß der Investor bei jeder Transaktion einen fixen Anteil vom derzeitigen Vermögen als Kosten abführen. Es wird die asymptotische Approximation dieses Modells von Atkinson und Wilmott vorgestellt und die optimale Portfoliostrategie aus den Marktparametern hergeleitet. Danach werden die tatsächlichen Transaktionskosten abgeschätzt und ein User Guide zur praktischen Anwendung dieses Transaktionskostenmodells angegeben. Zum Schluß wird das Modell numerisch analysiert, indem unter anderem die erwartete Handelszeit und die Güte der Abschätzung der tatsächlichen Transaktionskosten berechnet werden. Ein Portfolio-Problem mit internationalen Märkten wird in Kapitel 3 vorgestellt. Dem Investor steht zusätzlich zu seinem Heimatland noch ein weiteres Land für seine Vermögensanlagen zur Verfügung. Dabei werden die Preisprozesse für die ausländischen Wertpapiere mit einem stochastischen Wechselkurs in die Heimatwährung umgerechnet. In einer statischen Analyse wird unter anderem berechnet, wieviel weniger Vermögen der Investor benötigt, um das gleiche erwartete Endvermögen zu erhalten wie in dem Fall, wenn ihm keine Auslandsanlagen zur Verfügung stehen. Kapitel 4 behandelt drei verschiedene Portfolio-Probleme mit Sprung-Diffusions-Prozessen. Nach der Herleitung eines Verifikationssatzes wird das Problem bei Anlagemöglichkeit in eine Aktie und in ein Geldmarktkonto jeweils für eine konstante und eine stochastische Zinsrate untersucht. Im ersten Fall wird eine implizite Darstellung für den optimalen Portfolioprozeß und eine Bedingung angegeben, unter der diese Darstellung eindeutig lösbar ist. Außerdem wird der optimale Portfolioprozeß für verschiedene Verteilungen für die Sprunghöhe untersucht. Im Falle einer stochastischen Zinsrate kann nur ein Kandidat für den optimalen Lösungsprozeß angeben werden. Dieser hat wieder eine implizite Darstellung. Das letzte Portfolio-Problem ist eine Abwandlung des Modells aus Kapitel 3. Wird dort der Wechselkurs durch eine geometrisch Brownsche Bewegung modelliert, ist er hier ein reiner Sprungprozeß. Es wird wieder der optimale Portfolioprozeß hergeleitet, wobei ein Anteil davon unter Umständen nur numerisch lösbar ist. Eine hinreichende Bedingung für die Lösbarkeit wird angegeben. In Kapitel 5 werden verschiedene Bewertungsansätze für Optionen auf Bondindizes präsentiert. Es wird eine Methode vorgestellt, mit der die Optionen anhand von Marktpreisen bewertet werden können. Für den Fall, daß es nicht genug Marktpreise gibt, wird ein Verfahren angegeben, um den Bondindex realitätsnah zu simulieren und künstliche Marktpreise zu erzeugen. Diese Preise können dann für eine Kalibrierung verwendet werden.
The IEEE 802.11 networks have a tremendous growth in the last years, but also now there is a rapid development of the wireless LAN technologies. High transmission rates, simple deployment and especially low costs make this network technology an efficient and cheap way to get access to the Internet. Fon is the world-wide greatest WIFI community and in January 2007 this community offers more than 11.000 access points in Germany and nearly 55.000 all over the world. However, this technology has also his shady sides. For example, it is possible for everyone to receive data from the wireless medium. So a protection against this open data traffic is a encryption mechanism called Wired Equivalent Privacy (WEP). The tragic end of theWired Equivalent Privacy (WEP) and the simplicity of various Denial-of-Service (DoS) attacks on the wireless medium have resulted in giving up the security at the logical-link layer and shifting it to upper layers (or in the best case leaving it within virtual private networks (VPNs)). Nevertheless, there is an enormous growth in using public access to the Internet via HotSpots in cafés, libraries, schools or at airports, train stops etc. Therefore, it is important for the Wireless Internet Service Provider (WISP) to make sure that anyone with a usual wireless device can connect to their access points. Offering this service to anybody makes giving a sufficient level of security very difficult. On the one hand it should be easy for everyone to use this access, on the other hand there is, in most cases, no security. A businessman is not very pleased about phishing his account data for a great enterprise or for his online office like the KIS at the University of Technology in Kaiserslautern. In most cases the WISPs use a simple web based authentication mechanism. By connecting to the WISPs services, the user is redirected to a webpage requesting his login data or credit card information. Therefore the user only needs a wireless LAN device and a webbrowser to authenticate. An attacker could sniff on the wireless medium to phish delicate data from a legal connected user or use DoS attacks as initial point for various other attacks. In most cases, this can be done with no or only small effort. On the other side, in some cases, the WISP has to do a hard reset on his wireless devices after a DoS attack. Therefore an analysis of access points is done in this work. So, the first part is to show how "‘new"’ access points react to flooding attacks and what mechanisms are used to protect them. The second part implements an attack using an anomaly of some access points that are discovered in the first part. And the last chapter deals with some information about using an Intrusion Detection System (IDS) to protect the devices against such attacks.
In this article a new data-adaptive method for smoothing of bivariate functions is developed. The smoothing is done by kernel regression with rotational invariant bivariate kernels. Two or three local bandwidth parameters are chosen automatically by a two-step plug-in approach. The algorithm starts with small global bandwidth parameters, which adapt during a few iterations to the noisy image. In the next step local bandwidths are estimated. Some general asymptotic results about Gasser-Müller-estimators and optimal bandwidth selection are given. The derived local bandwidth estimators converge and are asymptotically normal.
In this dissertation we present analysis of macroscopic models for slow dense granular flow. Models are derived from plasticity theory with yield condition and flow rule. Corner stone equations are conservation of mass and conservation of momentum with special constitutive law. Such models are considered in the class of generalised Newtonian fluids, where viscosity depends on the pressure and modulo of the strain-rate tensor. We showed the hyperbolic nature for the evolutionary model in 1D and ill-posed behaviour for 2D and 3D. The steady state equations are always hyperbolic. In the 2D problem we derived a prototype nonlinear backward parabolic equation for the velocity and the similar equation for the shear-rate. Analysis of derived PDE showed the finite blow up time. Blow up time depends on the initial condition. Full 2D and antiplane 3D model were investigated numerically with finite element method. For 2D model we showed the presence of boundary layers. Antiplane 3D model was investigated with the Runge Kutta Discontinuous Galerkin method with mesh addoption. Numerical results confirmed that such a numerical method can be a good choice for the simulations of the slow dense granular flow.
Die Peltulaceae sind eine flechtenbildende Ascomycetenfamilie, die derzeit 43 morphologisch umschriebene Spezies in drei Gattungen umfasst. Systematisch gehören sie in die Ordnung Lichinales (Lichinomycetes, Pezizomycotina), ihre genaue Stellung im System der Ascomyceten ist unbekannt. Die Familie lebt exklusiv mit Cyanobakterien in Symbiose und besiedelt weltweit aride und semi-aride Habitate. Die aktuell bekannte Verbreitung zeigt Ähnlichkeiten zu derjenigen xerophytischer Moospflanzen, für die ein gondwanischer Ursprung angenommen wird. Außerdem besiedeln mehr Peltulaceen-Spezies die ehemaligen Gondwanakontinente (Afrika, Südamerika, Australien, Indien) als die übrigen, laurasischen Kontinente (Nordamerika, Europa, Asien); der Sörensen-Koeffizient für die Florenähnlichkeit beträgt 0,697. Die Hypothese, dass die Peltulaceae gondwanischen Ursprungs sind, sollte mit Hilfe einer phylogenetischen Analyse der Familie geklärt werden, indem durch darauf aufbauende geographische Analysen das Ursprungsareal auf kontinentalem Niveau identifiziert wird. Mit Hilfe des morphologischen Merkmalskomplexes ließ sich keine aufgelöste Phylogeniehypothese erstellen. Da die geographischen Analysen eine voll aufgelöste Phylogenie erfordern, wurden sechs molekulare Marker ausgewählt (nucSSU, nucLSU, mtSSU, ITS, RPB2/7-11, β-Tubulin) und zunächst für je einen Vertreter von 37 der 43 umschriebenen Morphotaxa sequenziert. Die resultierenden Stammbäume der ML- und Bayes'schen Analysen waren unterschiedlich gut aufgelöst und untereinander dergestalt inkompatibel, dass unterschiedliche monophyletische Beziehungen unterstützt wurden. Außerdem wies das β-Tubulin-Gen eine paraloge Kopie auf. Durch Kompatibilitätstests ließen sich keine Teilmengen kongruenter Daten feststellen. Die dennoch durchgeführte kombinierte Analyse aller sechs Marker war vom phylogenetischen Signal des RPB2/7-11-Gens dominiert und ließ sich nicht durch geographische, morphologisch-anatomische oder ökologische Merkmale bestätigen. Zwei verschiedene Methoden zur Detektion von Rekombination ergaben nicht-übereinstimmende Signale nur in der nucLSU beziehungsweise in allen Markern außer der ITS. Von den Genen ITS und RPB2/7-11 wurden zusätzlich Sequenzen weiterer Peltulaceae-Individuen erzeugt und ML- und Bayes‘sche Analysen durchgeführt, in der die Vertreter von zwölf Morphospezies keine monophyletischen Einheiten bildeten. Die Suche nach phylogenetischen Spezies mittels der Konsensusmethode zeigte lediglich eine nicht-terminale Gruppierung unterschiedlicher Morphotaxa: die Vereinigung dreier durch eine peltate Wuchsform charakterisierte Spezies. Dieses Merkmal besitzen jedoch auch andere, in dieser Gruppierung nicht eingeschlossene Spezies. Die Monophylie der Peltulaceae wurde mit molekularen Daten bestätigt, die Stellung im System der Ascomyceten konnte jedoch nicht geklärt werden. Die Existenz der Gattungen Neoheppia und Phyllopeltula konnte mittels molekularer Marker nicht bestätigt werden. Sie werden als taxonomische Konsequenz mit dem älteren Gattungsnamen Peltula synonymisiert, womit die Familie monogenerisch wird. Die vorhandenen Inkongruenzen zwischen den molekularen Markern deuten auf genetisch nicht isolierte Taxa hin. Die Peltulaceae werden nun als ein Spezieskomplex mit bisher ungeklärter Spezieszahl gedeutet. Die morphologische Speziesumschreibung bedarf einer Neubewertung, da sie sich größtenteils nicht mit molekularen Daten bestätigen ließ. Die Klärung der Ausgangsfrage nach dem geographischen Ursprung der Peltulaceae muss die Überarbeitung der Speziesabgrenzungen abwarten.
Die RNAi–Methode spielt eine grosse Rolle in der Wirkstoffentwicklung bei der Validierung eines pharmakologischen Ziels. Die Anwendbarkeit in der Toxikologie wurde noch nicht systematisch untersucht. Das Ziel dieser Arbeit ist die Evaluierung der RNAi-Methode für mechanistisch-toxikologische Studien und den Einfluss von posttranskriptioneller Genunterdrückung auf biochemisch-zelluläre Endpunkte zu zeigen. Die siRNAs wurden mit Hilfe eines computerunterstützten Algorithmus ausgewählt. Effiziente und reproduzierbare Einschleusung der siRNA in vitro wurde durch Elektroporation erreicht. Die molekulare Reduktion der Expression des Zielgens wurde auf mRNA- und Proteinexpressionslevel oder auf Proteinaktivitätsebene zwischen 24 und 144 Stunden nach Behandlung überwacht. Die siRNAs wurden in vitro getestet bevor sie in vivo angewandt wurden. Als Methode zum Erreichen der Leber in vivo wurde die intraperitoneale Gabe von siRNAs gegenüber hydrodynamischer Injektion in die Schwanzvene evaluiert. Auf folgenden Enzyme wurde mit RNAi in der Zellkultur abgezielt: ATP-Synthase in HepG2, Farnesylpyrophosphat-Synthase (FPPS) in humanen Nierenzellen (HK-2) und Caspase-3 in Primärhepatozyten der Ratte. In allen Experimenten war RNAi in der Lage, das mRNA- und Proteinexpressions- oder Proteinaktivitäts-Niveau zu reduzieren, wodurch die erfolgreiche Genunterdrückung gezeigt werden konnte. Die Unterdrückung der mitochondrialen ATP- Synthase β-Untereinheit hatte keinen signifikanten Einfluss auf die Überlebensrate und den Energiestoffwechsel von HepG2-Zellen. Obwohl Oligomycin B-Behandlung zu ATP- Depletion und Verlust des mitochondiralen Membranpotentials führte, war keine Sensitivierung der Zellen gegenüber Oligomycin B- oder Diclofenac-induzierten Veränderungen des mitochondrialen Membranpotentials oder Zytotoxizität zu beobachten. Die Genunterdrückung der ATP-Synthase in HepG2-Zellen führte zu einer ähnlichen transkriptionellen Signatur wie Diclofenac-Behandlung in vivo, so dass eine mögliche Verbindung zwischen ATP-Synthase und Hepcidin, BiP und ALAS-1 durch Koregulation nahegelegt wird. Die Genunterdrückung von FPPS führte zu tendenziell erhöhter Zytotoxizität von Zoledronsäure, hatte aber keinen Einfluss auf den Prenylierungsstatus der kleinen GTPasen. Der Caspase-3/7-Inhibitor Ac-DEVD-CHO verhinderte SDZ IMM125-vermittelte Apoptose. Spezifische Genunterdrückung von Caspase-3 führte zur Reduktion der SDZ IMM125-induzierten Caspaseaktivität, während die Unterdrückung von Caspase-7 in dieser Hinsicht keinen Einfluss hatte. Die Effektschwelle des Genunterdrückung wurde durch Vergleich zwischen Caspase-3-silencing und Behandlung mit dem chemischen Caspase-Inhibitor Ac-DEVD-CHO auf Ebene der Caspase-3-Aktivität und der zytoprotektiven Wirksamkeit bestimmt. Der Effekt von Caspase-3-Unterdrückung war equivalent zur Wirkung von 1 μM Inhibitor. Die inhibitorvermittelte Schutzwirkung im Hinblick auf die Zytotoxizität wurde ausschliesslich bei höheren Inhibitorkonzentrationen erreicht, wodurch gezeigt wurde, dass die erreichte Genunterdrückung für zytoprotektive Wirkungen nicht ausreichend war. SiRNAs haben verglichen mit Enzyminhibitoren generell eine höhere Spezifität. Chemische Inhibitoren sind weniger spezifisch und können enzymatische Aktivitäten vollständig, in manchen Fällen irreversibel und schnell beeinflussen, so dass sie direkten Einfluss auf die zu untersuchenden Signalwege haben. SiRNAs unterscheiden sich in dieser Hinsicht, da die Abnahme des Proteins nicht vollständig, nur transient und langsam über eine Periode hinweg erfolgt, innerhalb welcher sich die Zellen durch kompensatorische Mechanismen anpassen und Primäreffekte maskiert werden können. Hydrodynamische Einschleusung von nicht-komplexierter siRNA in die Leber von CD-1-Mäusen war möglich und reduzierte die CYP2E1-Proteinexpression signifikant. Ein- oder mehrfache hochdosierte intraperitoneale Gabe von siRNA führte weder auf mRNA- noch auf Proteinebene zu signifikanten Effekten. Weitere Untersuchungen im Hinblick auf Stabilität und effiziente Einschleusung von siRNAs ist unvermeidlich, bevor siRNAs in vivo in der mechanistischen Toxikologie angewandt werden können. Zusammenfassend kann ausgesagt werden, dass die Anwendung von siRNAs in vitro eine universelle und spezifische Methode darstellt, welche in vielen mechanistisch-toxikologischen Studien als Werkzeug zur Signalweganalyse und zur Validierung von Zielproteinen eingesetzt werden kann. Die Stärke der enzymatischen Inhibition, die mit Hilfe eines chemischen Inhibitors erreicht werden kann, ist durch siRNA-vermittelte Genunterdrückung nicht zu erreichen. Genunterdrückung in vivo kann erreicht werden, doch die invasive hydrodynamische Methode ist nicht geeignet für Toxizitätsprüfungen im Tier. Die Einschleusung von siRNA in spezifische Zielorgane benötigt signifikante Verbesserung.
In the thesis the author presents a mathematical model which describes the behaviour of the acoustical pressure (sound), produced by a bass loudspeaker. The underlying physical propagation of sound is described by the non--linear isentropic Euler system in a Lagrangian description. This system is expanded via asymptotical analysis up to third order in the displacement of the membrane of the loudspeaker. The differential equations which describe the behaviour of the key note and the first order harmonic are compared to classical results. The boundary conditions, which are derived up to third order, are based on the principle that the small control volume sticks to the boundary and is allowed to move only along it. Using classical results of the theory of elliptic partial differential equations, the author shows that under appropriate conditions on the input data the appropriate mathematical problems admit, by the Fredholm alternative, unique solutions. Moreover, certain regularity results are shown. Further, a novel Wave Based Method is applied to solve appropriate mathematical problems. However, the known theory of the Wave Based Method, which can be found in the literature, so far, allowed to apply WBM only in the cases of convex domains. The author finds the criterion which allows to apply the WBM in the cases of non--convex domains. In the case of 2D problems we represent this criterion as a small proposition. With the aid of this proposition one is able to subdivide arbitrary 2D domains such that the number of subdomains is minimal, WBM may be applied in each subdomain and the geometry is not altered, e.g. via polygonal approximation. Further, the same principles are used in the case of 3D problem. However, the formulation of a similar proposition in cases of 3D problems has still to be done. Next, we show a simple procedure to solve an inhomogeneous Helmholtz equation using WBM. This procedure, however, is rather computationally expensive and can probably be improved. Several examples are also presented. We present the possibility to apply the Wave Based Technique to solve steady--state acoustic problems in the case of an unbounded 3D domain. The main principle of the classical WBM is extended to the case of an external domain. Two numerical examples are also presented. In order to apply the WBM to our problems we subdivide the computational domain into three subdomains. Therefore, on the interfaces certain coupling conditions are defined. The description of the optimization procedure, based on the principles of the shape gradient method and level set method, and the results of the optimization finalize the thesis.
We study nonlinear finite element discretizations for the density gradient equation in the quantum drift diffusion model. Especially, we give a finite element description of the so--called nonlinear scheme introduced by {it Ancona}. We prove the existence of discrete solutions and provide a consistency and convergence analysis, which yields the optimal order of convergence for both discretizations. The performance of both schemes is compared numerically, especially with respect to the influence of approximate vacuum boundary conditions.
In this thesis, the quasi-static Biot poroelasticity system in bounded multilayered domains in one and three dimensions is studied. In more detail, in the one-dimensional case, a finite volume discretization for the Biot system with discontinuous coefficients is derived. The discretization results in a difference scheme with harmonic averaging of the coefficients. Detailed theoretical analysis of the obtained discrete model is performed. Error estimates, which establish convergence rates for both primary as well as flux unknowns are derived. Besides, modified and more accurate discretizations, which can be applied when the interface position coincides with a grid node, are obtained. These discretizations yield second order convergence of the fluxes of the problem. Finally, the solver for the solution of the produced system of linear equations is developed and extensively tested. A number of numerical experiments, which confirm the theoretical considerations are performed. In the three-dimensional case, the finite volume discretization of the system involves construction of special interpolating polynomials in the dual volumes. These polynomials are derived so that they satisfy the same continuity conditions across the interface, as the original system of PDEs. This technique allows to obtain such a difference scheme, which provides accurate computation of the primary as well as of the flux unknowns, including the points adjacent to the interface. Numerical experiments, based on the obtained discretization, show second order convergence for auxiliary problems with known analytical solutions. A multigrid solver, which incorporates the features of the discrete model, is developed in order to solve efficiently the linear system, produced by the finite volume discretization of the three-dimensional problem. The crucial point is to derive problem-dependent restriction and prolongation operators. Such operators are a well-known remedy for the scalar PDEs with discontinuous coefficients. Here, these operators are derived for the system of PDEs, taking into account interdependence of different unknowns within the system. In the derivation, the interpolating polynomials from the finite volume discretization are employed again, linking thus the discretization and the solution processes. The developed multigrid solver is tested on several model problems. Numerical experiments show that, due to the proper problem-dependent intergrid transfer, the multigrid solver is robust with respect to the discontinuities of the coefficients of the system. In the end, the poroelasticity system with discontinuous coefficients is used to model a real problem. The Biot model, describing this problem, is treated numerically, i.e., discretized by the developed finite volume techniques and then solved by the constructed multigrid solver. Physical characteristics of the process, such as displacement of the skeleton, pressure of the fluid, components of the stress tensor, are calculated and then presented at certain cross-sections.
Haustoria of the rust fungus pathogen Uromyces fabae deliver RTP1 (Rust Transferred Protein1) into host plant cells. In this work, different heterologous expression systems were used to study RTP1 biological function as well as RTP1 transfer mechanism. The first part of this thesis focused on the identification of the subcellular target compartment of RTP1 in plant cells. In this respect we could identify a functional bipartite nuclear localization signal within RTP1. However, stable and transient expression studies of RTP1 in different plant species, including the host plant Vicia faba, interfered with plant cell vitality but did not result in detection of RTP1 protein. These findings led us to propose that RTP1 interferes with plant gene expression. However, the molecular basis of this interference remains unclear. By deletion studies, we could localize the active region of RTP1 within a 45 amino acid central domain. In the second part of this study, two different lines of approaches were taken to study RTP1 transfer mechanism. First, transient expression of secreted RTP1 (sRTP1) also interfered with plant cell vitality. Addition of an endoplasmic reticulum retention signal abolished sRTP1 interference with plant cell vitality, suggesting that RTP1 can reenter the plant cell from the apoplast after secretion in the absence of the pathogen. We have identified a PEST-like region within RTP1, however, contribution of this region to the stability of RTP1 is not clear. Site directed mutagenesis analysis showed that the PEST-like region is likely to play a role during the transfer of RTP1 through plant plasma membrane. In the second line of approach, we established a recombinant delivery model, using Ustilago maydis/Zea mays pathosystem, to pursue RTP1 translocation into the plant cell. Our results indicate that U. maydis is capable of secreting high amounts of recombinant RTP1, showing similar glycosylation pattern as RTP1 secreted from rust haustoria. Our data propose the use of this model system to study RTP1 domains mediating its entry into the plant cell. Haustoria of the rust fungus pathogen Uromyces fabae deliver RTP1 (Rust Transferred Protein1) into host plant cells. In this work, different heterologous expression systems were used to study RTP1 biological function as well as RTP1 transfer mechanism. The first part of this thesis focused on the identification of the subcellular target compartment of RTP1 in plant cells. In this respect we could identify a functional bipartite nuclear localization signal within RTP1. However, stable and transient expression studies of RTP1 in different plant species, including the host plant Vicia faba, interfered with plant cell vitality but did not result in detection of RTP1 protein. These findings led us to propose that RTP1 interferes with plant gene expression. However, the molecular basis of this interference remains unclear. By deletion studies, we could localize the active region of RTP1 within a 45 amino acid central domain. In the second part of this study, two different lines of approaches were taken to study RTP1 transfer mechanism. First, transient expression of secreted RTP1 (sRTP1) also interfered with plant cell vitality. Addition of an endoplasmic reticulum retention signal abolished sRTP1 interference with plant cell vitality, suggesting that RTP1 can reenter the plant cell from the apoplast after secretion in the absence of the pathogen. We have identified a PEST-like region within RTP1, however, contribution of this region to the stability of RTP1 is not clear. Site directed mutagenesis analysis showed that the PEST-like region is likely to play a role during the transfer of RTP1 through plant plasma membrane. In the second line of approach, we established a recombinant delivery model, using Ustilago maydis/Zea mays pathosystem, to pursue RTP1 translocation into the plant cell. Our results indicate that U. maydis is capable of secreting high amounts of recombinant RTP1, showing similar glycosylation pattern as RTP1 secreted from rust haustoria. Our data propose the use of this model system to study RTP1 domains mediating its entry into the plant cell.
Diese Arbeit beschäftigt sich mit Methoden zur Klassifikation von Ovoiden in quadratischen Räumen. Die Anwendung der dazu entwickelten Algorithmen erfolgt hauptsächlich in achtdimensionalen Räumen speziell über den Körpern GF(7), GF(8) und GF(9). Zu verschiedenen, zumeist kleinen, zyklischen Gruppen werden hier die unter diesen Gruppen invarianten Ovoide bestimmt. Die bei dieser Suche auftretenden Ovoide sind alle bereits bekannt. Es ergeben sich jedoch Restriktionen an die Stabilisatoren gegebenenfalls existierender, unbekannter Ovoide.
Im Rahmen der vorliegenden Arbeit wurden sowohl neuartige polymere Hochleistungsverbundwerkstoffe als auch unterschiedliche Modellprüfmethoden zur Nachbildung abrasiver Verschleißbedingungen entwickelt. Ausgangspunkt für diese Themenstellung war, Verbundwerkstoffe als alternative Gleitlagermaterialien in hermetisch dichten Pumpen für aggressive und abrasive Medien einzusetzen. Stand der Technik sind hierbei keramische Gleitlager, insbesondere aus monolithischem Siliziumkarbid. Das Ziel war somit zu untersuchen, ob Polymerwerkstoffe derart modifiziert werden können, dass ein vergleichbares Verschleißverhalten erreicht wird. Auf der Basis von Epoxidharz wurde die elementare Werkstoffentwicklung, durch Variation von Füll- und Verstärkungsstoffe, hinsichtlich Art, Größe und Menge, durchgeführt. Die Formulierung mit den in Summe günstigsten Eigenschaften wurde anschließend auf einen weiteren Duroplasten (Vinylester) und einen Thermoplasten (Etylentetrafluorethylen) übertragen. Auf diese Weise konnte gezeigt werden, dass das Verschleißverhalten bei hochgefüllten Systemen maßgeblich von den Füll- und Verstärkungsstoffen geprägt wird und durch die Übertragung der Formulierung ähnliche Verschleißraten erzielt werden. Weiterhin wurde der Einfluss der Aushärtungstemperatur, und somit des Herstellungsprozesses, auf die Werkstoffeigenschaften dargestellt. Durch eine weiterführende Werkstoffmodifikation, den Einsatz multimodaler Korngrößenverteilungen, war es zudem möglich die tribologischen Eigenschaften nochmals zu verbessern. Der Vergleich der Werkstoffeigenschaften erfolgte mittels mechanischer und tribologischer Prüfungen. Letztere waren jedoch nur bedingt anwendbar, um einen Vergleich zwischen den neu entwickelten Hochleistungsverbundwerkstoffen und dem Referenzwerkstoff Siliziumkarbid zu ermöglichen. Aus diesem Grunde wurde ein spezieller Medienprüfstand konstruiert und aufgebaut, um verschiedenste abrasive Prüfbedingungen, ob geschmiert oder ungeschmiert, simulieren zu können. Mit Hilfe abrasiver Gegenkörper war es möglich die Testzeit von 20 Stunden auf 60 Sekunden zu verkürzen. Die anschließende Validierung der Ergebnisse ergab eine gute Übereinstimmung. Zur Ableitung allgemein gültiger Aussagen wurden die Ergebnisse anhand dreier Verschleißmodelle für abrasive Bedingungen (Archard, Budinski, Ratner et al) überprüft. Dabei erwies sich jedoch keines der Modell als passend, um alle experimentellen Werte abbilden zu können. Dennoch lies sich erkennen, dass das Deformationsverhalten bei abrasiven Verschleißvorgängen eine bedeutende Rolle spielt. Deshalb wurde das Deformationsverhalten von drei exemplarischen Verbundwerkstoffen bei einer dynamischen Mikrohärteprüfung mittels der Finiten Elemente Methode (FEM) simuliert. Es zeigte sich, dass zum einen die Berechnungen und die experimentellen Ergebnisse sehr gut übereinstimmen. Zum anderen sind die entwickelten FEM Modelle sehr gut geeignet, um das Verschleißverhalten zu erklären.
Zwölf Testpflanzen des Weinbauinstituts Freiburg wurden auf deren Resistenzeigenschaften gegenüber dem Virusvektor Xiphinema index und dem GFLV getestet. Das Hauptziel dieser Arbeit lag in der Entwicklung eines in-vitro-Testsystems für Reben, das detaillierte Einblicke in das Wurzel-Nematoden-System erlaubt. Anhand dieses in-vitro-Testsystems konnten zwei unterschiedliche Reaktionen der Wurzeln dieser Testreben auf die Saugtätigkeit der Nematoden festgestellt werden. Es konnte sowohl eine Gallenbildung als auch eine Nekrosenbildung bei den unterschiedlichen Kreuzungen der Testpflanzen beobachtet werden. Alle Testpflanzen aus verschiedenen Kreuzungen zeigten eine Abwehrreaktion gegenüber den Nematoden. Dies resultierte in Auftreten von Transkripten der Phenylalanin-Ammonium-Lyase (PAL) und der Bildung von Superoxid-Radikalen. Bei zwei V. rotundifolia-Hybriden war zusätzlich die Callose-Synthase aktiv und es kam außerdem zu einer Callose-Deposition an den betroffenen Stellen im Wurzelgewebe. Bis auf Testpflanze 46, einem V. rotundifolia-Hybrid waren alle getesteten Reben nach vier Wochen Versuchsdauer sensitiv für eine Transmission des GFLV. Dieser Hybrid war an den Wurzeln durch die Saugtätigkeit der Nematoden nekrosenbildend und zeigte eine Callose-Synthase-Aktivität. X. index findet seine Wirtspflanzen durch Chemotaxis. Er orientiert sich anhand von Wurzelexudaten, die von Wurzeln ins Medium abgeben werden. Totes Wurzelgewebe kann der Nematode nicht lokalisieren und stellt keinen Stimulus dar. Bei knappem Nahrungsangebot nutzt der Nematode vorhandene Nahrungsressourcen aller Rebsorten mit verschiedenster Beschaffenheit. Mit dem Pflanzenhormon Methyljasmonat behandelte Wurzeln wurden gezielt gemieden. Zwei mit dem GFLV infizierte Rebflächen an verschiedenen Standorten zeigten innerhalb dreijähriger Beobachtung eine Zunahme von virustragenden Rebstöcken. Ein Hinweis auf die Verbreitung durch virusübertragende Nematoden konnte durch Bodenproben bisher nicht bestätigt werden.
Guaranteeing correctness of compilation is a ma jor precondition for correct software. Code generation can be one of the most error-prone tasks in a compiler. One way to achieve trusted compilation is certifying compilation. A certifying compiler generates for each run a proof that it has performed the compilation run correctly. The proof is checked in a separate theorem prover. If the theorem prover is content with the proof, one can be sure that the compiler produced correct code. This paper presents a certifying code generation phase for a compiler translating an intermediate language into assembler code. The time spent for checking the proofs is the bottleneck of certifying compilation. We exhibit an improved framework for certifying compilation and considerable advances to overcome this bottleneck. We compare our implementation featuring the Coq theorem prover to an older implementation. Our current implementation is feasible for medium to large sized programs.
Given a directed graph G = (N,A) with arc capacities u and a minimum cost flow problem defined on G, the capacity inverse minimum cost flow problem is to find a new capacity vector u' for the arc set A such that a given feasible flow x' is optimal with respect to the modified capacities. Among all capacity vectors u' satisfying this condition, we would like to find one with minimum ||u' - u|| value. We consider two distance measures for ||u' - u||, rectilinear and Chebyshev distances. By reduction from the feedback arc set problem we show that the capacity inverse minimum cost flow problem is NP-hard in the rectilinear case. On the other hand, it is polynomially solvable by a greedy algorithm for the Chebyshev norm. In the latter case we propose a heuristic for the bicriteria problem, where we minimize among all optimal solutions the number of affected arcs. We also present computational results for this heuristic.
GPU Stereo Vision
(2007)
To analyze scenery obstacles in robotics applications depth information is very valuable. Stereo vision is a powerful way to extract dense range information out of two camera images. In order to unload the CPU the intensive computation can be moved to GPU, taking advantage of the parallel processing capabilities of todays consumer level graphics hardware. This work shows how an efficient implementation on the GPU can be realized utilizing the NVIDIA Cuda framework.
Die fortschreitende Verbreitung von Ethernet-basierten Strukturen mit dezentralen und verteilten Anwendungen in der Automatisierung führt zu den so genannten netzbasier-ten Automatisierungssystemen (NAS). Diese sind zwar in Anschaffung und Betrieb kostengünstiger, moderner und flexibler als herkömmliche Strukturen, weisen jedoch nicht-deterministische Verzögerungen auf. Die genaue Analyse der resultierenden Antwortzeiten ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen, Fragen der Verlässlichkeit zu klären. In diesem ersten von zwei Beiträgen wird hierfür zunächst die für die speziellen Bedürfnisse der Strukturbeschreibung von netzbasierten Automatisierungssystemen entwickelte Modellierungssprache DesLaNAS vorgestellt und auf ein einführendes Beispiel angewendet. Im zweiten Beitrag wird darauf aufbauend gezeigt, welchen Einfluss die einzelnen System-komponenten (SPS, Netzwerk, I/O-Karten) sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse selbst wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) angewendet.
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
Analog sensor electronics requires special care during design in order to increase the quality and precision of the signal, and the life time of the product. Nevertheless, it can experience static deviations due to the manufacturing tolerances, and dynamic deviations due to operating in non-ideal environment. Therefore, the advanced applications such as MEMS technology employs calibration loop to deal with the deviations, but unfortunately, it is considered only in the digital domain, which cannot cope with all the analog deviations such as saturation of the analog signal, etc. On the other hand, rapid-prototyping is essential to decrease the development time, and the cost of the products for small quantities. Recently, evolvable hardware has been developed with the motivation to cope with the mentioned sensor electronic problems. However the industrial specifications and requirements are not considered in the hardware learning loop. Indeed, it minimizes the error between the required output and the real output generated due to given test signal. The aim of this thesis is to synthesize the generic organic-computing sensor electronics and return hardware with predictable behavior for embedded system applications that gains the industrial acceptance; therefore, the hardware topology is constrained to the standard hardware topologies, the hardware standard specifications are included in the optimization, and hierarchical optimization are abstracted from the synthesis tools to evolve first the building blocks, then evolve the abstract level that employs these optimized blocks. On the other hand, measuring some of the industrial specifications needs expensive equipments and some others are time consuming which is not fortunate for embedded system applications. Therefore, the novel approach "mixtrinsic multi-objective optimization" is proposed that simulates/estimates the set of the specifications that is hard to be measured due to the cost or time requirements, while it measures intrinsically the set of the specifications that has high sensitivity to deviations. These approaches succeed to optimize the hardware to meet the industrial specifications with low cost measurement setup which is essential for embedded system applications.
Indirubin wurde als aktive Komponente einer aus der traditionellen chinesischen Medizin stammenden Wirkstoffmischung namens Danggui Longhui Wan identifiziert, welche sich unter anderem als ein wirksames Mittel gegen chronisch myeloische Leukämie (CML) erwiesen hat. Erste Untersuchungen zum Wirkmechanismus zeigten, dass es sich bei Indirubin und dessen Derivaten um potente Inhibitoren cyclin-abhängiger Kinasen (CDKs) handelt. Diese Enzyme spielen eine essentielle Rolle bei der Regulation des Zellzyklus’, welche bei Tumorzellen meist außer Kontrolle ist. Inkubation verschiedener Tumorzellen (u.a. MCF-7) mit dem Derivat Indirubin-3’-oxim führte zu einem konzentrationsabhängigen Zellzyklus-Arrest bei G1/S bzw. G2/M. Diese Beobachtungen machen Indirubin und dessen Derivate für einen eventuellen Einsatz als Tumortherapeutikum interessant. Für die Verwendung als Tumortherapeutikum erweist sich die geringe Wasserlöslichkeit und die damit einhergehende geringe Bioverfügbarkeit des Indirubins und vieler seiner Derivate als nachteilig. Im Rahmen dieser Arbeit sollte das Molekülgerüst des Indirubins durch das Einbringen geeigneter Substituenten so modifiziert werden, dass eine höhere Wasserlöslichkeit bei gleichzeitig starker inhibitorischer Wirkung auf CDKs (untersucht am CDK2/Cyc E Komplex) und starker Cytotoxizität (untersucht mittels SRB-Test an der MCF-7 Tumorzellinie) erzielt wird. Bei den dafür verwendeten Substituenten handelt es sich vorwiegend um ein- oder mehrfach hydroxylierte Alkylgruppen oder um ionische Gruppen wie die Carbonsäuregruppe, die an den Positionen 3’ bzw. 5 des Indirubinmoleküls eingeführt werden. Ergebnisse: Durch das Einführen hydroxylierter Alkyl-Substituenten in Position 3’ des Indirubingrundgerüstes konnte die Wasserlöslichkeit der entstandenen Derivate im Vergleich zum Indirubuin etwa 10- bis 50-fach erhöht werden (1 bis 5 mg/ml im Vergleich zu 0,1 mg/ml). Das Einführen einer Carboxygruppe in Position 5 (5-Carboxyindiruin, E810) führt zu einer noch höheren Wasserlöslichkeit von 41 mg/ml. Die inhibitorische Aktivität auf den CDK2/Cyc E Komplex einiger der synthetisierten Derivate liegt mit etwa 0,2 µM unter dem entsprechenden IC50-Wert des Indirubins (etwa 7 µM), und auch die Cytotoxizität liegt bei einigen Derivaten mit IC50-Werten von 0,1 bis 0,9 µM unter dem IC50-Wert von Indirubin (4 µM).
The thesis is concerned with multiscale approximation by means of radial basis functions on hierarchically structured spherical grids. A new approach is proposed to construct a biorthogonal system of locally supported zonal functions. By use of this biorthogonal system of locally supported zonal functions, a spherical fast wavelet transform (SFWT) is established. Finally, based on the wavelet analysis, geophysically and geodetically relevant problems involving rotation-invariant pseudodifferential operators are shown to be efficiently and economically solvable.
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
Feature Based Visualization
(2007)
In this thesis we apply powerful mathematical tools such as interval arithmetic for applications in computational geometry, visualization and computer graphics, leading to robust, general and efficient algorithms. We present a completely novel approach for computing the arrangement of arbitrary implicit planar curves and perform ray casting of arbitrary implicit functions by jointly achieving, for the first time, robustness, efficiency and flexibility. Indeed we are able to render even the most difficult implicits in real-time with guaranteed topology and at high resolution. We use subdivision and interval arithmetic as key-ingredients to guarantee robustness. The presented framework is also well-suited for applications to large and unstructured data sets due to the inherent adaptivity of the techniques that are used. We also approach the topic of tensors by collaborating with mechanical engineers on comparative tensor visualization and provide them with helpful visualization paradigms to interpret the data.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
The lattice Boltzmann method (LBM) is a numerical solver for the Navier-Stokes equations, based on an underlying molecular dynamic model. Recently, it has been extended towardsthe simulation of complex fluids. We use the asymptotic expansion technique to investigate the standard scheme, the initialization problem and possible developments towards moving boundary and fluid-structure interaction problems. At the same time, it will be shown how the mathematical analysis can be used to understand and improve the algorithm. First of all, we elaborate the tool "asymptotic analysis", proposing a general formulation of the technique and explaining the methods and the strategy we use for the investigation. A first standard application to the LBM is described, which leads to the approximation of the Navier-Stokes solution starting from the lattice Boltzmann equation. As next, we extend the analysis to investigate origin and dynamics of initial layers. A class of initialization algorithms to generate accurate initial values within the LB framework is described in detail. Starting from existing routines, we will be able to improve the schemes in term of efficiency and accuracy. Then we study the features of a simple moving boundary LBM. In particular, we concentrate on the initialization of new fluid nodes created by the variations of the computational fluid domain. An overview of existing possible choices is presented. Performing a careful analysis of the problem we propose a modified algorithm, which produces satisfactory results. Finally, to set up an LBM for fluid structure interaction, efficient routines to evaluate forces are required. We describe the Momentum Exchange algorithm (MEA). Precise accuracy estimates are derived, and the analysis leads to the construction of an improved method to evaluate the interface stresses. In conclusion, we test the defined code and validate the results of the analysis on several simple benchmarks. From the theoretical point of view, in the thesis we have developed a general formulation of the asymptotic expansion, which is expected to offer a more flexible tool in the investigation of numerical methods. The main practical contribution offered by this work is the detailed analysis of the numerical method. It allows to understand and improve the algorithms, and construct new routines, which can be considered as starting points for future researches.
The provision of network Quality-of-Service (network QoS) in wireless (ad-hoc) networks is a major challenge in the development of future communication systems. Before designing and implementing these systems, the network QoS requirements are to be specified. Existing approaches to the specification of network QoS requirements are mainly focused on specific domains or individual system layers. In this paper, we present a holistic, comprehensive formalization of network QoS requirements, across layers. QoS requirements are specified on each layer by defining QoS domain, consisting of QoS performance, reliability, and guarantee, and QoS scalability, with utility and cost functions. Furthermore, we derive preorders on multi-dimensional QoS domains, and present criteria to reduce these domains, leading to a manageable subset of QoS values that is sufficient for system design and implementation. We illustrate our approach by examples from the case study Wireless Video Transmission.
The provision of network Quality-of-Service (network QoS) in wireless (ad-hoc) networks is a major challenge in the development of future communication systems. Before designing and implementing these systems, the network QoS requirements are to be specified. Since QoS functionalities are integrated across layers and hence QoS specifications exist on different system layers, a QoS mapping technique is needed to translate the specifications into each other. In this paper, we formalize the relationship between layers. Based on a comprehensive and holistic formalization of network QoS requirements, we define two kinds of QoS mappings. QoS domain mappings associate QoS domains of two abstraction levels. QoS scalability mappings associate utility and cost functions of two abstraction levels. We illustrate our approach by examples from the case study Wireless Video Transmission.
In this paper we construct spline functions based on a reproducing kernel Hilbert space to interpolate/approximate the velocity field of earthquake waves inside the Earth based on traveltime data for an inhomogeneous grid of sources (hypocenters) and receivers (seismic stations). Theoretical aspects including error estimates and convergence results as well as numerical results are demonstrated.