Refine
Year of publication
- 2004 (121) (remove)
Document Type
- Doctoral Thesis (55)
- Report (25)
- Periodical Part (13)
- Preprint (11)
- Working Paper (8)
- Book (2)
- Habilitation (2)
- Master's Thesis (2)
- Article (1)
- Diploma Thesis (1)
Keywords
- Controlling (4)
- Inverses Problem (4)
- Regularisierung (4)
- Simulation (4)
- Wavelet (4)
- Flüssig-Flüssig-Extraktion (3)
- Gravitationsfeld (3)
- Mehrskalenanalyse (3)
- Finite-Elemente-Methode (2)
- Harnstoff (2)
- Hydrodynamik (2)
- Kugel (2)
- MAC type grid (2)
- Modelling (2)
- Polymere (2)
- SOC (2)
- Weißes Rauschen (2)
- auditory brainstem (2)
- finite element method (2)
- multilayered material (2)
- poroelasticity (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
- Abstract linear systems theory (1)
- Acetylcholinrezeptor (1)
- AhR (1)
- Algebraische Geometrie (1)
- Algebraischer Funktionenkörper (1)
- Aluminium (1)
- Aluminiumphosphate (1)
- Ambient Intelligence (1)
- Antigenspezifische Immunsuppression (1)
- Apoptose (1)
- Apoptosis (1)
- Approximation (1)
- Aspektorientierte Programmierung (1)
- Asymptotik (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automation (1)
- Automorphismengruppe (1)
- Autonomer Agent (1)
- Autoprozessierung (1)
- B-CLL (1)
- BRCA2 (1)
- Bakteriophage (1)
- Balanced Scorecard (1)
- Bartlett spectrum (1)
- Basische Feststoffkatalysatoren (1)
- Baum <Mathematik> (1)
- Bayes method (1)
- Bayes-Verfahren (1)
- Benutzeroberfläche (1)
- Betrachtung des Schlimmstmöglichen Falles (1)
- Bibliothekskatalog (1)
- Bindiger Boden (1)
- Biomechanik (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Bloch oscillations (1)
- Bloch-Oszillationen (1)
- Bose-Einstein-Kondensation (1)
- Bottom-up (1)
- Boundary Value Problem / Oblique Derivative (1)
- Broutman-Versuch (1)
- Budgetierung (1)
- CAD (1)
- CFD (1)
- CHAMP <Satellitenmission> (1)
- CYP1A (1)
- Caedibacter (1)
- Carreau law (1)
- Castelnuovo Funktion (1)
- Castelnuovo function (1)
- Cauchy-Born rule (1)
- Cauchy-Navier equation (1)
- Cauchy-Navier-Gleichung (1)
- Chloride regulation (1)
- Cobalt (1)
- Combined Sewer Overflow (1)
- Comet Assay (1)
- Computer Science (1)
- Conservation laws (1)
- Construction of hypersurfaces (1)
- Containertypen (1)
- Containertypes (1)
- Controlling Kognition Funktion Institution (1)
- Crash Hedging (1)
- Cut (1)
- Cytotoxizität (1)
- DNS-Strangbruch (1)
- Datenausgabegerät (1)
- Decomposition of integer matrices (1)
- Dienstgüte (1)
- Dienstleistung (1)
- Dienstschnittstellen (1)
- Differenzierung (1)
- Diffusionsprozess (1)
- Dirichlet-Problem (1)
- Domänenspezifische Sprachen (1)
- Dosierung (1)
- Droplet breakage (1)
- Droplet coalescence (1)
- Duromere (1)
- Dünnfilmapproximation (1)
- EPR (1)
- ESR (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eierstockkrebs (1)
- Elastische Deformation (1)
- Elektrotechnik (1)
- Emission (1)
- Empfangssignalverarbeitung (1)
- Empirie (1)
- Epoxidharzverbunden (1)
- Erhaltungsgleichungen (1)
- Expressiveness (1)
- FICTION (1)
- FISH (1)
- FOF1-ATP-Synthase (1)
- Fahrerassistenzsystem (1)
- FasLigand (1)
- Faser-Kunststoff-Verbund-Laminate (1)
- Faser-Kunststoff-Verbunde (1)
- Faserorientierungen (1)
- Fast Pseudo Spectral Algorithm (1)
- Foam decay (1)
- Formale Beschreibungstechnik (1)
- Freiformfläche (1)
- Freiheitsgrad (1)
- Front Propagation (1)
- Funktioneller Gradientenwerkstoff (1)
- Funktionenkörper (1)
- Funktionsanalyse (1)
- Furocumarine (1)
- Galerkin-Methode (1)
- Gaussian random noise (1)
- Gebäudetechnik (1)
- Gelonin (1)
- Geodäsie (1)
- Geomagnetic Field Modelling (1)
- Geomagnetismus (1)
- Geomathematik (1)
- Geostrophisches Gleichgewicht (1)
- Geschwindigkeitsbegrenzung (1)
- Geschwindigkeitsregelung (1)
- Geschwindigkeitswahrnehmung (1)
- Gleichgewichtsstrategien (1)
- Globale nichtlineare Analysis (1)
- Glucocorticoidrezeptor (1)
- Glykosylierung (1)
- Graph Theory (1)
- Graphentheorie (1)
- Gravimetrie (1)
- Gravitationsmodell (1)
- Große Abweichung (1)
- Grundwassersanierung (1)
- HIF-1 (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Hamiltonian systems (1)
- Harze (1)
- Harzinjektionsverfahren (1)
- Helmholtz-Decomposition (1)
- Helmholtz-Zerlegung (1)
- Heuristic (1)
- Heuristik (1)
- Human resource modeling (1)
- Hydrodynamics (1)
- Hydrolyse (1)
- Hyperelliptische Kurve (1)
- Hyperflächensingularität (1)
- IMRT planning on adaptive volume structures – a significant advance of computational complexity (1)
- Idealklassengruppe (1)
- Implementation (1)
- Implementierung (1)
- In vitro (1)
- In vivo (1)
- Incompressible Navier-Stokes (1)
- Infiltration (1)
- Inkompressibel Navier-Stokes (1)
- Inkorrekt gestelltes Problem (1)
- Integrated Operation (1)
- Integrine (1)
- Inverse Problem (1)
- Ionentauscher (1)
- Jacobigruppe (1)
- KCC2 (1)
- Kanalisation (1)
- Katalyse (1)
- Keratinozyten (1)
- Kinetik (1)
- Kläranlage (1)
- Kognition (1)
- Komplexaufklärung (1)
- Komponente <Software> (1)
- Komponentenmodell (1)
- Konstruktion von Hyperflächen (1)
- Kontextbezogenes System (1)
- Kontinuumsmechanik (1)
- Kryptologie (1)
- Kugelflächenfunktion (1)
- Kultivierung (1)
- Kultur (1)
- Kurbelgehäuse (1)
- Kühni (1)
- L1 (1)
- Lateral superior olive (1)
- Lattice Boltzmann methods (1)
- Leichtbau (1)
- Leitfähigkeit (1)
- Leittechnik (1)
- Limonen-Umsetzung (1)
- Liquid Polymer Moulding (1)
- Liquid-liquid dispersion (1)
- MDA <Vorgehensmodell> (1)
- META-AKAD (1)
- MIMO (1)
- MIMO Systeme (1)
- MSR (1)
- Magnesium (1)
- Marangoni-Effekt (1)
- Materialsysteme (1)
- Mathematical Physics (1)
- Mehragentensystem (1)
- Metalloproteinasen (1)
- Mie-Darstellung (1)
- Mie-Representation (1)
- Miniplant (1)
- Mischwasser (1)
- Mischwasserbehandlung (1)
- Mobile Computing (1)
- Mobilfunk (1)
- Mobilfunksysteme (1)
- Modellierung (1)
- Modulraum (1)
- Molodensky Problem (1)
- Molodensky problem (1)
- Monte Carlo (1)
- Monte Carlo simulation (1)
- Monte-Carlo-Simulation (1)
- Multi-dimensional systems (1)
- Multiple criteria optimization (1)
- Myasthenia gravis (1)
- NOx (1)
- Nahrung (1)
- Navier-Stokes-Gleichung (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Neumann-Problem (1)
- Neurales Zell-Adhäsionsmolekül (1)
- Nichtlineare partielle Differentialgleichung (1)
- Nichtlineares Galerkinverfahren (1)
- Nickel (1)
- Nische (1)
- Nitridierung (1)
- Non-Newtonian flow (1)
- Nonlinear Galerkin Method (1)
- Nulldimensionale Schemata (1)
- Numerische Simulat (1)
- Numerisches Modell (1)
- Oberflächenprotein (1)
- Object-orientation (1)
- Objektorientierung (1)
- Ochratoxin A (1)
- Offene Systeme (1)
- One-dimensional systems (1)
- Open Estelle (1)
- Ortspezifische Mutagenese (1)
- Oxidativer Stress (1)
- PFGE (1)
- Patchworking Methode (1)
- Patchworking method (1)
- Performance of iterative solvers (1)
- Phasengleichgewicht (1)
- Phasenverhalten (1)
- Phasenwechselmaterial (1)
- Phasmatodea (1)
- Phosphor-Metall-Komplexe (1)
- Phosphorkomplexe (1)
- Plasmid (1)
- Pn-Liganden (1)
- Pn-ligands (1)
- Polychlorierte Biphenyle (1)
- Population balance (1)
- Populationsbilanzen (1)
- Portfolio Optimierung (1)
- Portfolio Selection (1)
- Preconditioners (1)
- Proteinkinase C (1)
- Proteinstruktur (1)
- Pyrolyse (1)
- Quality (1)
- Qualität (1)
- Quantenmechanisches System / Dissipatives System (1)
- RH795 (1)
- Randwertproblem / Schiefe Ableitung (1)
- Reaktivextraktion (1)
- Real-Time Control (1)
- Rechnungswesen (1)
- Regelung (1)
- Regularisierung / Stoppkriterium (1)
- Regularization (1)
- Regularization / Stop criterion (1)
- Repeat (1)
- Repeats (1)
- Repression (1)
- Resonanzen (1)
- SAW filters (1)
- SBR-Verfahren (1)
- SCR (1)
- SCR-Verfahren (1)
- SGG (1)
- SKY (1)
- SQL (1)
- SST (1)
- Satelliten-DNS (1)
- Satellitengradiogravimetrie (1)
- Satellitengradiometrie (1)
- Schaum (1)
- Schaumzerfall (1)
- Schnelle Fourier-Transformation (1)
- Schnitt <Mathematik> (1)
- Schrumpfen (1)
- Sendesignalverarbeitung (1)
- Sequencing Batch Reactor (1)
- Sequenz (1)
- Serinproteinasen (1)
- Service Access Points (1)
- Signaling (1)
- Skalierbarkeit (1)
- Skalierungsfunktion (1)
- Socs-3 (1)
- Software (1)
- Speed (1)
- Speed management (1)
- Split Operator (1)
- Splitoperator (1)
- Stadtplanung (1)
- Stochastische Differentialgleichung (1)
- Stochastische dynamische Optimierung (1)
- Stoffaustausch (1)
- Stoffübergang (1)
- Streptococcus pneumoniae (1)
- Streutheorie (1)
- Superior olivary complex (1)
- Szenario (1)
- Tastwahrnehmung (1)
- Tensor Spherical Harmonics (1)
- Thermische Harnstoffaufbereitung (1)
- Thermodynamik (1)
- Thermolyse (1)
- Thermoplaste (1)
- Thin film approximation (1)
- Top-down (1)
- Transkription (1)
- Transparente Wärmedämmung (1)
- Transskriptionsaktivität (1)
- Tree (1)
- Tribologie (1)
- Trockenharnstoff (1)
- Tropenökologie (1)
- Tropfenkoaleszenz (1)
- Tropfenzerfall (1)
- Tumorpromotion (1)
- Tumorzytogenetik (1)
- Unsicherheit (1)
- Vector Spherical Harmonics (1)
- Vectorial Wavelets (1)
- Vektor-Wavelets (1)
- Vektorkugelfunktionen (1)
- Vektorwavelets (1)
- Verbrennungsmotor (1)
- Verbundguss (1)
- Verkehrspolitik (1)
- Verkehrssicherheit (1)
- Versionierungssysteme (1)
- Vesikel (1)
- Visualisierung (1)
- Wannier-Stark systems (1)
- Wannier-Stark-System (1)
- Wassertransport (1)
- Wavelet Analysis auf regulären Flächen (1)
- Wavelet-Analyse (1)
- Weißer Phosphor (1)
- White Noise (1)
- Winsor-System (1)
- Winsor-system (1)
- XEC (1)
- Zellmigration (1)
- Zeolith (1)
- Zero-dimensional schemes (1)
- Zugfestigkeit (1)
- Zylinderblock (1)
- activity-based model (1)
- aftertreatment (1)
- algebraic correspondence (1)
- algebraische Korrespondenzen (1)
- aluminum (1)
- anoxia (1)
- applied mathematics (1)
- aspect-oriented programming (1)
- asymptotic homogenization (1)
- balanced (1)
- basic systems theoretic properties (1)
- beyond 3G (1)
- bicriteria shortest path problem (1)
- biomechanics (1)
- bottom-up (1)
- catalysis (1)
- cell adhesion molecule (1)
- cell migration (1)
- changing market coefficients (1)
- combustion engine (1)
- component-based (1)
- compound casting (1)
- consecutive ones property (1)
- contact problems (1)
- continuum mechanics (1)
- controllership (1)
- controlling rechnungswesen konvergenz intern extern (1)
- coordinative stabilisation (1)
- crank case (1)
- crash hedging (1)
- cylinder block (1)
- data output unit (1)
- deformable porous media (1)
- degree of freedom (1)
- delay management problem (1)
- development (1)
- domain-specific language (1)
- driver assistance (1)
- eigenvalue problems (1)
- equilibrium strategies (1)
- error estimates (1)
- fast Fourier transform (1)
- fiber-fluid interaction (1)
- finite elements (1)
- finite volume discretization (1)
- finite volume discretizations (1)
- fluid-structure interaction (1)
- flüssiges Polymer (1)
- food (1)
- free-form surface (1)
- functionally graded material (1)
- furocoumarins (1)
- generative Programmierung (1)
- generative programming (1)
- geomathematics (1)
- glass processing (1)
- glycine neurotransmission (1)
- groundwater remediation (1)
- haptic perception (1)
- harmonic density (1)
- harmonic scaling functions and wavelets (1)
- harmonische Dichte (1)
- heterogene Werkstoffe (1)
- higher order accurate conserving time integrators (1)
- higher-order continuum (1)
- host-range (1)
- human factors (1)
- hydrodynamics (1)
- hyperelliptic function field (1)
- hyperelliptische Funktionenkörper (1)
- hypoxia (1)
- idealclass group (1)
- image analysis (1)
- inhibition (1)
- intentional programming (1)
- ion exchanger (1)
- koordinative Stabilisierung (1)
- label setting algorithm (1)
- langfaserverstärkte Thermoplaste (1)
- learning curve (1)
- life-history (1)
- lightweight design (1)
- linear elasticity (1)
- liquid composite moulding (1)
- liquid-liquid-extraction (1)
- magnesium (1)
- mass transfer (1)
- mass transfer kinetics (1)
- metalloproteases (1)
- microstructure simulation (1)
- microstructures (1)
- miniplant (1)
- mobile radio systems (1)
- model uncertainty (1)
- modelling (1)
- multileaf collimator sequencing (1)
- multiscale approximation on regular telluroidal surfaces (1)
- multiuser detection (1)
- multiuser transmission (1)
- nachwachsende Rohstoffe (1)
- native Aufreinigung (1)
- never-meet property (1)
- non-Newtonian flow in porous media (1)
- nonlinear elastodynamics (1)
- numerical model (1)
- numerical time integration (1)
- open systems (1)
- optical imaging (1)
- optical lattices (1)
- optimization (1)
- optische Gitter (1)
- organotypische Kokultur (1)
- ovarian carcinoma (1)
- oxidative DNA-Schäden (1)
- p300 (1)
- p53 (1)
- pKAP298 (1)
- parallel computing (1)
- particle dynamics (1)
- phase behavior (1)
- phosphorous-metall-complexes (1)
- piezoelectric periodic surface acoustic wave filters (1)
- polymer (1)
- porous media flow (1)
- porous microstructure (1)
- portfolio optimization (1)
- power spectrum (1)
- productivity (1)
- prädiktive Regelung (1)
- pseudo-plastic fluids (1)
- radiotherapy (1)
- random set (1)
- rank-one convexity (1)
- reactive extraction (1)
- resonances (1)
- satellite gravity gradiometry (1)
- scorecard (1)
- scoring (1)
- severely ill-posed inverse problems (1)
- simulation (1)
- software (1)
- software process (1)
- solares Bauen (1)
- solid urea (1)
- spinning processes (1)
- stokes (1)
- strain localization (1)
- technology (1)
- thermisches Gebäudeverhalten (1)
- thermodynamics (1)
- time-dependent shortest path problem (1)
- top-down (1)
- tr (1)
- traffic safety (1)
- triboligy (1)
- two-scale expansion (1)
- upscaling (1)
- user interface (1)
- vector spherical harmonics (1)
- vectorial wavelets (1)
- vesicle (1)
- virtual material design (1)
- visualization (1)
- voltage sensitive dye (1)
- wave propagation (1)
- worst-case scenario (1)
- Äquisingularität (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (26)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (19)
- Kaiserslautern - Fachbereich Informatik (12)
- Fraunhofer (ITWM) (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Biologie (10)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (6)
- Kaiserslautern - Fachbereich ARUBI (5)
- Kaiserslautern - Fachbereich Physik (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (2)
- Universität (1)
- Universitätsbibliothek (1)
Algebraic Systems Theory
(2004)
Control systems are usually described by differential equations, but their properties of interest are most naturally expressed in terms of the system trajectories, i.e., the set of all solutions to the equations. This is the central idea behind the so-called "behavioral approach" to systems and control theory. On the other hand, the manipulation of linear systems of differential equations can be formalized using algebra, more precisely, module theory and homological methods ("algebraic analysis"). The relationship between modules and systems is very rich, in fact, it is a categorical duality in many cases of practical interest. This leads to algebraic characterizations of structural systems properties such as autonomy, controllability, and observability. The aim of these lecture notes is to investigate this module-system correspondence. Particular emphasis is put on the application areas of one-dimensional rational systems (linear ODE with rational coefficients), and multi-dimensional constant systems (linear PDE with constant coefficients).
Diese Arbeit befasst sich mit der Quantendynamik in gekippten periodischen Strukturen, den so genannten Wannier-Stark-Systemen. Eine wichtige experimentelle Realisierung eines solchen Systems ist die Dynamik ultrakalter Atome in optischen Gittern unter dem Einfluß einer externen Kraft, z.B. der Gravitation. Zunächst wird die Dynamik eines einzelnen quantenmechanischen Teilchens in zweidimensionalen Wannier-Stark-Systemen analysiert. Dieses Teilchen zeigt Lissajous-artige Oszillationen, deren Dynamik sehr sensitiv von der Richtung der externen Kraft abhängt. Im zweiten Teil der Arbeit wird die Dynamik eines Bose-Einstein-Kondensats im Rahmen eine mean-field-Näherung (Gross-Pitaevskii-Gleichung) untersucht. Neue Phänomene wie eine Zusammenbruch und Wiederaufleben der Oszillationen können mittels einer Entwicklung nach Wannier-Stark-Funktionen in einem einfachen Modell erklärt werden. Schließlich werden die Eigenschaften von gebundenen und Resonanz-zuständen der Gross-Pitaevskii-Gleichung für zwei einfache Modellsysteme (delta-Potential und delta-shell-Potential) untersucht.
In Deutschland und einigen anderen Ländern ist das Mischsystem weit verbreitet. Aus diversen Gründen (z.B. aus Kostenaspekten) ist es aber bei Regenwetter nicht immer möglich, den gesamten Mischwasserabfluss auch zur Kläranlage weiter zu leiten. Ein gewisser Anteil des Mischwasserabflusses muss daher entweder im Kanalnetz zwischengespeichert oder aber über Entlastungsbauwerke direkt in die Einleitgewässer abgeschlagen werden, woraus erhebliche Gewässerbelastungen resultieren können. Hinzu kommt, dass die Teilsysteme "Kanalnetz" und "Kläranlage" meist noch unabhängig voneinander betrieben werden, sodass es zu Entlastungsereignissen kommen kann, obwohl zur gleichen Zeit an anderer Stelle im Gesamtsystem noch freie Speicher- und/oder Behandlungskapazitäten zur Verfügung stehen. Deshalb gewinnen seit einigen Jahren sog. integrierte Ansätze an Bedeutung, die versuchen, Kanalnetz und Kläranlage mit Hilfe von MSR-Technik in Abhängigkeit der jeweils aktuellen Leistungsfähigkeit dieser Teilsysteme zu betreiben, um dadurch die Emissionen und ggf. die Kosten zu verringern. Man kann daher in der neueren Literatur zahlreiche Veröffentlichungen zu diesem Themenkomplex finden, die sich jedoch bisher praktisch nur mit Durchlaufkläranlagen beschäftigt haben. SBR-Kläranlagen wurden diesbezüglich bisher vernachlässigt, obwohl diese Technologie prinzipiell durch eine ganze Reihe von Vorteilen gekennzeichnet ist. Zahlreiche großtechnische SBR-Kläranlagen belegen zudem, dass sich dieses Verfahren auch sehr gut zur Mischwasserbehandlung eignet. Wegen dieser Randbedingungen erschien es sinnvoll, auch integrierte MSR-Strategien für SBR-Anlagen zu entwickeln. Im Rahmen dieser Arbeit wurden daher auf der 2000 in Betrieb genommenen SBR-Kläranlage Messel (5.500 EW) zahlreiche Untersuchungen durchgeführt, um den Nutzen und die Machbarkeit derartiger Konzepte zu untersuchen. Diese nach den üblichen Regelwerken für Nitrifikation, Denitrifikation, biologische Phosphorelimination und aerobe Schlammstabilisierung bemessene Kläranlage ist typisch für eine Reihe weiterer ähnlicher Anlagen. Um das Potenzial eines integrierten Ansatzes zu ermitteln, wurden detaillierte Kanalnetz- und Kläranlagenmodelle erstellt und kalibriert, mit denen zahlreiche Untersuchungen durchgeführt wurden. Ferner wurden die umfangreichen Betriebsdaten ausgewertet. Dabei konnte festgestellt werden, dass die Anlage über beachtliche Reserven verfügt, die z.B. für Zwecke einer erhöhten Mischwasserbehandlung genutzt werden könnten. Mit Hilfe der Modelle und ergänzender großtechnischer Untersuchungen wurden anschließend verschiedene integrierte MSR-Strategien am Computer entwickelt und bezüglich ihres Nutzens bewertet. Die Ergebnisse der integrierten Simulation zeigen beispielsweise, dass es mit Hilfe dieser Strategien möglich erscheint, die Zuflussmenge zur Kläranlage um bis zu 50 % über den Planungswert zu erhöhen, ohne die strengen Überwachungswerte zu überschreiten. Die Ergebnisse zeigen weiterhin, dass es durch eine Erhöhung der Zuflussmenge möglich ist, die Gesamtemissionen aus Kanalnetz und Kläranlage - v.a. bezüglich CSB - und die Anzahl der Entlastungsereignisse deutlich zu verringern. Eine durchgeführte Kostenbetrachtung verdeutlicht, dass ein derartiger Ansatz - trotz der geringen Größe dieser Anlage - nicht nur ökologisch, sondern auch ökonomisch sinnvoll ist. Damit erscheint es wünschenswert, dass zukünftig auch die großtechnische Umsetzung integrierter Ansätze für SBR-Kläranlagen und Mischkanalisationen in Angriff genommen wird, um die bisher gewonnenen Erkenntnisse in der Praxis zu verifizieren.
In this dissertation we consider complex, projective hypersurfaces with many isolated singularities. The leading questions concern the maximal number of prescribed singularities of such hypersurfaces in a given linear system, and geometric properties of the equisingular stratum. In the first part a systematic introduction to the theory of equianalytic families of hypersurfaces is given. Furthermore, the patchworking method for constructing hypersurfaces with singularities of prescribed types is described. In the second part we present new existence results for hypersurfaces with many singularities. Using the patchworking method, we show asymptotically proper results for hypersurfaces in P^n with singularities of corank less than two. In the case of simple singularities, the results are even asymptotically optimal. These statements improve all previous general existence results for hypersurfaces with these singularities. Moreover, the results are also transferred to hypersurfaces defined over the real numbers. The last part of the dissertation deals with the Castelnuovo function for studying the cohomology of ideal sheaves of zero-dimensional schemes. Parts of the theory of this function for schemes in P^2 are generalized to the case of schemes on general surfaces in P^3. As an application we show an H^1-vanishing theorem for such schemes.
Mineralische Dichtungen werden in Kombination mit Kunststoffdichtungsbahnen als Deponieabdichtungen verwendet, um eine umweltverträgliche Ablagerung der Abfälle sicherzustellen. Diese Abdichtungsfunktion kann durch Austrocknung beeinträchtigt werden. Im Rahmen der vorliegenden Arbeit werden Untersuchungen zur Entstehung von Austrocknungsrissen in mineralischen Deponiebasisabdichtungen durchgeführt. Diese Untersuchungen befassen sich einerseits mit dem Wassertransport in der mineralischen Dichtung und andererseits mit dem Zugverhalten des Bodens. Daraus wird ein Risskriterium entwickelt, das zusammen mit den Ergebnissen der numerischen Berechnungen für die Vorhersage der Rissentstehung infolge Austrocknung einer mineralischen Dichtung verwendet wird. Einer der ersten Untersuchungsschritte ist die experimentelle Ermittlung der pF-Kurve. Danach folgen experimentelle Untersuchungen zur Ermittlung der Transportkenngrößen. Der Einfluss einer Änderung der Porenzahl von \Delta e \approx 0.1, einer Temperatur von T=40°C sowie der Änderung des Einbauwassergehaltes auf die Transportkenngrößen wird untersucht. Für die experimentellen Untersuchungen zum Schrumpf- und Zugverhalten werden eigene, neu entwickelte Versuchsstände verwendet. In den Versuchen zum Schrumpfverhalten ergibt sich ein Zusammenhang zwischen den Schrumpfdehnungen der Bodenproben und deren Sättigungsgraden. In den Versuchen zum Zugverhalten werden die Zugeigenschaften des verwendeten bindigen Bodens untersucht. Einflussgrößen sind dabei der Wassergehalt, die Porenzahl, die Temperatur und der Spannungszustand. In den numerischen Berechnungen wird zuerst ein Versuch zur Ermittlung der ungesättigten Wasserleitfähigkeit simuliert. Die numerischen Ergebnisse werden mit den Versuchsergebnissen verglichen, um die Güte der verwendeten hydraulischen Beziehungen zu überprüfen. Danach wird beispielhaft eine numerische Berechnung für die Lösung eines Randwertproblems durchgeführt, in der die Rissentstehung infolge Verdunstung in einer mineralischen Dichtung vorausgesagt wird. Aus den berechneten Beispielen wird ersichtlich, dass die Voraussage der infolge Austrocknung entstehenden Risse numerisch möglich ist und die Risstiefen berechenbar sind.
Die vorliegende Arbeit verfolgt das Ziel, das Aufkommen und die Verteilung von Stoffen im urbanen Wasserkreislauf, insbesondere in den Abwassersystemen in einer umfassenden Gesamtschau zu untersuchen und zu bewerten. Diese ganzheitliche Betrachtungsweise unterscheidet sich von den bisherigen Untersuchungen, die sich in der Regel auf einen Stoff oder auf einzelne Komponenten in diesem Kreislauf beziehen. Das untersuchte Stoffspektrum reicht von den herkömmlichen Abwasserparametern, wie dem Chemischen Sauerstoffbedarf (CSB), bis hin zu „neuen“, vorwiegend organischen Verbindungen, die in der EG-Wasserrahmenrichtlinie als prioritäre Stoffe bzw. prioritäre gefährliche Stoffe aufgelistet sind. Eine Sichtung der verfügbaren Daten zeigt, dass die Kenntnisse über das Aufkommen und die Wirkung dieser Stoffe sehr lückenhaft sind. Es ist deshalb erforderlich und für die siedlungswasserwirtschaftliche Praxis dringlich, sich mit der Problematik der organischen Schadstoffe zu befassen und die wichtigsten Stoffströme im Abwassersystem zu analysieren. In einem ersten Schritt wird das Gesamtsystem des urbanen Wasserkreislaufs mit seinen naturräumlichen (z.B. Grundwasser) und abwassertechnischen Elementen (z.B. Kanalisation und Kläranlage) dargestellt. Um einen ersten Überblick zu gewinnen und eine geeignete Grundlage für die weitere Vorgehensweise zu erhalten, wird zunächst ein breites Spektrum von Stoffen, aufgeteilt nach anorganischen und organischen Substanzen, beschrieben. Als wichtige Folgerung für künftige Erhebungen ist aus dieser pauschalen Betrachtung abzuleiten, die Datenbasis durch weitere Messungen zu verbessern und die Messprogramme besser aufeinander abzustimmen. Darauf aufbauend werden in einer zweiten Stufe ausgewählte Stoffe bzw. Stoffgruppen, die aufgrund ihres Aufkommens und ihrer potenziellen Auswirkungen auf Fließgewässer als relevant einzuordnen sind, sog. Leitparameter, detailliert behandelt. Als Basis für die Auswahl dieser Leitparameter dienen zunächst die rechtlichen Regelungen, vor allem die der EG-Wasserrahmenrichtlinie. Als weitere Kriterien werden die mögliche toxische Wirkung der Stoffe, das signifikante Aufkommen in den Abwassermatrices und die Verfügbarkeit von Daten herangezogen. Eine erste Gruppe der Leitparameter umfasst bisher schon häufig im Abwassersystem untersuchte Stoffe bzw. Stoffgruppen: Feststoffparameter, die Summenparameter CSB und BSB, die Nährstoffe Stickstoff und Phosphor sowie die Schwermetalle Kupfer, Blei, Cadmium und Zink. Als charakteristisches Unterscheidungskriterium wird die Herkunft der Stoffe definiert, die eindeutig die Belastung der verschiedenen Matrices des Abwassersystems bestimmt. Während sich die aus dem Schmutzwasser stammenden („schmutzwasserbürtigen“) Verbindungen (z.B. EDTA) überwiegend im Kläranlagenablauf finden, sind die von der Oberfläche stammenden („oberflächenbürtigen“) Verbindungen (z.B. PAK) vor allem in den niederschlagsbedingten Abflüssen zu erwarten. Um in Erfahrung zu bringen, welche Reduktionssmaßnahmen geeignet sind, werden Überlegungen zur Verteilung dieser Stoffe in den Abwasserentsorgungssystemen angestellt. Mit Hilfe des Instruments der Schmutzfrachtsimulation werden für 32 ausgewählte Stoffe bzw. Sowohl die Zusammenstellung der theoretischen Grundlagen als auch die Ergebnisse der Simulation, die im Anhangsband wiedergegeben sind, zeigen erhebliche Unterschiede im Verhalten der verschiedenen Stoffe im Abwasserentsorgungssystem. Für 19 ausgewählte Stoffe bzw. Stoffgruppen, die als relevant gelten müssen, wird eine abschließende Einordnung und Bewertung vorgenommen. Maßgebend für das Aufkommen und die Verteilung im Abwassersystem sind die Kenngrößen: „vorwiegende Herkunft“, „Anteil des partikulären Transports“ und „Rückhalt in der Kläranlage“. Für jede Stoffgruppe werden Empfehlungen zur Verminderung der Gewässerbelastung ausgesprochen. Ein wesentlicher Aspekt dabei ist, die Schadstoffpotenziale bereits an der Quelle zu verringern, gemäß der Forderung der EG-Wasserrahmenrichtlinie, Einleitungen, Emissionen und Verluste prioritärer gefährlicher Stoffe der EG-WRRL zu beenden oder schrittweise einzustellen. In einigen Szenarien konnte gezeigt werden, dass die wirkungsvollste Maßnahme zur Verminderung der Stoffeinträge in Gewässer die Erhöhung der Rückhalteleistung in der Kläranlage und der Regenentlastung ist, die mit bestimmten Techniken wie Membrananlagen, Aktivkohlefiltern und Bodenfiltern erreicht werden kann. Die Weiterentwicklung und der Einsatz moderner Technologien zur Abwasserreinigung und zur Regenwasserbehandlung bleiben damit wichtige Aufgaben für die Zukunft.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Ein maßgeschneidertes Kommunikationssystem für eine mobile Applikation mit Dienstgüteanforderungen
(2004)
In diesem Beitrag wird die Maßschneiderung eines Ad-Hoc-Kommunikationssystems zur Fernsteuerung eines Luftschiffs über WLAN vorgestellt. Dabei steht die Dienstunterstützung bei der Übertragung mehrerer Datenströme im Vordergrund. Es werden verschiedene Dienstgütemechanismen erklärt und deren Entwicklung und Integration in ein Kommunikationsprotokoll mit Hilfe eines komponentenbasierten Ansatzes genauer erläutert.
We present a methodology to augment system safety step-by-step and illustrate the approach by the definition of reusable solutions for the detection of fail-silent nodes - a watchdog and a heartbeat. These solutions can be added to real-time system designs, to protect against certain types of system failures. We use SDL as a system design language for the development of distributed systems, including real-time systems.
In this text we survey some large deviation results for diffusion processes. The first chapters present results from the literature such as the Freidlin-Wentzell theorem for diffusions with small noise. We use these results to prove a new large deviation theorem about diffusion processes with strong drift. This is the main result of the thesis. In the later chapters we give another application of large deviation results, namely to determine the exponential decay rate for the Bayes risk when separating two different processes. The final chapter presents techniques which help to experiment with rare events for diffusion processes by means of computer simulations.
Caloric Restriction (CR) is the only intervention proven to retard aging and extend maximum lifespan in mammalians. A possible mechanism for the beneficial effects of CR is that the mild metabolic stress associated with CR induces cells to express stress proteins that increase their resistance to disease processes. In this article we therefore model the retardation of aging by dietary restriction within a mathematical framework. The resulting model comprises food intake, stress proteins, body growth and survival. We successfully applied our model to growth and survival data of mice exposed to different food levels.
Materials in general can be divided into insulators, semiconductors and conductors,
depending on their degree of electrical conductivity. Polymers are classified as
electrically insulating materials, having electrical conductivity values lower than 10-12
S/cm. Due to their favourable characteristics, e.g. their good physical characteristics,
their low density, which results in weight reduction, etc., polymers are also
considered for applications where a certain degree of conductivity is required. The
main aim of this study was to develop electrically conductive composite materials
based on epoxy (EP) matrix, and to study their thermal, electrical, and mechanical
properties. The target values of electrical conductivity were mainly in the range of
electrostatic discharge protection (ESD, 10-9-10-6 S/cm).
Carbon fibres (CF) were the first type of conductive filler used. It was established that
there is a significant influence of the fibre aspect ratio on the electrical properties of
the fabricated composite materials. With longer CF the percolation threshold value
could be achieved at lower concentrations. Additional to the homogeneous CF/EP
composites, graded samples were also developed. By the use of a centrifugation
method, the CF created a graded distribution along one dimension of the samples.
The effect of the different processing parameters on the resulting graded structures
and consequently on their gradients in the electrical and mechanical properties were
systematically studied.
An intrinsically conductive polyaniline (PANI) salt was also used for enhancing the
electrical properties of the EP. In this case, a much lower percolation threshold was
observed compared to that of CF. PANI was found out to have, up to a particular
concentration, a minimal influence on the thermal and mechanical properties of the
EP system.
Furthermore, the two above-mentioned conductive fillers were jointly added to the EP
matrix. Improved electrical and mechanical properties were observed by this
incorporation. A synergy effect between the two fillers took place regarding the
electrical conductivity of the composites.
The last part of this work was engaged in the application of existing theoretical
models for the prediction of the electrical conductivity of the developed polymer composites. A good correlation between the simulation and the experiments was
observed.
Allgemein werden Materialien in Bezug auf ihre elektrische Leitfähigkeit in Isolatoren,
Halbleiter oder Leiter unterteilt. Polymere gehören mit einer elektrischen Leitfähigkeit
niedriger als 10-12 S/cm in die Gruppe der Isolatoren. Aufgrund vorteilhafter
Eigenschaften der Polymere, wie z.B. ihren guten physikalischen Eigenschaften,
ihrer geringen Dichte, welche zur Gewichtsreduktion beiträgt, usw., werden Polymere
auch für Anwendungen in Betracht gezogen, bei denen ein gewisser Grad an
Leitfähigkeit gefordert wird. Das Hauptziel dieser Studie war, elektrisch leitende
Verbundwerkstoffe auf der Basis von Epoxidharz (EP) zu entwickeln und deren
elektrische, mechanische und thermische Eigenschaften zu studieren. Die Zielwerte
der elektrischen Leitfähigkeit lagen hauptsächlich im Bereich der Vermeidung
elektrostatischer Aufladungen (ESD, 10-9-10-6 S/cm).
Bei der Herstellung elektrisch leitender Kunststoffen wurden als erstes
Kohlenstofffasern (CF) als leitfähige Füllstoffe benutzt. Bei den durchgeführten
Experimenten konnte man beobachten, dass das Faserlängenverhältnis einen
bedeutenden Einfluss auf die elektrischen Eigenschaften der fabrizierten
Verbundwerkstoffe hat. Mit längeren CF wurde die Perkolationsschwelle bereits bei
einer niedrigeren Konzentration erreicht. Zusätzlich zu den homogenen CF/EP
Verbundwerkstoffen, wurden auch Gradientenwerkstoffe entwickelt. Mit Hilfe einer
Zentrifugation konnte eine gradierte Verteilung der CF entlang der Probenlängeachse
erreicht werden. Die Effekte der unterschiedlichen Zentrifugationsparameter
auf die resultierenden Gradientenwerkstoffe und die daraus
resultierenden, gradierten elektrischen und mechanischen Eigenschaften wurden
systematisch studiert.
Ein intrinsisch leitendes Polyanilin-Salz (PANI) wurde auch für das Erhöhen der
elektrischen Eigenschaften des EP benutzt. In diesem Fall wurde eine viel niedrigere
Perkolationsschwelle verglichen mit der von CF beobachtet. Der Einsatz von PANI hat bis zu einer bestimmten Konzentration nur einen minimalen Einfluß auf die
thermischen und mechanischen Eigenschaften des EP Systems.
In einem dritte Schritt wurden die zwei oben erwähnten, leitenden Füllstoffe
gemeinsam der EP Matrix hinzugefügt. Erhöhte elektrische und mechanische
Eigenschaften wurden in diesem Fall beobachtet, wobei sich ein Synergie-Effekt
zwischen den zwei Füllstoffen bezogen auf die elektrische Leitfähigkeit der
Verbundwerkstoffe ergab.
Im letzten Teil dieser Arbeit fand die Anwendung von theoretischen Modelle zur
Vorhersage der elektrischen Leitfähigkeit der entwickelten Verbundwerkstoffe statt.
Dabei konnte eine gute Übereinstimmung mit den experimentellen Ergebnissen
festgestellt werden .
Zentrales Ziel dieser Arbeit ist die genaue theoretische Charakterisierung des Autoionisationsprozesses in Stößen metastabiler Argon-Atome mit Quecksilber- und Wasserstoff-Atomen, Ar*(4s 3P2,3P0) + Hg und Ar*(4s 3P2,3P0) + H(1s). Diese Untersuchungen wurden durch neue, in der Arbeitsgruppe von Prof. H. Hotop unter Verwendung zustandsselektierter Ar*-Atome durchgeführte elektronenspektrometrische Experimente an diesen Stoßsystemen motiviert. Zur Überprüfung der quantenchemischen Beschreibung des Quecksilber-Atoms und seiner van der Waals-Wechselwirkung wurden im Rahmen dieser Arbeit außerdem die Grundzustandspotentiale der Alkali-Quecksilber-Moleküle LiHg, NaHg und KHg im Detail untersucht. Dabei konnten die in der Literatur zu findenden Widersprüche zwischen den aus Rechnungen und verschiedenen Experimenten bestimmten Potentialen aufgeklärt werden, und es wurden verbesserte Wechselwirkungspotentiale erhalten, welche mit allen verfügbaren experimentellen Daten kompatibel sind.
Die Arbeit beschäftigt sich im wesentlichen mit den aktuell zur Verfügung stehenden Werkzeugen der Behandlung von Unsicherheiten in den Ergebnissen von Grundwassermodellen im Zusammenhang mit der Anwendung der Modelle bei der Planung von hydraulischen Sanierungen des Untergrundes. Untersucht wird die Eignung verschiedener Verfahren für eine praxisbezogene Anwendung. Als Ergebnis werden Empfehlungen zur Verwendung der Methoden in Abhängigkeit der hydrogeologischen Gegebenheiten und Hinweise zur Weiterentwicklung der Verfahren formuliert. Die Resultate von Grundwassermodellen werden zu Prognosezwecken in unterschiedlichen Zusammenhängen eingesetzt. Dazu gehören u.a. die Konzipierung von hydraulischen Sanierungsmaßnahmen. Für eine effiziente Ausführung einer Sanierung sollten Überdimensionierungen der notwendigen Einrichtungen (Brunnen, Pumpen, Aufbereitung) vermieden werden. Die hier untersuchten Methoden können dabei vorteilhaft eingesetzt werden, da sie es prinzipiell erlauben, die notwendigen Sicherheitszuschläge zu verringern und Erfolgswahrscheinlichkeiten für unterschiedliche Auslegungsvarianten anzugeben. Erfolgswahrscheinlichkeit bedeutet z.B. mit welcher Wahrscheinlichkeit ein einzuhaltender Grenzwert an einem bestimmten Punkt unterschritten wird. Die aktuell in der Praxis eingesetzten deterministischen Modelle können stattdessen nur einen Wert liefern, der eine nicht bekannte Eintretenswahrscheinlichkeit besitzt. In dieser Arbeit wird gezeigt, dass Methoden der stochastischen Simulation, zusammen mit einer Grundwassermodellierung einen wesentlichen Beitrag zur Verbesserung der oben dargestellten Situation leisten können. Hierzu wird das SUFIX-Verfahren eingesetzt, das es erlaubt neben den Verfahren der Geostatistik (z.B. stochastische Simulation) auch den Sachverstand des Hydrogeologen, der sich meist nicht in ’harten’ Zahlenwerten ausdrücken lässt, zwanglos zu integrieren. Beispiele hierfür sind Kenntnisse über großskalige Strukturen, wie Paläorinnen, die mit den Voraussetzungen für den Einsatz von stochastischen Simulationen nicht vereinbar sind Auch sind vorhandene Informationen, die mit einer relative hohen Unsicherheit behaftet sind (soft data) in diesem Konzept verwertbar. Die Eingangsdaten eines Grundwassermodells liegen i.d. Regel nur als sporadische Punktmessungen vor und müssen durch Interpolation oder stochastische Simulation generiert werden, um ein lückenloses Abbild des Untergrundes bzw. der Eigenschaften des Untergrundes zu erhalten. Liegt ein vollständiges interpoliertes Abbild (hydrogeologisches Modell) vor, muss wiederum eine Vereinfachung vorgenommen werden, da ein numerisches Modell nur punkt- bzw. flächengemittelte Eingabedaten verwenden kann. Der hierdurch bedingte Verlust an Information über die Variabilität der Modellparameter unterhalb der räumlichen Modelldiskretisierung wirkt sich vor allem bei der Stofftransportmodellierung aus, da hier die Ausbreitung entlang bevorzugter Fließwege eine entscheidende Rolle spielen kann. Eine zusätzliche Quelle der Unsicherheit entsteht dadurch, dass die Lage dieser Strukturen und ihr räumlicher Zusammenhang (Topologie) nicht hinreichend bekannt sind. Anhand zweier Fallbeispiele aus der praktischen Anwendung von numerischen Modellen wird nachgewiesen, dass sich das SUFIX-Verfahren generell als geeignet zur Quantifizierung von Prognoseunsicherheiten darstellt. Vorteile des Verfahrens sind die Kombinationsmöglichkeiten mit beliebigen Methoden zur Abbildung der Untergrundheterogenität. Es können z.B. stochastische Simulationen oder auch eine konstante manuelle Zonierung verwendet werden. Ein weiterer gewichtiger Vorteil ist der, dass die Berechnungsmethodik der Grundwasserströmung und des Stofftransportes keinen Einschränkungen, wie Linearisierung der Gleichungen u.ä. unterworfen ist. Ebenso sind beliebige Randbedingungen verwendbar, wobei auch der Typ der Bedingungen als unsicherer Parameter eingesetzt werden kann. Sollen die Parameter optimiert werden, ist in praktischen Anwendungsfällen die Kopplung von stochastischer Simulation und z.B. einem Bayes'schen Updating-Verfahren eine einfach zu implementierende Lösung. Hiermit ist dann auch die Kalibrierung beliebiger Randbedingungen möglich, die z.B. als Parameter mit einer nominalen Kodierung berücksichtigt werden können. Die Untersuchungsergebnisse zeigen, dass das Verfahren zur Abbildung der Heterogenität dem Aquifer angepasst gewählt werden muss. Gauss-basierte Verfahren, wie Turning-Bands, sind demnach am ehesten für die Simulation von relativ homogenen Aquiferen geeignet, während bei sehr heterogenen Strukturen, d.h. großer Variabilität der Parameterwerte, am ehesten Indikator-basierte Verfahren in Frage kommen. Noch besser schneidet in diesem Fall die manuelle Zonierung ab, was vor allem damit zu erklären ist, dass bei sehr heterogenen Untergrundverhältnissen v.a. die Struktur mit eventuell nur deterministisch erfassbaren übergeordneten Elementen von ausschlaggebender Bedeutung ist. Als Simulationsverfahren mit dem größten Entwicklungspotential kann man generell diejenigen Verfahren ansehen, die auch nicht Gauss-verteilte Daten verwenden, wie z.B. die hier verwendeten Indikatorbasierten Verfahren. Als ebenfalls sehr gut geeignete Verfahren stellten sich Simulated Annealing in der Variante als Postprozessor zusammen mit einem frei definierbaren ’Trainingsbild’ dar. Die Untersuchungsergebnisse zeigten aber auch, dass neben der Wahl der geeigneten mathematischen Methoden eine weitere grundlegende Bedingung erfüllt sein muss, nämlich ein widerspruchsfreies und stimmiges, an den Einsatzzweck angepasstes konzeptionelles hydrogeologisches Modell. Zu dessen Konzeption muss der Anwender bzw. Modellierer über Kenntnisse der großräumigen Strukturen verfügen, die sich aus der Genese des Untergrundes ergeben und nur durch eine fachliche Interpretation erreichbar sind. Hierzu gehören Schichtungen, Paläorinnen, anisotrope Bodeneigenschaften durch Terrassierung, usw.. Die Einbeziehung dieser Expertenkenntnisse, sowie die Sicherstellung eines geeigneten hydrogeologischen Modells für die numerische Modellierung sind Themenbereiche, die im Zusammenhang mit einer Unsicherheitsanalyse noch erheblichen Forschungsbedarf aufweisen.
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
In the present work, various aspects of the mixed continuum-atomistic modelling of materials are studied, most of which are related to the problems arising due to a development of microstructures during the transition from an elastic to plastic description within the framework of continuum-atomistics. By virtue of the so-called Cauchy-Born hypothesis, which is an essential part of the continuum-atomistics, a localization criterion has been derived in terms of the loss of infinitesimal rank-one convexity of the strain energy density. According to this criterion, a numerical yield condition has been computed for two different interatomic energy functions. Therewith, the range of the Cauchy-Born rule validity has been defined, since the strain energy density remains quasiconvex only within the computed yield surface. To provide a possibility to continue the simulation of material response after the loss of quasiconvexity, a relaxation procedure proposed by Tadmor et al. leading necessarily to the development of microstructures has been used. Thereby, various notions of convexity have been overviewed in details. Alternatively to the above mentioned criterion, a stability criterion has been applied to detect the critical deformation. For the study in the postcritical region, the path-change procedure proposed by Wagner and Wriggers has been adapted for the continuum-atomistic and modified. To capture the deformation inhomogeneity arising due to the relaxation, the Cauchy-Born hypothesis has been extended by assumption that it represents only the 1st term in the Taylor's series expansion of the deformation map. The introduction of the 2nd, quadratic term results in the higher-order materials theory. Based on a simple computational example, the relevance of this theory in the postcritical region has been shown. For all simulations including the finite element examples, the development tool MATLAB 6.5 has been used.
Liquid Composite Moulding (LCM) has become an economic technique for the manufacture
of advanced composite lightweight structures in many cases. Meanwhile the
acronym LCM represents more than a dozen of varying process types, which all have
the principle in common that a liquid monomer is firstly injected into a cavity filled with
a reinforcing fibre preform and secondly it forms the part by chemically reacting to a
solid polymer network. A distinctive feature of the LCM process variations is their
applicability to the fabrication of a variety of different part sizes and shapes. Within
this development numerical process simulation has become an important engineering
tool for mould design and process control. Thereby the research focuses on the
simulation of resin flow through a fibrous reinforcement, because this turned out to be
the most critical process within the manufacture of composites by applying LCMTechnologies.
With the software commercially available the mould-filling pattern can
be simulated depending on the locations and number of inlet and outlet gates, resin
rheology, injection rate and pressure, thermal effects and the physics of liquid flow
through fibre preforms. Hereby the standard flow modelling bases on a proportional
relationship between the flow rate and the applied pressure gradient, which is known
as D´Arcy’s law. The describing proportional factor is called the permeability. Its
value depends on the considered flow direction because of a non-isotropic structural
arrangement of the fibre reinforcement. It becomes clear that the permeability affects
the injection process crucially and so the knowledge about it is indispensable for the
realistic prediction of a filling pattern by flow simulation.
Due to the complexity of the inner structure of a textile reinforcement the resulting
multiphase flow cannot be described adequately by an analytical model at the current
stage of research, so that the permeabilities of planar textile reinforcements like woven or non-crimped fabrics is usually obtained from flow measurements. A variety
of experimental set-ups were developed, which allow the tracking of the fluid flow
through the textile reinforcement. The permeability is derived from the flow data by
applying D´Arcy´s law. Most of these test-rigs allow the determination of the in-plane
flow characteristics only, because they are dominant in the most classical processing
techniques. But the simulation of these processes produces still significant errors,
which result from neglecting the out-of-plane flow. Since new liquid composite moulding
processes like SCRIMP™ or resin film infusion were developed, the knowledge of
the permeability in thickness direction becomes as important as the in-plane charac teristics so that researchers started to measure flow in thickness direction and developed
flow models which include the principle permeability in thickness direction. The
main arising difficulties are the measuring and the modelling for the calculation of the
permeability from flow front data. The objective of this work is to overcome these
problems by the development of a test-rig for the measure of the flow in thickness
direction and by determining a transformation rule, which addresses the unsolved
geometric boundary condition at the injection port.
After investigating the existing instrumentation for measuring flow in thickness direction
a new sensor concept is developed on the basis of ultrasound transmission,
which enables a steady collection of the actual position of a flow front. The applicability
of this test-rig was tested within the measure of the flow through different woven
and non-crimped fabrics. The permeability values, which were obtained from the flow
data with the aid of the improved analytic model, were validated by two-dimensional
radial flow experiments.
Viele Städte stehen mittelfristig vor gravierenden Veränderungen. Die Liste der aktuellen Herausforderungen ist lang: "Demographischer Wandel", "Pluralisierung der Lebensstile", "Beschleunigung und Virtualisierung der Lebenswelten", "Globalisierung und Strukturwandel". Ebenso wie diese Trends tiefgreifende Anpassungen und neue Lösungsstrategien in Gesellschaft und Wirtschaft erfordern, muss das Stadtgefüge diesen veränderten Rahmenbedingungen gerecht werden. Die Stadt von gestern ist hinsichtlich der Ansprüche der Wissensgesellschaft zu überprüfen. Insgesamt ist die Beschäftigung mit und die Reaktion auf eine Vielzahl komplexer raumwirksamer Entwicklungen geboten.
Die Stadtentwicklungskonzeption StadtTechnopole hat zum Ziel, die räumlichen Konsequenzen aus der Entwicklung einer Stadt zu einem leistungsfähigen Technologiestandort aufzuzeigen und diese prototypisch in Teilkonzepten umzusetzen. Dazu ist es erforderlich, die technologischen Entwicklungsansätze und Perspektiven zu erfassen und mit den Raumbezügen sowie den organisatorischen und personellen Teilkomponenten in einer Leitkonzeption zusammenzuführen. Vor dem Hintergrund des fortschreitenden ökonomischtechnologischen
Wandels geht es vor allem um eine zukunftsfähige Wirtschafts- und Lebensstruktur.
Mit langfristig tragfähigen ökonomischen Strukturen kann es gelingen, dem bundesweiten Trend zur Schrumpfung und Überalterung der Gesellschaft entgegenzuwirken, die Bevölkerungsentwicklung am Standort zu stabilisieren sowie eine lebendige Stadt zu erhalten.
Kaiserslautern steht im Zuge des ökonomischen, demographischen, sozialen und technologischen Wandels vor weitreichenden Umbrüchen und vielfältigen Herausforderungen. Die Stadt befindet sich schon heute in einem Transformationsprozess: Im Rahmen der allgemeinen wirtschaftsstrukturellen Veränderungen werden alteingesessene Betriebe im sekundären Sektor aufgegeben. Damit verbunden ist ein starker Rückgang des Arbeitskräftebedarfs im verarbeitenden Gewerbe. Einen Tiefpunkt erreichte die Stadt 1997 mit einer Arbeitslosenquote
von 14%.
Hinsichtlich einer möglichst souveränen Bewältigung der neuen Aufgaben sowie möglicherweise sogar der Erzielung von Wettbewerbsvorteilen ist eine frühzeitige raumbezogene Planung geboten. Für eine Stadt wie Kaiserslautern, bei der u.a. aufgrund ihrer Lage in einem
strukturschwachen Großraum im Bundesvergleich ein Entwicklungsrückstand zu konstatieren ist, ergibt sich daraus ein akuter Handlungsbedarf. Die Stadt Kaiserslautern hat dies erkannt
und bereitet sich mit dem Stadtentwicklungskonzeption StadtTechnopole auf die vielfältigen Herausforderungen vor.
Die Stadtentwicklungskonzeption StadtTechnopole_Kaiserslautern bezieht die zentralen Erkenntnisse des stadtsoziologischen Ergänzungsgutachtens "Lebensstile und Raumansprüche hochqualifizierter IKT-Beschäftigter" von Jun.-Prof. Dr. Annette Spellerberg (Fachgebiet
Stadtsoziologie) ein. Wesentliche Inhalte dieser Untersuchung betreffen die Raumansprüche hochqualifizierter Wissensarbeiter und daraus abgeleitete praktische Hinweise für die Standortverbesserung.
Möglich wurde die vorliegende Veröffentlichung erst durch die sehr gute Zusammenarbeit im Rahmen des interdisziplinären Forschungsvorhabens mit dem Ministerium des Innern und
für Sport, der Wirtschaftsförderungsgesellschaft Kaiserslautern, der Stadt Kaiserslautern und zahlreichen Personen in Wissenschaft, Politik, Verwaltung und Wirtschaft.
Viele Städte stehen mittelfristig vor gravierenden Veränderungen. Die Liste der aktuellen
Herausforderungen ist lang: "Demographischer Wandel", "Pluralisierung der Lebensstile",
"Beschleunigung und Virtualisierung der Lebenswelten", "Globalisierung und Strukturwandel". Ebenso wie diese Trends tiefgreifende Anpassungen und neue Lösungsstrategien in
Gesellschaft und Wirtschaft erfordern, muss das Stadtgefüge diesen veränderten Rahmenbedingungen
gerecht werden. Die Stadt von gestern ist hinsichtlich der Ansprüche der Wissensgesellschaft
zu überprüfen. Insgesamt ist die Beschäftigung mit und die Reaktion auf eine
Vielzahl komplexer raumwirksamer Entwicklungen geboten.
Die Stadtentwicklungskonzeption StadtTechnopole hat zum Ziel, die räumlichen Konsequenzen
aus der Entwicklung einer Stadt zu einem leistungsfähigen Technologiestandort aufzuzeigen
und diese prototypisch in Teilkonzepten umzusetzen. Dazu ist es erforderlich, die
technologischen Entwicklungsansätze und Perspektiven zu erfassen und mit den Raumbezügen sowie den organisatorischen und personellen Teilkomponenten in einer Leitkonzeption
zusammenzuführen. Vor dem Hintergrund des fortschreitenden ökonomischtechnologischen
Wandels geht es vor allem um eine zukunftsfähige Wirtschafts- und Lebensstruktur.
Mit langfristig tragfähigen ökonomischen Strukturen kann es gelingen, dem
bundesweiten Trend zur Schrumpfung und Überalterung der Gesellschaft entgegenzuwirken,
die Bevölkerungsentwicklung am Standort zu stabilisieren sowie eine lebendige Stadt zu erhalten.
Kaiserslautern steht im Zuge des ökonomischen, demographischen, sozialen und technologischen
Wandels vor weitreichenden Umbrüchen und vielfältigen Herausforderungen. Die
Stadt befindet sich schon heute in einem Transformationsprozess: Im Rahmen der allgemeinen
wirtschaftsstrukturellen Veränderungen werden alteingesessene Betriebe im sekundären
Sektor aufgegeben. Damit verbunden ist ein starker Rückgang des Arbeitskräftebedarfs im
verarbeitenden Gewerbe. Einen Tiefpunkt erreichte die Stadt 1997 mit einer Arbeitslosenquote
von 14%.
Hinsichtlich einer möglichst souveränen Bewältigung der neuen Aufgaben sowie möglicherweise
sogar der Erzielung von Wettbewerbsvorteilen ist eine frühzeitige raumbezogene Planung
geboten. Für eine Stadt wie Kaiserslautern, bei der u.a. aufgrund ihrer Lage in einem
strukturschwachen Großraum im Bundesvergleich ein Entwicklungsrückstand zu konstatieren
ist, ergibt sich daraus ein akuter Handlungsbedarf. Die Stadt Kaiserslautern hat dies erkannt
und bereitet sich mit dem Stadtentwicklungskonzeption StadtTechnopole auf die vielfältigen Herausforderungen vor.
Die Stadtentwicklungskonzeption StadtTechnopole_Kaiserslautern bezieht die zentralen Erkenntnisse
des stadtsoziologischen Ergänzungsgutachtens "Lebensstile und Raumansprüche hochqualifizierter IKT-Beschäftigter" von Jun.-Prof. Dr. Annette Spellerberg (Fachgebiet
Stadtsoziologie) ein. Wesentliche Inhalte dieser Untersuchung betreffen die Raumansprüche
hochqualifizierter Wissensarbeiter und daraus abgeleitete praktische Hinweise für die Standortverbesserung.
Möglich wurde die vorliegende Veröffentlichung erst durch die sehr gute Zusammenarbeit im
Rahmen des interdisziplinären Forschungsvorhabens mit dem Ministerium des Innern und
für Sport, der Wirtschaftsförderungsgesellschaft Kaiserslautern, der Stadt Kaiserslautern und
zahlreichen Personen in Wissenschaft, Politik, Verwaltung und Wirtschaft.
Characterization of neuronal activity in the auditory brainstem of rats: An optical imaging approach
(2004)
In this doctoral thesis, several aspects of neuronal activity in the rat superior olivary complex (SOC), an auditory brainstem structure, were analyzed using optical imaging with voltage-sensitive dyes (VSD). The thesis is divided into 5 Chapters. Chapter 1 is a general introduction, which gives an overview of the auditory brainstem and VSD imaging. In Chapter 2, an optical imaging method for the SOC was standardized, using the VSD RH795. To do so, the following factors were optimized: (1) An extracellular potassium concentration of 5 mM is necessary during the incubation and recording to observe synaptically evoked responses in the SOC. (2) Employing different power supplies reduced the noise. (3) Averaging of 10 subsequent trials yielded a better signal-to-noise ratio. (4) RH795 of 100 µM with 50 min prewash was optimal to image SOC slices for more than one hour. (5) Stimulus-evoked optical signals were TTX sensitive, revealing action potential-driven input. (6) Synaptically evoked optical signals were characterized to be composed of pre- and postsynaptic components. (7) Optical signals were well correlated with anatomical structures. Overall, this method allows the comparative measurement of electrical activity of cell ensembles with high spatio-temporal resolution. In Chapter 3, the nature of functional inputs to the lateral superior olive (LSO), the medial superior olive (MSO), and the superior paraolivary nucleus (SPN) were analyzed using the glycine receptor blocker strychnine and the AMPA/kainate receptor blocker CNQX. In the LSO, the known glutamatergic inputs from the ipsilateral, and the glycinergic inputs from the ipsilateral and contralateral sides, were confirmed. Furthermore, a CNQX-sensitive input from the contralateral was identified. In the MSO, the glutamatergic and glycinergic inputs from the ipsilateral and contralateral sides were corroborated. In the SPN, besides the known glycinergic input from the contralateral, I found a glycinergic input from the ipsilateral and I also identified CNQX-sensitive inputs from the contralateral and ipsilateral sides. Together, my results thus corroborate findings obtained with different preparations and methods, and provide additional information on the pharmacological nature of the inputs. In Chapter 4, the development of glycinergic inhibition for the LSO, the MSO, the SPN, and the medial nucleus of the trapezoid body (MNTB) was studied by characterizing the polarity of strychnine-sensitive responses. In the LSO, the high frequency region displayed a shift in the polarity at P4, whereas the low frequency region displayed at P6. In the MSO, both the regions displayed the shift at P5. The SPN displayed a shift in the polarity at E18-20 without any regional differences. The MNTB lacked a shift between P3-10. Together, these results demonstrate a differential timing in the development of glycinergic inhibition in these nuclei. In Chapter 5, the role of the MSO in processing bilateral time differences (t) was investigated. This was done by stimulating ipsilateral and contralateral inputs to the MSO with different t values. In preliminary experiments, the postsynaptic responses showed a differential pattern in the spread of activity upon different t values. This data demonstrates a possible presence of delay lines as proposed by Jeffress in the interaural time difference model of sound localization. In conclusion, this study demonstrates the usage of VSD imaging to analyze the neuronal activity in auditory brainstem slices. Moreover, this study expands the knowledge of the inputs to the SOC, and has identified one glycinergic and three AMPA/kainate glutamatergic novel inputs to the SOC nuclei.
The present thesis deals with a novel air interface concept for beyond 3G mobile radio systems. Signals received at a certain reference cell in a cellular system which originate in neighboring cells of the same cellular system are undesired and constitute the intercell interference. Due to intercell interference, the spectrum capacity of cellular systems is limited and therefore the reduction of intercell interference is an important goal in the design of future mobile radio systems. In the present thesis, a novel service area based air interface concept is investigated in which interference is combated by joint detection and joint transmission, providing an increased spectrum capacity as compared to state-of-the-art cellular systems. Various algorithms are studied, with the aid of which intra service area interference can be combated. In the uplink transmission, by optimum joint detection the probability of erroneous decision is minimized. Alternatively, suboptimum joint detection algorithms can be applied offering reduced complexity. By linear receive zero-forcing joint detection interference in a service area is eliminated, while by linear minimum mean square error joint detection a trade-off is performed between interference elimination and noise enhancement. Moreover, iterative joint detection is investigated and it is shown that convergence of the data estimates of iterative joint detection without data estimate refinement towards the data estimates of linear joint detection can be achieved. Iterative joint detection can be further enhanced by the refinement of the data estimates in each iteration. For the downlink transmission, the reciprocity of uplink and downlink channels is used by joint transmission eliminating the need for channel estimation and therefore allowing for simple mobile terminals. A novel algorithm for optimum joint transmission is presented and it is shown how transmit signals can be designed which result in the minimum possible average bit error probability at the mobile terminals. By linear transmit zero-forcing joint transmission interference in the downlink transmission is eliminated, whereas by iterative joint transmission transmit signals are constructed in an iterative manner. In a next step, the performance of joint detection and joint transmission in service area based systems is investigated. It is shown that the price to be paid for the interference suppression in service area based systems is the suboptimum use of the receive energy in the uplink transmission and of the transmit energy in the downlink transmission, with respect to the single user reference system. In the case of receive zero-forcing joint detection in the uplink and transmit zero-forcing joint transmission in the downlink, i.e., in the case of linear unbiased data transmission, it is shown that the same price, quantified by the energy efficiency, has to be paid for interference elimination in both uplink and downlink. Finally it is shown that if the system load is fixed, the number of active mobile terminals in a SA and hence the spectrum capacity can be increased without any significant reduction in the average energy efficiency of the data transmission.
Entwurf und Optimierung neuer Versuchsanordnungen zur Charakterisierung der Haftung an Grenzflächen
(2004)
Die Beurteilung der mechanischen Haftungsqualität an Grenzflächen ist eine entscheidende Voraussetzung zur aktiven Gestaltung von heterogenen Werkstoffen. Die vorliegende Arbeit zeigt neue Wege für den Entwurf und die Optimierung der dazu nötigen Testverfahren auf. Ausgehend von der zu messenden Größe muß eine Versuchsanordnung
oder eine Probengeometrie entworfen werden, die aufgrund ihrer Konzeption die zu einer verläßlichen Messung notwendigen Voraussetzungen schafft. Mit Hilfe von numerischen Verfahren können auch komplizierte Probengeometrien analysiert und optimiert und die Anwendbarkeit von einfachen Auswerteverfahren überprüft werden.
Ziel ist eine einfache Formel zur Auswertung, die die komplizierte Geometrie nur in Form von einmalig zu bestimmenden Formfaktoren enthält.
Diese Grundidee wird in der vorliegenden Arbeit anhand von drei verschiedenen Versuchsanordnungen ausgeführt, jede wird umfassend analysiert und auch experimentell auf ihre Durchführbarkeit überprüft.
Ausgehend vom BROUTMAN-Versuch (Faser-Matrix-Grenzfläche) beschreibt Kapitel 2 eine Probengeometrie, die eine homogene Grenzflächenbelastung durch eine geeignete Kerbung der Probe aus der äußeren Zugbelastung erzeugt. Die gleichförmige Zugbelastung ist die Voraussetzung für die Anwendbarkeit des Festigkeitskonzeptes.
Zur Berechnung der Festigkeit aus den experimentellen Daten wird eine Näherungsformel abgeleitet, die die Probengeometrie nur als Formfaktoren enthält. Die optimale Probengeometrie und die zugehörigen Formfaktoren folgen aus einer Parameterstudie mit Hilfe der Methode der Finiten Elemente.
Ein experimenteller Vergleich des ursprünglichen BROUTMAN-Versuchs mit dem vorgeschlagenen Zugversuch zeigt die prinzipielle Anwendbarkeit der Versuchsanordungen und des Festigkeitskonzeptes. Der Vergleich stützt weiterhin das Gesamtkonzept, denn die Herstellung der Probenkörper beider Versuchstypen erfolgt sehr ähnlich,während die Grenzflächenbelastung auf sehr unterschiedliche Weise erzeugt wird. Sie stellen deshalb zwei verschiedene Methoden zur Messung derselben Größe dar. In einer zweiseitig gekerbten Zugprobe entsteht durch die Kerbe eine Zugspannung quer zur Hauptbelastungsrichtung. Besteht der Probenkörper aus zwei einseitig gekerbten, beispielsweise durch Kleben zusammengefügten Hälften, so entsteht ebenfalls eine gleichförmige Zugbelastung eines ausgedehnten Bereiches der Grenzfläche.
Diese Idee wird im Kapitel 3 anhand einer Meßreihe aus gleichen Hälften untersucht.
Ein Finite-Elemente-Modell dient außerdem dazu, die optimale Geometrie für einen Probenkörper aus zwei einseitig gekerbten Teilen verschiedenen Materials zu ermitteln.
Es zeigt auch einen weiteren Vorteil dieser Probenform, denn plastische Deformationen beginnen stets im Kerbgrund, nicht an der Grenzfläche. Plastizität beeinflußt die Ergebnisse deshalb weniger, sie bleiben vergleichbar, auch wenn bei einigen Materialsystemen
teilweise plastische Deformationen auftreten.
Treten dagegen vor dem Grenzflächenversagen ausgedehnte plastische Deformationen in der Umgebung der Grenzfläche auf, so entsteht dadurch ein komplexer Spannungszustand, dem das Festigkeitskonzept kaum Rechnung tragen kann. Weiterhin erfolgt Versagen dann zumeist als fortschreitender Riß, so daß ein bruchmechanisches Konzept unumgänglich ist. In dieser Situation wird bei Proben aus homogenem Material mit Anfangsriß das Konzept der realen Brucharbeit bereits erfolgreich angewendet.
Dieses Konzept beschreibt aber auch zufriedenstellend das Versagen von Grenzflächen zwischen unterschiedlichen Materialien, wie anhand einer Versuchsreihe und umfangreichen numerischen Rechnungen im Kapitel 4 gezeigt wird. Das numerische Modell umfaßt ein elastisch-plastisches Materialgesetz mit Verfestigung, Rißausbreitung unter Belastung und ein an die Energiefreisetzungsrate angelehntes Energie-Kriterium
zur Simulation des Rißwachstums. Es geht damit weit über die meisten aus der Literatur bekannten Simulationen hinaus.
In the delay management problem we decide how to react in case of delays in public transportation. More specific, the question is if connecting vehicles should wait for delayed feeder vehicles or if it is better to depart in time. As objective we consider the convenience over all customers, expressed as the average delay of a customer when arriving at his destination.We present path-based and activity-based integer programming models for the delay management problem and show the equivalence of these formulations. Based on these, we present a simplification of the (cubic) activity-based model which results in an integer linear program. We identify cases in which this linearization is correct, namely if the so-called never-meet property holds. Fortunately, this property is often almost satisfied in our practical data. Finally, we show how to find an optimal solution in linear time in case of the never-meet property.
Universal Algebra
(2004)
The hypoxia inducible factor-1 (HIF-1), a heterodimer composed of HIF-1alpha and HIF-1beta, is activated in response to low oxygen tension and serves as the master regulator for cells to adapt to hypoxia. HIF-1 is usually considered to be regulated via degradation of its a-subunit. Recent findings, however, point to the existence of alternative mechanisms of HIF-1 regulation which appear to be important for down-regulating HIF-1 under prolonged and severe oxygen depletion. The aims of my Ph.D. thesis, therefore, were to further elucidate mechanisms involved in such down-regulation of HIF-1. The first part of the thesis addresses the impact of the severity and duration of oxygen depletion on HIF-1alpha protein accumulation and HIF-1 transcriptional activity. A special focus was put on the influence of the transcription factor p53 on HIF-1. I found that p53 only accumulates under prolonged anoxia (but not hypoxia), thus limiting its influence on HIF-1 to severe hypoxic conditions. At low expression levels, p53 inhibits HIF-1 transactivity. I attributed this effect to a competition between p53 and HIF-1alpha for binding to the transcriptional co-factor p300, since p300 overexpression reverses this inhibition. This assumption is corroborated by competitive binding of IVTT-generated p53 and HIF-1alpha to the CH1-domain of p300 in vitro. High p53 expression, on the other hand, affects HIF-1alpha protein negatively, i.e., p53 provokes pVHL-independent degradation of HIF-1alpha. Therefore, I conclude that low p53 expression attenuates HIF-1 transactivation by competing for p300, while high p53 expression negatively affects HIF-1alpha protein, thereby eliminating HIF-1 transactivity. Thus, once p53 becomes activated under prolonged anoxia, it contributes to terminating HIF-1 responses. In the second part of my study, I intended to further characterize the effects induced by prolonged periods of low oxygen, i.e., hypoxia, as compared to anoxia, with respect to alterations in HIF-1alpha mRNA. Prolonged anoxia, but not hypoxia, showed pronounced effects on HIF-1alpha mRNA. Long-term anoxia induced destabilization of HIF-1alpha mRNA, which manifests itself in a dramatic reduction of the half-life. The mechanistic background points to natural anti-sense HIF-1alpha mRNA, which is induced in a HIF-1-dependent manner, and additional factors, which most likely influence HIF-1alpha mRNA indirectly via anti-sense HIF-1alpha mRNA mediated trans-effects. In summary, the data provide new information concerning the impact of p53 on HIF-1, which might be of importance for the decision between pro- and anti-apoptotic mechanisms depending upon the severity and duration of hypoxia. Furthermore, the results of this project give further insights into a novel mechanism of HIF-1 regulation, namely mRNA down-regulation under prolonged anoxic incubations. These mechanisms appear to be activated only in response to prolonged anoxia, but not to hypoxia. These considerations regarding HIF-1 regulation should be taken into account when prolonged incubations to hypoxic or anoxic conditions are analyzed at the level of HIF-1 stability regulation.
In the filling process of a car tank, the formation of foam plays an unwanted role, as it may prevent the tank from being completely filled or at least delay the filling. Therefore it is of interest to optimize the geometry of the tank using numerical simulation in such a way that the influence of the foam is minimized. In this dissertation, we analyze the behaviour of the foam mathematically on the mezoscopic scale, that is for single lamellae. The most important goals are on the one hand to gain a deeper understanding of the interaction of the relevant physical effects, on the other hand to obtain a model for the simulation of the decay of a lamella which can be integrated in a global foam model. In the first part of this work, we give a short introduction into the physical properties of foam and find that the Marangoni effect is the main cause for its stability. We then develop a mathematical model for the simulation of the dynamical behaviour of a lamella based on an asymptotic analysis using the special geometry of the lamella. The result is a system of nonlinear partial differential equations (PDE) of third order in two spatial and one time dimension. In the second part, we analyze this system mathematically and prove an existence and uniqueness result for a simplified case. For some special parameter domains the system can be further simplified, and in some cases explicit solutions can be derived. In the last part of the dissertation, we solve the system using a finite element approach and discuss the results in detail.
IMRT planning on adaptive volume structures – a significant advance of computational complexity
(2004)
In intensity-modulated radiotherapy (IMRT) planning the oncologist faces the challenging task of finding a treatment plan that he considers to be an ideal compromise of the inherently contradictive goals of delivering a sufficiently high dose to the target while widely sparing critical structures. The search for this a priori unknown compromise typically requires the computation of several plans, i.e. the solution of several optimization problems. This accumulates to a high computational expense due to the large scale of these problems - a consequence of the discrete problem formulation. This paper presents the adaptive clustering method as a new algorithmic concept to overcome these difficulties. The computations are performed on an individually adapted structure of voxel clusters rather than on the original voxels leading to a decisively reduced computational complexity as numerical examples on real clinical data demonstrate. In contrast to many other similar concepts, the typical trade-off between a reduction in computational complexity and a loss in exactness can be avoided: the adaptive clustering method produces the optimum of the original problem. This flexible method can be applied to both single- and multi-criteria optimization methods based on most of the convex evaluation functions used in practice
Im Mittelpunkt dieser Arbeit standen die Synthese und Charakterisierung neuartiger basischer Feststoffkatalysatoren. Für die Herstellung dieser neuen Materialien wurden Zeolithe, mesoporöse Molekularsiebe sowie mikroporöse und amorphe Aluminiumphosphate bei Temperaturen von 700 °C bis 850 °C im Ammoniakstrom behandelt. Die Charakterisierung erfolgte mittels Röntgen-Pulverdiffraktometrie, Stickstoffadsorption, Thermogravimetrie/Massenspektrometrie, temperaturprogrammierter Desorption von Pyrrol und DRIFT-spektroskopischen Untersuchungen. Die katalytischen Eigenschaften wurden mit der Knoevenagel-Kondensation von Benzaldehyd mit Malonsäuredinitril bzw. Cyanessigsäureethylester sowie der Umsetzung von Limonen in der Gasphase getestet. Als Referenzmaterial wurde Zeolith NaY, der mit verschiedenen Kationen ausgetauscht bzw. mit Cäsiumacetat imprägniert wurde, verwendet. Sowohl die Röntgen-Pulverdiffraktogramme als auch die Bestimmung der spezifischen Oberflächen durch Stickstoffadsorption ergaben, dass nach der Ammoniakbehandlung die Struktur der verwendeten Katalysatoren im Wesentlichen erhalten blieb. Anhand von DRIFT-Spektren, die während der Ammoniakbehandlung aufgenommen wurden, konnte nachgewiesen werden, dass ein Einbau von Stickstoff in die Gerüste der Zeolithe, mesoporösen Molekularsiebe und Aluminiumphosphate erfolgte. Mit Hilfe der temperaturprogrammierten Desorption von Pyrrol konnten verschiedene basische Zentren bei den einzelnen Katalysatoren detektiert werden. Durch die Nitridierung wurde bei fast allen Katalysatoren eine Veränderung der Adsorptionseigenschaften von Pyrrol gemessen, die auf eine größere Anzahl bzw. auf stärker basische Zentren hindeutet. IR-spektroskopische Untersuchungen zur Adsorption von Pyrrol zeigten, dass die Ammoniakbehandlung zu einer Zunahme der Stärke von basischen Zentren führt. Die katalytischen Tests in der Knoevenagel-Kondensation ergaben, dass in fast allen Fällen eine Aktivitätssteigerung des ammoniakbehandelten Katalysators im Vergleich zum unbehandelten Ausgangsmaterial erfolgte. Die Aktivität ist dabei abhängig von den Modifizierungsbedingungen wie z.B. Behandlungsdauer und Behandlungstemperatur, aber auch von den Lagerungsbedingungen. Als weitere Testreaktion wurde die Umsetzung von Limonen gewählt. Anhand von mit Alkalimetall ausgetauschten Zeolithen mit FAU-Struktur konnte gezeigt werden, dass die p-Cymol-Ausbeute ein Maß für die Basizität der Katalysatoren ist. Bei fast allen Katalysatoren wurde eine Steigerung der p-Cymol-Ausbeute infolge der Ammoniakbehandlung gefunden. Neben dem Si:Al-Verhältnis spielen auch die Gegenionen und die Anzahl von Silanolgruppen eine entscheidende Rolle.
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
L1 ist ein neuronales Adhäsionsmolekül, das neben Zellen des Nervensystems auf vielen humanen Tumorlinien exprimiert wird. Zusätzlich zu seiner Funktion als Oberflächenmolekül wird L1 durch membranproximale Spaltung in eine lösliche Form überführt, die funktionell aktiv ist. Bei diesem Prozess ist die Metalloproteinase ADAM10 beteiligt. In Tumoren der Ovarien und des Uterus ist die Expression von L1 mit einem fortgeschrittenen Stadium der Erkrankung assoziiert. Das L1-Spaltfragment kann in Tumorlysaten detektiert werden, außerdem korreliert die Anwesenheit von ADAM10 im Tumorgewebe mit löslichem L1 im Serum der Patientinnen. L1 und ADAM10 sind teilweise mit Lipid Rafts assoziiert und kolokalisieren darüber hinaus im Golgi/TGN. Die Aktivierung der Proteinkinase C durch PMA erhöht die L1-Spaltung an der Plasmamembran, während der Entzug von Cholesterin mittels MCD die Spaltung innerhalb der Zelle verstärkt. Zudem führt die Senkung des zellulären Cholesteringehalts zur Freisetzung von Membranvesikeln, die sowohl L1 als auch ADAM10 enthalten. Die ADAM10-vermittelte Spaltung von L1 hält in isolierten Vesikeln an und generiert lösliches L1, welches die Migration von Tumorzellen verstärkt. In Ovarialkarzinomzellen wird die Abspaltung von L1 ebenfalls durch eine Metalloproteinase vermittelt, findet aber kaum an der Oberfläche statt. Durch Überexpression von L1, ADAM10 sowie einer katalytisch-inaktiven Form (ADAM10-DN) kann ein Zusammenhang zwischen ADAM10, der Abgabe von löslichem L1 und dem Migrationsverhalten von Karzinomzellen in vitro belegt werden. Ovarialkarzinomlinien setzen zudem konstitutiv hohe Mengen an Vesikeln frei, die proteolytisch aktiv sind und ebenfalls ADAM10 und L1 enthalten. In Asziten von Tumorpatientinnen kann sowohl vesikuläres als auch lösliches L1 nachgewiesen werden. Die funktionelle Bedeutung der ADAM10-vermittelten Spaltung von L1 für das Migrationsverhalten von Ovarialkarzinomzellen wird in Hinblick auf Tumorprogression sowie mögliche neue Therapieansätze diskutiert.
We consider the contact of two elastic bodies with rough surfaces at the interface. The size of the micropeaks and valleys is very small compared with the macrosize of the bodies’ domains. This makes the direct application of the FEM for the calculation of the contact problem prohibitively costly. A method is developed that allows deriving a macrocontact condition on the interface. The method involves the twoscale asymptotic homogenization procedure that takes into account the microgeometry of the interface layer and the stiffnesses of materials of both domains. The macrocontact condition can then be used in a FEM model for the contact problem on the macrolevel. The averaged contact stiffness obtained allows the replacement of the interface layer in the macromodel by the macrocontact condition.
A spectral theory for constituents of macroscopically homogeneous random microstructures modeled as homogeneous random closed sets is developed and provided with a sound mathematical basis, where the spectrum obtained by Fourier methods corresponds to the angular intensity distribution of x-rays scattered by this constituent. It is shown that the fast Fourier transform applied to three-dimensional images of microstructures obtained by micro-tomography is a powerful tool of image processing. The applicability of this technique is is demonstrated in the analysis of images of porous media.
No doubt: Mathematics has become a technology in its own right, maybe even a key technology. Technology may be defined as the application of science to the problems of commerce and industry. And science? Science maybe defined as developing, testing and improving models for the prediction of system behavior; the language used to describe these models is mathematics and mathematics provides methods to evaluate these models. Here we are! Why has mathematics become a technology only recently? Since it got a tool, a tool to evaluate complex, "near to reality" models: Computer! The model may be quite old - Navier-Stokes equations describe flow behavior rather well, but to solve these equations for realistic geometry and higher Reynolds numbers with sufficient precision is even for powerful parallel computing a real challenge. Make the models as simple as possible, as complex as necessary - and then evaluate them with the help of efficient and reliable algorithms: These are genuine mathematical tasks.
Streptococcus pneumoniae ist ein human-pathogenes Bakterium, das den Nasopharnyx gesunder Menschen besiedeln kann. Das Bakterium kann sich lokal ausbreiten und zu schweren invasiven Erkrankungen führen, wie der Pneumonie, der Meningitis und der Sepsis. Zahlreiche, vor allem oberflächenlokalisierte Proteine ermöglichen die Kolonisierung und Invasion der Pneumokokken. Von Zysk et al. (2000) wurden über ein Genbankscreening neue Proteine von S. pneumoniae gefunden. Eines davon ist die Serinprotease PrtA, die 2001 von Bethe näher untersucht wurde. PrtA ist eine in der Zellwand der Pneumokokken verankerte Protease, die als Prä-Pro-Protein synthetisiert wird. Im Mausmodell zeigte sich die Virulenz der Protease. Aufgrund der immunogenen Eigenschaften wird PrtA als potentieller Vakzine-Kandidat beschrieben. In der vorliegenden Arbeit sollte die Serinprotease PrtA nativ aufgereinigt und Untersuchungen zur biologischen Funktion durchgeführt werden. Über eine durch ortsspezifische Mutagenese hergestellte Mutante konnte die Protease nativ aus dem Kulturüberstand als ein HisTag-Fusionsprotein aufgereinigt werden. Neben den zwei angenommenen Hauptformen von PrtA mit Molekulargewichten von 240 kDa und 215 kDa konnten weitere Formen des PrtA durch Westernblot-Analysen identifiziert werden. Mehrere PrtA-Fragmente sowie die Identifizierung mehrerer Proteinspots bei einer zweidimensionalen Auftrennung des aufgereinigten PrtA, legen den Schluss nahe, dass es sich bei der Protease um ein instabiles Protein handelt. Diese Autoprozessierung zeigte sich als konzentrationsabhängig. Die genauen Prozessierungsstellen konnten noch nicht geklärt werden. Die Expression der Protease unterliegt einer Regulation. Sowohl auf transkriptionaler wie auf translationaler Ebene zeigte sich eine Beeinflussung der Expression von PrtA durch atmosphärische Bedingungen, sowie durch Glukose. Eine Beteiligung von PrtA am Abbau der in der Arbeit erwähnten Substrate konnte mit den verwendeten Methoden nicht gezeigt werden. Bindungsversuche von Pneumokokken an Bestandteile der extrazellulären Matrix, wie Fibronektin, Kollagen I, III und IV, ließen keine Beteiligung des PrtA an der Bindung an die jeweiligen Proteine erkennen. Einen Hinweis auf die Modifikation eines bakterieneigenen Proteins durch PrtA, ergaben zweidimensionale Untersuchungen des Protein-Expressionsprofils. Das modifizierte Protein konnte bislang noch nicht analysiert werden. Die Identifizierung dieses Proteins würde neue Einblicke in den Aufgabenbereich der Protease liefern.
The inverse problem of recovering the Earth's density distribution from data of the first or second derivative of the gravitational potential at satellite orbit height is discussed for a ball-shaped Earth. This problem is exponentially ill-posed. In this paper a multiscale regularization technique using scaling functions and wavelets constructed for the corresponding integro-differential equations is introduced and its numerical applications are discussed. In the numerical part the second radial derivative of the gravitational potential at 200 km orbitheight is calculated on a point grid out of the NASA/GSFC/NIMA Earth Geopotential Model (EGM96). Those simulated derived data out of SGG (satellite gravity gradiometry) satellite measurements are taken for convolutions with the introduced scaling functions yielding a multiresolution analysis of harmonic density variations in the Earth's crust. Moreover, the noise sensitivity of the regularization technique is analyzed numerically.
In dieser Arbeit wird gezeigt, wie durch eine Automatisierung von Software-Entwicklungsaktivitäten sowohl Effizienz- als auch Qualitätsgewinne erzielt und komplexe Aktivitäten beherrschbar gemacht werden können. Dazu wird zunächst eine solide Basis für eine modellbasierte Software-Entwicklung geschaffen. Nach der Identifikation der Probleme der bisher üblicherweise eingesetzten Metamodellierung wird eine verbesserte Multiebenenmodellierung vorgeschlagen, welche die explizite Angabe der Instanziierbarkeit (Tiefe und Automatismus der Instanziierung) der Modellelemente erlaubt und damit eine deutliche Vereinfachung und bessere Verständlichkeit der Metamodelle ermöglicht. Zur operationalen Beschreibung von Modelltransformationen im Kontext dieser Multiebenenmodellierung wird sodann die Aktionssprache AL++ konzipiert. Insbesondere durch die Einführung von Sprachelementen für die Handhabung von Relationen und Attributen und die Aufnahme von Reflexionskonstrukten in die Sprache AL++ werden Transformationen kompakt und generisch beschreibbar. Anwendung finden diese Ansätze in der modellbasierten Entwicklung reaktiver Systeme. Dazu wird eine existierende Entwicklungsmethode erweitert, um eine durchgängige Automatisierung realisieren zu können. Die wichtigste Erweiterung ist dabei die modifizierte Automatenmodellierung, bei welcher erweiterte Endliche Automaten durch die Komposition getrennt modellierter Zustandsübergänge spezifiziert werden, was eine eindeutige Verfolgbarkeit zu den Anforderungen erlaubt. Eingesetzt werden obige Techniken für die statische Analyse von Spezifikationen, wobei insbesondere die automatische Detektion von Feature-Interaktionen (also die Feststellung kritischer Wechselwirkungen zwischen Produktmerkmalen) in dieser Form erstmalig für den Bereich der reaktiven Systeme durchgeführt wird. Daneben werden automatisierte dynamische Analysen auf der Basis generierter Prototypen betrachtet. Die Analyseergebnisse können automatisiert für die Modifikation und Neukonstruktion der Prototypen genutzt werden, womit Software-Entwicklungsexperimente vollständig in einem „virtuellen Labor“ durchgeführt werden können. Wichtigstes experimentelles Ergebnis ist, dass eine statische Parametrisierung einer „intelligenten“ Temperaturregelung möglich ist und daher eine Reduktion der notwendigen Produktmerkmale (und damit der Komplexität) erreicht werden kann. In Fallstudien wird am Ende der Arbeit nachgewiesen, dass alleine durch die automatische Erzeugung von Entwicklungsdokumenten und die konsistente Änderung vorhergehender Dokumente durch die in dieser Arbeit implementierten Werkzeuge ein Effizienzgewinn von 54 % erreicht werden kann. Die Erstellung der eingesetzten Werkzeuge hätte sich dabei bereits nach zwei ähnlichen Projekten bezahlt gemacht.
Inappropriate speed is the most common reason for road traffic accidents world wide. Thus, a necessity for speed management exists. The so-called SUNflower states Sweden, the United Kingdom and the Netherlands - each spending strong effort in traffic safety policies - have great success in reducing mean road speeds and speed variances through speed management. However, the effect is still insufficient for gaining real traffic safety. Thus, there is a discussion to make use of technical in-vehicle devices. One of these technologies called Intelligent Speed Adaptation (ISA) reduces vehicle speeds. This is done either by warning the driver that he is speeding, or activating the accelerator pedal with a counterforce, or reducing the gasoline supply to the motor. The three ways of reducing the speed are called version 1-3. The EC-project for research on speed adaptation policies on European roads (PROSPER) deals with strategic proposals for the implementation of the different ISA-versions. This thesis includes selected results of PROSPER. In this thesis two empiric surveys were done in order to give an overview about the basic conditions (e.g. social, economic, technical aspects) for an ISA implementation in Germany. On one hand, a stakeholder analysis and questionnaire using the Delphi-method has been accomplished in two rounds. On the other hand, a questionnaire with speed offenders has been accomplished, too, in two rounds. In addition, the author created an expert pool consisting of 23 experts representing the most important fields of science and practice in which ISA is involved. The author made phone or personal interviews with most of the experts. 12 experts also produced a detailed publication on their professional point of view towards ISA. The two surveys and the professional comments on ISA led to four possible implementation scenarios for ISA in Germany. However, due to a strong political opposition against ISA it is also thinkable that ISA is not implemented or the implementation process starts after 2015 (i.e. outside the aimed period of time). The scenarios are as follows: A) Implementation of version 1 by market forces with governmental subventions. B) Implementation of version 2 by market forces supported by traffic safety institutions and image-making processes. C) Implementation of a modified version 3 by law for speed offenders instead of cancellation of the driving licence. D) Implementation of various versions in Germany because of a broad implementation of ISA in the SUNflower states. X) Non-implementation of ISA leads to the necessity of alternative speed management measures. The author prefers scenario B because - ceteris paribus - it seems to be the most likely way to implement the technology. As soon as ISA reaches technical maturity, the implementation process has to be accomplished in three steps. 1) Marketing and image making 2) Margin introduction 3) Market penetration This implementation process for ISA by market forces could effect a percentage of at least 15% of all vehicles equipped with ISA before the year 2015.
In traditional portfolio optimization under the threat of a crash the investment horizon or time to maturity is neglected. Developing the so-called crash hedging strategies (which are portfolio strategies which make an investor indifferent to the occurrence of an uncertain (down) jumps of the price of the risky asset) the time to maturity turns out to be essential. The crash hedging strategies are derived as solutions of non-linear differential equations which itself are consequences of an equilibrium strategy. Hereby the situation of changing market coefficients after a possible crash is considered for the case of logarithmic utility as well as for the case of general utility functions. A benefit-cost analysis of the crash hedging strategy is done as well as a comparison of the crash hedging strategy with the optimal portfolio strategies given in traditional crash models. Moreover, it will be shown that the crash hedging strategies optimize the worst-case bound for the expected utility from final wealth subject to some restrictions. Another application is to model crash hedging strategies in situations where both the number and the height of the crash are uncertain but bounded. Taking the additional information of the probability of a possible crash happening into account leads to the development of the q-quantile crash hedging strategy.
The article is concerned with the modelling of ionospheric current systems from induced magnetic fields measured by satellites in a multiscale framework. Scaling functions and wavelets are used to realize a multiscale analysis of the function spaces under consideration and to establish a multiscale regularization procedure for the inversion of the considered vectorial operator equation. Based on the knowledge of the singular system a regularization technique in terms of certain product kernels and corresponding convolutions can be formed. In order to reconstruct ionospheric current systems from satellite magnetic field data, an inversion of the Biot-Savart's law in terms of multiscale regularization is derived. The corresponding operator is formulated and the singular values are calculated. The method is tested on real magnetic field data of the satellite CHAMP and the proposed satellite mission SWARM.
Untersuchung des Stoffübergangs bei der Trennung von Kobalt und Nickel durch Reaktivextraktion
(2004)
Die Trennung von Kobalt und Nickel in reine Komponenten ist schwierig auf Grund ihres ähnlichen physiko-chemischen Verhaltens. Die Reaktivextraktion bietet hierfür eine geeignete Prozessvariante. Im Rahmen dieser Arbeit wurde der Stoffübergang bei der Trennung von Kobalt und Nickel aus wässrigen Lösungen mit Hilfe der Reaktivextraktion untersucht. Die bei der Auslegung von Extraktoren wichtigen Kinetikdaten wurden in gängigen Standardapparaturen ermittelt. Neben den Gleichgewichten ? dem treibenden thermodynamischen Gefälle für den Stofftransport ? wurden in Tropfensäulen und Rührzellen kinetische Parameter ermittelt. Die Modellierung der experimentell ermittelten Gleichgewichtsdaten basiert auf einem thermodynamischen Modell, welches den Pitzer Ansatz, für Elektrolytlösungen, und den Ansatz von Hildebrand-Scott für organische Phasen berücksichtigt. Diese Modelle geben die Gleichgewichtsdaten zufriedenstellend wieder. Das Extraktionsverhalten wurde bis zu technisch relevanten Konzentrationen untersucht, der Maximalbeladung des organischen Ionentauschers. Auf Grund dieser eingesetzten Konzentrationen und der damit einhergehenden Vorkontaktierung des Ionentauschers mit Lauge, um einen pH-Wert Abfall bei der Extraktion abzupuffern, kam es zu Stabilitäts-phänomenen, die die Verwendung der Standardapparaturen nur eingeschränkt zulassen. Der Ionentauscher verhält sich bei hohen Vorkontaktierungsstärken als Tensid, bildet unterschiedliche Mizellformen in wässrigen und organischen Phasen, und zeigt einen Phasenzerfall, wie es von Winsor-Systemen bekannt ist. Daher wurde das Phasenverhalten in Abhängigkeit der Tensidkonzentration untersucht, es wurden vier Gebiete identifiziert, in denen das Stoffsystem 1 bis 4 phasig vorliegt. Eine Screening Apparatur wurde entworfen, mit der, bei technisch relevanten Vorkontaktierungen, unabhängig vom Phasenverhalten kinetische Aufschlüsse des Systems gewonnen werden können. Die Kontaktzeit zum Erreichen von 80 % des Gleichgewichtswertes schwankt je nach Konzentration von 20-60 s für Kobalt und Nickel. Über eine Einstellung der Verweilzeit ist es nicht möglich, eine zusätzliche Selektivität über das Gleichgewicht hinaus einzustellen, da bei niedrigen Kontaktzeiten ein Überschwingen der Nickelkonzentration über den Gleichgewichtswert hinaus in der organischen Phase auf Grund von Mizellbildung zu beobachten ist. Für die Kolonnenauslegung eines Reaktivextraktionsprozesses mit Phosphinsäuren ist der auftretende Phasenzerfall bei hohen Vorkontaktierungen unbedingt zu berücksichtigen, um Ablagerungen von Ionentauschersalz an Kolonneneinbauten zu vermeiden.
A wavelet technique, the wavelet-Mie-representation, is introduced for the analysis and modelling of the Earth's magnetic field and corresponding electric current distributions from geomagnetic data obtained within the ionosphere. The considerations are essentially based on two well-known geomathematical keystones, (i) the Helmholtz-decomposition of spherical vector fields and (ii) the Mie-representation of solenoidal vector fields in terms of poloidal and toroidal parts. The wavelet-Mie-representation is shown to provide an adequate tool for geomagnetic modelling in the case of ionospheric magnetic contributions and currents which exhibit spatially localized features. An important example are ionospheric currents flowing radially onto or away from the Earth. To demonstrate the functionality of the approach, such radial currents are calculated from vectorial data of the MAGSAT and CHAMP satellite missions.
Liquid composite moulding (LCM) is an efficient process for manufacturing polymer
composite structures. During LCM a liquid thermoset resin is injected into the mould
cavity containing a pre-placed dry fabric preform. In the last step of the process the
resin cures and afterwards the part can be removed from the mould. Due to relative
low injection pressure applied in processing this technique is expected to offer
potential for cost reduction in the fabrication of large parts of complex shape.
However, in practice, much time is spent for optimising processing parameters and
properly designing the mould in order to avoid problems such as void formation and
dry spots. The common trial and error tactic to determine optimised parameters
increases time and costs for an optimal process configuration. Thus simulation will
help to speed up the development process saving cost and time.
When producing double curved parts the angles between warp and weft fibres of the
fabrics change and influence the permeability of the fabric as well as the preferred
direction of flow through the fabric during the injection phase. Further on these
shearing effects increase the fibre volume fractions and therefore less resin is
available in the correspondent areas. This leads to different results of the curing
process in the sheared areas compared to the curing process in the unsheared
areas.
Opposite to the current LCM simulation technique where only the injection process is simulated, this work presents the simulation of the three single processes and
combines them in an appropriate way to improve the simulation results.
First draping simulations are performed. Therefore, the shear behaviour is
investigated. These results are used in the draping simulation in order to obtain the
fibre orientations of the warp and weft fibres. The draping results are verified by
comparing them with the corresponding parameters of parts formed.
In order to use the results of the draping simulation in the flow simulation an interface
is developed that transforms the result files obtained from the draping simulation into
a file format suitable for the flow simulation. The mode of operation of this interface is
illustrated. First a standard file format is generated to combine the shearing angles
and the node locations delivered by PamForm™. A programme is developed that reads the node locations, the shear angles and the fibre orientations at the end of the
draping simulation and creates a new file usable for the flow simulations. Further on
several features are implemented in the new model as for example the automatic
generation of a circular inlet with a defined diameter and the adjustment of the
draping model to the model for the flow simulation concerning the fitting of the
geometry model. In order to consider the changes of permeability and fibre volume
fraction in sheared areas, zones are defined which represent areas of the same fibre
volume fractions and the same permeability. Flow experiments on sheared fabrics
are performed to get information about the flow behaviour. The permeability values of
the sheared fabric are calculated by observing the position of the flow front over time
and the application of Darcy’s law. This material behaviour is implemented into a
commercially available LCM-simulation software which is verified first using a simple
plate with a sheared fabric, then using a double curved structure (hemisphere) with
draped fabric. After the verification based on the hemisphere another part is chosen
to show the ability of the interface to deal with more complicated geometries.
To obtain the input parameters for the cure kinetic model of Kamal-Sourour an epoxy
resin is characterised using DSC. The validity of this model is verified by comparing
the cure process of a flat sheet with a rib with the corresponding simulation results.
To determine the influence of the fibre volume fraction on the maximum temperature,
a cure simulation of the hemisphere with the zone distribution is performed. Cure
Simulation on a flat plate are done to quantify the influence of the thickness of the
part on the maximum temperature in the part.
In der vorliegenden Arbeit wird eine Simulation der Prozesskette der
Harzinjektionsverfahren vorgestellt. Dazu wird der Gesamtprozess in drei
unterschiedliche Einzelprozesse unterteilt: Drapierung, Injektion und Aushärtung.
Die für die gesamte Prozesskette grundlegende Simulation stellt die
Drapiersimulation dar. Diese liefert die Faserorientierungen des drapierten Bauteils,
die für die im Anschluss durchzuführende Injektionssimulation entscheidend sind.
Um die Ergebnisse der Drapiersimulation zur Simulation der Fließvorgänge zu
nutzen, wird eine Schnittstelle entwickelt. Diese wandelt die Ergebnisse der
Drapiersimulation in ein für die Injektionssimulation nutzbares Format um und
berücksichtigt deren spezielle Anforderungen an das Simulationsmodell.
Zur möglichst effizienten Durchführung der Harzinjektionssimulation wird das Modell
in einzelne Zonen mit gleichen Permeabilitätswerten und Faservolumengehalten
unterteilt. Um den Einfluss der Gewebescherung auf das Fließverhalten von Fluiden
zu ermitteln, werden Fließversuche mit gescherten Geweben durchgeführt und
verifiziert.
Die Funktionsweise der Schnittstelle und die Anwendbarkeit der gemessenen
Materialkennwerte werden an einer Kugelhalbschale demonstriert und durch
Versuche verifiziert. Anhand einer Armaturentafel wird der Nutzen der Schnittstelle
für die Fließsimulation komplexer Bauteile gezeigt.
Die Prozesskette wird mit der Simulation der Aushärtevorgänge abgeschlossen.
Dazu wird ein reaktionskinetisches Modell nach Kamal-Sourour für ein ausgewähltes
Epoxidharz erstellt. Anhand einer Rippenstruktur wird die Aushärtesimulation
verifiziert. Durch die Aushärtesimulationen kann der Einfluss des Faservolumengehalts
sowie der Bauteildicke auf die während des Aushärtevorgangs erreichbaren
Maximaltemperaturen ermittelt werden.
Die Budgetierung ist seit langem ein, wenn nicht das zentrale Controllinginstrument. Jenseits der Budgetierung setzt demnach ein neues Controllingverständnis ein. Es mangelt nicht an Stimmen, die ein rasant gesteigertes Maß an Komplexität und Dynamik in der unternehmerischen Wirklichkeit feststellen und ihre Schlussfolgerungen in neue Konzepte und Instrumente zur Überwindung dieser Herausforderungen fließen lassen. Die Protagonisten des Beyond Budgeting (BB) bedienen sich der für diese Phänomene typischen Rhetorik, bieten aber, statt eines isoliert zu betrachtenden Instrumentes, eine neue Controllingphilosophie der radikalen Dezentralisierung und Delegation zur Überwindung der aktuellen Herausforderungen an. Es handelt sich dabei „um einen bestimmten Mindset, um eine bestimmte Denke, nämlich […], zu versuchen, von einer festen Sicht der Welt zu einer dynamischen Sicht der Welt zu kommen.“ Beyond Budgeting kommt einer Revolution der Unternehmensführung gleich, welche nicht nur konzeptionell, sondern auch in Abhängigkeit von Marktgegebenheiten und sozio-kulturellen Kontextfaktoren landestypischer und unternehmensspezifischer Natur auf ihre Erfolgschancen hin zu überprüfen ist. Protagonisten sprechen hier von einer notwendigen organisatorischen und kulturellen Reife für die Einführung des Beyond Budgeting. Ziel der vorliegenden Arbeit ist es, basierend auf der klassischen Studie von Hofstede, einen kulturellen Ordnungsrahmen für die fiktive Beyond-Budgeting-Kultur zu entwickeln und mit der Landeskultur mehrerer Industrienationen zu vergleichen. Bestehende Kompatibilitäten und Inkompatibilitäten sollen anhand dieses Ordnungsrahmens aufgezeigt und bewertet werden. Abgeschlossen wird der vorliegende Artikel mit Überlegungen, in wie weit durch die angestrebte Unternehmenskultur auch die Rolle des Controllers einer Anpassung oder gar Neudefinition bedarf.
Von einer Controllingkonzeption ist zu fordern, dass sie konsistente Aussagen zur funktionalen, institutionalen und instrumentalen Komponente des Controllings enthält. Eine derartige konsistente Konzeption ist bislang jedoch für das Controlling noch nicht formuliert worden. Hieraus erwächst die Notwendigkeit, die konzeptionelle Fundierung des Controllings weiter zu entwickeln. Dazu werden im Folgenden die kognitiven Beschränkungen realer Entscheidungsträger als Ausgangspunkt gewählt und damit letztlich die Frage, wie das Controlling einen betrieblichen Entscheidungsträger befähigen kann, „bei seinen intellektuellen Vorhaben effektiver zu sein“. Als konzeptionelle Basis hierfür dient die „...fast ausschließlich US-amerikanische[.]“managerial and organizational cognition theory, in deren Rahmen seit Anfang der neunziger Jahre Entscheidungsprozesse von Managern auf Basis entscheidungstheoretischer und kognitionswissenschaftlicher Erkenntnisse thematisiert werden. Danach sind Manager in erster Linie information workers, „...who are confronted with the task of making sense of very complex and ambiguous environments.“ und deren Arbeit in der Aufnahme, Analyse und Weitergabe von Informationen besteht.
Es wurde ein fahrzeugtaugliches SCR-Gesamtsystem auf der Basis von trockenem Harnstoff dargestellt, bei dem die Reduktionsmittelaufbereitung in einem elektrisch beheizten Reaktor erfolgt. Trockener Harnstoff bietet gegenüber der wässrigen Harnstofflösung eine Gewichtsersparnis von 67,5% und eine uneingeschränkte Wintertauglichkeit. Im externen Reaktor wird der Harnstoff unter stets optimalen Reaktionsbedingungen zersetzt. Der Harnstoff wird in Form von runden Pellets in einem Größenspektrum von 1,8-2,0 mm eingesetzt. Die Dosierung erfolgt durch Vereinzeln der Pellets mit einem Zellenraddosierer. Der Harnstoffmengenstrom wird durch Veränderung der Pausenzeit zwischen zwei Einzelportionen angepasst. Mit dem Dosiersystem ist die Reduktionsmittelversorgung im gesamten Motorkennfeld gewährleistet. Der Transport der Pellets vom Dosierer zum Reaktor erfolgt sequenziell durch eine Leitung nach dem Blasrohrprinzip mittels Druckluft. Die Druckluft wird durch einen Kompressor bereitgestellt. Das Förderprinzip ermöglicht einen Pellettransport über mehrere Meter, wobei Krümmungsradien bis 40 mm und vertikale Förderung entgegen der Schwerkraft unproblematisch sind. Der Reaktor besteht aus einer Thermolysekammer mit elektrisch auf 400°C beheizten Wänden und einem nachgeschalteten Hydrolysekatalysator. Die Harnstoffpellets werden in die Kammer eingebracht und thermisch zersetzt. Das für die Hydrolyse benötigte Wasser wird durch einen Abgasteilstrom bereitgestellt, der in die Thermolysekammer eingekoppelt und dort ebenfalls aufgeheizt wird. Die Zersetzungsprodukte Ammoniak und Kohlendioxid werden in den Abgashauptstrom eingebracht. Mit dem Gesamtsystem werden unter optimalen Randbedingungen NOx-Konvertierungsraten über 99% erreicht. Die NOx - und NH3-Bilanz zeigt allerdings, dass der Reduktionsmittelnutzungsgrad lediglich bei etwa 85% liegt. Im Hydrolysekatalysator wird ein Anteil des Ammoniaks oxidiert. Ein weiterer Teil wird durch Nebenreaktionen am SCR-Katalysator verbraucht. Das Verhalten des SCR-Katalysators unter dynamischen Betriebsbedingungen wurde mit Hilfe eines mathematischen Modells diskutiert. Das NH3-Adsorptionsvermögen des SCR-Katalysators nimmt mit steigender Temperatur stark ab. Gleichzeitig wird bei niedrigen Temperaturen bis etwa 250°C ein vergleichsweise hohes NH3-Beladungsniveau benötigt, um maximale NOx-Konvertierung zu erzielen. Bei höheren Temperaturen verläuft die SCR-Reaktion hingegen spontan in einer kurzen Reaktionszone am Katalysatoreintritt. Bei einem Wechsel des Motorbetriebspunktes von niedriger auf hohe Last steigt die Katalysatortemperatur schnell an. Das Adsorptionsvermögen des Katalysators nimmt ab. Wenn die eingespeicherte Reduktionsmittelmenge nicht in der SCR-Reaktion verbraucht wird, kommt es zu NH3-Schlupf. Bei niedrigeren Temperaturen muss daher die NH3-Beladung begrenzt werden. Dies hat allerdings eine verminderte NOx-Konvertierung zur Folge. Der Einfluss verschiedener Parameter auf den NOx-Umsatz und den Reduktionsmittelverbrauch wurde anhand des MVEG-Zyklus diskutiert. Durch kurzzeitige Hochdosierung und anschließende Anpassung der Reduktionsmittelmenge an den momentanen Umsatz wird die beste Ausnutzung des eingebrachten Reduktionsmittels erzielt. Ein optimierter NO2-Anteil bewirkt insbesondere in der Startphase eine höhere NOx-Konvertierungsrate. Ein größerer SCR-Katalysator vermindert die NH3-Schlupfgefahr. Die Reduktionsmittelausnutzung nimmt jedoch ab, so dass ein größerer Reduktionsmittelanteil im Katalysator verbleibt. Durch motornahe Positionierung erfährt der SCR-Katalysator ein höheres Temperaturkollektiv. Der NOx-Umsatz steigt dadurch deutlich. Gleichzeitig ist die im Katalysator verbleibende Reduktionsmittelmenge geringer. Dies erlaubt eine einfache Dosierstrategie, bei der sich die Reduktionsmitteldosierung an der momentanen Stickoxidkonvertierung orientiert. Für das Gesamtsystem wurde eine Betriebsstrategie erarbeitet, die gezielt auf die funktionalen Grenzen der Systemkomponenten abgestimmt ist. Die zugrunde liegende Emissionsminderungsstrategie sieht eine konstante fahrstreckenbezogene NOx-Minderung in allen Betriebszuständen vor. Hierdurch ist es möglich, sowohl alle für die Zertifizierung erforderlichen Abgasgrenzwerte zu unterschreiten, als auch eine deutliche Emissionsminderung außerhalb der prüfrelevanten Fahrzyklen zu erzielen. Gleichzeitig kann für eine definierte Fahrstrecke die mitzuführende Reduktionsmittelmenge genau vorhergesagt werden. Das Gesamtsystem wurde in einem EURO III-Versuchsfahrzeug auf dem Rollenprüfstand sowie im Straßenverkehr betrieben. Im Rahmen der bisherigen Tests konnte die Systemfunktion nachgewiesen werden. Im MVEG-Zyklus wird der EURO IV-NOx-Grenzwert mit vorkonditioniertem SCR-Katalysator knapp unterschritten. Durch eine gezielte Abstimmung des Motors auf die Erfordernisse des Abgasnachbehandlungssystems und eine Optimierung des NO2-Anteils ist eine weitere Absenkung des Emissionsniveaus möglich.
In this thesis we show that the theory of algebraic correspondences introduced by Deuring in the 1930s can be applied to construct non-trivial homomorphisms between the Jacobi groups of hyperelliptic function fields. Concretely, we deduce algorithms to add and multiply correspondences which perform in a reasonable time if the degrees of the associated divisors of the double field are small. Moreover, we show how to compute the differential matrices associated to prime divisors of the double field for arbitrary genus. These matrices give a representation for the homomorphisms or endomorphisms in the additive group (ring) of matrices which is even faithful if the ground field has characteristic zero. As first examples for non-trivial correspondences we investigate multiplication by m endomorphisms. Afterwards we use factorisations of certain bivariate polynomials to construct prime divisors of the double field that are not equivalent to 0 in a coarser sense. Applying the theory of Deuring, these divisors yield homomorphisms between the Jacobi groups of special classes of hyperelliptic function fields. Finally, we generalise the Richelot isogeny to higher genus and by this way derive a class of hyperelliptic function fields given in terms of their defining polynomials which admit non-trivial homomorphisms. These include homomorphisms between the Jacobi groups of hyperelliptic curves of different as well as of equal genus. In addition we provide an explicit method to construct genus 2 function fields the endomorphism ring of which contains a sqrt(2) multiplication with the help of the Cholesky decomposition of a certain matrix.
Superselection rules induced by the interaction with a mass zero Boson field are investigated for a class of exactly soluble Hamiltonian models. The calculations apply as well to discrete as to continuous superselection rules. The initial state (reference state) of the Boson field is either a normal state or a KMS state. The superselection sectors emerge if and only if the Boson field is infrared divergent, i. e. the bare photon number diverges and the ground state of the Boson field disappears in the continuum. The time scale of the decoherence depends on the strength of the infrared contributions of the interaction and on properties of the initial state of the Boson system. These results are first derived for a Hamiltonian with conservation laws. But in the most general case the Hamiltonian includes an additional scattering potential, and the only conserved quantity is the energy of the total system. The superselection sectors remain stable against the perturbation by the scattering processes.
Im Rahmen dieser Arbeit wurde versucht verschiedene Aspekte der Wirkung von "nicht-dioxinartigen" PCBs in Hepatozyten in vitro aufzuklären und mit einer in vivo-Studie einen Beitrag zur Aufklärung der tumorpromovierenden Wirkung von zwei "nicht-dioxinartigen" PCB-Kongeneren zu leisten. Zur Untersuchung der Beeinflussung der intrazellulären Calcium-Homöostase wurden isolierte Membranfraktionen einer Rattenleber nach dem Einbau von spinmarkierten Fettsäuren mit zwei PCB-Kongeneren unterschiedlicher räumlicher Struktur behandelt und mit Hilfe der Elektronen Spin Resonanz vermessen. Weder das "dioxinartige" PCB 126 noch das "nicht-dioxinartige" PCB 153 zeigten einen direkte Störung der Membranintegrität. Die Bestimmung der intrazellulären Ca2+-Konzentration von Rattenhepatozyten in Primärkultur erfolgte mikrofluorimetrisch nach Beladung der Zellen mit einem Ca2+-sensitiven Farbstoff. Auch hier ergab sich keine Störung der Ca2+-Homöostase nach einer Behandlung mit PCB 153. Die Beeinflussung eines apoptotischen Signalweges, die Signaltransduktion über PI3K/PKB, wurde anhand der Phosphorylierung des proapoptotischen Proteins Bad in Rattenhepatozyten in Primärkultur überprüft. PCB 153 zeigte in niedrigen Konzentrationen eine Phosphorylierung von Bad an Serin 136. Der Gesamtproteinlevel war nach Behandlung mit PCB 153 in einigen Versuchen sehr stark reduziert. Diese Befunde stellen einen wichtigen Ansatzpunkt für eingehendere mechanistische Untersuchungen der tumorpromovierenden Wirkung dieser Substanzen dar, der im Rahmen dieser Arbeit nicht mehr verfolgt werden konnte. Mit einem Caspase-3-Assay konnte in vorliegender Arbeit ein biochemischer Apoptose-Nachweis in primären Hepatozyten etabliert werden. Die Topoisomerase-Inhibitoren Etoposid und Camptothecin zeigten sich zur Aktivierung der Caspase-3 als weniger gut geeignet. Der Einsatz von MNNG als apoptogenem Agens verlief erfolgreich, was durch fluoreszenzmikroskopische Detektion apoptotischer Zellkerne bestätigt werden konnte. Im weiteren Verlauf wurde die Beeinflussung der MNNG-induzierten Caspase-3-Aktivierung durch verschiedene Tumorpromotoren untersucht. Mit Phenobarbital und dem "nicht-dioxinartigen" PCB 153 konnte eine Hemmung der MNNG-induzierten Caspase-3-Aktivität gezeigt werden. Dieser Effekt wurde bei Behandlung mit TCDD und dem "dioxinartigen" PCB 126 jedoch nicht gesehen. Die Überprüfung dieser Ergebnisse in einem weiteren biochemischen Nachweis der Apoptose, der Freisetzung von Cytochrom c aus den Mitochondrien, konnte nicht mehr in ausreichendem Maße durchgeführt werden. In einer an weiblichen Wistar-Ratten durchgeführten Initiations-Promotions-Studie zeigte sich eine schwache tumorpromovierende Wirkung der beiden "nicht-dioxinartigen" PCB-Kongenere 28 und 101. Das promovierende Wachstum wurde anhand zweier charakteristischer Parameter für Präneoplasien der Leber, einer verringerten ATPase-Aktivität und einer erhöhten Expression der GSTP, nach vorangegangener Behandlung mit DEN untersucht. Es konnte für beide Kongenere eine signifikante Zunahme des ATPase-negativen Focusvolumens, nicht aber der Zahl der ATPase-negativen Foci gezeigt werden. GSTP-positive Foci zeigten kein signifikantes promovierendes Wachstum. Nach Behandlung mit PCB 28 war eine Zunahme des relativen Lebergewichts zu verzeichnen. Eine erhöhte DNA-Synthese in GSTP-positiven Zellen konnte nicht gezeigt werden. Eine Analyse der PCB-Gehalte im hepatischen Gewebe der Versuchstiere ergab eine 5-13-fach höhere Akkumulation von PCB 28, möglicherweise resultierend aus einer schnelleren Metabolisierung von PCB 101. Entstehende Metabolite wurden im Rahmen dieses Versuchs jedoch nicht analytisch erfasst. Es zeigte sich eine Induktion der PROD durch PCB 28 und 101, auch die EROD konnte durch beide Kongenere induziert werden, wobei die Induktion durch PCB 28 hier wesentlich höher lag. Da die Induktionshöhe der EROD jedoch sehr gering ist, können die Kongenere nicht als "mixed type inducer" angesehen werden.
A general framework for the thermodynamics of open systems is developed in the spatial and the material setting. Special emphasis is placed on the balance of mass which is enhanced by additional source and flux terms. Different solution strategies within the finite element technique are derived and compared. A number of numerical examples illustrates the features of the proposed approach.