Refine
Year of publication
- 2005 (126) (remove)
Document Type
- Doctoral Thesis (58)
- Report (23)
- Periodical Part (15)
- Preprint (14)
- Working Paper (5)
- Diploma Thesis (4)
- Master's Thesis (3)
- Conference Proceeding (2)
- Habilitation (1)
- Lecture (1)
Has Fulltext
- yes (126)
Keywords
- Mobilfunk (4)
- Mehrskalenanalyse (3)
- Wavelet (3)
- mobile radio (3)
- Ambient Intelligence (2)
- Approximation (2)
- Computeralgebra (2)
- Elastoplastizität (2)
- Empfängerorientierung (2)
- Flüssig-Flüssig-Extraktion (2)
- Galerkin-Methode (2)
- Geometric Ergodicity (2)
- Jiang's model (2)
- Jiang-Modell (2)
- MIMO (2)
- MIMO-Antennen (2)
- Modellierung (2)
- Navier-Stokes-Gleichung (2)
- Poisson-Gleichung (2)
- Randwertproblem / Schiefe Ableitung (2)
- Rotordynamik (2)
- Scheduling (2)
- Sobolev-Raum (2)
- Stoffübergang (2)
- air interface (2)
- receiver orientation (2)
- Ab-initio-Rechnung (1)
- Abgasnachbehandlung (1)
- Ableitung höherer Ordnung (1)
- Acinetobacter calcoaceticus (1)
- Agenda 21 (1)
- Aggregation (1)
- Akquisition (1)
- Algebraic dependence of commuting elements (1)
- Algebraische Abhängigkeit der kommutierende Elementen (1)
- Algebraische Geometrie (1)
- Algorithmus (1)
- Alkylaromaten (1)
- Allgemeine Mikrobiologie (1)
- Ammoniumcarbamat (1)
- Analyse (1)
- Anisotropic Gaussian filter (1)
- Anthocyanidine (1)
- Antioxidans (1)
- Apfel (1)
- Apfelsorte (1)
- Apoptosis (1)
- Arbeitsgedächtnis (1)
- Arc distance (1)
- Armierung (1)
- Ascorbat (1)
- Ascorbinsäure (1)
- Ascorbylradikal (1)
- Audiodeskription (1)
- Ausfallrisiko (1)
- Automatische Differentiation (1)
- Automatische Klassifikation (1)
- Automatisches Beweisverfahren (1)
- Axialschub (1)
- Barriers (1)
- Basisband (1)
- Bauindustrie (1)
- Bauplanung (1)
- Beere (1)
- Beerenobst (1)
- Bernstejn-Polynom (1)
- Beschleunigung (1)
- Beteiligung (1)
- Betriebsfestigkeit (1)
- Blattschneiderameisen (1)
- Bottom-up (1)
- Boundary Value Problem (1)
- Box Algorithms (1)
- Brombeere (1)
- CAE-Kette zur Strukturoptimierung (1)
- CDMA (1)
- CHAMP <Satellitenmission> (1)
- Channel estimation (1)
- Computer Algebra System (1)
- Computeralgebra System (1)
- Container (1)
- Controlling (1)
- Crane (1)
- Crash modelling (1)
- Crashmodellierung (1)
- Cyclopentadienylliganden (1)
- DNA damage (1)
- DNA-Schäden (1)
- Darm (1)
- Das Urbild von Ideal unter einen Morphismus der Algebren (1)
- Derivatives (1)
- Differentialinklusionen (1)
- Diffusionskoeffizient (1)
- Diffusionsmessung (1)
- Diffusionsmodell (1)
- Digitalmodulation (1)
- Discrete Bicriteria Optimization (1)
- Diskrete Mathematik (1)
- Domänenumklappen (1)
- Drei-Säulen-Konzept (1)
- Dreieck (1)
- Drosselspalt (1)
- Duftstoffanalyse (1)
- Dynamic Network Flow Problem (1)
- Dynamische Topographie (1)
- EAG (1)
- EM algorithm (1)
- EPR (1)
- ESR (1)
- Effizienter Algorithmus (1)
- Eigenfrequenz (1)
- Eigenfrequenzbeeinflussung (1)
- Eigenspannungen (1)
- Elastizität (1)
- Elastoplasticity (1)
- Elektronenspinresonanz (1)
- Eliminationsverfahren (1)
- Ellagsäure (1)
- Emissionsverringerung (1)
- Energieerzeugung (1)
- Epoxidklebstoffe Härtungskinetik Oberflächenvorbehandlung Aluminium Netzwerkstrukturen (1)
- Erdbeere (1)
- Evacuation Planning (1)
- Extreme Events (1)
- FPM (1)
- Fahrrad (1)
- Faserverbundwerkstoff (1)
- Federgelenk (1)
- Feedfoward Neural Networks (1)
- Fertigungsverfahren (1)
- Feststoff-Dosiersystem (1)
- Filippov theory (1)
- Filippov-Theorie (1)
- Filtergesetz (1)
- Finite Elemente Methode (1)
- Finite Pointset Method (1)
- Finite-Punktmengen-Methode (1)
- Firmwertmodell (1)
- Flavonoide (1)
- Fliehkraftinvariant (1)
- Flooding (1)
- Folgar-Tucker model (1)
- Fruchtsaft (1)
- Funkdienst (1)
- GARCH (1)
- GARCH Modelle (1)
- GOCE <Satellitenmission> (1)
- GOCE <satellite mission> (1)
- GRACE (1)
- GRACE <Satellitenmission> (1)
- GRACE <satellite mission> (1)
- Gemeinsame Kanalschaetzung (1)
- Genregulation (1)
- Gentherapie (1)
- Geodäsie (1)
- Geodätischer Satellit (1)
- Geographical Information Systems (1)
- Geometrische Ergodizität (1)
- Gießprozesssimulation (1)
- Gießtechnische Restriktionen (1)
- Glasfaserverstärkter Thermoplast (1)
- GlucDOR (1)
- Glucosedehydrogenase (1)
- Gravitational Field (1)
- Gravitationsfeld (1)
- Grenzflächenpolarisation (1)
- Gröbner-Basis (1)
- HPLC (1)
- Halbfrequenzwirbel (1)
- Harmonische Spline-Funktion (1)
- Hidden Markov models for Financial Time Series (1)
- Higher Order Differentials as Boundary Data (1)
- Himbeere (1)
- Hochspannungsfeld (1)
- Homogenisierung <Mathematik> (1)
- Hybridlager (1)
- Hydrological Gravity Variations (1)
- Hydrologie (1)
- Implementierung (1)
- Imprägnierung (1)
- Indicators (1)
- Indikatoren (1)
- Industrielle Mikrobiologie (1)
- Information Theory (1)
- Informationstechnologie (1)
- Informationstheorie (1)
- Intensität (1)
- Interferenz (1)
- Interferenzklassifizierung (1)
- Inverses Problem (1)
- Isotrope Geometrie (1)
- Isotropes System (1)
- Isotropie (1)
- Java (1)
- Johannisbeere (1)
- Joint Transmission (1)
- Kanalschätzung (1)
- Kinderbeteiligung (1)
- Kinetik (1)
- Knuth-Bendix completion (1)
- Knuth-Bendix-Vervollständigung (1)
- Koaleszenz (1)
- Koexistenz (1)
- Kombinatorik (1)
- Kommunikationstechnik (1)
- Kommutative Algebra (1)
- Konstruktive Approximation (1)
- Kontinuum <Mathematik> (1)
- Kontinuumsphysik (1)
- Krafteinleitungen (1)
- Kreiselpumpe (1)
- Kreisverkehr (1)
- Kreitderivaten (1)
- Kugel (1)
- Kugelflächenfunktion (1)
- Kugelfunktion (1)
- Kunststoff / Verbundwerkstoff (1)
- Large-Scale Problems (1)
- Lattice-Boltzmann method (1)
- Level-Set Methode (1)
- Lineare Elastizitätstheorie (1)
- Linienbus (1)
- Lokale Agenda 21 (1)
- Lokalkompakte Kerne (1)
- Luftlager (1)
- Luftschnittstellen (1)
- MIDI <Musikelektronik> (1)
- MIR (1)
- MP3 (1)
- Marangoni (1)
- Maschinelles Lernen (1)
- Mathematical Physics (1)
- Maximal Cohen-Macaulay modules (1)
- Maximale Cohen-Macaulay Moduln (1)
- Maximum Likelihood Estimation (1)
- Maximum-Likelihood-Schätzung (1)
- Mehrbenutzer-Informationstheorie (1)
- Mehrtraegeruebertragungsverfahren (1)
- Migration (1)
- Mikrobiologie (1)
- Mikroelektronik (1)
- Milchsäurebakterien (1)
- Minimum Cost Network Flow Problem (1)
- Modulationsübertragungsfunktion (1)
- Molekulargenetik (1)
- Morphismus (1)
- Multi-user information theory (1)
- Multileaf collimator (1)
- Multiobjective programming (1)
- Multiple objective optimization (1)
- Music Information Retrieval (1)
- Musik / Artes liberales (1)
- NOx (1)
- Nachbarkanalinterferenz (1)
- Nachhaltige Entwicklung (1)
- Nachhaltigkeit (1)
- Nachhaltigkeits-Dreieck (1)
- Nachhaltigkeitsstrategie (1)
- Nanocomposites (1)
- Nekrose (1)
- Netzwerksynthese (1)
- New Towns (1)
- Nichtkommutative Algebra (1)
- Nichtlineare Zeitreihenanalyse (1)
- Nonlinear multigrid (1)
- Numerische Mathematik (1)
- OFDM (1)
- OFDM mobile radio systems (1)
- OFDM-Mobilfunksysteme (1)
- Operator (1)
- Optischer Sensor (1)
- P2P (1)
- Palindrom (1)
- Papiermaschine (1)
- Parameter identification (1)
- Parameteridentifikation (1)
- Partizipation (1)
- Pfadintegral (1)
- Phasengleichgewicht (1)
- Phasengrenzfläche (1)
- Planungsbeteiligung (1)
- Poisson line process (1)
- Polymere (1)
- Polyphenole (1)
- Portfoliomanagement (1)
- Poröser Stoff (1)
- Precoding (1)
- Preimage of an ideal under a morphism of algebras (1)
- Projektplanung (1)
- Quantenmechanik (1)
- ROS (1)
- RSK-Werte (1)
- Ratenabhängigkeit (1)
- Reaktive Sauerstoffspezies (1)
- Reaktivextraktion (1)
- Reduktion (1)
- Redundanzvermeidung (1)
- Regelung (1)
- Regularisierung (1)
- Rekonstruktion (1)
- Representation Theory (1)
- Restricted Regions (1)
- Retroviren (1)
- Retrovirus (1)
- Rhabdomyolyse (1)
- Richtungsableitung (1)
- Risiko (1)
- Risikocontrolling (1)
- Schulgelände (1)
- Screening (1)
- Sendesignalvorverarbeitung (1)
- Sensitivitäten (1)
- Simulation (1)
- Skelettmuskel (1)
- Software (1)
- Software-Architektur (1)
- Soziales (1)
- Spannungs-Dehn (1)
- Spherical Harmonics (1)
- Spherical Location Problem (1)
- Spherical Wavelets (1)
- Sphäre (1)
- Sphärische Wavelets (1)
- Spiralrillenlager (1)
- Spline-Wavelets (1)
- Split Operator (1)
- Split-Operator (1)
- Spumaviren (1)
- Stabile Vektorbundle (1)
- Stabilität (1)
- Stable vector bundles (1)
- Stadtbahn (1)
- Statine (1)
- Stochastisches Feld (1)
- Substitutionsreaktion (1)
- Sustainability (1)
- Sustainability Strategy (1)
- Sustainable Development (1)
- TDP1 (1)
- TEAC (1)
- Taylor-Couette (1)
- Telekommunikation (1)
- Test for Changepoint (1)
- Thermodynamik (1)
- Three-Pillar-Approach (1)
- Time Series (1)
- Time-motion-Ultraschallkardiographie (1)
- Titanium complex (1)
- Tonsignal (1)
- Topoisomerasegifte (1)
- Topoisomerasehemmstoffe (1)
- Topoisomerasen (1)
- Topologieoptimierung (1)
- Training (1)
- Transportation Problem (1)
- Triangle (1)
- Tropenökologie (1)
- Tyrosyl-DNA-Phosphodiesterase 1 (TDP1) (1)
- Ultraschallkardiographie (1)
- Unschärferelation (1)
- Upwind-Verfahren (1)
- Vektor <Genetik> (1)
- Verbundwerkstoffe (1)
- Viskosität (1)
- Visualisierung (1)
- Vitamin C (1)
- Vitamin C-Derivate (1)
- Wahrscheinlichkeitsfunktion (1)
- Waldfragmentierung (1)
- Wavelet-Analyse (1)
- Wavelets auf der Kugel und der Sphäre (1)
- Zeitliche Veränderungen (1)
- Zelle / Physiologie (1)
- Zellulares Mobilfunksystem (1)
- Zentrifugalkraft (1)
- Zirconium complex (1)
- [2.2.1]-bicyclic substituents (1)
- [2.2.1]-bicyclisch (1)
- acoustic absorption (1)
- adaptive refinement (1)
- adhesives cure-behaviour aluminium (1)
- aftertreatment (1)
- air drag (1)
- air-bearing (1)
- algebraic constraints (1)
- analoge Mikroelektronik (1)
- anthocyanidins (1)
- apoptosis (1)
- apple (1)
- ascorbate (1)
- ascorbic acid (1)
- ascorbyl radical (1)
- automated theorem proving (1)
- automatic differentiation (1)
- ball (1)
- berry (1)
- beyond 3G (1)
- bottom-up (1)
- centrifugal force (1)
- classification of interference (1)
- coexistence (1)
- combinatorics (1)
- composite materials (1)
- computeralgebra (1)
- constructive approximation (1)
- cre-Sequenz (1)
- cyclopentadienyl ligands (1)
- default time (1)
- derivative-free iterative method (1)
- differential inclusions (1)
- diffusion coefficient (1)
- diffusion measurement (1)
- diffusion model (1)
- distributed computing (1)
- domain switching (1)
- durability (1)
- dynamical topography (1)
- effective elastic moduli (1)
- efficient solution (1)
- elastoplasticity (1)
- electric field (1)
- epidemic algorithms (1)
- epidemische Algorithmen (1)
- epsilon-constraint method (1)
- explicit jump immersed interface method (1)
- extreme solutions (1)
- face value (1)
- facets (1)
- fiber orientation (1)
- fiber-turbulence interaction scales (1)
- finite element method (1)
- flexible fibers (1)
- float glass (1)
- flow resistivity (1)
- foamy virus (1)
- forest fragmentation (1)
- gene therapy (1)
- heat radiation (1)
- hub covering (1)
- hub location (1)
- implementation (1)
- initial temperature (1)
- initial temperature reconstruction (1)
- integer programming (1)
- intensity (1)
- interface (1)
- invariant (1)
- invariants (1)
- inverse problem (1)
- isotropical (1)
- jenseits der dritten Generation (1)
- joint channel estimation (1)
- juice (1)
- large scale integer programming (1)
- leaf-cutting ants (1)
- level-set (1)
- linear filtering (1)
- linear kinetics theory (1)
- lineare kinetische Theorie (1)
- liquid-liquid-extraction (1)
- locally compact kernels (1)
- lokalisierende Kerne (1)
- mass transfer (1)
- mechanism (1)
- mehreren Uebertragungszweigen (1)
- migration (1)
- mixed convection (1)
- multi-carrier (1)
- multi-user (1)
- multicriteria optimization (1)
- nD image processing (1)
- necrosis (1)
- network flows (1)
- network synthesis (1)
- nichtlineare Netzwerke (1)
- non-Newtonian flow in porous media (1)
- non-conventional (1)
- non-woven (1)
- nonlinear circuits (1)
- nonlinear heat equation (1)
- nonlinear inverse problem (1)
- numerics (1)
- odour mixtures (1)
- optically active (1)
- optimization (1)
- optimization algorithms (1)
- optisch aktiv (1)
- optisch aktiver Titankomplex (1)
- optisch aktiver Zirkoniumkomplex (1)
- orientation space (1)
- other-channel interference (1)
- peer-to-peer (1)
- phase space (1)
- political districting (1)
- polyphenols (1)
- portfolio (1)
- probabilistic approach (1)
- processing (1)
- properly efficient solution (1)
- radiative heat transfer (1)
- random -Gaussian aerodynamic force (1)
- random system of fibers (1)
- rate-dependency (1)
- real-time (1)
- reduction (1)
- regular surface (1)
- regularization (1)
- reguläre Fläche (1)
- representative systems (1)
- retroviral vector (1)
- retroviraler Vektor (1)
- retrovirus (1)
- rhabdomyolysis (1)
- sales territory alignment (1)
- scalarization (1)
- sensitivities (1)
- separable filters (1)
- service area (1)
- shape optimization (1)
- simulation (1)
- skeletal muscle cells (1)
- solid-dosing-system (1)
- spiral-groove (1)
- spline-wavelets (1)
- statin (1)
- stochastic dif (1)
- superposed fluids (1)
- territory desgin (1)
- thermodynamic model (1)
- thermoplastische Bandhalbzeuge (1)
- topoisomerases (1)
- topological sensitivity (1)
- topology optimization (1)
- trace stability (1)
- translinear circuits (1)
- translineare Schaltungen (1)
- tropical ecology (1)
- tropical rainforest (1)
- tropischer Regenwald (1)
- unbeschränktes Potential (1)
- unbounded potential (1)
- urban elevation (1)
- verteilte Berechnung (1)
- viral vector (1)
- viraler Vektor (1)
- virtual material design (1)
- viscosity model (1)
- white noise (1)
- wireless communications system (1)
- working memory (1)
- ÖPNV-Beschleunigung (1)
- Öffentlicher Personennahverkehr (1)
- Ökologie (1)
- Ökonomie (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (38)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Fraunhofer (ITWM) (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (13)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich ARUBI (3)
A method to correct the elastic stress tensor at a fixed point of an elastoplastic body, which is subject to exterior loads, is presented and analysed. In contrast to uniaxial corrections (Neuber or ESED), our method takes multiaxial phenomena like ratchetting or cyclic hardening/softening into account by use of Jiang's model. Our numerical algorithm is designed for the case that the scalar load functions are piecewise linear and can be used in connection with critical plane/multiaxial rainflow methods in high cycle fatigue analysis. In addition, a local existence and uniqueness result of Jiang's equations is given.
The level-set method has been recently introduced in the field of shape optimization, enabling a smooth representation of the boundaries on a fixed mesh and therefore leading to fast numerical algorithms. However, most of these algorithms use a Hamilton-Jacobi equation to connect the evolution of the level-set function with the deformation of the contours, and consequently they cannot create any new holes in the domain (at least in 2D). In this work, we propose an evolution equation for the level-set function based on a generalization of the concept of topological gradient. This results in a new algorithm allowing for all kinds of topology changes.
By means of the limit and jump relations of classical potential theory with respect to the vectorial Helmholtz equation a wavelet approach is established on a regular surface. The multiscale procedure is constructed in such a way that the emerging scalar, vectorial and tensorial potential kernels act as scaling functions. Corresponding wavelets are defined via a canonical refinement equation. A tree algorithm for fast decomposition of a complex-valued vector field given on a regular surface is developed based on numerical integration rules. By virtue of this tree algorithm, an effcient numerical method for the solution of vectorial Fredholm integral equations on regular surfaces is discussed in more detail. The resulting multiscale formulation is used to solve boundary-value problems for the time harmonic Maxwell's equations corresponding to regular surfaces.
This document introduces the extension of Katja to support position structures and explains the subtleties of their application as well as the design decisions made and problems solved with respect to their implementation. The Katja system was first introduced by Jan Schäfer in the context of his project work and is based on the MAX system developed by Arnd Poetzsch-Heffter.
Automated theorem proving is a search problem and, by its undecidability, a very difficult one. The challenge in the development of a practically successful prover is the mapping of the extensively developed theory into a program that runs efficiently on a computer. Starting from a level-based system model for automated theorem provers, in this work we present different techniques that are important for the development of powerful equational theorem provers. The contributions can be divided into three areas: Architecture. We present a novel prover architecture that is based on a set-based compression scheme. With moderate additional computational costs we achieve a substantial reduction of the memory requirements. Further wins are architectural clarity, the easy provision of proof objects, and a new way to parallelize a prover which shows respectable speed-ups in practice. The compact representation paves the way to new applications of automated equational provers in the area of verification systems. Algorithms. To improve the speed of a prover we need efficient solutions for the most time-consuming sub-tasks. We demonstrate improvements of several orders of magnitude for two of the most widely used term orderings, LPO and KBO. Other important contributions are a novel generic unsatisfiability test for ordering constraints and, based on that, a sufficient ground reducibility criterion with an excellent cost-benefit ratio. Redundancy avoidance. The notion of redundancy is of central importance to justify simplifying inferences which are used to prune the search space. In our experience with unfailing completion, the usual notion of redundancy is not strong enough. In the presence of associativity and commutativity, the provers often get stuck enumerating equations that are permutations of each other. By extending and refining the proof ordering, many more equations can be shown redundant. Furthermore, our refinement of the unfailing completion approach allows us to use redundant equations for simplification without the need to consider them for generating inferences. We describe the efficient implementation of several redundancy criteria and experimentally investigate their influence on the proof search. The combination of these techniques results in a considerable improvement of the practical performance of a prover, which we demonstrate with extensive experiments for the automated theorem prover Waldmeister. The progress achieved allows the prover to solve problems that were previously out of reach. This considerably enhances the potential of the prover and opens up the way for new applications.
Aggregation of Large-Scale Network Flow Problems with Application to Evacuation Planning at SAP
(2005)
Our initial situation is as follows: The blueprint of the ground floor of SAP’s main building the EVZ is given and the open question on how mathematic can support the evacuation’s planning process ? To model evacuation processes in advance as well as for existing buildings two models can be considered: macro- and microscopic models. Microscopic models emphasize the individual movement of evacuees. These models consider individual parameters such as walking speed, reaction time or physical abilities as well as the interaction of evacuees during the evacuation process. Because of the fact that the microscopic model requires lots of data, simulations are taken for implementation. Most of the current approaches concerning simulation are based on cellular automats. In contrast to microscopic models, macroscopic models do not consider individual parameters such as the physical abilities of the evacuees. This means that the evacuees are treated as a homogenous group for which only common characteristics are considered; an average human being is assumed. We do not have that much data as in the case of the microscopic models. Therefore, the macroscopic models are mainly based on optimization approaches. In most cases, a building or any other evacuation object is represented through a static network. A time horizon T is added, in order to be able to describe the evolution of the evacuation process over time. Connecting these two components we finally get a dynamic network. Based on this network, dynamic network flow problems are formulated, which can map evacuation processes. We focused on the macroscopic model in our thesis. Our main focus concerning the transfer from the real world problem (e.g. supporting the evacuation planning) will be the modeling of the blueprint as a dynamic network. After modeling the blueprint as a dynamic network, it will be no problem to give a formulation of a dynamic network flow problem, the so-called evacuation problem, which seeks for an optimal evacuation time. However, we have to solve a static large-scale network flow problem to derive a solution for this formulation. In order to reduce the network size, we will examine the possibility of applying aggregation to the evacuation problem. Aggregation (lat. aggregare = piling, affiliate; lat. aggregatio = accumulation, union; the act of gathering something together) was basically used to reduce the size of general large-scale linear or integer programs. The results gained for the general problem definitions were then applied to the transportation problem and the minimum cost network flow problem. We review this theory in detail and look on how results derived there can be used for the evacuation problem, too.
This thesis contains the mathematical treatment of a special class of analog microelectronic circuits called translinear circuits. The goal is to provide foundations of a new coherent synthesis approach for this class of circuits. The mathematical methods of the suggested synthesis approach come from graph theory, combinatorics, and from algebraic geometry, in particular symbolic methods from computer algebra. Translinear circuits form a very special class of analog circuits, because they rely on nonlinear device models, but still allow a very structured approach to network analysis and synthesis. Thus, translinear circuits play the role of a bridge between the "unknown space" of nonlinear circuit theory and the very well exploited domain of linear circuit theory. The nonlinear equations describing the behavior of translinear circuits possess a strong algebraic structure that is nonetheless flexible enough for a wide range of nonlinear functionality. Furthermore, translinear circuits offer several technical advantages like high functional density, low supply voltage and insensitivity to temperature. This unique profile is the reason that several authors consider translinear networks as the key to systematic synthesis methods for nonlinear circuits. The thesis proposes the usage of a computer-generated catalog of translinear network topologies as a synthesis tool. The idea to compile such a catalog has grown from the observation that on the one hand, the topology of a translinear network must satisfy strong constraints which severely limit the number of "admissible" topologies, in particular for networks with few transistors, and on the other hand, the topology of a translinear network already fixes its essential behavior, at least for static networks, because the so-called translinear principle requires the continuous parameters of all transistors to be the same. Even though the admissible topologies are heavily restricted, it is a highly nontrivial task to compile such a catalog. Combinatorial techniques have been adapted to undertake this task. In a catalog of translinear network topologies, prototype network equations can be stored along with each topology. When a circuit with a specified behavior is to be designed, one can search the catalog for a network whose equations can be matched with the desired behavior. In this context, two algebraic problems arise: To set up a meaningful equation for a network in the catalog, an elimination of variables must be performed, and to test whether a prototype equation from the catalog and a specified equation of desired behavior can be "matched", a complex system of polynomial equations must be solved, where the solutions are restricted to a finite set of integers. Sophisticated algorithms from computer algebra are applied in both cases to perform the symbolic computations. All mentioned algorithms have been implemented using C++, Singular, and Mathematica, and are successfully applied to actual design problems of humidity sensor circuitry at Analog Microelectronics GmbH, Mainz. As result of the research conducted, an exhaustive catalog of all static formal translinear networks with at most eight transistors is available. The application for the humidity sensor system proves the applicability of the developed synthesis approach. The details and implementations of the algorithms are worked out only for static networks, but can easily be adopted for dynamic networks as well. While the implementation of the combinatorial algorithms is stand-alone software written "from scratch" in C++, the implementation of the algebraic algorithms, namely the symbolic treatment of the network equations and the match finding, heavily rely on the sophisticated Gröbner basis engine of Singular and thus on more than a decade of experience contained in a special-purpose computer algebra system. It should be pointed out that the thesis contains the new observation that the translinear loop equations of a translinear network are precisely represented by the toric ideal of the network's translinear digraph. Altogether, this thesis confirms and strengthenes the key role of translinear circuits as systematically designable nonlinear circuits.
Ultraschall ist eines der am häufigsten genutzen, bildgebenden Verfahren in der Kardiologie. Dies ist durch die günstige Erzeugung, die Nicht-Invasivität und die Unschädlichkeit für die Patienten begründet. Nachteilig an den existierenden Geräten ist der Umstand, daß lediglich zwei-dimensionale Bilder generiert werden können. Zusätzlich können diese Bilder aufgrund anatomischer Gegebenheiten nicht aus einer wahlfreien Position akquiriert werden. Dies erschwert die Analyse der Daten und folglich die Diagnose. Mit dieser Arbeit wurden neue, algorithmische Aspekte des vier-dimensionalen, kardiologischen Ultraschalls ausgehend von der Akquisition der Rohdaten, deren Synchronisation und Rekonstruktion bis hin zur Visualisierung bearbeitet. In einem zusätzlichen Kapitel wurde eine neue Technik zur weiteren Aufwertung der Visualisierung, sowie zur visuellen Bearbeitung der Ultraschalldaten entwickelt. Durch die hier entwickelten Verfahren ist es möglich bestimmte Einschränkungen des kardiologischen Ultraschalls aufzuheben oder zumindest zu mildern. Hierunter zählen vor allem die Einschränkung auf zwei-dimensionale Schnittbilder, sowie die eingeschränkte Sichtwahl.
We give an analytical and geometrical treatment of what it means to sepa rate a Gaussian kernel along arbitrary axes in Rn, and we present a separation scheme that allows to efficiently implement anisotropic Gaussian convolution filters in arbitrary dimension. Based on our previous analysis we show that this scheme is optimal with regard to the number of memory accesses and nterpolation operations needed. Our method relies on non-orthogonal convolution axes and works com- pletely in image space. Thus, it avoids the need for an FFT-subroutine. Depending on the accuracy and speed requirements, different interpolation schemes and methods to implement the one-dimensional Gaussian (FIR, IIR) can be integrated. The algorithm is also feasible for hardware that does not contain a floating-point unit. Special emphasis is laid on analyzing the performance and accuracy of our method. In particular, we show that withot any special optimization of the source code, our method can perform anisotropic Gaussian filtering faster than methods relyin on the Fast Fourier Transform.
Annual Report 2004
(2005)
Annual Report, Jahrbuch AG Magnetismus
Die vorliegende Arbeit soll einen Beitrag dazu leisten, die Verwendung der Entlastungspartie als mediumgeschmiertes Radiallager zu untersuchen. Die damit entfallende Abdichtung zur Umgebung und eine insgesamt kürzere Pumpenwelle würde das rotordynamische Verhalten von mehrstufigen Gliederpumpen erheblich verbessern. Deshalb wird das Schwingungsverhalten einer mehrstufigen Gliederpumpe untersucht, indem verschiedene Standard-Profilierungen des zentralen Entlastungskolbens miteinander verglichen werden. Davon ausgehend wird eine Entlastung mit Injektion realisiert, die die Funktion eines Hybridlagers übernimmt, damit die Lagereigenschaften optimiert und der Einfluss des langen Drosselspaltes auf die Rotordynamik dargestellt werden kann. Als Hybridlager wird der Einfachkolben als zentrale Entlastung ausgewählt. Analog zu Gleitlagern wird eine glatte Spaltoberfläche realisiert, wenn in diesen Spalt mit dem Pumpenenddruck injiziert wird. In Verbindung mit der Exzentrizität des Rotors wird somit eine maximale Tragfähigkeit angestrebt. Die axiale Restkraft wird mit einem Kardanischen Ring gemessen. Bevor nun der Kolben der Entlastung ausgelegt werden kann, muss der hydraulische Axialschub bekannt sein. Im Rahmen dieser Arbeit wurde am Lehrstuhl ein Auslegungsprogramm für Kreiselpumpen entwickelt, mit dem der Druckverlauf im Radseitenraum, die Druckabsenkung, die Winkelgeschwindigkeit des Fluids und der hydraulische Axialschub berechnet wird. Um die Berechnungsmodelle zu verifizieren wird im experimentellen Teil dieser Arbeit, der Radseitenraum der letzten Stufe mit Miniatur-Drucksensoren und einem Wegsensor appliziert. Die Lagerbelastung und der Betriebspunkt wird mit einem Kardanischen Ring gemessen, der mit Dehnungs-Mess-Streifen appliziert ist und den axialen Restschub erfasst. Außerdem werden die dynamischen Signale der Drucksensoren und des Kardanischen Rings genutzt, um die Veränderungen des Schwingungszustandes oder die Übertragungsfunktion des Radseitenraumes bzw. des langen Spaltes der Entlastungseinrichtung zu beschreiben. Abschließend werden die Auswirkungen der Injektion auf die Entlastungspartie untersucht. Als Ergebnis dieser Arbeit konnte festgestellt werden, dass die Injektion den Durchflusswiderstand zwischen der Injektionsstelle und dem Radseitenraum erhöht. Zudem "bremst" die Injektion die Umfangskomponente der Absolutströmung, so dass der Rotationsfaktor Richtung Teillast kleiner wird. Dadurch kann mit Hilfe der Injektion die Entlastungskraft gesteuert werden. In den Frequenzspektren der glatten Spalt-Konfigurationen (MR3+MR4) tritt am deutlichsten die Frequenz der Laufradschaufeln in Erscheinung, deren Amplitude mit abnehmendem Radius im Radseitenraum deutlich gedämpft wird. Richtung Teillast übersteigt diese sogar die Unwuchtfrequenz und dominiert damit das Frequenzspektrum. Der Radseitenraum wird also von den hydraulischen Laufrad-Leitrad-Interaktionen dominiert. Ab Förderstromverhältnissen von q<0,5 ist ein breitbandiger Anstieg von subsynchronen Frequenzanteilen auszumachen. Diese sind durch Rezirkulationserscheinungen am Laufradaustritt (Austauschwirbel) begründet. Für die Konfiguration ohne Injektion "schlagen" die Frequenzen, die von Lauf- und Leitrad-Interaktionen generiert werden, bis hinter den Entlastungskolben durch. Dies wird durch die doppelten Spaltspiele begünstigt, die eine erhöhte Sensibilität des Rotors gegenüber Anregungen bewirken. Wird in die zentrale Entlastungseinrichtung injiziert, kann das Schwingungsverhalten der Pumpe deutlich verbessert werden. Bemerkenswert ist auch, dass die rotordynamisch vermeintlich beste Konfiguration (MR2) durch eine "ungünstigere" (MR3+MR4) in Kombination mit der Injektion unterboten wird. Die Injektion reduziert die Koppelsteifigkeit (vgl. Drallbremse), was den Rotor (FT) stabilisiert.
Da Polyphenole als gesund angesehen werden, ist es Ziel dieser Arbeit, ihre Gehalte in Fruchtsäften zu erhöhen. Dies beinhaltet zum einen das Auffinden polyphenolreicher Apfel- und Beerenobstsorten als geeignete Rohware. Gleichzeitig entsteht dabei ein Datensatz über sortenreine Apfel- und Beerenobstsäfte, der die RSK-Werte ergänzt. Zum anderen sind Wege zur Minimierung von Verarbeitungsverlusten durch gezielte Studien zur Qualitätssteigerung des Endproduktes Fruchtsaft wichtig. Die im Screening untersuchten sortenreinen Mostapfelsäfte aus drei Jahrgängen zeigen sehr hohe Gesamtphenolgehalte (GP) und antioxidative Kapazitäten (aK), die die Gehalte von Tafeläpfeln übersteigen. Sorten wie Bittenfelder und Weißer Trierer Weinapfel erreichen aK von Rotwein. Beerenobstsäfte sind reicher an Antioxidantien als Apfelsäfte. Innerhalb der Arten konnten besonders antioxidantienreiche Sorten gefunden werden. Bezogen auf die aK lautet die Reihenfolge: Tafelapfel < Mostapfel <= Erdbeere < Himbeere = Brombeere < Cranberry < Heidelbeere < Johannisbeere = Boysenberry < Aronia. Darüber hinaus sind erfolgreich Extraktions- und Analysemethoden zur Bestimmung der verschiedenen Formen von Ellagsäure entwickelt und zur Untersuchung von Erdbeeren und Himbeeren eingesetzt worden. Die Gesamtellagsäuregehalte von Himbeeren übersteigen bisher beschriebene Gehalte deutlich. Darüber hinaus sind Äpfel in die Gewebezonen aufgeteilt und auf Antioxidantien untersucht worden. Dies hat ergeben, dass die Quercetine (Q) fast ausschließlich in der Schale vorhanden sind und die Dihydrochalkone (DHC) größtenteils im Kerngehäuse. Die Phenolcarbonsäuren (PC) kommen ebenso wie die Flavanole (F) in allen Gewebezonen vor. Gerade die schlecht wasserlöslichen DHC und Q, die an den festen Bestandteilen der Frucht sitzen, gehen schlecht in den Saft über. Im Rahmen der Apfelverarbeitungsstudien sind Probleme bei der Probenahme und Extraktion erkannt und behoben worden. Die durchgeführten Verarbeitungsstudien haben ergeben, dass Prozesse zur Erhöhung des Transfers von DHC und Q wie etwa eine längere Maischestandzeit zu einem Verlust von F und PC führen. Dagegen verhindern Maßnahmen zum Schutz vor Oxidation, wie eine zusätzliche KZE des Saftes nach dem Pressen, die Extraktion der DHC und Q. Eine Steigerung des Polyphenolgehaltes kann jedoch durch eine Nachextraktion erreicht werden, wobei die Supratonmaschine keinen Vorteil bringt. Dieser Nachextraktsaft von polyphenolreichen Sorten kann darüber hinaus zur Qualitätssteigerung von einfacheren (Tafel)Apfelsäften eingesetzt werden. Die besten Ergebnisse des Übergangs der Polyphenole von der Frucht in das Getränk konnten bei der Herstellung eines Ganzfruchtproduktes erzielt werden. Selbst nach Verdünnung auf Nektarstärke sind mehr Polyphenole im Getränk enthalten als in einem vergleichbaren Saft. Lagerungsversuche über ein Jahr hinweg zeigen, dass sich Bohnapfelsaft und Mehrfruchtsaft sehr unterschiedlich verhalten. Während der untersuchte Bohnapfelsaft sich im Bezug auf Antioxidantien kaum über die Lagerzeit verändert, nehmen die Anthocyane des Mehrfruchtsaftes schon im ersten Lagermonat deutlich ab. Dagegen verschlechtert sich der Bohnapfelsaft sensorisch schnell während der Mehrfruchtsaft noch nach einem Jahr geschmeckt hat. Dies zeigt die Wichtigkeit sensorischer Untersuchungen bei solchen Studien. Aus polyphenolreichen Säften hergestellte Mehrfruchtsäfte (100% Saft) können als „Wellnessgetränke“ angesehen werden, da sie einen hohen gesundheitlichen Nutzen haben. Neue Rezepturen mit phenolreichen Ausgangssäften und optimierter Verarbeitung sollten weiter entwickelt werden.
Im Rahmen dieser wurden neuartige Fertigungsverfahren zur Herstellung von Bauteilen aus kontinuierlich faserverstärkten Thermoplasten untersucht. Prozesskombinationen aus Faserbündelimprägnierung und Wickeltechnik wurden in der Vergangenheit weitestgehend vernachlässigt, aufgrund der technisch schon sehr anspruchsvollen Imprägnierung einer großen Anzahl von Fasern mit einer hochviskosen Thermoplastschmelze. In jüngerer Vergangenheit wurde jedoch eine neue Technologie entwickelt, die sogenannte Imprägnierrad-Technologie, die eine hochwertige Schmelzeimprägnierung von Faserrovings ermöglicht. Aufgrund der beachtlichen Imprägniergeschwindigkeit und der spezifischen Charakteristika des Prozesses, bot sich die Technologie für eine Prozesskombination mit der Wickeltechnik an. Nach Auslegung und Umsetzung des Entwurfs der Anlagentechnik, wurden umfassende Parameterstudien durchgeführt. Glasfaserverstärkte Polypropylen- und Polyamid 12-Rohrabschnitte wurden mit Prozessgeschwindigkeiten von bis zu 15 m/min hergestellt. Die gegenwärtige Begrenzung der Prozessgeschwindigkeit ist nicht durch die Imprägniergüte bedingt, sondern durch den übermäßigen Anstieg der Kräfte, die benötigt werden, um das Faserbündel von den Imprägnierwerkzeugen abzuziehen. Anlagentechnische Maßnahmen zur Entschärfung dieser Problematik und zur allgemeinen Verbesserung, sowie der damit verbundenen Steigerung der Produktivität wurden vorgeschlagen. Die Wirtschaftlichkeit der Prozesskombination wurde auf Basis einer Kostenvergleichsrechnung bewertet. Die einzigartige Möglichkeit mit einer Prozesskombination den Faservolumengehalt in radialer Richtung in einem Bauteil zu variieren wurde gezeigt. Rollformen als Verfahren zur Herstellung von Profilen mit einer großen Vielfalt von Querschnittsgeometrien aus Metallblechen hat aufgrund seiner hohen Produktivität weite Verbreitung in einer Vielzahl von Industriezweigen gefunden. Durch die Adaption dieses Verfahrens zur Verarbeitung von kontinuierlich verstärkten, thermoplastischen Faserkunststoffverbunden können lange Komponenten, die all die Vorteile dieser Materialien besitzen, auf eine effiziente Art und Weise gefertigt werden. Gewebeverstärkte GF/PP- und GF/PA66-Plattenhalbzeuge wurden erfolgreich zu Hutprofilen umgeformt, mit Prozessgeschwindigkeiten von bis zu 10 m/min. Die Fähigkeit teilkristalline Thermoplaste im Zustand einer unterkühlten Schmelze bei Tem-peraturen unter der Schmelztemperatur umzuformen wurde im Prozess gezielt ausgenutzt. Besondere Aufmerksamkeit wurde dem Werkzeugdesign gewidmet, um dem Umformverhalten kontinuierlich verstärkter Thermoplaste Rechnung zu tragen. Die Qualität der Profile wurde maßgeblich von der Zustelltemperatur der Halbzeuge in den ersten Rollenstand sowie der Austrittstemperatur aus dem Prozess beeinflusst. Das Temperaturprofil des Materials während der Verarbeitung und das Prozesslayout müssen als Funktion von Verarbeitungsgeschwindigkeit und Materialeigenschaften aufeinander abgestimmt werden, um Profile hoher Qualität herzustellen. Die Komplexität und die Schwierigkeiten eines theoretischen Ansatzes zur Beschreibung des Prozesses wurden angesprochen, aber auch auf die Notwendigkeit eines solchen zur Weiterentwicklung des Verfahrens wurde hingewiesen. Im Rahmen dieser Arbeit wurde ein einfaches FE-Modell zur Simulation des Stempelumformens eines Organoblechs zu einem Hutprofil entwickelt. Trotz des unterschiedlichen Formgebungsprozesses konnten einige allgemeine Erkenntnisse gewonnen werden, die auch für den Rollformprozess von Bedeutung sind. Einige anlagentechnische Maßnahmen zur Steigerung der Produktqualität im Rah-men zukünftiger Arbeiten wurden vorgeschlagen.
Langvorträge: T. Schorr, A. Dittrich, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): Iterative Equalization in Fibre Optical Systems Using High-Rate RCPR, BCH and LDPC Codes A. Doenmez, T. Hehn, J. B. Huber (Lehrstuhl für Informationsübertragung, Universität Erlangen-Nürnberg): Analytical Calculation of Thresholds for LDPC Codes transmitted over Binary Erasure Channels S. Deng, T. Weber (Institut für Nachrichtentechnik und Informationselektronik, Universität Rostock), M. Meurer (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Dynamic Resource Allocation in Future OFDM Based Mobile Radio Systems J. Hahn, M. Meurer, T. Weber (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Receiver Oriented FEC Coding (RFC) for Selective Channels C. Stierstorfer, R. Fischer (Lehrstuhl für Informationsübertragung, Universität Erlangen-Nürnberg): Comparison of Code Design Requirements for Single- and Multicarrier Transmission over Frequency-Selective MIMO Channels A. Scherb (Arbeitsbereich Nachrichtentechnik, Universität Bremen): Unbiased Semiblind Channel Estimation for Coded Systems T.-J. Liang, W. Rave, G. Fettweis (Vodafone Stiftungslehrstuhl Mobile Nachrichtensysteme, Technische Universität Dresden): Iterative Joint Channel Estimation and Decoding Using Superimposed Pilots in OFDM-WLAN A. Dittrich, T. Schorr, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): DIORAMA - An Iterative Decoding Real-Time MATLAB Receiver for the Multicarrier-Based Digital Radio DRM Kurzvorträge: S. Plass, A. Dammann (German Aerospace Center (DLR)): Radio Resource Management for MC-CDMA over Correlated Rayleigh Fading Channels S. Heilmann, M. Meurer, S. Abdellaoui, T. Weber (Lehrstuhl für hochfrequente Signalübertragung und -verarbeitung, TU Kaiserslautern): Concepts for Accurate Low-Cost Signature Based Localisation of Mobile Terminals M. Siegrist, A. Dittrich, W. Sauer-Greff, R. Urbansky (Lehrstuhl für Nachrichtentechnik, TU Kaiserslautern): SIMO and MIMO Concepts for Fibre Optical Communications C. Bockelmann (Arbeitsbereich Nachrichtentechnik, Universität Bremen): Sender- und Empfängerstrukturen für codierte MIMO-Übertragung
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2004.
Die Diplomarbeit beschäftigt sich mit den Möglichkeiten und Grenzen der Einbeziehung der Bürger in Planungsprozesse. Es werden planungswissenschaftliche und sozialwissenschaftliche Aspekte der Thematik betrachtet. Dabei wird einerseits der aktuelle Forschungsstand zusammengefasst und anderseits werden neue, weitergehende Fragestellungen aufgegriffen. So wird insbesondere untersucht, welche unterschiedlichen Beweggründe die Akteure in Beteiligungsprozessen haben, welche Anforderungen (Mindestvoraussetzungen, Empfehlungen, Qualitätsziele) an Beteiligungsprozesse zu stellen sind und welche Konsequenzen (u.a. auch der Aufwand und Ertrag von Beteiligung) sich ergeben. Anhand eines Praxisbeispiels, eine naturnahe Schulgeländegestaltung unter Einbeziehung von Lehrern, Eltern und Schülern, werden diese theoretischen Überlegungen einer kritischen Überprüfung unterzogen.
Competing Neural Networks as Models for Non Stationary Financial Time Series -Changepoint Analysis-
(2005)
The problem of structural changes (variations) play a central role in many scientific fields. One of the most current debates is about climatic changes. Further, politicians, environmentalists, scientists, etc. are involved in this debate and almost everyone is concerned with the consequences of climatic changes. However, in this thesis we will not move into the latter direction, i.e. the study of climatic changes. Instead, we consider models for analyzing changes in the dynamics of observed time series assuming these changes are driven by a non-observable stochastic process. To this end, we consider a first order stationary Markov Chain as hidden process and define the Generalized Mixture of AR-ARCH model(GMAR-ARCH) which is an extension of the classical ARCH model to suit to model with dynamical changes. For this model we provide sufficient conditions that ensure its geometric ergodic property. Further, we define a conditional likelihood given the hidden process and a pseudo conditional likelihood in turn. For the pseudo conditional likelihood we assume that at each time instant the autoregressive and volatility functions can be suitably approximated by given Feedfoward Networks. Under this setting the consistency of the parameter estimates is derived and versions of the well-known Expectation Maximization algorithm and Viterbi Algorithm are designed to solve the problem numerically. Moreover, considering the volatility functions to be constants, we establish the consistency of the autoregressive functions estimates given some parametric classes of functions in general and some classes of single layer Feedfoward Networks in particular. Beside this hidden Markov Driven model, we define as alternative a Weighted Least Squares for estimating the time of change and the autoregressive functions. For the latter formulation, we consider a mixture of independent nonlinear autoregressive processes and assume once more that the autoregressive functions can be approximated by given single layer Feedfoward Networks. We derive the consistency and asymptotic normality of the parameter estimates. Further, we prove the convergence of Backpropagation for this setting under some regularity assumptions. Last but not least, we consider a Mixture of Nonlinear autoregressive processes with only one abrupt unknown changepoint and design a statistical test that can validate such changes.
Within the last decades, a remarkable development in materials science took place -- nowadays, materials are not only constructed for the use of inert structures but rather designed for certain predefined functions. This innovation was accompanied with the appearance of smart materials with reliable recognition, discrimination and capability of action as well as reaction. Even though ferroelectric materials serve smartly in real applications, they also possess several restrictions at high performance usage. The behavior of these materials is almost linear under the action of low electric fields or low mechanical stresses, but exhibits strong non-linear response under high electric fields or mechanical stresses. High electromechanical loading conditions result in a change of the spontaneous polarization direction with respect to individual domains, which is commonly referred to as domain switching. The aim of the present work is to develop a three-dimensional coupled finite element model, to study the rate-independent and rate-dependent behavior of piezoelectric materials including domain switching based on a micromechanical approach. The proposed model is first elaborated within a two-dimensional finite element setting for piezoelectric materials. Subsequently, the developed two-dimensional model is extended to the three-dimensional case. This work starts with developing a micromechanical model for ferroelectric materials. Ferroelectric materials exhibit ferroelectric domain switching, which refers to the reorientation of domains and occurs under purely electrical loading. For the simulation, a bulk piezoceramic material is considered and each grain is represented by one finite element. In reality, the grains in the bulk ceramics material are randomly oriented. This property is taken into account by applying random orientation as well as uniform distribution for individual elements. Poly-crystalline ferroelectric materials at un-poled virgin state can consequently be characterized by randomly oriented polarization vectors. Energy reduction of individual domains is adopted as a criterion for the initiation of domain switching processes. The macroscopic response of the bulk material is predicted by classical volume-averaging techniques. In general, domain switching does not only depend on external loads but also on neighboring grains, which is commonly denoted as the grain boundary effect. These effects are incorporated into the developed framework via a phenomenologically motivated probabilistic approach by relating the actual energy level to a critical energy level. Subsequently, the order of the chosen polynomial function is optimized so that simulations nicely match measured data. A rate-dependent polarization framework is proposed, which is applied to cyclic electrical loading at various frequencies. The reduction in free energy of a grain is used as a criterion for the onset of the domain switching processes. Nucleation in new grains and propagation of the domain walls during domain switching is modeled by a linear kinetics theory. The simulated results show that for increasing loading frequency the macroscopic coercive field is also increasing and the remanent polarization increases at lower loading amplitudes. The second part of this work is focused on ferroelastic domain switching, which refers to the reorientation of domains under purely mechanical loading. Under sufficiently high mechanical loading, however, the strain directions within single domains reorient with respect to the applied loading direction. The reduction in free energy of a grain is used as a criterion for the domain switching process. The macroscopic response of the bulk material is computed for the hysteresis curve (stress vs strain) whereby uni-axial and quasi-static loading conditions are applied on the bulk material specimen. Grain boundary effects are addressed by incorporating the developed probabilistic approach into this framework and the order of the polynomial function is optimized so that simulations match measured data. Rate dependent domain switching effects are captured for various frequencies and mechanical loading amplitudes by means of the developed volume fraction concept which relates the particular time interval to the switching portion. The final part of this work deals with ferroelectric and ferroelastic domain switching and refers to the reorientation of domains under coupled electromechanical loading. If this free energy for combined electromechanical loading exceeds the critical energy barrier elements are allowed to switch. Firstly, hysteresis and butterfly curves under purely electrical loading are discussed. Secondly, additional mechanical loads in axial and lateral directions are applied to the specimen. The simulated results show that an increasing compressive stress results in enlarged domain switching ranges and that the hysteresis and butterfly curves flatten at higher mechanical loading levels.
Congress Report 2005.01
(2005)
Congress Report 2005.02
(2005)
Congress Report 2005.03
(2005)
Congress Report 2005.04
(2005)
Congress Report 2005.05
(2005)
Congress Report 2005.06
(2005)
Congress Report 2005.07-08
(2005)
Congress Report 2005.09
(2005)
Congress Report 2005.10
(2005)
Congress Report 2005.11-12
(2005)
The following three papers present recent developments in nonlinear Galerkin schemes for solving the spherical Navier-Stokes equation, in wavelet theory based on the 3-dimensional ball, and in multiscale solutions of the Poisson equation inside the ball, that have been presented at the 76th GAMM Annual Meeting in Luxemburg. Part A: A Nonlinear Galerkin Scheme Involving Vectorial and Tensorial Spherical Wavelets for Solving the Incompressible Navier-Stokes Equation on the Sphere The spherical Navier-Stokes equation plays a fundamental role in meteorology by modelling meso-scale (stratified) atmospherical flows. This article introduces a wavelet based nonlinear Galerkin method applied to the Navier-Stokes equation on the rotating sphere. In detail, this scheme is implemented by using divergence free vectorial spherical wavelets, and its convergence is proven. To improve numerical efficiency an extension of the spherical panel clustering algorithm to vectorial and tensorial kernels is constructed. This method enables the rapid computation of the wavelet coefficients of the nonlinear advection term. Thereby, we also indicate error estimates. Finally, extensive numerical simulations for the nonlinear interaction of three vortices are presented. Part B: Methods of Resolution for the Poisson Equation on the 3D Ball Within the article at hand, we investigate the Poisson equation solved by an integral operator, originating from an ansatz by Greens functions. This connection between mass distributions and the gravitational force is essential to investigate, especially inside the Earth, where structures and phenomena are not sufficiently known and plumbable. Since the operator stated above does not solve the equation for all square-integrable functions, the solution space will be decomposed by a multiscale analysis in terms of scaling functions. Classical Euclidean wavelet theory appears not to be the appropriate choice. Ansatz functions are chosen to be reflecting the rotational invariance of the ball. In these terms, the operator itself is finally decomposed and replaced by versions more manageable, revealing structural information about itself. Part C: Wavelets on the 3–dimensional Ball In this article wavelets on a ball in R^3 are introduced. Corresponding properties like an approximate identity and decomposition/reconstruction (scale step property) are proved. The advantage of this approach compared to a classical Fourier analysis in orthogonal polynomials is a better localization of the used ansatz functions.
This diploma thesis examines logistic problems occurring in a container terminal. The thesis focuses on the scheduling of cranes handling containers in a port. Two problems are discussed in detail: the yard crane scheduling of rubber-tired gantry cranes (RMGC) which move freely among the container blocks, and the scheduling of rail-mounted gantry cranes (RMGC) which can only move within a yard zone. The problems are formulated as integer programs. For each of the two problems discussed, two models are presented: In one model, the crane tasks are interpreted as jobs with release times and processing times while in the other model, it is assumed that the tasks can be modeled as generic workload measured in crane minutes. It is shown that the problems are NP-hard in the strong sense. Heuristic solution procedures are developed and evaluated by numerical results. Further ideas which could lead to other solution procedures are presented and some interesting special cases are discussed.
In order to optimize the acoustic properties of a stacked fiber non-woven, the microstructure of the non-woven is modeled by a macroscopically homogeneous random system of straight cylinders (tubes). That is, the fibers are modeled by a spatially stationary random system of lines (Poisson line process), dilated by a sphere. Pressing the non-woven causes anisotropy. In our model, this anisotropy is described by a one parametric distribution of the direction of the fibers. In the present application, the anisotropy parameter has to be estimated from 2d reflected light microscopic images of microsections of the non-woven. After fitting the model, the flow is computed in digitized realizations of the stochastic geometric model using the lattice Boltzmann method. Based on the flow resistivity, the formulas of Delany and Bazley predict the frequency-dependent acoustic absorption of the non-woven in the impedance tube. Using the geometric model, the description of a non-woven with improved acoustic absorption properties is obtained in the following way: First, the fiber thicknesses, porosity and anisotropy of the fiber system are modified. Then the flow and acoustics simulations are performed in the new sample. These two steps are repeatedc for various sets of parameters. Finally, the set of parameters for the geometric model leading to the best acoustic absorption is chosen.
Die vorliegende Arbeit wurde angeregt durch die in A.N. Borodin(2000) [Version of the Feynman-Kac Formula. Journal of Mathematical Sciences, 99(2):1044-1052, 2000] und in B. Simon(2000) [A Feynman-Kac Formula for Unbounded Semigroups. Canadian Math. Soc. Conf. Proc., 28:317-321, 2000] dargestellten Feynman-Kac-Formeln. Sie beschäftigt sich mit dem Problem, den Geltungsbereich der Feynman-Kac-Formel im Hinblick auf die Bedingungen der Potentiale und der Anfangsbedingung der zugehörigen partiellen Differentialgleichung zu erweitern. Es ist bekannt, dass die Feynman-Kac-Formel für beschränkte Potentiale gilt. Ausserdem gilt sie auch für Anfangsbedingungen, die im Raum \(C_{0}(\mathbb{R}^{n})\) oder im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegen. Die Darstellung der Feynman-Kac-Formel für die Anfangsbedingung, die im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegt, liefert die Lösung der partiellen Differentialgleichung. Wir können sie auch als stark stetige Halbgruppe auf dem Raum \(C_{0}(\mathbb{R}^{n})\) auffassen. Diese zwei verschiedenen Darstellungen sind äquivalent. In dieser Arbeit zeigen wir zunächst, dass die Feynman-Kac-Formel auch für unbeschränkte Potentiale \(V\) gilt, wobei \(|V(x)| \leq \varepsilon ||x||^{2} + C_{\varepsilon} \) für alle \(\varepsilon > 0; C_{\varepsilon} > 0\) und \(x \in \mathbb{R}^{n}\) ist. Ausserdem zeigen wir, dass sie für alle Anfangsbedingungen \(f\) gilt mit \(x \mapsto e^{-\varepsilon |x|^{2}} f(x) \in H^{2,2}(\mathbb{R}^{n})\). Der Beweis ist wahrscheinlichkeitstheoretisch und benutzt keine Spektraltheorie. Der spektraltheoretische Zugang, in dem eine Darstellung des Operators \(e^{-tH}\), wobei \(H = -\frac{1}{2} \Delta + V\) gegeben wird, wurde von B. Simon(2000) auch auf die obige Klasse von Potentialen ausgeweitet. Wir lassen zusätzlich auch Potentiale der Form \(V = V_{1} + V_{2}\) zu, wobei \(V_{1} \in L^{2}(\mathbb{R}^{3})\) ist und für alle \(\varepsilon > 0\) gibt es \(C_{\varepsilon} > 0\), so dass \(|V_{2}(x)| \leq\varepsilon ||x||^{2} + C_{\varepsilon}\) für alle \(x \in \mathbb{R}^{3}\) ist. Im Gegensatz zur klassischen Situation ist \(e^{-tH}\) jetzt ein unbeschränkter Operator. Schließlich wird in dieser Arbeit auch der Zusammenhang zwischen der Feynman-Kac-It\(\hat{o}\)-Formel, der Feynman-Kac-Formel und der Kolmogorov-Rückwärtsgleichung untersucht.
Die Aufgabenstellung dieser Arbeit betraf die kinetische Charakterisierung des Wildtyps sowie der Mutanten E und G der Glucose-Dye-Oxidoreductase (GlucDOR) mit den N-substituierten p-Nitrosoanilinen BM-53.0861, BM-31.1008 und BM.31.1144 (firmeninterne Bezeichnungen) und den Zuckern Glucose, Maltose und Galaktose als Zweitsubstrate. Diese Mediatoren finden bei der Firma Roche Diagnostics GmbH ihre praktische Anwendung und befinden sich unter anderem auf dem Testsreifensystem, welches zur Blutzuckerbestimmung bei Diabetikern benutzt wird. Mit Hilfe der in dieser Arbeit gewonnenen Daten bezüglich z.B. der Substratspezifität, Stabilität der drei Enzyme sollte abgeschätzt werden, in wie weit eine praktische Anwendung der Mutanten E und G möglich und auch sinnvoll wäre. Die Charakterisierungen mit den Zuckern Glucose, Maltose und Galaktose und Mediator BM-53.0861 als Zweitsubstrat zeigten, dass beide Mutanten eine bessere Spezifität für die Glucose gegenüber der Maltose aufwiesen. Dabei war die Mutante G mit einem Quotienten vmaxMaltose/vmaxGlucose von 0,018 wesentlich spezifischer als die Mutante E, bei der der Quotient 0,10 betrug. Ein Vergleich der Spezifität für Glucose gegenüber der Galaktose zeigte, dass beide Mutanten eine schlechtere Spezifität als der Wildtyp hatten. Die Berechnungen der 3D-Struktur der Mutanten E und G brachten einige strukturelle Hinweise, durch die die veränderten Substratspezifitäten gegenüber dem WT, besonders im Fall der Maltose, erklärt werden konnten. So ragt z.B. Tyrosin 343 bei den Mutanten weiter in das aktive Zentrum als beim WT und kommt so der Maltose ziemlich nahe. Dadurch könnte es zu sterischer Hinderung kommen. Beim Vergleich der kinetischen Parameter der Mutanten E und G für die Glucose mit den Zweitsubstraten BM-53.0861, BM-31.1008 und BM-31.1144 mit denen des WTs, sprechen die Ergebnisse nicht gegen eine Anwendung der Mutanten auf den Teststreifen. Weder die leicht niedrigeren Hemmkonstanten der Mediatoren, noch die höheren kM-Werte für die Glucose bei den Mutanten sollten ein Hindernis darstellen, da das Enzym auf den Teststreifen in großem Überschuss vorliegt. Ein Aspekt, der bei der praktischen Anwendung zu Problemen führen kann, ist die verringerte Thermostabilität beider Mutanten. Sie zeigten bei 60 °C einen erheblichen Stabilitätsverlust gegenüber dem WT der GlucDOR. Nach einer halben Stunde Inkubationzeit hatten sie weniger als 10 % Restaktivität. Im Falle der Mediatoren BM-31.1008 und BM-31.1144 konnte durch ESR-Untersuchungen festgestellt werden, dass das Phenylendiaminradkal, welches sich im nichtenzymatischen Gleichgewicht zwischen den entsprechenden Chinondiiminen und Phenylendiaminen befindet, nicht für die auftretende Hemmung verantwortlich ist. Mit einem Abnehmen der Umsatzraten sank auch die Konzentration an Phenylendiaminradikal, was im Falle einer durch das Radikal verursachten Hemmung nicht sein dürfte. Ebenfalls konnte durch die ESR-Untersuchungen gezeigt werden, dass während einer konstanten enzymatischen Umsetzung auch die Konzentration des Phenylendiaminradikals konstant blieb. Das spricht für ein konstantes Redoxpotential des Testsystems während der Umsetzung. Das Radikal kann als eine Art Marker für die Gesamtkonzentration an Chinondiimin und Phenylendiamin angesehen werden. Insgesamt zeigt die Arbeit, dass die beiden Mutanten E und G der GlucDOR für die Anwendung auf Teststreifen zur Blutzuckerbestimmung geeignet sind, wenngleich sie eine gewisse Thermoinstabilität im Vergleich zum Wildtyp aufweisen. Diesbezüglich sollten noch Verbesserungen vorgenommen werden.
In Rahmen der vorliegenden Arbeit wurde die begonnene Analyse zur Genregulation durch den potentiellen Transkriptionsregulator PepR1 aus Lactobacillus delbrückii subsp. lactis DSM7290 fortgesetzt. PepR1 wurde aufgrund von Aminosäuresequenz-Ähnlichkeiten zu Proteinen der CcpASubfamilie, die zur GalR/LacI-Familie transkriptioneller Regulatoren gehört,identifiziert. Das pepR1-Gen ist divergierend zum pepQ-Gen angeordnet, welches für die Peptidase Q kodiert. Beide Gene besitzen eine gemeinsame intergene Region von 152 bp. Bei Promotorstudien im heterologen E. coli mit einem partiellen β-Galaktosidase-Gen (´lacZ) aus E. coli, welches mit einem Teilbereich der intergenen Region von pepR1 und pepQ sowie den ersten sechs Kodons des pepQ-Gens fusioniert wurde, erhöhte die Anwesenheit von PepR1 in trans die gemessene Aktivität des β-Galaktosidase-Fusionskonstruktes um einen Faktor von 1,95; während zwei im cre-Operator mutierte Varianten desselben Promotors nur 1,26- bzw. 1,21-fach erhöhte Aktivitäten zeigten. Analog ausgeführte Analysen mit den ebenfalls cre-ähnliche Elemente enthaltenden Promotorbereichen der Peptidasegene pepI und pepX ließen keine signifikante Beeinflussung der Expression der Reporterkonstrukte durch PepR1 erkennen. Bandshift-Analysen mit gereinigten PepR1-Protein und dem nicht modifizierten pepQ-Promotorfragment sowie einer Variante mit einem in zwei Basenpaaren mutierten cre-Operator zeigten die vollständige Retardierung beider DNA-Fragmente. Diese Resultate konnten die 14 bp palindromische cre-Sequenz als den cis-aktiven Operator für die Wirkung des DNA-bindenden Regulators PepR1 bestätigen. Die CcpA-äquivalente Funktion von PepR1 aus Lb. delbrückii subsp. lactis als pleiotroper Regulator wurde durch die partielle Komplementation einer ccpA-Mutation von Staphylococcus xylosus C2a durch das pepR1-Gen von Lactobacillus delbrückii subsp. lactis nachgewiesen. In der durch das plasmidkodiert vorliegende pepR1-Gen komplementierten ccpA-Mutante von Staphylococcus xylosus C2a war die Zucker-vermittelte Repression der α-Gluko-sidase in Gegenwart von Glukose als Kohlenstoffquelle im Vergleich zum Wildtyp fast komplett wiederhergestellt. Die autogene Regulation von pepR1 wurde in E. coli durch die parallele Expression des mit dem promotorlosen ´lacZ-Gen translational fusionierten pepR1-Promotors und dem unter der Kontrolle des eigenen bzw. des E. coli lac-Promotors exprimierten PepR1 gezeigt. Die Anwesenheit von PepR1 in trans reprimierte in beiden Fällen die Aktivität des PpepR1-´lacZ-Reporterkonstruktes um einen Faktor von zwei. Die Transkripte der Peptidasegene pepI, pepQ, pepX und des pepR1-Gens wurden parallel zur Bestimmung der zugehörigen Aktivitäten der Peptidasen I, Q, und X über den Wachstumsverlauf von in Glukose oder Laktose wachsenden Zellen von Lb. delbrückii subsp. lactis verfolgt. Beim Wachstum mit Glukose war die PepQ-Aktivität gegenüber Laktose durchschnittlich um einen Faktor von 1,8 erhöht, die Menge an pepQ-mRNA korrelierte mit den Aktivitäten. Die Aktivitäten der Pep I und der Pep X waren bei in Laktose kultivierten Zellen leicht erhöht, sie zeigten jedoch Wachstumsphasen-abhängige Modulationen bei den Aktivitäten sowie Abweichungen bei der Korrelation von enzymatischer Aktivität zur Menge an spezifischer mRNA. Die Menge an pepR1-spezifischer mRNA variierte Wachstums-phasenabhängig sowohl bei der Glukose- als auch der Laktose-Kultur mit einem Faktor von zwei bis drei. Die lac-Region von Lactobacillus delbrückii subsp. lactis DSM7290 wurde kloniert, sequenziert und partiell charakterisiert. Durch den Vergleich mit DNA-Sequenzdaten von bekannten lac-Genen anderer Milchsäurebakterien konnten drei offene Leserahmen ermittelt werden. Das lacP-Gen (1881 bp), dessen unvollständiger 5´-Genabschnitt durch Inverse PCR komplettiert wurde, kodiert für eine Permease. Drei Basenpaare stromabwärts von lacP beginnt das Gen lacZ (3024 bp) für die β-Galaktosidase, auf die in gleicher Leserichtung 51 bp stromabwärts, das an seinem 3´-Ende nur unvollständig vorliegende lacR´ folgt. Northern-Blot-Analysen konnten zeigen, daß lacP und lacZ (sowie vermutlich auch lacR´) bei Wachstum von Lb. delbrückii subsp. lactis DSM7290 in Medium mit dem Zucker Laktose als mRNA von circa 6,15 kb Größe gemeinsam transkribiert werden. Die durch CcpA/PepR1-vermittelte Kontrolle über cre-Operatoren des lac-Promotors konnte mit zwei Translationsfusionen von Plac mit dem ´lacZ aus E. coli in S. xylosus lac- bzw. lac- und ccpA-Mutanten gezeigt werden.
This thesis aims at an overall improvement of the diffusion coefficient predictions. For this reason the theoretical determination of diffusion, viscosity, and thermodynamics in liquid systems is discussed. Furthermore, the experimental determination of diffusion coefficients is also part of this work. All investigations presented are carried out for organic binary liquid mixtures. Diffusion coefficient data of 9 highly nonideal binary mixtures are reported over the whole concentration range at various temperatures, (25, 30, and 35) °C. All mixtures investigated in a Taylor dispersion apparatus consist of an alcohol (ethanol, 1-propanol, or 1-butanol) dissolved in hexane, cyclohexane, carbon tetrachloride, or toluene. The uncertainty of the reported data is estimated to be within 310-11 m2s-1. To compute the thermodynamic correction factor an excess Gibbs energy model is required. Therefore, the applicability of COSMOSPACE to binary VLE predictions is thoroughly investigated. For this purpose a new method is developed to determine the required molecular parameters such as segment types, areas, volumes, and interaction parameters. So-called sigma profiles form the basis of this approach which describe the screening charge densities appearing on a molecule’s surface. To improve the prediction results a constrained two-parameter fitting strategy is also developed. These approaches are crucial to guarantee the physical significance of the segment parameters. Finally, the prediction quality of this approach is compared to the findings of the Wilson model, UNIQUAC, and the a priori predictive method COSMO-RS for a broad range of thermodynamic situations. The results show that COSMOSPACE yields results of similar quality compared to the Wilson model, while both perform much better than UNIQUAC and COSMO-RS. Since viscosity influences also the diffusion process, a new mixture viscosity model has been developed on the basis of Eyring’s absolute reaction rate theory. The nonidealities of the mixture are accounted for with the thermodynamically consistent COSMOSPACE approach. The required model and component parameters are derived from sigma-profiles, which form the basis of the a priori predictive method COSMO-RS. To improve the model performance two segment parameters are determined from a least-squares analysis to experimental viscosity data, whereas a constraint optimisation procedure is applied. In this way the parameters retain their physical meaning. Finally, the viscosity calculations of this approach are compared to the findings of the Eyring-UNIQUAC model for a broad range of chemical mixtures. These results show that the new Eyring-COSMOSPACE approach is superior to the frequently employed Eyring-UNIQUAC method. Finally, on the basis of Eyring’s absolute reaction rate theory a new model for the Maxwell-Stefan diffusivity has been developed. This model, an extension of the Vignes equation, describes the concentration dependence of the diffusion coefficient in terms of the diffusivities at infinite dilution and an additional excess Gibbs energy contribution. This energy part allows the explicit consideration of thermodynamic nonidealities within the modelling of this transport property. If the same set of interaction parameters, which has been derived from VLE data, is applied for this part and for the thermodynamic correction, a theoretically sound modelling of VLE and diffusion can be achieved. The influence of viscosity and thermodynamics on the model accuracy is thoroughly investigated. For this purpose diffusivities of 85 binary mixtures consisting of alkanes, cycloalkanes, halogenated alkanes, aromatics, ketones, and alcohols are computed. The average relative deviation between experimental data and computed values is approximately 8 % depending on the choice of the gE-model. These results indicate that this model is superior to some widely used methods. In summary, it can be said that the new approach facilitates the prediction of diffusion coefficients. The final equation is mathematically simple, universally applicable, and the prediction quality is as good as other models recently developed without having to worry about additional parameters, like pure component physical property data, self diffusion coefficients, or mixture viscosities. In contrast to many other models, the influence of the mixture viscosity can be omitted. Though a viscosity model is not required in the prediction of diffusion coefficients with the new equation, the models presented in this work allow a consistent modelling approach of diffusion, viscosity, and thermodynamics in liquid systems.
Diskrete Mathematik
(2005)
We will give explicit differentiation and integration rules for homogeneous harmonic polynomial polynomials and spherical harmonics in IR^3 with respect to the following differential operators: partial_1, partial_2, partial_3, x_3 partial_2 - x_2 partial_3, x_3 partial_1 - x_1 partial_3, x_2 partial_1 - x_1 partial_2 and x_1 partial_1 + x_2 partial_2 + x_3 partial_3. A numerical application to the problem of determining the geopotential field will be shown.
Fragmentation of tropical rain forests is pervasive and results in various modifications in the ecosystem functioning such as … It has long been noticed that the colony densities of a dominant herbivore in the neotropics - leaf-cutting ant (LCA) - increase in fragmentation-related habitats like forest edges and small fragments, however the reasons for this increase are not clear. The aim of the study was to test the hypothesis that bottom-up control of LCA populations is less effective in fragmented compared to continuous forests and thus explains the increase in LCA colony densities in these habitats. In order to test for less effective bottom-up control, I proposed four working hypotheses. I hypothesized that LCA colonies in fragmented habitats (1) find more palatable vegetation due to low plant defences, (2) forage on few dominant species resulting in a narrow diet breadth, (3) possess small foraging areas and (4) increase herbivory rate at the colony level. The study was conducted in the remnants of the Atlantic rainforest in NE Brazil. Two fragmentation-related forest habitats were included: the edge and a 3500-ha continuous forest and the interior of the 50-ha forest fragment. The interior of the continuous forest served as a control habitat for the study. All working hypotheses can be generally accepted. The results indicate that the abundance of LCA host plant species in the habitats created by forest fragmentation along with weaker chemical defense of those species (especially the lack of terpenoids) allow ants to forage predominantly on palatable species and thus reduce foraging costs on other species. This is supported by narrower ant diet breadth in these habitats. Similarly, small foraging areas in edge habitats and in small forest fragments indicate that there ants do not have to go far to find the suitable host species and thus they save foraging costs. Increased LCA herbivory rates indicate that the damages (i.e., amount of harvested foliage) caused by LCA are more important in fragmentation-related habitats which are more vulnerable to LCA herbivory due to the high availability of palatable plants and a low total amount of foliage (LAI). (1) Few plant defences, (2) narrower ant diet breadth, (3) reduced colony foraging areas, and (4) increased herbivory rates, clearly indicate a weaker bottom-up control for LCA in fragmented habitats. Weak bottom-up control in the fragmentation-related habitats decreases the foraging costs of a LCA colony in these habitats and the colonies might use the surplus of energy resulting from reduced foraging costs to increase the colony growth, the reproduction and turnover. If correct, this explains why fragmented habitats support more LCA colonies at a given time compared to continuous forest habitats. Further studies are urgently needed to estimate LCA colony growth and turnover rates. There are indices that edge effects of forest fragmentation might be more responsible in regulating LCA populations than area or isolation effects. This emphasizes the need to conserve big forest fragments not to fall below a critical size and retain their regular shape. Weak bottom-up control of LCA populations has various consequences on forested ecosystems. I suggest a loop between forest fragmentation and LCA population dynamics: the increased LCA colony densities, along with lower bottom-up control increase LCA herbivory pressure on the forest and thus inevitably amplify the deleterious effects of fragmentation. These effects include direct consequences of leaf removal by ants and various indirect effects on ecosystem functioning. This study contributes to our understanding of how primary fragmentation effects, via the alteration of trophic interactions, may translate into higher order effects on ecosystem functions.
Im diesem Dokument werden Aspekte der formalen zeitlichen Planung bzw. des Scheduling für Bauprojekte anhand ausgewählter Literatur diskutiert. Auf allgemeine Aspekte des Scheduling soll dabei nicht eingegangen werden. Hierzu seien als Standard-Referenzen nur Brucker (2004) und Pinedo (1995) genannt. Zu allgemeinen Fragen des Projekt-Managements sei auf Kerzner (2003) verwiesen. Im Abschnitt 1 werden einige Anforderungen und Besonderheiten der Planung von Baustellen diskutiert. Diese treten allerdings auch in zahlreichen anderen Bereichen der Produktionsplanung und des Projektmanagements auf. In Abschnitt 2 werden dann Aspekte zur Formalisierung von Scheduling-Problemen in der Bauwirtschaft diskutiert, insbesondere Ziele und zu berücksichtigende Restriktionen. Auf eine mathematische Formalisierung wird dabei allerdings verzichtet. Abschnitt 3 bietet eine Übersicht über Verfahren und grundlegende Techniken für die Berechnung von Schedules. In Abschnitt 4 wird ein Überblick über vorhandene Software, zum einen verbreitete Internationale Software, zum anderen deutschsprachige Branchenlösungen, gegeben. Anschließend werden Schlussfolgerungen gezogen und es erfolgt eine Auflistung der Literaturquellen.
Ziel der Arbeit war es, das Härtungsverhalten und die Netzwerkstrukturbildung eines kalthärtenden Modellepoxidklebstoffs in Abhängigkeit der Oberflächenvorbehandlung einer nichthärtenden Aluminiumknetlegierung AlMg3 zu beschreiben. Für die Charakterisierung wurden thermische, thermodynamische und spektroskopische Analysemethoden verwendet. Für einen Vergleich mit dem Härtungsverhalten des Klebstoffs auf den verschieden vorbehandelten Oberflächen wurde zunächst das Bulk-Polymer selber charakterisiert. Anschließend wurden Experimente zur Härtungskinetik auf entfetter, gebeizter und anodisierter Aluminiumoberfläche durchgeführt. Die Versuche zeiigten, dass die Härtungsreaktion auf der gebeizten Oberfläche wesentlich schneller ist als auf den anderen Oberflächen. Die Netzwerkstrukturbildung wurde im DMA-Experiment auf den unterschiedlichen Oberflächen untersucht. Die Versuche zeigten, dass auf allen Oberflächen analoge Netzwerkstrukturen erzweugt werden, sich aber jedoch in ihrer Häufigkeitsverteilung unterscheiden. Im lweiteren Teil der Arbeit wurde mit oberflächensensitiven Messverfahren die Bruchfläche von einfachen Zugscherproben analysiert. Auch hier zeigten sich mit der Tof-SIMS differente Fragmentierungen auf den einzelnen Oberflächen, wodurch die bisherigen Ergebnisse unterstützt wurden. Im letzen Teil der Arbeit wurde im DSC-Versuch gezeigt, dass auch die Schichtdicke des aufgetragenden Klebstoffs einen erheblichen Einfluss auf die Netzwerkstruktur des Klebstoffs hat.
In heutigen Mobilfunksystemen wird ausschließlich senderorientierte Funkkommunikation eingesetzt. Bei senderorientierter Funkkommunikation beginnt der Systementwurf mit dem Sender. Dies bedeutet, daß man a priori die senderseitig verwendeten Algorithmen der Sendesignalerzeugung auswählt und in Abhängigkeit davon a posteriori den im Empfänger zum Datenschätzen verwendeten Algorithmus gegebenenfalls unter Einbeziehen von Kanalzustandsinformation festlegt. Dies ist nötig, um beispielsweise einen möglichst großen Anteil der senderseitig investierten Energie empfängerseitig auszunutzen, das heißt energieeffizient zu sein, und dabei gleichzeitig das Entstehen schädlicher Interferenzsignale zu vermeiden oder zu begrenzen. Im Falle der Senderorientierung kann man senderseitig sehr einfache Algorithmen wählen und implementieren, wobei dieser Vorteil typischerweise durch eine ungleich höher Implementierungskomplexität der a posteriori festzulegenden empfängerseitigen Algorithmen aufgewogen werden muß. Betrachtet man die wirtschaftlich bedeutenden zellularen Mobilfunksysteme, so ist eine derartige Funkkommunikation in der Aufwärtsstrecke vorteilhaft, denn in der Aufwärtsstrecke sind die Endgeräte der mobilen Teilnehmer, die Mobilstationen, die einfachen Sender, wohingegen die ortsfesten Basisstationen die Empfänger sind - und dort kann typischerweise eine größere Komplexität in Kauf genommen werden. In der Abwärtsstrecke derartiger Mobilfunksysteme hingegen, sind die Basisstationen die einfachen Sender, wohingegen die Mobilstationen die aufwendigen Empfänger sind. Dies ist nicht vorteilhaft, da in praktischen Mobilfunksystemen Gewicht, Volumen, Energieverbrauch und Kosten der Endgerätehardware und damit der Mobilstationen mit der Implementierungskomplexität steigen. Wie der Verfasser in der vorliegenden Schrift vorschlägt, läßt sich dieses Problem jedoch umgehen, denn die Funkkommunikation in Mobilfunksystemen kann auch in neuartiger Weise empfängerorientiert gestaltet werden. Empfängerorientierte Funkkommunikation ist dadurch gekennzeichnet, daß der Systementwurf auf der Empfängerseite beginnt. In diesem Fall werden die empfängerseitig verwendeten Algorithmen des Datenschätzens a priori festgelegt, und die senderseitig einzusetzenden Algorithmen der Sendesignalerzeugung ergeben sich dann daraus a posteriori durch Adaption wiederum gegebenenfalls unter Einbeziehen von Kanalzustandsinformation. Durch Empfängerorientierung kann man empfängerseitig sehr einfache Algorithmen wählen und implementieren, muß dafür jedoch eine höhere Implementierungskomplexität auf der Senderseite tolerieren. Angesichts der erwähnten Komplexitätscharakteristika von Sender- beziehungsweise Empfängerorientierung schlägt der Verfasser daher für künftige Mobilfunksysteme vor, Empfängerorientierung in der Abwärtsstrecke und Senderorientierung in der Aufwärtsstrecke einzusetzen. Dies ist insbesondere deshalb vorteilhaft, da Empfängerorientierung in der Abwärtsstrecke neben anderen noch die folgenden weiteren Vorteile gegenüber herkömmlicher Senderorientierung aufweist: 1) Die Leistung der von den Basisstationen abgestrahlten Signale kann reduziert werden. Dies erlaubt performanzhemmende systeminherente Störeinflüsse, die als Interzellinterferenz bezeichnet werden, zu reduzieren und ist im übrigen auch wünschenswert im Hinblick auf die zunehmende Elektrophobie der Bevölkerung. 2) Kanalzustandsinformation wird empfängerseitig nicht benötigt, so daß auf das Senden resourcenbindender Trainingssignale verzichtet und anstelle dessen das Sende von Nutzdaten ermöglicht werden kann. 3) Empfängerseitig ist kein Kanalschätzer vorzusehen, was des weiteren der Implementierungskomplexität des Empfängers zu gute kommt. Mobilfunksysteme lassen sich demzufolge durch Einsetzen des Grundkonzepts der Empfängerorientierung maßgeblich aufwerten. Dieses ist eine klare Motivation die Grundzüge, das Potential und die Ausgestaltungen dieses Grundkonzepts in der Mobilkommunikation in dieser Schrift eingehend zu studieren. Zur Klärung dieser Punkte im Kontext von Mobilkommunikation ist es entscheidend, die Frage der Wahl der Empfänger und die der Adaption der Sender zu beantworten. Die Frage nach der Adaption der Sender ist dabei gleichbedeutend mit der Frage nach der im allgemeinen auf Basis aller Daten erfolgenden gemeinsamen Sendesignalerzeugung. Nach der Einführung eines geeigneten allgemeinen Modells der Abwärtsstreckenübertragung eines zellularen Mobilfunksystems, das auch erst in jüngster Vergangenheit vorgeschlagene Mehrantennenkonfigurationen an den Basisstationen und Mobilstationen einschließt, wird hinsichtlich der A-priori-Wahl der Empfänger herausgestellt, daß, im Hinblick auf die bereits oben angesprochene möglichst geringe Implementierungskomplexität die Ausgestaltung der empfängerseitigen Signalverarbeitung als serielle Verkettung einer linearen Signalverarbeitung und eines nichtlinearen Quantisierers vorteilhaft ist. Die Prinzipien, die bei der Wahl sowohl der linearen Signalverarbeitung als auch des nichtlinearen Quantisierer gelten, werden im folgenden herausgearbeitet. Als Ergebnis dieser Betrachtungen stellt sich heraus, daß ein Gestalten der empfängerseitigen linearen Signalverarbeitung gemäß Codemultiplex hinsichtlich der ausnutzbaren Frequenz-, Zeit- und Raumdiversität vorteilhaft ist, jedoch leistungsfähige Verfahren der gemeinsamen Sendesignalerzeugung voraussetzt, die die Entstehung schädlicher Interferenzsignale verhindern. Des weiteren wird klar, daß sich die nichtlinearen Quantisierer sinnvollerweise in die Klasse der konventionellen und die der unkonventionellen Quantisierer unterteilen lassen; gleiches gilt für die diese Quantisierer verwendenden Empfänger. Konventionelle Quantisierer basieren auf einfach zusammenhängenden Entscheidungsgebieten, wobei jedes Entscheidungsgebiet eindeutig einer möglichen Ausprägung eines übertragenen Nachrichtenelements zugeordnet ist. Demgegenüber weisen unkonventionelle Quantisierer mehrfach zusammenhängende Entscheidungsgebiete auf, die sich jeweils aus mehreren Teilentscheidungsgebieten zusammensetzen. Das Vorhandensein mehrerer Teilentscheidungsgebiete pro Entscheidungsgebiet und damit pro Ausprägung eines übertragenen Nachrichtenelements stellt einen bei unkonventionellen Quantisierern verfügbaren zusätzlichen Freiheitsgrad dar, der bei der gemeinsamen Sendesignalerzeugung vorteilhaft genutzt werden kann, um die angesprochene Leistung der von den Basisstationen abgestrahlten Signale zu reduzieren. Ein Schwerpunkt der vorliegenden Schrift ist das Studium von Verfahren der gemeinsamen Sendesignalerzeugung. Diese werden daher systematisch gegliedert und erarbeitet. Es stellt sich heraus, daß Verfahren der gemeinsamen Sendesignalerzeugung prinzipiell unterteilt werden können in solche Verfahren für konventionelle Empfänger und solche für unkonventionelle Empfänger. Hinsichtlich Verfahren der erstgenannten Art wird herausgearbeitet, wie eine optimale gemeinsame Sendesignalerzeugung zu erfolgen hat, die unter gewissen Nebenbedingungen eine optimale Übertragungsqualität im Sinne minimaler Übertragungsfehlerwahrscheinlichkeit erzielt. Eine derartige gemeinsame Sendesignalerzeugung ist im allgemeinen recht aufwendig, so daß im Folgeverlauf die suboptimalen linearen Verfahren der gemeinsamen Sendesignalerzeugung Transmit Matched Filter (TxMF), Transmit Zero-Forcing (TxZF) und Transmit Minimum-Mean-Square-Error (TxMMSE) vorgeschlagen werden, die jeweils einen mehr oder weniger guten Kompromiß zwischen Implementierungskomplexität, Interferenzunterdrückung und Robustheit hinsichtlich Rauschens aufweisen. Der Verfasser schlägt vor, die Leistungsfähigkeit derartiger suboptimaler Verfahren unter anderem durch die bei gegebener Zeitdauer abgestrahlte totale Energie der Sendesignale, die totale Sendeenergie, - denn diese ist nicht nur im technischen, sondern auch im gesellschaftlichen Sinn ein wichtiger Aspekt, - und das Kriterium der Sendeeffizienz zu bewerten. Sendeeffizienz beurteilt das Zusammenspiel aus Interferenzunterdrückung einerseits und energieeffizienter Übertragung andererseits. Es stellt sich durch analytische und numerische Betrachtungen heraus, daß beide Größen vorrangig von zwei Einflußfaktoren bestimmt werden: der Anzahl der Freiheitsgrade bei der gemeinsamen Sendesignalerzeugung - und das ist die Anzahl der zu bestimmenden Abtastwerte aller Sendesignale - und der Anzahl der dabei einzuhaltenden Restriktionen. Da die Anzahl der Restriktionen bei der Forderung einer möglichst geringen wechselseitigen Interferenz nicht beeinflußbar ist, schlägt der Verfasser daher zum Erhöhen der Leistungsfähigkeit der empfängerorientierten Funkkommunikation vor, die Anzahl der Freiheitsgrade zu erhöhen, was sich vorzugsweise durch Verfolgen des Prinzips der unkonventionellen Empfänger umsetzen läßt. Es wird gezeigt, wie unter gewissen Nebenbedingungen eine hinsichtlich der Übertragungsfehlerwahrscheinlichkeiten optimale gemeinsame Sendesignalerzeugung prinzipiell erfolgen muß, und welche erheblichen Performanzgewinne im Sinne der totalen Sendeenergie und der Sendeeffizienz möglich werden. Diese optimale Vorgehensweise ist sehr aufwendig, so daß darüber hinaus aufwandsgünstige suboptimale hochperformante Alternativen der gemeinsamen Sendesignalerzeugung für unkonventionelle Empfänger vorgeschlagen und betrachtet werden. Die gemeinsame Sendesignalerzeugung setzt senderseitiges Vorliegen von Kanalzustandsinformation voraus. Daher werden die prinzipiellen Möglichkeiten des zur Verfügung Stellens dieser Information behandelt, wobei dabei das Bereitstellen dieser Information auf Basis gegebenenfalls vorliegender Kanalreziprozität im Falle von Duplexübertragung favorisiert wird. Dabei wird die in der Aufwärtsstrecke gewonnene Kanalzustandsinformation zur gemeinsamen Sendesignalerzeugung in der Abwärtsstrecke genutzt. Ist die dabei genutzte Kanalzustandsinformation nicht exakt, so hat dieses prinzipiell eine Degradation der Leistungsfähigkeit der empfängerorientierten Funkkommunikation zur Folge. Analytische und/oder numerische Betrachtungen erlauben, die Degradation zu quantifizieren. Es stellt sich heraus, daß diese Degradation vergleichbar mit der von konventionellen senderorientierten Funkkommunikationssystemen bekannten ist. Eine Betrachtung möglicher Weiterentwicklungen des Grundprinzips der Empfängerorientierung komplettieren die in dieser Schrift angestellten Betrachtungen. Die Ergebnisse dieser Schrift belegen, daß Empfängerorientierung ein interessanter Kandidat für die Organisation der Abwärtsstreckenübertragung künftiger Mobilfunksysteme ist. Darüber hinaus wird klar, welche grundsätzlichen Prinzipien und Effekte bei der empfängerorientierten Funkkommunikation wirksam sind und durch welche Vorgehensweisen bei der Gestaltung derartiger Funkkommunikation die Einflüsse der verschiedenen Effekte gegeneinander ausbalanciert werden können. Für den Systemdesigner morgiger Mobilfunksysteme steht mit dieser Schrift daher ein wertvolles Nachschlagewerk zur Verfügung, daß dabei unterstützt, die genannten prinzipiellen Vorteile von Empfängerorientierung in Funktechnologien der Praxis umzumünzen.
Die Verbreitung und damit auch die Abhängigkeit der Unternehmen von der Informationstechnologie [IT] sind in den vergangenen Jahrzehnten extrem angestiegen. Die negativen Folgen dieser Entwicklung zeigt beispielsweise der Zusammenbruch des Stromsystems in den USA im Jahr 2003, wo aufgrund von Computerstörungen in großen Teilen des Landes der Strom ausfiel. Auch höhere Gewalt oder terroristische Angriffe auf IT-Systeme (Cyber-Attacken) können schwerwiegende Schäden für die weltweite Wirtschaft zur Folge haben. Bedingt durch diesen Anstieg der Bedeutung der IT und die damit verbundene zentrale Rolle der Technologie im Unternehmensalltag, der allgemein stärkeren Betrachtung von Risiken durch externe Faktoren wie KonTrAG, Basel II und Sarbanes Oxley, ist die Relevanz einer IT-Risikoberücksichtigung in jüngster Vergangenheit stark angestiegen. Das Ziel dieser Studie ist es, die Bedeutung, welche die IT für einzelne Unternehmen hat, zu messen und diese der Ausgestaltung der IT- Risikoberücksichtigung gegenüberzustellen. Dazu wurde eine Befragung zum Bereich „Einsatz von IT“ und spezifisch zu den auf die IT ausgerichteten „Risikobewältigungsmaßnahmen“ unter den deutschen Aktiengesellschaften durchgeführt. Durch die Auswertung dieser Daten konnte ein Vergleich zwischen der subjektiven Selbsteinschätzung der Unternehmen im Bezug auf die Bedeutung der IT mit den durch diese Studie ermittelten Daten zur IT-Sicherheit durchgeführt werden. Dazu wurde ein IT-Bedeutungsindex entwickelt, welcher in einer weitergehenden Anwendung hilfreich beim zwischenbetrieblichen Vergleich sein kann.
Das Ziel dieser Arbeit ist es, ein Framework und einen funktionsfähigen Prototypen für eine Middleware zu entwickeln, die es ermöglicht, Berechnungen verteilt in einem Peer-to-Peer-Netz auszuführen. Dabei sollen verschiedene Arten der Berechnung unterstützt werden. Eine Art der Berechnung sind Aufträge, die massiv parallel berechnet werden können, d.h. solche, die in unabhängige Teilaufträge zerlegt werden können und ohne gegenseitige Kommunikation auskommen. Diese Aufträge können entweder so parametrisiert sein, dass jeder Teilauftrag einen anderen Satz Parameter erhält (z.B. Fraktalberechnung), oder zufallsbasiert, so dass jeder Teilauftrag mit den gleichen Ausgangswerten berechnet wird und unterschiedliche Ergebnisse resultieren. Eine andere Art der Berechnung setzt voraus, dass Knoten, die am gleichen Auftrag arbeiten, auch miteinander kooperieren und durch Nachrichten beispielsweise Teillösungen austauschen (z.B. verteilte evolutionäre Algorithmen). Alle Knoten in diesem Netz sollen gleichberechtigt sein, d.h. jedem Knoten soll es möglich sein, eigene Anwendungen und Aufgaben im Netz zu verteilen. Den verteilten Anwendungen soll zudem die Möglichkeit gegeben werden, mit anderen Knoten, die an der gleichen Aufgabe arbeiten, kommunizieren zu können. Alle benötigten Informationen zur Berechnung eines Auftrags (d.h. Parameter, ausführbarer Code der Anwendung, Anzahl der zu berechnenden Fälle) sollen den rechnenden Knoten durch Middlewarefunktionen zur Verfügung gestellt werden, ebenso soll der Rücktransport der Ergebnisse zum Initiator durch die Middleware erfolgen. Der Nutzer soll also an seinem Arbeitsplatz seine verteilte Anwendung starten können und die Ergebnisse schließlich wieder auf seinem Rechner vorfinden. Die Implementierung soll möglichst modular angelegt sein und nicht auf ein konkretes P2P-Protokoll beschränkt sein, sondern einen leichten Austausch bzw. eine nutzergesteuerte Auswahl von verschiedenen Protokollen ermöglichen. Im Rahmen dieses Prototypen soll ein epidemisches P2P-Protokoll realisiert werden.
Bei gängigen Verfahren zur Untersuchung von unbekannten Duftstoffgemischen sind entweder die Selektivität, die Empfindlichkeit oder aber die zeitliche Auflösung des Systems nicht ausreichend für eine gute und schnelle Analyse. Sollen diese Ansprüche erfüllt werden, so besteht Bedarf nach einem neuen Verfahren, welches schnell und dennoch sehr genau Duftstoffgemische analysieren kann. In dieser Arbeit wird ein solches Verfahren und ein neu entwickeltes Meßsystem vorgestellt, welches mittels Potentialänderung einer Insektenantenne (Elektroantennogramm, EAG) Duftstoffgemische auf deren Komponenten und Konzentrationen bestimmen kann. Dazu werden Basis-Reizstoffe ermittelt, welche ihrerseits zur Quantifizierung der Komponenten des zu untersuchenden Duftstoffgemischs benötigt werden. Je mehr dieser Basis-Reizstoffe bekannt und zur Bestimmung des Duftstoffgemischs eingesetzt werden können, desto genauer wird die Analyse. Zu diesem Zweck wurde ein multidimensionales EAG-Meßsystem entwickelt, mit dem 7 Basis-Reizstoffe mit je 2 Konzentrationen verwendet werden können. Zur Ermittlung der Basis-Reizstoffe wurde ein Verfahren entwickelt und Überlagerungsversuche von Duftstoffen mit dem Kartoffelkäfer Leptinotarsus decemlineata durchgeführt. Dabei konnte ein Triplett von Basis-Reizstoffen gefunden werden. Zudem konnte durch Überlagerungsversuche von Pflanzenduftstoffen und Pheromon mit dem Bekreuzten Traubenwickler Lobesia botrana gezeigt werden, daß die Anwesenheit von Pflanzenduftstoffen die Bestimmung der Konzentration des Pheromons mit dem EAG-Meßsystem und dem Zusatzreizverfahren nicht beeinträchtigt. Pheromon einerseits und Pflanzenduftstoffe andererseits werden getrennt voneinander mit einer hohen Selektivität von der Insektenantenne registriert. Das entwickelte Verfahren und Meßsystem kann ebenfalls zur Überprüfung der Selektivität einer Insektenantenne auf Duftstoffe benutzt werden.
In der Arbeit wurde eine Herzfrequenzregelung für einen Fahrrad-Heimtrainer entworfen und in Matlab/Simulink implementiert. Dabei wird die Herzfrequenz des Fahrers über Funk erfasst und über eine unterlagerte Leistungsregelung eingeregelt. Als Aktuator dient eine Wirbelstrombremse, die das Hinterrad des Fahrrads bremst. Die Arbeit beschreibt den Reglerentwurf, die Modellierung des Menschen, den Systemaufbau und diverse Tests.
Erfassung und Bewertung von Grenzschichteffekten in neuartigen kohlenstofffaserverstärkten Polymeren
(2005)
In der vorliegenden Arbeit wurde das Potenzial neuer Faser-Kunststoff-Verbunde auf
Basis von Duromeren mit hybrider und interpenetrierender Struktur und
Kohlenstofffasern analysiert. Die Motivation bestand darin, neue, innovative Harze im
Hinblick auf ihren Einsatz als Matrixsysteme für Flüssigimprägnierverfahren zum
Herstellen kontinuierlich kohlenstofffaserverstärkter Verbundwerkstoffe zu
untersuchen. Besonderes Augenmerk lag hierbei auf der Ausbildung der
Faser/Matrix-Grenzschicht und deren Einfluss auf das gesamte Eigenschaftsprofil
der Verbunde.
Als Matrixsysteme wurden ein Vinylester-Urethan-Hybridharz (VEUH), eine mit
Flüssigkautschuk (ETBN) modifizierte Variante dieses Harzsystems und eine
Verbindung zwischen Epoxid (EP) und Vinylester (VE) verwendet. Nach
Charakterisierung der Reinharzsysteme und der Auswahl einer geeigneten
Kohlenstofffaser wurden Laminate im Harzinjektionsverfahren sowie im
Nasswickelverfahren gefertigt.
Es hat sich gezeigt, dass konventionelle, mikromechanische Testmethoden zur
Charakterisierung der Faser/Matrix-Grenzschicht unter Verwendung dieser
Materialien nur bedingt anwendbar sind und die damit erzielten Ergebnisse nicht
ausreichen, um Korrelationen mit den makromechanischen Kennwerten aufzustellen.
Vielmehr erwiesen sich Faserbündeltests als eine gute Alternative, um wichtige
Informationen in Bezug auf die Bildung und Charakterisierung der Grenzschicht zu
erlangen. Beispielsweise reagierte der Querzugfaserbündeltest (QFT) äußerst
sensibel auf Änderungen in der Grenzschicht und ist nicht zuletzt aufgrund der
Berücksichtigung mesomechanischer Aspekte besser geeignet, um
makromechanische Tendenzen widerzuspiegeln. Aus diesem Grund und weiterhin
mit dem Verdacht auf erheblich hohe Eigenspannungen in den VEUH-Verbunden
wurde ein Makro/Mikro-Modell erstellt und mit Hilfe der Finiten Elemente Methode
analysiert. Die Ergebnisse gaben sowohl Aufschluss über die Entwicklung der
thermischen Eigenspannungen, als auch über Ort und Höhe der wirkenden
Spannungskomponenten. Ein wichtiges Resultat war, dass über 75% der relevanten
Spannungskomponenten bereits bei der Abkühlung durch die induzierten
thermischen Eigenspannungen entstehen. Weiterhin standen die Ergebnisse im Einklang mit experimentell ermittelten Daten und mikroskopisch beobachteten
Ereignissen. So konnte gezeigt werden, dass die herrschenden Spannungszustände
in guter Annäherung die auftretenden Versagensmechanismen beschreiben.
Des Weiteren wurden mehrere neue Ansätze zur Ergebnisinterpretation
verschienener Testmethoden verfolgt. Diese Vorgehensweisen lieferten ebenfalls
Informationen über den Status der Faser/Matrix-Grenzschicht. Es wurde
insbesondere bei den in dieser Arbeit untersuchten neuartigen Harzsystemen
deutlich, dass bisher gewonnenes Fachwissen auf dem Gebiet der Faser/Matrix-
Grenzfläche nicht zwingend auf neue Materialkombinationen übertragbar ist. Ferner
verweisen die Ergebnisse auf die Ernsthaftigkeit der Grenzschichtproblematik in
FKV, da deutlich herausgearbeitet wird, wie breit das Spektrum sein kann, über das
sich der Einfluss der Faser/Matrix-Grenzschicht erstreckt.
Das Handlungsreisendenproblem ist eines der bekanntesten NP-vollständigen kombinatorischen Optimierungsprobleme. Algorithmen mit unterschiedlichen Konzepten und Strategien wurden entwickelt, die sich in Lösungsqualität und Laufzeit unterscheiden. Ein vergleichsweise neuer Ansatz stellt jedoch das Kombinieren vorhandener Lösungen dar. Hier werden die Kantenmengen gegebener Handlungsreisendertouren als Ausgangsbasis für weitere Optimierungen verwendet. Erste Veröffentlichungen zu diesem Gebiet stellen bereits vielversprechende Ergebnisse vor, die nachfolgend vertieft evaluiert werden.
Virtual material design is the microscopic variation of materials in the computer, followed by the numerical evaluation of the effect of this variation on the material‘s macroscopic properties. The goal of this procedure is an in some sense improved material. Here, we give examples regarding the dependence of the effective elastic moduli of a composite material on the geometry of the shape of an inclusion. A new approach on how to solve such interface problems avoids mesh generation and gives second order accurate results even in the vicinity of the interface. The Explicit Jump Immersed Interface Method is a finite difference method for elliptic partial differential equations that works on an equidistant Cartesian grid in spite of non-grid aligned discontinuities in equation parameters and solution. Near discontinuities, the standard finite difference approximations are modified by adding correction terms that involve jumps in the function and its derivatives. This work derives the correction terms for two dimensional linear elasticity with piecewise constant coefficients, i.e. for composite materials. It demonstrates numerically convergence and approximation properties of the method.
Music Information Retrieval (MIR) is an interdisciplinary research area that has the goal to improve the way music is accessible through information systems. One important part of MIR is the research for algorithms to extract meaningful information (called feature data) from music audio signals. Feature data can for example be used for content based genre classification of music pieces. This masters thesis contributes in three ways to the current state of the art: • First, an overview of many of the features that are being used in MIR applications is given. These methods – called “descriptors” or “features” in this thesis – are discussed in depth, giving a literature review and for most of them illustrations. • Second, a large part of the described features are implemented in a uniform framework, called T-Toolbox which is programmed in the Matlab environment. It also allows to do classification experiments and descriptor visualisation. For classification, an interface to the machine-learning environment WEKA is provided. • Third, preliminary evaluations are done investigating how well these methods are suited for automatically classifying music according to categorizations such as genre, mood, and perceived complexity. This evaluation is done using the descriptors implemented in the T-Toolbox, and several state-of-the-art machine learning algorithms. It turns out that – in the experimental setup of this thesis – the treated descriptors are not capable to reliably discriminate between the classes of most examined categorizations; but there is an indication that these results could be improved by developing more elaborate techniques.
Die Erfüllung zukünftiger länderspezifischer Emissionsgrenzwerte rein mittels motorischer Maßnahmen zu realisieren, stößt an die Grenze der Machbarkeit. Aus diesem Grunde bedarf es der Entwicklung neuartiger Abgasnachbehandlungssysteme. Im Falle der dieselmotorbetriebenen Kraftfahrzeuge stellt das SCR-Verfahren eine vielversprechende Technologie dar. Mit dieser katalytischen Abgasnachbehandlungsmethode werden sowohl die Stickoxid- als auch in geringem Maße die Partikelemissionen gemindert. Die Umwandlung der Stickoxide erfolgt durch Zugabe von Ammoniak als Reduktionsmittel, das an einem entsprechenden Katalysator die Stickoxide in Stickstoff und Wasser umwandelt. Hauptnachteil dieser SCR-Technologie ist jedoch das Mitführen eines zusätzlichen Betriebsstoffes, der für die selektive Reduktion der Stickoxide als Reduktionsmittel benötigt wird. Im Rahmen dieser Arbeit wurden verschiedenste potenzielle Reduktionsmittel aufgrund von Literaturstudien wie auch durch unter Praxisbedingungen gewonnenen Erkenntnisse analysiert und bewertet. Hierbei standen insbesondere die Feststoffreduktionsmittel im Vordergrund, da diese chemischen Verbindungen im Vergleich zur derzeit als Referenz geltenden 32,5%igen Harnstoffwasserlösung eine viel höhere massen- wie auch volumenbezogene NH3-Speicherdichte aufweisen (siehe Kapitel 3.1.1). Dieser Punkt ist im Hinblick auf einen späteren Fahrzeugeinsatz und der damit gleichzeitig auferlegten Prämisse der Inspektionsintervallabdeckung von großer Bedeutung. Unter Verwendung dieser sowie der in Kapitel 7 aufgelisteten und geforderten Eigenschaften an das optimale Reduktionsmittel, wurde Ammoniumcarbamat als eine aussichtsreiche Alternative favorisiert. Hierauf gestützt wurde mit der Entwicklung einer speziell für das Reduktionsmittel Ammoniumcarbamat zugeschnittenen Dosierapparatur begonnen. Kernidee dieser Apparatur ist die direkte Sublimation des Ammoniumcarbamats an einer beheizten Stempelfläche. Damit sich keine Wärmebrücke zwischen Heizfläche und Ammoniumcarbamatschüttgut ausbildet, wird der Stempel mit Bohrungen versehen, wodurch das Gasgemisch, bestehend aus NH3 und CO2 in einen definierten Gaspufferraum, abgeleitet wird. Des weiteren wird der Kontakt zur Heizfläche durch einen Vorschubmechanismus gewährleistet. Es wurde zusätzlich untersucht, welchen Einfluss die Anpresskraft des Vorschubmechanismus sowie die Heizflächentemperatur auf die Abdampfrate des Ammoniumcarbamats ausübt. Da das System unter dem Aspekt einer kritischen Drossel dimensioniert wird, können reproduzierbare Reduktionsmittelmassenströme aus dem System entnommen werden. Das Problem der Resublimierung des Ammoniumcarbamats an kalten Stellen wird umgangen, indem das System nach dem Prinzip der Thermophorese rechnerisch ausgelegt wird. Hierdurch wird genau definiert, welche Systembauteile nach Abschalten des Systems als erstes auskühlen. Die kälteste Stelle ist somit die Stelle, an der die Ablagerungen gezielt entstehen und durch dort existierende Heizvorrichtungen beseitigt werden können. Nachdem diese Problematik zufrieden stellend im Laborbetrieb gelöst war, wurde mit der Integration des Sublimierers in den Versuchswagen begonnen. Hierzu war es notwendig, die Ansteuerung und Regelung des Sublimierers mittels eines Programms, welches mit der Steuergerätesoftware ASCET-SD programmiert wurde, zu erstellen. Nach erfolgreicher Inbetriebnahme des Sublimierers im Fahrzeug, wurden während der Testzyklen sowie der Straßenerprobung folgende wichtige Ergebnisse gewonnen.
Fiber Dynamics in Turbulent Flows -Part I: General Modeling Framework -Part II: Specific Taylor Drag
(2005)
Part I: General Modeling Framework The paper at hand deals with the modeling of turbulence effects on the dynamics of a long slender elastic fiber. Independent of the choice of the drag model, a general aerodynamic force concept is derived on the basis of the velocity field for the randomly fluctuating component of the flow. Its construction as centered differentiable Gaussian field complies thereby with the requirements of the stochastic k-turbulence model and Kolmogorov’s universal equilibrium theory on local isotropy. Part II: Specific Taylor Drag In [12], an aerodynamic force concept for a general air drag model is derived on top of a stochastic k-epsilon description for a turbulent flow field. The turbulence effects on the dynamics of a long slender elastic fiber are particularly modeled by a correlated random Gaussian force and in its asymptotic limit on a macroscopic fiber scale by Gaussian white noise with flow - dependent amplitude. The paper at hand now presents quantitative similarity estimates and numerical comparisons for the concrete choice of a Taylor drag model in a given application.
In this dissertation a model of melt spinning (by Doufas, McHugh and Miller) has been investigated. The model (DMM model) which takes into account effects of inertia, air drag, gravity and surface tension in the momentum equation and heat exchange between air and fibre surface, viscous dissipation and crystallization in the energy equation also has a complicated coupling with the microstructure. The model has two parts, before onset of crystallization (BOC) and after onset of crystallization (AOC) with the point of onset of crystallization as the unknown interface. Mathematically the model has been formulated as a Free boundary value problem. Changes have been introduced in the model with respect to the air drag and an interface condition at the free boundary. The mathematical analysis of the nonlinear, coupled free boundary value problem shows that the solution of this problem depends heavily on initial conditions and parameters which renders the global analysis impossible. But by defining a physically acceptable solution, it is shown that for a more restricted set of initial conditions if a unique solution exists for IVP BOC then it is physically acceptable. For this the important property of the positivity of the conformation tensor variables has been proved. Further it is shown that if a physically acceptable solution exists for IVP BOC then under certain conditions it also exists for IVP AOC. This gives an important relation between the initial conditions of IVP BOC and the existence of a physically acceptable solution of IVP AOC. A new investigation has been done for the melt spinning process in the framework of classical mechanics. A Hamiltonian formulation has been done for the melt spinning process for which appropriate Poisson brackets have been derived for the 1-d, elongational flow of a viscoelastic fluid. From the Hamiltonian, cross sectionally averaged balance mass and momentum equations of melt spinning can be derived along with the microstructural equations. These studies show that the complicated problem of melt spinning can also be studied under the framework of classical mechanics. This work provides the basic groundwork on which further investigations on the dynamics of a fibre could be carried out. The Free boundary value problem has been solved numerically using shooting method. Matlab routines have been used to solve the IVPs arising in the problem. Some numerical case studies have been done to study the sensitivity of the ODE systems with respect to the initial guess and parameters. These experiments support the analysis done and throw more light on the stiff nature and ill posedness of the ODE systems. To validate the model, simulations have been performed on sets of data provided by the company. Comparison of numerical results (axial velocity profiles) has been done with the experimental profiles provided by the company. Numerical results have been found to be in excellent agreement with the experimental profiles.
Flavonoide des Apfels: Transport in Caco-2-Kolonzellen und Einfluss auf den Fremdstoffmetabolismus
(2005)
In Tierexperimenten wurde eine antikanzerogene Wirkung von Flavonoiden gegenüber Brust-, Dickdarm-, Magen, sowie Lungenkrebs festgestellt. [Boyer, 2004] Da der Krebsentstehung multifaktorielle Prozesse zu Grunde liegen, werden verschiedene Mechanismen diskutiert wie Flavonoide protektiv eingreifen können. Die genaue biologische Wirkung der Nahrungskomponenten und der humantherapeutische Nutzen ist aber weitgehend ungeklärt. Deshalb wurden in dieser Arbeit Flavonoide des Apfels auf die Wirkung des Fremdstoffmetabolismus im Kolon untersucht. Ziel dieser Arbeit war es Apfelsaftextrakt, der aus Äpfeln 2002 gewonnen wurde und ausgewählte Flavonoide, die in diesem Apfelsaft vorkommen auf ihre Wirkung auf den Fremdstoffmetabolismus und ihre Aufnahme in die Enterozyten zu untersuchen. In den Zytotxizitätsassays MTT-Test und Alamar-BlueTM-Test zeigten sowohl der Apfelsaftextrakt als auch die einzelnen Substanzen einen signifikanten, konzentrationsabhängigen Effekt. Vor allem das Disaccharid Rutin zeigt schon in geringen Konzentrationen starke zytotoxische Effekte. Diese könnte daran liegen, dass Rutin wie in den Transportassays gesehen sehr schlecht in die Zellen gelangt und deshalb im Medium stärker oxidiert werden kann, als die anderen Stoffe. Das Enzym CYP1A1 wurde durch den Apfelsaftextrakt und die Flavonoide Quercetin und Phloridzin leicht induziert. Dieser Effekt konnte auf mRNA, Proteinebene und bei der Aktivitätsmessung beobachtet werden. Diese Effekte sind im Vergleich zum potenten Induktor TCDD sehr gering, so dass diese für die in vivo-Situation nicht von belang sind. Sehr viel größer als die agonistische ist die antagonistische Wirkung von den Aglyka Quercetin, Phloretin und auch vom Apfelsaftextrakt. Diese Effekte konnten auch auf mRNA, Proteinebene und bei der Aktivitätsmessung des Enzyms gemessen werden. Quercetin zeigte sich als so starker Inhibitor, es konnte die TCDD-induzierte CYP1A1-Aktivität sogar um 99% bei einer Konzentration von 50µM im EROD-Assay zurückdrängen, wodurch die Flavonoide protektiv in die Krebsentstehung eingreifen können. Quercetin, Phloretin und der Apfelsaftextrakt AS02 erweisen sich als starke Antagonisten. Damit können Flavonoide des Apfels die metabolische Aktivierung chemischer Kanzerogene wie z. B. Benzo[a]pyren oder herterocyclischer, aromatischer Amine hemmen und eventuell auf diese Weise zur Verminderung des Darmkrebsrisikos beitragen.Interaktionen zwischen Flavonoiden und Fremdstofftransportern werden als möglicher Mechanismus diskutiert, der von großer Relevanz für den Einsatz von Flavonoiden als krebspräventative Stoffe. Mehrere Flavonoide wurden in den letzten Jahren gefunden, die den MRP-vermittelten Stofftransport in Tumorzellen modulieren können [Hooijberg, 1997]. MRP2 ist ein weiteres Enzym, welches im Rahmen dieser Arbeit untersucht wurden. Es kann durch Quercetin und den Apfelsaftextrakt signifikant und konzentrations-abhängig in der Real Time PCR und auch im Western Blot induziert werden. Diese Induktion könnte an der Aktivierung des sogenannten Antioxidant Response Element liegen. ARE kann durch redox-aktive Substanzen aktiviert werden und kann die Induktion von Enzymen wie die NADPH Chinonoxidoreduktase, GSH, UGT1A6 und auch MRP2 bewirken. Die Induktion von MRP2 beruht wahrscheinlich auf der Redox-Aktivität der 3‘,4‘-Catechol-Struktur des Quercetins. Die Wirkung des Apfelsaftextraktes könnte an dem im Extrakt enthaltenen Quercetin und seinen Glykosiden, die durch die LPH und Glukosidasen in der Zelle in Quercetin gespalten werden können, liegen. Die Induktion des MRP2-Transporters hat einen Einfluß auf die intestinale Entgiftung und die Verteilung von Xenobiotika in den Darmkrebszellen. Zellschädigende Stoffe können so schneller aus der Zelle herausgeschleust werden und können nicht mehr toxisch wirken, ein chemopräventativer Effekt tritt ein. In Transportassays sollte die Aufnahme der Polyphenole in die Zellen untersucht werden. Bei den Substanzen war eine erleichterte Diffusion oder ein aktiver Transport nicht zu erwarten, was durch die Papp-Werte bestätigt wird. Quercetin gelangt wohl durch passive Diffusion in die Zellen, genau wie Phloretin, wobei Quercetin besser in die Zellen gelangt. Phloridzin gelangt schlechter in die Zellen hinein, allerdings kann man im UV-Spektrum eindeutig sehen, dass der Zucker des Phloridzins abgespalten wird, es entsteht aber kein Phloretin als Aglykon, sondern ein Phloretin-ähnlicher Stoff. Es könnte sich um ein Glucoronid handeln oder es könnte eine Methoxygruppe eingeführt sein, was allerdings mit dieser Methode nicht näher bestimmt werden konnte, sondern mit einer HPLC-MS. Rutin hat wegen des Disaccharides keine Affinität zur LPH oder zu dem Glucosetransporter SGLT1 und gelangt deshalb nur sehr schlecht bis gar nicht in die Zelle. Die Aglyka gelangen am besten in die Zelle, wo sie unter anderem ihre starken antagonistischen Effekte in Bezug auf CYP1A1 bewirken können.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribological
performance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online
monitoring and prediction of wear progress in practical applications.
Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte
die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungs und Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
Das L1 Adhäsionsmolekül vermittelt wichtige migratorische Prozesse bei der Entwicklung des Nervensystems und schützt Neuronen vor Apoptose. Außerdem wird L1 auf vielen Tumoren exprimiert, wo es die Motilität von Tumorzellen erhöht und so vermutlich die Metastasierung begünstigt. In der vorliegenden Arbeit wurde zunächst der Einfluss von L1 auf die Apoptose von Tumorzellen untersucht. Dabei wurde beobachtet, dass die Expression von L1 zu einer erhöhten Resistenz gegen Apoptose führt. In Ovarialkarzinomzellen korreliert die Stärke der Expression mit der Apoptoseresistenz und die Behandlung einer Mischpopulation aus L1-positiven und -negativen Zellen mit Cisplatin führt zur Selektion und Anreicherung ersterer. An der Induktion der Apoptoseresistenz ist nicht nur transmembranes L1 beteiligt, sondern auch durch membranproximale Spaltung freigesetztes lösliches L1, das durch Apoptose vermehrt generiert wird. Die Inhibition der Spaltung mit Metalloproteinase-Inhibitoren stellt die Sensitivität gegen Apoptose wieder her und weist auf eine wichtige Rolle der Spaltung von L1 bzw. anderer Faktoren (z.B. HB-EGF) bei der Zytoprotektion hin. L1 kann nicht nur an der Plasmamembran gespalten, sondern auch über Vesikel freigesetzt werden. In dieser Arbeit wurde eine Methode etabliert, um verschiedene vesikuläre Strukturen zu trennen und zu charakterisieren. Dies ermöglichte erstmals den Nachweis von L1,ADAM10 und -17 in von Tumorzellen sekretierten Exosomen. In Ovarialkarzinomzellen findet die Spaltung von L1 unter konstitutiven Bedingungen in Membranstrukturen der Endosomen und des Golgi-Apparates statt und steht in einem direkten Zusammenhang mit der Ausschüttung von Exosomen. Ein ähnlicher Mechanismus ist auch nach Behandlung der Zellen mit Spaltung-induzierenden Substanzen, wie APMA, MCD, TFP oder Ionomycin, zu beobachten. In Aszites von Ovarialkarzinom-Patientinnen konnten ebenfalls Exosomen nachgewiesen werden. Die Sekretion von Exosomen stellt einen wichtigen Mechanismus zur ADAM10-vermittelten Generierung von löslichem L1 in vitro und vermutlich auch in vivo dar. Mit Neuropilin-1 konnte ein neuer Interaktionspartner von L1 auf Mesothelzellen identifiziert werden. Dabei können Tumorzellen L1-vermittelt an NRP1-positive Zellen adhärieren. Weiterhin kann lösliches L1 als Ligand an NRP1-exprimierende Zellen binden. Dies zeigt eine neue Möglichkeit zur Interaktion von disseminierten Tumorzellen mit Mesothelzellen im Peritoneum.
We work in the setting of time series of financial returns. Our starting point are the GARCH models, which are very common in practice. We introduce the possibility of having crashes in such GARCH models. A crash will be modeled by drawing innovations from a distribution with much mass on extremely negative events, while in ''normal'' times the innovations will be drawn from a normal distribution. The probability of a crash is modeled to be time dependent, depending on the past of the observed time series and/or exogenous variables. The aim is a splitting of risk into ''normal'' risk coming mainly from the GARCH dynamic and extreme event risk coming from the modeled crashes. We will present several incarnations of this modeling idea and give some basic properties like the conditional first and second moments. For the special case that we just have an ARCH dynamic we can establish geometric ergodicity and, thus, stationarity and mixing conditions. Also in the ARCH case we formulate (quasi) maximum likelihood estimators and can derive conditions for consistency and asymptotic normality of the parameter estimates. In a special case of genuine GARCH dynamic we are able to establish L_1-approximability and hence laws of large numbers for the processes itself. We can formulate a conditional maximum likelihood estimator in this case, but cannot completely establish consistency for them. On the practical side we look for the outcome of estimating models with genuine GARCH dynamic and compare the result to classical GARCH models. We apply the models to Value at Risk estimation and see that in comparison to the classical models many of ours seem to work better although we chose the crash distributions quite heuristically.
Traditional methods fail for the purpose of simulating the complete flow process in urban areas as a consequence of heavy rainfall and as required by the European Standard EN-752 since the bi-directional coupling between sewer and surface is not properly handled. The methodology, developed in the BMBF/ EUREKA-project RisUrSim, solves this problem by carrying out the runoff on the basis of shallow water equations solved on high-resolution surface grids. Exchange nodes between the sewer and the surface, like inlets and manholes, are located in the computational grid and water leaving the sewer in case of surcharge is further distributed on the surface. So far, it has been a problem to get the dense topographical information needed to build models suitable for hydrodynamic runoff calculation in urban areas. Recent airborne data collection methods like laser scanning, however, offer a great chance to economically gather densely sampled input data. This paper studies the potential of such laser-scan data sets for urban water hydrodynamics.
This Essay considers the motives and the formation of European New Towns, in particular German ones. For this reason it studies basically the development of German New towns, further defines the German classification of this urban term. This essay suggests additionally for this sense a kind of classification in Germany – considering to periodical as well as formal progress of German New towns. All suggested classes are specifically and individually recognized and introduced, for each one is also given specific examples. Each case is furthermore introduced and it’s motive of formation and development are considered as well, e.g. cities like Ludwigshafen, Hellerau, Wolfsburg, Wulfen. Regarding to the development of German New Towns and up to the given facts in the essay, the current and the expected situation of German New towns are finally considered, also the sense of German experiences for Iranian New towns, and it’s possible significance for them.
We introduce splines for the approximation of harmonic functions on a 3-dimensional ball. Those splines are combined with a multiresolution concept. More precisely, at each step of improving the approximation we add more data and, at the same time, reduce the hat-width of the used spline basis functions. Finally, a convergence theorem is proved. One possible application, that is discussed in detail, is the reconstruction of the Earth´s density distribution from gravitational data obtained at a satellite orbit. This is an exponentially ill-posed problem where only the harmonic part of the density can be recovered since its orthogonal complement has the potential 0. Whereas classical approaches use a truncated singular value decomposition (TSVD) with the well-known disadvantages like the non-localizing character of the used spherical harmonics and the bandlimitedness of the solution, modern regularization techniques use wavelets allowing a localized reconstruction via convolutions with kernels that are only essentially large in the region of interest. The essential remaining drawback of a TSVD and the wavelet approaches is that the integrals (i.e. the inner product in case of a TSVD and the convolution in case of wavelets) are calculated on a spherical orbit, which is not given in reality. Thus, simplifying modelling assumptions, that certainly include a modelling error, have to be made. The splines introduced here have the important advantage, that the given data need not be located on a sphere but may be (almost) arbitrarily distributed in the outer space of the Earth. This includes, in particular, the possibility to mix data from different satellite missions (different orbits, different derivatives of the gravitational potential) in the calculation of the Earth´s density distribution. Moreover, the approximating splines can be calculated at varying resolution scales, where the differences for increasing the resolution can be computed with the introduced spline-wavelet technique.
Using covering problems (CoP) combined with binary search is a well-known and successful solution approach for solving continuous center problems. In this thesis, we show that this is also true for center hub location problems in networks. We introduce and compare various formulations for hub covering problems (HCoP) and analyse the feasibility polyhedron of the most promising one. Computational results using benchmark instances are presented. These results show that the new solution approach performs better in most examples.
In many industrial applications fast and accurate solutions of linear elliptic partial differential equations are needed as one of the building blocks of more complex problems. The domains are often highly complex and meshing turns out to be expensive and difficult to obtain with a sufficient quality. In such cases methods with a regular, not boundary adapted grid offer an attractive alternative. The Explicit Jump Immersed Interface Method is one of these algorithms. The main interest of this work lies in solving the linear elasticity equations. For this purpose the existing EJIIM algorithm has been extended to three dimensions. The Poisson equation is always considered in parallel as the most typical representative of elliptic PDEs. During the work it became clear that EJIIM can have very high computational memory requirements. To overcome this problem an improvement, Reduced EJIIM is proposed. The main theoretical result in this work is the proof of the smoothing property of inverses of elliptic finite difference operators in two and three space dimensions. It is an often observed phenomena that the local truncation error is allowed to be of lower order along some lower dimensional manifold without influencing the global convergence order of the solution.
Under physiological conditions oxygen is constantly being converted to reactive oxygen intermediates, in mitochondria, peroxisomes, cytochrome p450 systems, macrophages, neutrophils and in plasma membranes. These reactive oxygen species (ROS) are toxic and therefore alter cell integrity leading to cell damage. To protect itself against this toxic effect of ROS, living systems have developed defence systems that scavenge ROS formation. These systems include some enzymes, transporting proteins and small antioxidant molecules for instance vitamin C and E. This thesis describes a study on the antioxidant chemistry and activity of vitamin C in vivo and in vitro systems using ESR spectroscopy. Also, a new method was designed to label ascorbic acid with a fluorescent marker. Moreover, some important criteria were considered for the evaluation and quantification of ascorbyl radicals in human blood plasma using two types of ESR spectrometers.
Consider a cooling process described by a nonlinear heat equation. We are interested to recover the initial temperature from temperature measurements which are available on a part of the boundary for some time. Up to now even for the linear heat equation such a problem has been usually studied as a nonlinear ill-posed operator equation, and regularization methods involving Frechet derivatives have been applied. We propose a fast derivative-free iterative method. Numerical results are presented for the glass cooling process, where nonlinearity appears due to radiation.
Der Trend zur Verfügbarkeit mehrerer Mobilfunknetze im gleichen Versorgungsgebiet nicht nur unterschiedlicher Operatoren, sondern auch unterschiedlicher Mobilfunkstandards in möglicherweise unterschiedlichen Hierarchieebenen führt zu einer Vielzahl von Koexistenzszenarien, in denen Intersystem- und Interoperator-MAI die einzelnen Mobilfunknetze beeinträchtigen können. In der vorliegenden Arbeit wird ein systematischer Zugang zur Koexistenzproblematik durch die Klassifizierung der MAI erarbeitet. Eine MAI-Art kann dabei mehreren MAI-Klassen angehören. Durch die Einteilung in Klassen wird angestrebt, zum einen die eine MAI-Art beeinflussenden Effekte anhand der Zugehörigkeit zu bestimmten MAI-Klassen besser verstehen zu können. Zum anderen dient die Einteilung der MAI in Klassen zum Abschätzen der Gefährlichkeit einer MAI-Art, über die sich Aussagen machen lassen anhand der Zugehörigkeit zu bestimmten MAI-Klassen. Der Begriff Gefährlichkeit einer MAI-Art schließt neben der mittleren Leistung auch weitere Eigenschaften wie Varianz oder Ursache der MAI ein. Einfache Schlimmstfall-Abschätzungen, wie sie in der Literatur gebräuchlich sind, können leicht zu Fehleinschätzungen der Gefährlichkeit einer MAI-Art führen. Durch die Kenntnis der zugehörigen MAI-Klassen einer MAI-Art wird die Gefahr solcher Fehleinschätzungen erkennbar. Neben den Schlimmstfall-Abschätzungen unter Berücksichtigung der MAI-Klassen werden in der vorliegenden Arbeit auch Simulationen durchgeführt, anhand derer die Abschätzungen verifiziert werden. Dazu werden Werkzeuge in Form von mathematischen Modellen zum Berechnen der Leistung der verschiedenen MAI-Arten unter Einbeziehen der verschiedenen betrachteten Verfahren zum Mindern von MAI erarbeitet. Dabei wird auch ein Konzept zum Vermindern der erforderlichen Rechenleistung vorgestellt. Anhand der Untersuchung der Koexistenz der beispielhaften Mobilfunksysteme WCDMA und TD-CDMA wird gezeigt, daß sich das Auftreten extrem hoher Intersystem- bzw. Interoperator-MAI durch geeignete Wahl der Systemparameter wie Zellradien und Antennenhöhen, sowie durch Verfahren zum Mindern von MAI wie effizienten Leistungsregelungsverfahren und dynamische Kanalzuweisung meist vermeiden läßt. Es ist jedoch essentiell, daß die Koexistenzproblematik bereits in der Phase der Funknetzplanung adäquat berücksichtigt wird. Dabei ist eine Kooperation der beteiligten Operatoren meist nicht notwendig, lediglich besonders kritische Fälle wie Kollokation von BSen verschiedener TDD-Mobilfunknetze z.B. nach dem 3G-Teilstandard TD-CDMA müssen von den Operatoren einvernehmlich vermieden werden. Da bei der Koexistenz von Mobilfunknetzen in Makrozellen aufgrund ihres hohen Zellradius besonders hohe Interoperator-MAI für den Fall der Gleichstrecken-MAI auftreten kann, wird in der vorliegenden Arbeit ein neuartiges Konzept zum Vermindern dieser MAI basierend auf Antennentechniken vorgestellt. Das Konzept zeigt ein vielverspechendes Potential zum Mindern der Interoperator-MAI.
Fliehkraftbedingte Aufweitungen und Verzerrungen der nur wenige Mikrometer großen Lagerspalte sowie strömungsdynamische Instabilitäten wie der des Halbfrequenzwirbels sind heutige physikalische Grenzen gasgeschmierter Lagerungen für hohe Drehfrequenzen. Neben der Entwicklung neuartiger, inhomogener Materialien wie zum Beispiel Verbunde, sind Verkleinerungen der Flugkreise aktuelle Lösungsstrategien dieser Problematiken. Die Entwicklung, Realisierung und experimentelle Untersuchung eines hochfrequenten Lagersystems konventioneller Baugröße, unter Verwendung ordinärer, homogener Materialien ist Ziel vorliegender Arbeit. Die Ausarbeitung einer Idee für drehfrequenzunabhängige fliehkraftinvariante Lagerspalte überführt die Problematik der Fliehkraftaufweitung zur alleinigen Grenze der maximal verträglichen Spannung des Rotormaterials unter Fliehkraft. Sowohl die Größe als auch die Kreuzkoppelungen von Kreiselmomenten, die in einer der Störung unterschiedlichen Richtung ihrer Antworten resultieren, sind durch isotrope Gesamtauslegung der Lagerspaltcharakteristika und der Rotorträgheitsmomente auf das mögliche Minimum zu reduzieren. Hierfür sollen sich Lagerkräfte um den isotropen Mittelpunkt, der auch gleichzeitig der Massenmittelpunkt des Rotors darstellt, gegeneinander auslöschen. Analytische Untersuchungen der resultierenden Eigenfrequenzen des Lagersystems gaben Rückschlüsse auf mögliche, eigenfrequenzgebundene Instabilitäten über dem Drehfrequenzbereich. Durch eine vorgeschaltete Steifigkeit vor das Lagersystem konnten diese Eigenfrequenzen derart nach oben transformiert werden, daß solche Instabilitäten auszuschließen sind. Da als dynamisch arbeitendes, gasgeschmiertes Lager konzipiert wurde, bis zum Erreichen der Levitationsdrehfrequenz, eine statisch arbeitende, gasgeschmierte Anlaufhilfe in das dynamisch arbeitende System integriert. Zur Erfassung der Rotorlage und –dynamik im Betrieb wurde ein optischer „low-cost“ Sensor mit der der Optik eines handelsüblichen CD-Roms entwickelt. Mit fünf dieser Sensoren und einer eigens hierfür entwickelten Auswerteelektronik konnte die Rotordynamik bis zu einer Drehfrequenz von 3 kHz und mit bis zu 90.000 Signalen pro Sekunde sicher erfaßt werden. Die entwickelte Software war, in Verbindung mit den gelieferten Abstandsinformationen der digitalen Meßwertelektronik, in der Lage das System nach Parametrierung autonom so zu steuern und zu regeln, daß der vorgegebene Nennlagerspalt und die vorgegebene Drehfrequenz stets eingehalten werden konnte. Die experimentellen Ergebnisse spiegelten eindeutig die analytisch verfolgten Ziele der fliehkraftinvarianten, isotropen und eigenfrequenzoptimierten Gestaltung wieder und bilden in analytischer Auslegung, rotordynamischer Behandlung und Eigenfrequenzbeeinflussung neue Grundlagen für hochfrequent drehende, gasgeschmierte Lagersysteme, die zum Teil auch auf Wälzlagerungen übertragbar sind.
Jahresbericht 2004
(2005)
In the thesis the task of channel estimation in beyond 3G service area based mobile radio air interfaces is considered. A system concept named Joint Transmission and Detection Integrated Network (JOINT) forms the target platform for the investigations. A single service area of JOINT is considered, in which a number of mobile terminals is supported by a number of radio access points, which are connected to a central unit responsible for the signal processing. The modulation scheme of JOINT is OFDM. Pilot-aided channel estimation is considered, which has to be performed only in the uplink of JOINT, because the duplexing scheme TDD is applied. In this way, the complexity of the mobile terminals is reduced, because they do not need a channel estimator. Based on the signals received by the access points, the central unit estimates the channel transfer functions jointly for all mobile terminals. This is done by resorting to the a priori knowledge of the radiated pilot signals and by applying the technique of joint channel estimation, which is developed in the thesis. The quality of the gained estimates is judged by the degradation of their signal-to-noise ratio as compared to the signal-to-noise ratio of the respective estimates gained in the case of a single mobile terminal radiating its pilots. In the case of single-element receive antennas at the access points, said degradation depends solely on the structure of the applied pilots. In the thesis it is shown how by a proper design of the pilots the SNR degradation can be minimized. Besides using appropriate pilots, the performance of joint channel estimation can be further improved by the inclusion of additional a-priori information in the estimation process. An example of such additional information would be the knowledge of the directional properties of the radio channels. This knowledge can be gained if multi-element antennas are applied at the access points. Further, a-priori channel state information in the form of the power delay profiles of the radio channels can be included in the estimation process by the application of the minimum mean square error estimation principle for joint channel estimation. After having intensively studied the problem of joint channel estimation in JOINT, the thesis rounds itself by considering the impact of the unavoidable channel estimation errors on the performance of data estimation in JOINT. For the case of small channel estimation errors occurring due to the presence of noise at the access points, the performance of joint detection in the uplink and of joint transmission in the downlink of JOINT are investigated based on simulations. For the uplink, which utilizes joint detection, it is shown to which degree the bit error probability increases due to channel estimation errors. For the downlink, which utilizes joint transmission, channel estimation errors lead to an increase of the required transmit power, which can be quantified by the simulation results.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Tropfen-Tropfen Koaleszenzphänomenen in Flüssig-Flüssig Dispersionen. Ziel der Arbeit war es mit Hilfe einfacher Laborapparaturen die kennzeichnenden Koaleszenzparameter zu identifizieren und zu quantifizieren. Im Fokus der Untersuchungen lagen die von der EFCE (European Federation of Chemical Engineers) empfohlenen Teststoffsysteme Toluol/Aceton/Wasser und n-Butylacetat/Aceton/Wasser. Messungen in einem Rührbehälter bzw. in einer Venturizelle haben gezeigt, dass die Tropfen-Tropfen-Koaleszenz von einer Vielzahl von Parametern abhängig ist. Neben den Betriebs- und Stoffdaten bestimmt auch die chemische Zusammensetzung des Systems das Koaleszenzverhalten. Ionische Verunreinigungen und auch Basen haben eine koaleszenz-hemmende Wirkung, wohingegen Säuren und auch bestimmte Elektrolyte die Tropfen-Tropfen-Koaleszenz begünstigen. Beide Phänomene sind auf die Ladungsverteilung im Bereich der Phasengrenzfläche und die damit verbundene Ausdehnung der elektrochemischen Doppelschicht zurückzuführen. Im Falle von Stoffaustauschuntersuchungen bestimmt darüber hinaus auch die Anwesenheit einer Transferkomponente das Koaleszenzgeschehen. Beobachtungen aus der Literatur konnten bestätigt werden, dass die Koaleszenz verstärkt wird, wenn der Stoffaustausch von der dispersen in die kontinuierliche Phase realisiert wird. Tropfengröße und Hold-up sind dann, im Vergleich zu den Untersuchungen ohne Stoffaustausch, für die Koaleszenz nicht mehr relevant. Mit Kenntnis der grundsätzlichen Einflussfaktoren wurden die unbekannten Koaleszenz-parmeter im Segment eines technischen Extraktionsapparates vom Typ RDC (Rotating Disc Contactor) bestimmt. Dazu wurden die Tropfengrößenverteilungen am Ein- und Austritt des Segments in Abhängigkeit von Energieeintrag und Belastung vermessen. Auf Basis eines diskreten Tropfen-Populations-Bilanz-Modells wurde ein Optimierungsalgorithmus entwickelt, der unter Variation der modellspezifischen Anpassungsparameter die simulierte Tropfen-größenverteilung am Austritt an die experimentell bestimmte Verteilung anpassen kann. Modellansätze von Sovova und von Coulaloglou und Tavlarides waren Gegenstand der Optimierung. Die Berechnung der Tropfenaufstiegsgeschwindigkeit und der Zerfallsfrequenz erfolgte auf Basis von Korrelationen, die aus Einzeltropfenuntersuchungen entwickelt wurden. Auf Basis der zur Verfügung stehenden Modellparameter wurden Simulationsrechnungen für eine Technikumskolonne vom Typ RDC durchgeführt und mit experimentellen Messergebnissen verglichen und bewertet. Insbesondere die Simulationsergebnisse mit dem Stoffsystem n-Butylacetat/Wasser zeigten die Bedeutung der Koaleszenz für eine korrekte Kolonnenberechnung auf. Aufgrund der geringen Grenzflächenspannung des Systems sind die tropfengrößenspezifischen Zerfallswahrscheinlichkeiten bereits bei geringen Rotordrehzahlen verhältnismäßig hoch. Dies führt bei einer Vernachlässigung der Koaleszenz zu einer Tropfengrößenverteilung, die zu kleine Tropfendurchmesser voraus berechnet und signifi-kant von den experimentellen Ergebnissen abweicht. Insbesondere das Modell von Coulaloglou und Tavlarides vermag die Gegebenheiten für die untersuchten Betriebs- und Stoffdaten korrekt wiederzugeben. Das Modell von Sovova kann aufgrund seiner Modellcharakteristik die Tropfen-Tropfen-Koaleszenz in gerührten Flüssig-Flüssig-Dispersionen nicht exakt beschreiben.
Durch Metathese gelang es aus Cadmiumiodid und zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid bzw. Natrium-tri(tert.-butyl)cyclopentadienid die monomeren Metallocene Bis(tetraisopropylcyclopentadienyl)cadmium (4) und Bis[tri(tert.-butyl)cyclopentadienyl]cadmium (5) herzustellen, welche ohne koordinierte Lösungsmittel oder Alkalimetallsalze vorliegen. Zusätzlich zeichnen sie sich durch gute Sublimierbarkeit, Lichtbeständigkeit und Löslichkeit aus. Weiterhin ist es gelungen, durch die Umsetzung von Cadmiumiodid mit Natrium-tri(tert.-butyl)cyclopentadienid und Mestitylmagnesiumbromid den ersten kristallstrukturanalytisch charakterisierten Cyclopentadienylkomplex des Cadmiums herzustellen, der einen Aryl-Liganden trägt. Das durch Metathese von Zinkiodid und zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid hergestellte Bis[tri(tert.-butyl)cyclopentadienyl]zink (2) liegt ebenfalls als Monomer vor. Komplex 2 zeigt zu den Liganden eine 1- / 5- Bindungssituation, wodurch am Zinkatom eine 18 Valenzelektronenkonfiguration erzeugt wird. Durch die Kombination von Phasentransferkatalyse und anschließender Metallierung/ Alkylierung, wurde eine Synthesevariante für Tetraisopropylcyclopentadien entwickelt, bei der unter nur geringer Ausbeuteeinbuße die Verwendung von flüssigem Ammoniak vermieden und eine deutliche Arbeitsersparnis erreicht werden konnte. Weiterhin wurde durch Behandlung von geminal dialkylierten Pentaisopropylcyclopentadien-Isomeren mit n-Butyllithium im Ultraschallbad ein neuer Zugang zu Lithiumpenta-isopropylcyclopentadienid durch die Verschiebung einer Alkylgruppe gefunden. Die Umsetzung von zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid mit einem Äquivalent SmCl3  2 THF liefert mit dem Natrium-bis(tetra-isopropylcyclopentadienyl)-dichloro-bis(dimethoxyethan)-samarat (16) das erste kristallographisch charakterisierte Natriumsamarat mit sterisch aufwendig substituierten Cp-Liganden. Das monomere Bis[tri(tert.-butyl)cyclopentadienyl]samarium(III)iodid (17) dagegen wurde durch eine Oxidation von Hexa(tert.-butyl)samarocen mit CuI hergestellt. Das voluminöse Iodid im Zusammenspiel mit den sterisch aufwendigen Cyclopentadienylliganden bewirkt, dass weder eine Salzadduktbildung noch eine Koordination von Donorlösungsmitteln zu beobachten ist. Eine Umsetzung äquimolarer Mengen von Natrium-tetraisopropylcyclopentadienid mit CeCl3  1,5 THF und anschließende Kristallisation aus TMEDA ergab den polymeren Komplex [(4Cp2Ce)(μ-Cl)2Na(TMEDA)2] (18). Die Kristallstrukturanalyse zeigt, dass Komplex 18 in zick – zack – förmiger Kettenstruktur vorliegt, welche aus einzelnen [4Cp2CeCl2Na(TMEDA)2] – Einheiten zusammengesetzt ist. Die Metathese von LaI3  3,75 THF mit zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid bzw. Natrium-tetraisopropylcyclopentadienid lieferte Bis[tri(tert.-butyl)cyclopenta-dienyl]lanthan(III)iodid (20) und Bis[tetraisopropyl-cyclopentadienyl]-lanthan(III)iodid) (21). Eine erste erfolgreiche Umsetzung von 20 mit einem Äquivalent Na2COT ergab Cyclooctatetraenyl-[tri(tert.-butyl)cyclopentadienyl]lanthan(III) (22).
In dieser Arbeit wurden auf der Basis des felinen Foamyvirus (FFV) bzw. Spumaretrovirus diverse replikationsdefiziente Vektoren entwickelt und deren Tranduktionseffizienz, Stabilität, Markergenexpression und biologische Sicherheit unter Zellkulturbedingungen charakterisiert. Ausgehend von replikationskompetenten FFV-Vektoren wurden zunächst so genannte selbst-inaktivierende (SIN) Vektoren, in welchen die LTR-Promotoraktivität inhibiert ist, konstruiert. Diese FFV-SIN-Vektoren erlaubten eine stabile Transduktion und Markergenexpression, entwickelten jedoch nach einer begrenzten Zeit replikationskompetente Revertanten und waren daher nicht zur Transduktion langlebiger Zellen geeignet. In Analogie zu humanen Foamyvirus-basierenden Vektoren wurde anschließend ein Großteil der env-Sequenz aus den SIN-Vektoren deletiert, um die biologische Sicherheit der Vektoren zu erhöhen. Diese Env-deletierten und FFV-Promotor-abhängigen Vektoren waren allerdings aufgrund eines schwachen und schnell abklingenden Markergentransfers nicht zur effizienten und stabilen Markergentransduktion geeignet. Zur Entwicklung replikationsdefizienter Vektoren mit einem starken heterologen Promotor zur Markergenexpression wurden verschiedene Deletionen in das Vektorgenom eingeführt und Helferplasmide für die Strukturgene bzw. viralen Enzyme kloniert. Hiermit wurde ein transientes Transfektionssystem zur Produktion von Vektorpartikeln etabliert, wobei die für den Markergentransfer essentiellen cis-agierenden Sequenzen auf dem FFV-Genom identifiziert wurden. Die Lokalisation zweier essentieller cis-agierender Sequenzen am 5’-Ende des Genoms und in pol ermöglichte die anschließende Konstruktion replikationsdefizienter Bel1-unabhängiger Vektoren, in denen die 3’ von pol liegenden Gene fast vollständig deletiert und durch eine Expressionskassette, bestehend aus dem humanen Ubiquitin C-Promotor und dem lacZ-Gen, ersetzt wurden. Diese neuen FFV-basierenden Vektoren erlauben einen effizienten Markergentransfer und ermöglichen eine stabile Transduktion diverser Zielzellen bei gleichzeitiger nicht nachweisbarer viraler Genexpression und replikationskompetenter Revertanten. Daher sind diese Vektoren biologisch sicher, zur Transduktion langlebiger Zellen geeignet und können daher für gentherapeutische Untersuchungen in tierexperimentellen Modellen verwendet werden.
In modern geoscience, understanding the climate depends on the information about the oceans. Covering two thirds of the Earth, oceans play an important role. Oceanic phenomena are, for example, oceanic circulation, water exchanges between atmosphere, land and ocean or temporal changes of the total water volume. All these features require new methods in constructive approximation, since they are regionally bounded and not globally observable. This article deals with methods of handling data with locally supported basis functions, modeling them in a multiscale scheme involving a wavelet approximation and presenting the main results for the dynamic topography and the geostrophic flow, e.g., in the Northern Atlantic. Further, it is demonstrated that compressional rates of the occurring wavelet transforms can be achieved by use of locally supported wavelets.
Wireless LANs operating within unlicensed frequency bands require random access schemes such as CSMA/ CA, so that wireless networks from different administrative domains (for example wireless community networks) may co-exist without central coordination, even when they happen to operate on the same radio channel. Yet, it is evident that this Jack of coordination leads to an inevitable loss in efficiency due to contention on the MAC layer. The interesting question is, which efficiency may be gained by adding coordination to existing, unrelated wireless networks, for example by self-organization. In this paper, we present a methodology based on a mathematical programming formulation to determine the
parameters (assignment of stations to access points, signal strengths and channel assignment of both access points and stations) for a scenario of co-existing CSMA/ CA-based wireless networks, such that the contention between these networks is minimized. We demonstrate how it is possible to solve this discrete, non-linear optimization problem exactly for small
problems. For larger scenarios, we present a genetic algorithm specifically tuned for finding near-optimal solutions, and compare its results to theoretical lower bounds. Overall, we provide a benchmark on the minimum contention problem for coordination mechanisms in CSMA/CA-based wireless networks.
Der Begriff Risiko ist heutzutage durch politische Bewegungen wie KonTraG und Basel II sowie spektakuläre Unternehmenszusammenbrüche in aller Munde. Dabei wird immer wieder darauf hingewiesen, dass die Unternehmen ganzheitliche integrierte Risikomanagement- und controllingsysteme installieren sollen, um den gesetzlichen Regelungen Genüge zu leisten, keinen dramatischen Anstieg der Refinanzierungskosten verzeichnen zu müssen und das Unternehmen rechtzeitig vor der Illiquidität bewahren zu können. Dazu sind mittlerweile unzählige Vorschläge zur funktionalen und institutionalen Ausgestaltung dieser Systeme vorgenommen worden. Risikosoftware wurde zunächst vermehrt in Banken eingesetzt, da dies schon früh eine Forderung des Bundesaufsichtsamtes für Kreditwesen zum Betreiben von Handelsgeschäften war. In den vergangenen Jahren hat sich, hervorgerufen durch die oben genannten Veränderungen, ein allgemeiner Markt (also auch für Nicht-Banken) für Softwareprogramme, welche die Behandlung des Risikos unterstützen, gebildet. Dieser ist zum einen durch eine Vielzahl von Anbietern geprägt und zum anderen sind die Ausgestaltungsformen der einzelnen Programme sehr unterschiedlich. Es existiert quasi für jedes Risiko (z.B. Liquidität) eine spezielle Software. Damit ergibt sich bei der Auswahl von Software ein komplexes Entscheidungsproblem, auf welches in den folgenden Ausführungen näher eingegangen werden soll. Die Ergebnisse, die in dieser Studie zusammengefasst sind wurden in dem auf Excel basierenden Tool Lynkeus programmiert, sodass eine unternehmensindividuelle Auswahl der Alternativen auf Basis der Nutzwertanalyse möglich ist.
In this thesis we have discussed the problem of decomposing an integer matrix \(A\) into a weighted sum \(A=\sum_{k \in {\mathcal K}} \alpha_k Y^k\) of 0-1 matrices with the strict consecutive ones property. We have developed algorithms to find decompositions which minimize the decomposition time \(\sum_{k \in {\mathcal K}} \alpha_k\) and the decomposition cardinality \(|\{ k \in {\mathcal K}: \alpha_k > 0\}|\). In the absence of additional constraints on the 0-1 matrices \(Y^k\) we have given an algorithm that finds the minimal decomposition time in \({\mathcal O}(NM)\) time. For the case that the matrices \(Y^k\) are restricted to shape matrices -- a restriction which is important in the application of our results in radiotherapy -- we have given an \({\mathcal O}(NM^2)\) algorithm. This is achieved by solving an integer programming formulation of the problem by a very efficient combinatorial algorithm. In addition, we have shown that the problem of minimizing decomposition cardinality is strongly NP-hard, even for matrices with one row (and thus for the unconstrained as well as the shape matrix decomposition). Our greedy heuristics are based on the results for the decomposition time problem and produce better results than previously published algorithms.
In the first part of this work, called Simple node singularity, are computed matrix factorizations of all isomorphism classes, up to shiftings, of rank one and two, graded, indecomposable maximal Cohen--Macaulay (shortly MCM) modules over the affine cone of the simple node singularity. The subsection 2.2 contains a description of all rank two graded MCM R-modules with stable sheafification on the projective cone of R, by their matrix factorizations. It is given also a general description of such modules, of any rank, over a projective curve of arithmetic genus 1, using their matrix factorizations. The non-locally free rank two MCM modules are computed using an alghorithm presented in the Introduction of this work, that gives a matrix factorization of any extension of two MCM modules over a hypersurface. In the second part, called Fermat surface, are classified all graded, rank two, MCM modules over the affine cone of the Fermat surface. For the classification of the orientable rank two graded MCM R-modules, is used a description of the orientable modules (over normal rings) with the help of codimension two Gorenstein ideals, realized by Herzog and Kühl. It is proven (in section 4), that they have skew symmetric matrix factorizations (over any normal hypersurface ring). For the classification of the non-orientable rank two MCM R-modules, we use a similar idea as in the case of the orientable ones, only that the ideal is not any more Gorenstein.
The HMG-CoA reductase inhibitors SIM, LOV, ATV, PRA, FV and NKS were investigated for their effects on human SkMCs. We were able to demonstrate that statins can induce oxidative stress (ROS formation, GSH-depletion, TBARS), apoptosis (, caspase-3 activity, nuclear morphology) and necrosis (LDH-leakage) in hSkMCs. After incubation with statins, the sequence of cellular events starts by the increased formation of ROS (30 min) followed by caspase-3 activation (2-4 hours) and necrosis (LDH-leakage) and formation of condensed and fragmented nuclei after 24-72 hours. It was shown that, antioxidants (NAC, DTT, TPGS, M-2 and M-3) and the HMG-CoA reductase downstream metabolites (MVA, F, FPP, GG and GGPP) protected against statin-induced ROS formation, caspase-3 activation and partially from necrosis. The caspase-3 inhibitor Ac-DEVD-CHO rescues cells partially from necrosis. These results suggest that the statin-induced necrosis is HMG-CoA dependent and occurs secondary to apoptosis, which by decrease of ATP is driven into necrosis. The increase of ATP observed at low concentrations and early time points suggest an increased glycolytic activity. This was confirmed by increased PDK-4 gene expression and increased PFK2/F-2,6-BPase expression both activator of glycolysis. Glycolysis was also confirmed for some statins by increased cellular lactate concentations. The consequence of PDK-4 mediated pyruvate dehydrogenase inactivation is the metabolic switching from fatty acid to amino acid from proteins as energy source. The oxidative stress hypothesis was further supported by the induction of the FOXO3A transcription factor, which is involved in regulating MnSOD-2 expression in the mitochondrium. The mechanism by which statins produce ROS is still not resolved. There is an indirect evidence from our experiments as well as from the literature, that immediately after the statin treatment, intracellular Ca2+ is mobilized due to HMG-CoA reductase inhibition, which after mitochondrial uptake could lead to increased ROS formation.
Over the last decades, mathematical modeling has reached nearly all fields of natural science. The abstraction and reduction to a mathematical model has proven to be a powerful tool to gain a deeper insight into physical and technical processes. The increasing computing power has made numerical simulations available for many industrial applications. In recent years, mathematicians and engineers have turned there attention to model solid materials. New challenges have been found in the simulation of solids and fluid-structure interactions. In this context, it is indispensable to study the dynamics of elastic solids. Elasticity is a main feature of solid bodies while demanding a great deal of the numerical treatment. There exists a multitude of commercial tools to simulate the behavior of elastic solids. Anyhow, the majority of these software packages consider quasi-stationary problems. In the present work, we are interested in highly dynamical problems, e.g. the rotation of a solid. The applicability to free-boundary problems is a further emphasis of our considerations. In the last years, meshless or particle methods have attracted more and more attention. In many fields of numerical simulation these methods are on a par with classical methods or superior to them. In this work, we present the Finite Pointset Method (FPM) which uses a moving least squares particle approximation operator. The application of this method to various industrial problems at the Fraunhofer ITWM has shown that FPM is particularly suitable for highly dynamical problems with free surfaces and strongly changing geometries. Thereby, FPM offers exactly the features that we require for the analysis of the dynamics of solid bodies. In the present work, we provide a numerical scheme capable to simulate the behavior of elastic solids. We present the system of partial differential equations describing the dynamics of elastic solids and show its hyperbolic character. In particular, we focus our attention to the constitutive law for the stress tensor and provide evolution equations for the deviatoric part of the stress tensor in order to circumvent limitations of the classical Hooke's law. Furthermore, we present the basic principle of the Finite Pointset Method. In particular, we provide the concept of upwinding in a given direction as a key ingredient for stabilizing hyperbolic systems. The main part of this work describes the design of a numerical scheme based on FPM and an operator splitting to take the different processes within a solid body into account. Each resulting subsystem is treated separately in an adequate way. Hereby, we introduce the notion of system-inherent directions and dimensional upwinding. Finally, a coupling strategy for the subsystems and results are presented. We close this work with some final conclusions and an outlook on future work.
Die Nachhaltige Entwicklung gilt spätestens seit der Weltkonferenz 1992 in Rio de Janeiro als globales Leitbild. Zehn Jahre später wurde es durch die Konferenz in Johannesburg weiter konkretisiert und ausdifferenziert. In diesem Kontext entwickelten zahlreiche Regierungen Nachhaltigkeitsstrategien, um das Leitbild der Nachhaltigen Entwicklung zu implementieren. Dennoch sind die Diskussionen hierzu oft noch unspezifisch und konzeptionell ungenügend abgesichert. Insbesondere wurden Indikatoren und Handlungsfelder sowie deren Wechselbeziehungen stark isoliert diskutiert. Der vorliegende Diskussionsbeitrag präsentiert daher eine Methode zur Systematisierung von Handlungsfeldern und Indikatoren. Ausgangspunkt sind die drei Säulen der Nachhaltigen Entwicklung (Ökologie, Ökonomie und Soziales), die in einem Dreieck zusammengeführt werden. Das Dreieck ist in Felder aufgeteilt, um die verschiedenen Zusammenhänge zwischen den drei Säulen abzubilden. Das „Integrierende Nachhaltigkeits-Dreieck“ soll Handlungsfelder und Indikatoren systematisch im Rahmen der Nachhaltigen Entwicklung einordnen. Dieser methodische Ansatz wird gegenwärtig in der Entwicklung der „Nachhaltigkeitsstrategie für Rheinland-Pfalz“ umgesetzt.
Carbon-fibre reinforced plastics have been widely used in the aerospace industry as
materials for structural components. During recent years, the focus has been on
preform/RTM materials with the aim of improving material properties and reducing
costs. Harnessing the full potential of these materials requires a model for assessing
the properties and in particular long-term behaviour. Such a model needs to take into
account the special conditions of these materials. Basic failure mechanisms have to
be analysed in order to develop this kind of model.
Consequently, the aim of the work was to investigate the fatigue phenomenon in
preform-CFRP materials with thermoset matrices on a microstructural level. The
influence of the dynamic loading and the temperature on the emerging fracture
phenomena should be identified. Based on the results, a common fracture mechanism
should be found. The failure should be described on a mesoscopic level so that
it is not restricted on the fatigue failure at a single crack front.
To achieve this aim, different preform materials with EP matrix (some of which had
been subjected to impact) were loaded with dynamic compression load and high
frequent alternate bending. The fatigue behaviour of the matrix systems was investigated
by CT tests.
By means of microfractography, the only method for detecting fatigue failure as such,
the failure mechanisms were analysed at submicroscopic level. The results showed
correlations between microstructure and failure.
It became apparent that what in the technical literature has been given as an explanation
for the appearance of the fatigue striations in the scanning electron microscope
had to be corrected. As undercuts are not reflected in the SEM as dark striations,
the appearance of the striations must be based on different inclinations of the
local fractured surface to the primary electron beam.
On the basis of this result the shape and the formation of the fatigue striations could
be shown in resin pockets and fibre imprints. Fatigue striations have a shape which
sticks out from the fracture plane, preferably in the form of steps.
There was no proof for an influence of the high frequent load on the formation of
fatigue striations. However, it was possible to find lamellar fracture phenomena which
have not been described in the technical literature yet. Due to their shape and their occurrence these can be understood rather as a sign of a dynamic load then as a
fracture phenomenon of a high frequent cyclic loading.
The examinations of the high frequent loaded samples, where temperatures up to
120°C occurred, as well as in the CT tests with elevated temperatures (60% Tg)
yielded no proof that the temperature has an influence on the mechanical failure
behaviour. However, the formation of the fatigue striations in high frequent loaded
specimens leads to the deduction that adiabatic heating exists at the crack tip which
leads to large plastic deformations because the glass transition temperature is exceeded
locally.
The microfractographic investigations showed that the fatigue striations appear as
separate static fractures. On account of their shape and in relation to the matching
fracture surfaces plastic processes can be held responsible for the formation of the
striations. Altogether this leads to a modification of the models for the origin of fatigue
striations prevalent in the technical literature. The suggested model associates the
real fracture growth under fatigue loading only with a small part of the loading cycle.
Crack propagation only occurs when the maximum stress intensity is reached in the
area of the upper loading of the cycle. Microplastic processes by molecular rearrangement
in the stress field ahead of the crack tip lead to the blunting of the crack
tip, which is reflected as fatigue striations on the fracture surface. Simultaneously, the
cyclic loading causes damages in the molecular network of the thermoset. This leads
to the possibility of fracture formation below the static stress at break.
On the basis of the model and of fatigue crack growth diagrams it is possible to
establish thresholds for the stress intensity necessary for crack propagation under
cyclic load. The upper threshold of the stress intensity corresponds to KC, because it
marks the transition to unstable crack growth. The lower threshold is determined by
the value of the cyclic stress intensity factor where crack growth has just ceased to
be ascertainable.
With the existing model of local crack growth under fatigue loading and the results of
the chronological course of failure from the microfractographic investigations of the
different materials it was possible to detect a general failure mechanism for the
preform-CFRP materials.
When an external alternating load is applied, an inhomogeneous stress field forms in
the composite material. In areas stressed within the growth stress, fatigue growth occurs in the form of secondary fractures within the matrix. The primary crack front
runs along these damaged points in the material until global failure occurs. This leads
to a discontinuous, stepwise failure expiration under fatigue loading. This general
mechanism permits assessment of the damage behaviour and the progression of
failure in various types of fibre reinforcement.
Since its invention by Sir Allistair Pilkington in 1952, the float glass process has been used to manufacture long thin flat sheets of glass. Today, float glass is very popular due to its high quality and relatively low production costs. When producing thinner glass the main concern is to retain its optical quality, which can be deteriorated during the manufacturing process. The most important stage of this process is the floating part, hence is considered to be responsible for the loss in the optical quality. A series of investigations performed on the finite products showed the existence of many short wave patterns, which strongly affect the optical quality of the glass. Our work is concerned with finding the mechanism for wave development, taking into account all possible factors. In this thesis, we model the floating part of the process by an theoretical study of the stability of two superposed fluids confined between two infinite plates and subjected to a large horizontal temperature gradient. Our approach is to take into account the mixed convection effects (viscous shear and buoyancy), neglecting on the other hand the thermo-capillarity effects due to the length of our domain and the presence of a small stabilizing vertical temperature gradient. Both fluids are treated as Newtonian with constant viscosity. They are immiscible, incompressible, have very different properties and have a free surface between them. The lower fluid is a liquid metal with a very small kinematic viscosity, whereas the upper fluid is less dense. The two fluids move with different velocities: the speed of the upper fluid is imposed, whereas the lower fluid moves as a result of buoyancy effects. We examine the problem by means of small perturbation analysis, and obtain a system of two Orr-Sommerfeld equations coupled with two energy equations, and general interface and boundary conditions. We solve the system analytically in the long- and short- wave limit, by using asymptotic expansions with respect to the wave number. Moreover, we write the system in the form of a general eigenvalue problem and we solve the system numerically by using Chebyshev spectral methods for fluid dynamics. The results (both analytical and numerical) show the existence of the small-amplitude travelling waves, which move with constant velocity for wave numbers in the intermediate range. We show that the stability of the system is ensured in the long wave limit, a fact which is in agreement with the real float glass process. We analyze the stability for a wide range of wave numbers, Reynolds, Weber and Grashof number, and explain the physical implications on the dynamics of the problem. The consequences of the linear stability results are discussed. In reality in the float glass process, the temperature strongly influences the viscosity of both molten metal and hot glass, which will have direct consequences on the stability of the system. We investigate the linear stability of two superposed fluids with temperature dependent viscosities by considering a different model for the viscosity dependence of each fluid. Although, the temperature-viscosity relationships for glass and metal are more complex than those used in our computations, our intention is to emphasize the effects of this dependence on the stability of the system. It is known from the literature that in the case of one fluid, the heat, which causes viscosity to decrease along the domain, usually destabilizes the flow. For the two superposed fluids problem we investigate this behaviour and discuss the consequences of the linear stability in this new case.
The thesis is focused on modelling and simulation of a Joint Transmission and Detection Integrated Network (JOINT), a novel air interface concept for B3G mobile radio systems. Besides the utilization of the OFDM transmission technique, which is a promising candidate for future mobile radio systems, and of the duplexing scheme time division duplexing (TDD), the subdivision of the geographical domain to be supported by mobile radio communications into service areas (SAs) is a highlighted concept of JOINT. A SA consists of neighboring sub-areas, which correspond to the cells of conventional cellular systems. The signals in a SA are jointly processed in a Central Unit (CU) in each SA. The CU performs joint channel estimation (JCE) and joint detection (JD) in the form of the receive-zero-forcing (RxZF) Filter for the uplink (UL) transmission and joint transmission (JT) in the form of the transmit-zero-forcing (TxZF) Filter for the downlink (DL) transmission. By these algorithms intra-SA multiple access interference (MAI) can be eliminated within the limits of the used model so that unbiased data estimates are obtained, and most of the computational effort is moved from mobile terminals (MTs) to the CU so that the MTs can do with low complexity. A simulation chain of JOINT has been established in the software MLDesigner by the author based on time discrete equivalent lowpass modelling. In this simulation chain, all key functionalities of JOINT are implemented. The simulation chain is designed for link level investigations. A number of channel models are implemented both for the single-SA scenario and the multiple-SA scenario so that the system performance of JOINT can be comprehensively studied. It is shown that in JOINT a duality or a symmetry of the MAI elimination in the UL and in the DL exists. Therefore, the typical noise enhancement going along with the MAI elimination by JD and JT, respectively, is the same in both links. In the simulations also the impact of channel estimation errors on the system performance is studied. In the multiple-SA scenario, due to the existence of the inter-SA MAI, which cannot be suppressed by the algorithms of JD and JT, the system performance in terms of the average bit error rate (BER) and the BER statistics degrades. A collection of simulation results show the potential of JOINT with respect to the improvement of the system performance and the enhancement of the spectrum e±ciency as compared to conventional cellular systems.
Inverse treatment planning of intensity modulated radiothrapy is a multicriteria optimization problem: planners have to find optimal compromises between a sufficiently high dose in tumor tissue that garantuee a high tumor control, and, dangerous overdosing of critical structures, in order to avoid high normal tissue complcication problems. The approach presented in this work demonstrates how to state a flexible generic multicriteria model of the IMRT planning problem and how to produce clinically highly relevant Pareto-solutions. The model is imbedded in a principal concept of Reverse Engineering, a general optimization paradigm for design problems. Relevant parts of the Pareto-set are approximated by using extreme compromises as cornerstone solutions, a concept that is always feasible if box constraints for objective funtions are available. A major practical drawback of generic multicriteria concepts trying to compute or approximate parts of the Pareto-set is the high computational effort. This problem can be overcome by exploitation of an inherent asymmetry of the IMRT planning problem and an adaptive approximation scheme for optimal solutions based on an adaptive clustering preprocessing technique. Finally, a coherent approach for calculating and selecting solutions in a real-timeinteractive decision-making process is presented. The paper is concluded with clinical examples and a discussion of ongoing research topics.
In this paper, theory and algorithms for solving the multiple objective minimum cost flow problem are reviewed. For both the continuous and integer case exact and approximation algorithms are presented. In addition, a section on compromise solutions summarizes corresponding results. The reference list consists of all papers known to the autheors which deal with the multiple objective minimum cost flow problem.
Non-commutative polynomial algebras appear in a wide range of applications, from quantum groups and theoretical physics to linear differential and difference equations. In the thesis, we have developed a framework, unifying many important algebras in the classes of \(G\)- and \(GR\)-algebras and studied their ring-theoretic properties. Let \(A\) be a \(G\)-algebra in \(n\) variables. We establish necessary and sufficient conditions for \(A\) to have a Poincar'e-Birkhoff-Witt (PBW) basis. Further on, we show that besides the existence of a PBW basis, \(A\) shares some other properties with the commutative polynomial ring \(\mathbb{K}[x_1,\ldots,x_n]\). In particular, \(A\) is a Noetherian integral domain of Gel'fand-Kirillov dimension \(n\). Both Krull and global homological dimension of \(A\) are bounded by \(n\); we provide examples of \(G\)-algebras where these inequalities are strict. Finally, we prove that \(A\) is Auslander-regular and a Cohen-Macaulay algebra. In order to perform symbolic computations with modules over \(GR\)-algebras, we generalize Gröbner bases theory, develop and respectively enhance new and existing algorithms. We unite the most fundamental algorithms in a suite of applications, called "Gröbner basics" in the literature. Furthermore, we discuss algorithms appearing in the non-commutative case only, among others two-sided Gröbner bases for bimodules, annihilators of left modules and operations with opposite algebras. An important role in Representation Theory is played by various subalgebras, like the center and the Gel'fand-Zetlin subalgebra. We discuss their properties and their relations to Gröbner bases, and briefly comment some aspects of their computation. We proceed with these subalgebras in the chapter devoted to the algorithmic study of morphisms between \(GR\)-algebras. We provide new results and algorithms for computing the preimage of a left ideal under a morphism of \(GR\)-algebras and show both merits and limitations of several methods that we propose. We use this technique for the computation of the kernel of a morphism, decomposition of a module into central characters and algebraic dependence of pairwise commuting elements. We give an algorithm for computing the set of one-dimensional representations of a \(G\)-algebra \(A\), and prove, moreover, that if the set of finite dimensional representations of \(A\) over a ground field \(K\) is not empty, then the homological dimension of \(A\) equals \(n\). All the algorithms are implemented in a kernel extension Plural of the computer algebra system Singular. We discuss the efficiency of computations and provide a comparison with other computer algebra systems. We propose a collection of benchmarks for testing the performance of algorithms; the comparison of timings shows that our implementation outperforms all of the modern systems with the combination of both broad functionality and fast implementation. In the thesis, there are many new non-trivial examples, and also the solutions to various problems, arising in different fields of mathematics. All of them were obtained with the developed theory and the implementation in Plural, most of them are treated computationally in this thesis for the first time.
The present thesis deals with a novel approach to increase the resource usage in digital communications. In digital communication systems, each information bearing data symbol is associated to a waveform which is transmitted over a physical medium. The time or frequency separations among the waveforms associated to the information data have always been chosen to avoid or limit the interference among them. By doing so, n the presence of a distortionless ideal channel, a single receive waveform is affected as little as possible by the presence of the other waveforms. The conditions necessary to meet the absence of any interference among the waveforms are well known and consist of a relationship between the minimum time separation among the waveforms and their bandwidth occupation or, equivalently, the minimum frequency separation and their time occupation. These conditions are referred to as Nyquist assumptions. The key idea of this work is to relax the Nyquist assumptions and to transmit with a time and/or frequency separation between the waveforms smaller than the minimum required to avoid interference. The reduction of the time and/or frequency separation generates not only an increment of the resource usage, but also a degradation in the quality of the received data. Therefore, to maintain a certain quality in the received signal, we have to increase the amount of transmitted power. We investigate the trade-off between the increment of the resource usage and the correspondent performance degradation in three different cases. The first case is the single carrier case in which all waveforms have the same spectrum, but have different temporal locations. The second one is the multi carrier case in which each waveform has its distinct spectrum and occupies all the available time. Finally, the hybrid case when each waveform has its unique time and frequency location. These different cases are framed within the general system modelling developed in the thesis so that they can be easily compared. We evaluate the potential of the key idea of the thesis by choosing a set of four possible waveforms with different characteristics. By doing so, we study the influence of the waveform characteristics in the three system configurations. We propose an interpretation of the results by modifying the well-known Shannon capacity formula and by explicitly expressing its dependency on the increment of resource usage and on the performance degradation. The results are very promising. We show that both in the case of a single carrier system with a time limited waveform and in the case of a multi-carrier system with a frequency limited waveform, the reduction of the time or frequency separation, respectively, has a positive effect on the channel capacity. The latter, depending on the actual SNR, can double or increase even more significantly.
The aim of the thesis is the numerical investigation of saturated, stationary, incompressible Newtonian flow in porous media when inertia is not negligible. We focus our attention to the Navier-Stokes system with two pressures derived by two-scale homogenization. The thesis is subdivided into five Chapters. After the introductory remarks on porous media, filtration laws and upscaling methods, the first chapter is closed by stating the basic terminology and mathematical fundamentals. In Chapter 2, we start by formulating the Navier-Stokes equations on a periodic porous medium. By two-scale expansions of the velocity and pressure, we formally derive the Navier-Stokes system with two pressures. For the sake of completeness, known existence and uniqueness results are repeated and a convergence proof is given. Finally, we consider Stokes and Navier-Stokes systems with two pressures with respect to their relation to Darcy's law. Chapter 3 and Chapter 4 are devoted to the numerical solution of the nonlinear two pressure system. Therefore, we follow two approaches. The first approach which is developed in Chapter 3 is based on a splitting of the Navier-Stokes system with two pressures into micro and macro problems. The splitting is achieved by Taylor expanding the permeability function or by discretely computing the permeability function. The problems to be solved are a series of Stokes and Navier-Stokes problems on the periodicity cell. The Stokes problems are solved by an Uzawa conjugate gradient method. The Navier-Stokes equations are linearized by a least-squares conjugate gradient method, which leads to the solution of a sequence of Stokes problems. The macro problem consists of solving a nonlinear uniformly elliptic equation of second order. The least-squares linearization is applied to the macro problem leading to a sequence of Poisson problems. All equations will be discretized by finite elements. Numerical results are presented at the end of Chapter 3. The second approach presented in Chapter 4 relies on the variational formulation in a certain Hilbert space setting of the Navier-Stokes system with two pressures. The nonlinear problem is again linearized by the least-squares conjugate gradient method. We obtain a sequence of Stokes systems with two pressures. For the latter systems, we propose a fast solution method which relies on pre-computing Stokes systems on the periodicity cell for finite element basis functions acting as right hand sides. Finally, numerical results are discussed. In Chapter 5 we are concerned with modeling and simulation of the pressing section of a paper machine. We state a two-dimensional model of a press nip which takes into account elasticity and flow phenomena. Nonlinear filtration laws are incorporated into the flow model. We present a numerical solution algorithm and the chapter is closed by a numerical investigation of the model with special focus on inertia effects.
The existence of a complete, embedded minimal surface of genus one, with three ends and whose total Gaussian curvature satisfies equality in the estimate of Jorge and Meeks, was a sensation in the middle eighties. From this moment on, the surface of Costa, Hoffman and Meeks has become famous all around the world, not only in the community of mathematicians. With this article, we want to fill a gap in the injectivity proof of Hoffman and Meeks, where there is a lack of a strict mathematical justification. We exclusively argue topologically and do not use additional properties like differentiability or even holomorphy.
Flow of non-Newtonian fluid in saturated porous media can be described by the continuity equation and the generalized Darcy law. Efficient solution of the resulting second order nonlinear elliptic equation is discussed here. The equation is discretized by a finite volume method on a cell-centered grid. Local adaptive refinement of the grid is introduced in order to reduce the number of unknowns. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Two residual based error indicators are exploited in the adaptive refinement criterion. Second order accurate discretization of the fluxes on the interfaces between refined and non-refined subdomains, as well as on the boundaries with Dirichlet boundary condition, are presented here, as an essential part of the accurate and efficient algorithm. A nonlinear full approximation storage multigrid algorithm is developed especially for the above described composite (coarse plus locally refined) grid approach. In particular, second order approximation of the fluxes around interfaces is a result of a quadratic approximation of slave nodes in the multigrid - adaptive refinement (MG-AR) algorithm. Results from numerical solution of various academic and practice-induced problems are presented and the performance of the solver is discussed.
It is considered an analytical model of defaultable bond portfolio in terms of its face value process. The face value process dynamically evolves with time and incorporates changes caused by recovery payment on default followed by purchasing of new bonds. The further studies involve properties, distribution and control of the face value process.
We analyze the regular oblique boundary problem for the Poisson equation on a C^1-domain with stochastic inhomogeneities. At first we investigate the deterministic problem. Since our assumptions on the inhomogeneities and coefficients are very weak, already in order to formulate the problem we have to work out properties of functions from Sobolev spaces on submanifolds. An further analysis of Sobolev spaces on submanifolds together with the Lax-Milgram lemma enables us to prove an existence and uniqueness result for weak solution to the oblique boundary problem under very weak assumptions on coefficients and inhomogeneities. Then we define the spaces of stochastic functions with help of the tensor product. These spaces enable us to extend the deterministic formulation to the stochastic setting. Under as weak assumptions as in the deterministic case we are able to prove the existence and uniqueness of a stochastic weak solution to the regular oblique boundary problem for the Poisson equation. Our studies are motivated by problems from geodesy and through concrete examples we show the applicability of our results. Finally a Ritz-Galerkin approximation is provided. This can be used to compute the stochastic weak solution numerically.
Im vorliegenden Bericht werden die Erfahrungen und Ergebnisse aus dem Projekt OptCast zusammengestellt. Das Ziel dieses Projekts bestand (a) in der Anpassung der Methodik der automatischen Strukturoptimierung für Gussteile und (b) in der Entwicklung und Bereitstellung von gießereispezifischen Optimierungstools für Gießereien und Ingenieurbüros. Gießtechnische Restriktionen lassen sich nicht vollständig auf geometrische Restriktionen reduzieren, da die lokalen Eigenschaften nicht nur von der geometrischen Form des Gussteils, sondern auch vom verwendeten Material abhängen. Sie sind jedoch über eine Gießsimulation (Erstarrungssimulation und Eigenspannungsanalyse) adäquat erfassbar. Wegen dieser Erkenntnis wurde ein neuartiges Topologieoptimierungsverfahren unter Verwendung der Level-Set-Technik entwickelt, bei dem keine variable Dichte des Materials eingeführt wird. In jeder Iteration wird ein scharfer Rand des Bauteils berechnet. Somit ist die Gießsimulation in den iterativen Optimierungsprozess integrierbar.
Im Rahmen der Arbeit wurden neue monosubstituierte, optisch aktive Cyclopentadienylliganden mit [2.2.1]-bicyclischen Substituenten synthetisiert. Als Startmaterialien dienten Verbindungen aus dem chiral pool wie beispielsweise Campher, Borneol oder auch Fenchon. Mit den neuen Liganden wurden optisch aktive Komplexe des Zirkoniums und des Titans hergestellt. Ein erstes Katalyseexperiment (katalytische Hydrierung) wurde durchgeführt.
A gradient based algorithm for parameter identification (least-squares) is applied to a multiaxial correction method for elastic stresses and strains at notches. The correction scheme, which is numerically cheap, is based on Jiang's model of elastoplasticity. Both mathematical stress-strain computations (nonlinear PDE with Jiang's constitutive material law) and physical strain measurements have been approximized. The gradient evaluation with respect to the parameters, which is large-scale, is realized by the automatic forward differentiation technique.
Metallocenes containing diarylethene type photochromic switches are synthesized, characterized and tested in polyolefin catalysts. Propylene polymerizations using unbridged bis(2,3-dibenzo[b]thiophen-3-yl)cyclopenta[b]thien-3-yl)zirconium dichloride/MAO (80) treated with 254nm UV irradiation produced bimodal polymer distributions by GPC. This was due to an increase in the low molecular weight fractions when the closed form of the catalyst/photoswitch was made. Comparison with similarly structured catalyst without photoisomerization properties did not produce bimodal polymer under identical conditions. Propylene polymerizations made with dimethylsilyl[(1,5-dimethyl-3-phenylcyclopenta[b]thien-6-yl)][(2,3-dibenzothien-3-yl)cyclopenta[b]thien-6-yl)]zirconium dichloride/MAO (86) with 254nm UV irradiation caused a 3 fold increase in the polymer molecular weight. Polymers made with ethylene and ethylene/hexene using (80) after UV irradiation did not show differences in measured polymer properties. Polymerizations with ethylene/ hexene mixtures using (86) had increased activity and co-monomer (hexene) incorporation with UV irradiation.
In der vorliegenden Arbeit wurden mittels ab initio Methoden die Strukturen und Eigenschaften sowie das Reaktionsverhalten der kationischen Zwischenstufen einer nucleophilen und einer elektrophilen Substitution untersucht. Geometrieoptimierungen wurden unter Verwendung des B3LYP-Dichtefunktionals durchgeführt, Energien und Enthalpien aus Coupled-Cluster (CCSD(T))-Rechnungen gewonnen. Standardmäßig wurde der Basissatz 6-31++G(d,p) benutzt. Im ersten Teil der Arbeit stand die Frage im Mittelpunkt, welchen Einfluss eine Aminosubstitution am Bicyclo[3.1.0]hex-3-ylium-Kation auf dessen Reaktionsverhalten im Vergleich zum Grundkörper hat und ob sich die experimentell beobachteten Produktbilder der nucleophilen Substitution mit der Annahme dieser Zwischenstufe vereinbaren lassen. Die Reaktions- und Aktivierungsenergien der beiden Teilschritte einer nucleophilen S(N)1-Reaktion an chlor-substituierten Amino-Bicyclo[3.1.0]hexanen unter Gegenwart von Methanol und Methanolat-Anionen sowie der Isomerisierungswege des intermediären Amino-Bicyclo[3.1.0]hex-3-ylium-Kations wurden in CCSD(T)-Rechnungen ermittelt. Der Einfluss des Lösungsmittels Methanol auf die Energien wurde unter Verwendung des C-PCM-Modells bestimmt. Es konnte gezeigt werden, dass die Anwesenheit eines NH2- oder Morpholin-Substituenten zwar wenig an den elektronischen Eigenschaften des Bicyclo[3.1.0]hex-3-ylium-Kations ändert, jedoch neue Reaktionswege, insbesondere Möglichkeiten zur Isomerisierung eröffnet. Die Energiebarrieren dieser Prozesse liegen jedoch durchweg über denen eines nucleophilen Angriffs, so dass die Bildung eines thermodynamisch stabilen, methoxy-substituierten Produktes die vorherrschende Reaktion bleibt und keine isomeren Kationen zu erwarten sind. Der Aminorest erzeugt aus sterischen Gründen und durch die von ihm bewirkte Erhöhung des Dipolmomentes im Trishomocyclopropenylium-Kation eine hohe Regioselektivität zugunsten eines nucleophilen Angriffs an Ringposition beta-C(3), was die aus Sicht der Experimentatoren dringendste Frage nach den Ursachen des regio- und stereochemischen Verlauf der Substitution beantwortet. Im zweiten Teil der vorliegenden Dissertation wurden die Strukturen der sigma- und pi-Komplexe der protonierten Aromaten Benzol, Toluol und Mesitylen bestimmt sowie die Energieprofile der in diesen Verbindungen ablaufenden 1,2-Hydridverschiebungen berechnet. Darüber hinaus wurden für Benzol und Mesitylen die Strukturen von Arenium-Aren-Komplexen und Arenium-Tetrachloroaluminat-Verbindungen ermittelt und die Energetik von Protonentransfers innerhalb dieser Spezies untersucht. Als Ergebnis liegt eine umfassende Datenbasis zur Energetik von intra- und intermolekularen Wasserstoffverschiebungen vor. Die von allen aufgeführten Spezies unter Verwendung der SQM-Methode simulierten Schwingungsspektren erlauben es, bestimmte Verbindungen und Zwischenstufen in Zukunft zuverlässiger und schneller zu identifizieren. Es zeigten sich durchweg sehr gute Übereinstimmungen mit Daten aus IR-, NMR-, MS- und Röntgenstruktur-Experimenten. Einige offene Fragen, wie etwa Auffälligkeiten in den Kristallstrukturen, konnten beantwortet werden. Viele bisher nur qualitativ bekannte Fakten können anhand der erarbeiteten Daten in einem neuen Licht betrachtet werden. Die vorliegenden quantenchemischen Daten bestätigen in den untersuchten Fällen die Beobachtungen der Experimentatoren und liefern darüber hinaus eine fundierte Basis für detaillierte Modellvorstellungen über den Mechanismus von Substitutionsreaktionen, die über substituierte Trishomocyclopropenylium-Kationen oder protonierte Alkylbenzole verlaufen.