Refine
Year of publication
- 2009 (135) (remove)
Document Type
- Doctoral Thesis (76)
- Report (35)
- Periodical Part (9)
- Preprint (8)
- Master's Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
- Other (1)
Keywords
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Geothermal Flow (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
- Scattered-Data-Interpolation (2)
- Visualisierung (2)
- algorithmic game theory (2)
- hidden variables (2)
- illiquidity (2)
- image processing (2)
- inverse optimization (2)
- mixture (2)
- nonparametric regression (2)
- option pricing (2)
- series-parallel graphs (2)
- 1 (1)
- 1'-Binaphthyle (1)
- 17beta-Estradiol (1)
- 3D Gene Expression (1)
- 3D Point Data (1)
- AR-ARCH (1)
- Aarhus-Konvention (1)
- Ab-initio-Rechnung (1)
- Abflussbeiwert (1)
- Abflussbildung (1)
- Abflussmodellierung (1)
- Ableitungsschätzung (1)
- Abstandsregeltempomat (1)
- Acrylamid (1)
- Adhäsion (1)
- Adiabatische Abkühlung (1)
- Advanced Encryption Standard (1)
- Agglomerat (1)
- Ah-Rezeptor (1)
- AhR/ER Crosstalk (1)
- Algebraic geometry (1)
- Allgemeinheit (1)
- American options (1)
- Analysis (1)
- Angewandte Toxikologie (1)
- Ansäuerung (1)
- Apfel (1)
- Apfelsaft (1)
- Apoptosis (1)
- Approximationsalgorithmus (1)
- Arbitrage (1)
- Aromatizität (1)
- Atmungskette (1)
- Ausfallwahrscheinlichkeit (1)
- Austin (1)
- Automatic Differentiation (1)
- Automobil (1)
- Automobilindustrie (1)
- Axiale Chiralität (1)
- Azaindirubin (1)
- B3 (1)
- B3- (1)
- BASIL-Verfahren (1)
- BASIL-process (1)
- Bauleitplanung (1)
- Bauplanung (1)
- Bauwesen (1)
- Bebauungsplan (1)
- Befahrbarkeitsanalyse (1)
- Begriff (1)
- Benutzerfreundlichkeit (1)
- Berufliche Entwicklung (1)
- Besonderheit (1)
- Bewertung (1)
- Binaphthalin (1)
- Binomialbaum (1)
- Bionas (1)
- Black–Scholes approach (1)
- Boratom (1)
- Brinkman (1)
- Bruchmechanik (1)
- Building Design (1)
- C3+ (1)
- CAD (1)
- CDO (1)
- CYP1A1 (1)
- CYP1B1 (1)
- CYP3A4 (1)
- Calcium (1)
- Capacitated Hub Location (1)
- Capacity decisions (1)
- Chemisc (1)
- Chemische Analyse (1)
- Chiralität <Chemie> (1)
- Chronische Darmentzündung (1)
- Cluster-Analyse (1)
- Combined IR/UV spectroscopy (1)
- Competence (1)
- Computer Algebra (1)
- Computer Graphic (1)
- Computer algebra (1)
- Computergraphik (1)
- Computerphysik (1)
- Computertomographie (1)
- Constrained mechanical systems (1)
- Constraint Programming (1)
- Cook Wilson (1)
- Cosserat rod (1)
- Crash (1)
- Cross-Cultural Product Development (1)
- Customer distribution (1)
- Cyclopentadienderivate (1)
- Cyochrome P450 (1)
- Cytochomes P450 (1)
- Cytochrom P-450 (1)
- Cytochrome P450 (1)
- Cytotoxicity (1)
- Cytotoxizität (1)
- DNS-Schädigung (1)
- Darmflora (1)
- Darmkrankheit (1)
- Darmkrebs (1)
- Datenerfassung und -auswertung (1)
- Decision support systems (1)
- Deformationsmessung (1)
- Dehnungsmessung (1)
- Delaunay-Triangulierung (1)
- Derivative Estimation (1)
- Design (1)
- Deutschland / Biostoffveror (1)
- Dialektische Logik (1)
- Didaktik (1)
- Diffusion processes (1)
- Digital Image Correlation (1)
- Digitale integrierte Schaltung (1)
- Dimerisierung (1)
- Diskrete Simulation (1)
- Dispergierung (1)
- Disulfidbrücken-Transfer (1)
- Doppelresonanz (1)
- Dreidimensionale Bildverarbeitung (1)
- Dry Coating (1)
- EM algorith (1)
- EM algorithm (1)
- ESPI (1)
- Effective Conductivity (1)
- Eingebettetes System (1)
- Einzelheit <Philosophie> (1)
- Elastomer (1)
- Elektronenspinresonanzspektroskopie (1)
- Elektroporation (1)
- Elliptic boundary value problems (1)
- Elliptisches Randwertproblem (1)
- Englisches Planungssystem (1)
- English Planning System (1)
- Enumerative Geometrie (1)
- Enzyminhibitor (1)
- Erkenntnistheorie (1)
- Ernergie effiziente Bewegung (1)
- Erwartungswert-Varianz-Ansatz (1)
- Estradiol (1)
- Estradiolrezeptor (1)
- Extended Finite-Elemente-Methode (1)
- FEM (1)
- Facility-Management (1)
- Fahrtkostenmodelle (1)
- Fatigue (1)
- Feature Detection (1)
- Feature Extraction (1)
- Ferrocen (1)
- Festigkeitsverteilung (1)
- Finanzkrise (1)
- Finanznumerik (1)
- Finite rotations (1)
- Finite-Elemente-Simulation (1)
- Finite-Volumen-Methode (1)
- First Order Optimality System (1)
- Flexibilisierung (1)
- Flexible multibody dynamics (1)
- Fluid-Feststoff-Strömung (1)
- Fluoreszenz (1)
- Flächennutzungsplan (1)
- Formale Beschreibungstechnik (1)
- Formale Methode (1)
- Formaler Beweis (1)
- Forward-Backward Stochastic Differential Equation (1)
- Freistrahl (1)
- Fremdstoffmetabolismus (1)
- G2++ model (1)
- Galerkin Approximation (1)
- Gasströmung (1)
- Gauß-Filter (1)
- Gene expression programming (1)
- Generierung (1)
- Geodesie (1)
- Geometric (1)
- Georg Wilhelm Friedrich (1)
- Geothermal Systems (1)
- Geothermischer Fluss (1)
- Gewichteter Sobolev-Raum (1)
- Granular (1)
- Granulat (1)
- Graphentheorie (1)
- Grauwertkorrelation (1)
- Gromov-Witten-Invariante (1)
- Group and Organizational Learning (1)
- Gröbner-Basis (1)
- HJM (1)
- Hardwareverifikation (1)
- Harold Arthur (1)
- Hegel (1)
- Helicene (1)
- Heston model (1)
- Heston-Modell (1)
- Heterozyklen (1)
- Heuristic (1)
- Heuristics (1)
- Hexen <1-> (1)
- Hirnstamm (1)
- Hochsicherheitslabor (1)
- Hochskalieren (1)
- Home Health Care (1)
- Homogenisieren (1)
- Homogenisierung <Mathematik> (1)
- Homogenization (1)
- Hub Location (1)
- Hull White model (1)
- Hypoxie (1)
- Hämoglobin (1)
- Hören (1)
- IMRT planning (1)
- ISO-Norm (1)
- Illiquidität (1)
- Imatinib mesilat (1)
- Imidazoliumsalze (1)
- Indigorot (1)
- Indirubin (1)
- Individual (1)
- Induktive logische Programmierung (1)
- Informationsfunktion (1)
- Infrarotspektroskopie (1)
- Inhibitor (1)
- Innovation (1)
- Interkulturelle Produktentwicklung (1)
- Interpolation (1)
- Iterative learning control (1)
- Ito (1)
- Jiang’s Model of Elastoplasticity (1)
- John L. (1)
- Kanalcodierung (1)
- Kardiotoxizität (1)
- Keimbildung (1)
- Kelvin Transformation (1)
- Kern-Schale-Struktur (1)
- Kirchhoff and Cosserat rods (1)
- Kiyoshi (1)
- Kohlenstoff (1)
- Kohlenstofffaserverstärkter Kohlenstoffwerkstoff (1)
- Kombinierte IR/UV-Spektroskopie (1)
- Kommunikationsprotokoll (1)
- Kompetenz (1)
- Konfidenz (1)
- Konvergenzrate (1)
- Konvergenzverhalten (1)
- Kristallmathematik (1)
- Kryptoanalyse (1)
- Kundenbeanspruchung (1)
- Kunststoffschweißen (1)
- Lagrangian mechanics (1)
- Large deformations (1)
- Laser Wakefield Particle Accelerator (1)
- Laval-Düse (1)
- Lebensdauerberechnung (1)
- Lebensstil (1)
- Leber (1)
- Lebertumor (1)
- Lehrmittel (1)
- Leichtbauvarianten (1)
- Linear Programming (1)
- Linking Data Analysis and Visualization (1)
- Liquidität (1)
- Local Development Framework (1)
- Löslichkeit (1)
- MILP formulations (1)
- MIP formulations (1)
- MIP-Emissionsspektroskopie (1)
- MIP-Massenspektrometrie (1)
- Marke (1)
- Markov switching (1)
- Markov-Prozess (1)
- Marktsegmentierung (1)
- Maschinelle Übersetzung (1)
- Maximum Intensity Projection (1)
- Mechanics (1)
- Medizinische Mikrobiologie (1)
- Medizinisches Labor (1)
- Mehrskalenmodell (1)
- Merkmalsextraktion (1)
- Metabolism (1)
- Metaheuristics (1)
- Metallocene (1)
- Mikrobieller (1)
- Mikrobiologie (1)
- Mikrobiologisches Labor (1)
- Mitochondrium (1)
- Modell (1)
- Modellgetriebene Entwicklung (1)
- Modellierung (1)
- Molekularsieb (1)
- Molekularstrahl (1)
- Monte-Carlo methods (1)
- Monte-Carlo-Simulation (1)
- Multi-Asset Option (1)
- Multibody simulation (1)
- Multiscale (1)
- Mustererkennung (1)
- Mutagenität (1)
- N-Liganden (1)
- NICS (1)
- Nanokomposit (1)
- Nanopartikel (1)
- Nash equilibria (1)
- Natural Neighbor (1)
- Natural Neighbor Interpolation (1)
- Natürliche Nachbarn (1)
- Navier-Stokes-Gleichung (1)
- Navigation (1)
- Nichtlineare Finite-Elemente-Methode (1)
- Nichtlineare Kontinuumsmechanik (1)
- Nichtlineare Schwingung (1)
- Noether’s theorem (1)
- Numerische Strömungssimulation (1)
- Nutzerorientierte Produktentwicklung (1)
- Nutzungsprofil (1)
- Objektorientierung (1)
- Operationen (1)
- Optimal Control (1)
- Optimierender Compiler (1)
- Optimierung (1)
- Optimization Algorithms (1)
- Option (1)
- Optische Abbildung (1)
- Optische Messtechn (1)
- P (1)
- POD (1)
- PXR (1)
- Palladiumkomplexe (1)
- Paralleler Hybrid (1)
- Parameter Identification (1)
- Parsimonious Heston Model (1)
- Parteto surface (1)
- Partial Differential Equations (1)
- Particle (1)
- Partielle Differentialgleichung (1)
- Partizipation (1)
- Peer-to-Peer-Netz (1)
- Peugeot (1)
- Pflasterflächen (1)
- Phasengleichgewicht (1)
- Photonische Kristalle (1)
- Pleated Filter (1)
- Poisson-Gleichung (1)
- PolyBoRi (1)
- Portfolio Selection (1)
- Portfolio-Optimierung (1)
- Potenzialhyperfläche (1)
- Prichard (1)
- Produktentwicklung (1)
- Professional development (1)
- Protein-Tyrosin-Kinasen (1)
- Proteinkinaseinhibitor (1)
- Proteintransport (1)
- Protonentransfer (1)
- Quantitative Bildanalyse (1)
- Quanto option (1)
- RNS-Interferenz (1)
- Ratte (1)
- Ray casting (1)
- Ray tracing (1)
- Reaktive Sauerstoff Spezies (1)
- Rechtecksgitter (1)
- Rectilinear Grid (1)
- Reliability (1)
- Requirements engineering (1)
- Risikomanagement (1)
- Rissausbreitung (1)
- Robotik (1)
- Rollreibung und -verschleiß (1)
- Rotational spinning process (1)
- Rounding (1)
- Route Planning (1)
- Räumliche Statistik (1)
- Röntgenstrukturen (1)
- Sauerstoffverbrauch (1)
- Schiefe Ableitung (1)
- Schlagfrequenz (1)
- Schluss (1)
- Schnitttheorie (1)
- Schwache Lösu (1)
- Second Order Conditions (1)
- Seismic Modeling (1)
- Semi-Markov-Kette (1)
- Singular <Programm> (1)
- Singularity theory (1)
- Singularitätentheorie (1)
- Sobolev-Raum (1)
- Softwarearchitektur (1)
- Solid-Gas Separation (1)
- Solid-Liquid Separation (1)
- Spannungsanalyse (1)
- Special Cosserat rods (1)
- Spinfalle (1)
- Sprödbru (1)
- Stadtentwicklung (1)
- Stadtplanung (1)
- Steuer (1)
- Stochastische Differentialgleichung (1)
- Stochastische Inhomogenitäten (1)
- Stochastische dynamische Optimierung (1)
- Stoffwechsel (1)
- Strategische Umweltprüfung (1)
- Stress-strain correction (1)
- Strukturiertes Gitter (1)
- Strömungsmechanik (1)
- Success Run (1)
- Supply Chain Design (1)
- Surface Reconstruction (1)
- Systemic Constructivist Approach (1)
- Systemische Konstruktivistischen Ansatz (1)
- Sägezahneffekt (1)
- TCDD (1)
- TSA (1)
- TVET teachers’ education (1)
- Tagesrhythmus (1)
- Teilchen (1)
- Tesselation (1)
- Tetrachlordibenzodioxine (1)
- Tetraeder (1)
- Tetraedergi (1)
- Tetrahedral Grid (1)
- Tetrahedral Mesh (1)
- Theorie schwacher Lösungen (1)
- Thermodynamics (1)
- Thermodynamik (1)
- Titration (1)
- Topologie (1)
- Transaktionen (1)
- Transfektion (1)
- Traversability Analysis (1)
- Trennverfahren (1)
- Tropische Geometrie (1)
- Tube Drawing (1)
- Tumorassoziierter Trypsininhibitor (1)
- UCP2-Protein (1)
- Ultraschalldispergierung (1)
- Ultraviolettspektroskopie (1)
- Umweltverträglichkeitsprüfung (1)
- Unorganized Data (1)
- Untermannigfaltigkeit (1)
- Upscaling (1)
- Usability (1)
- User-Centred Product Development (1)
- User-Experience (1)
- Validierung (1)
- Vermittlung (1)
- Versickerung (1)
- Versickerungsrate (1)
- Visualization (1)
- Volatilität (1)
- Volatilitätsarbitrage (1)
- Voronoi-Diagramm (1)
- Vorwärts-Rückwärts-Stochastische-Differentialgleichung (1)
- Wasserstoffbrückenbindungen (1)
- Wavelet (1)
- Wavelet-Analyse (1)
- Wavelet-Transformation (1)
- Weak Solution Theory (1)
- Wissen (1)
- Wissenserwerb (1)
- Worst-Case (1)
- Wärmeleitfähigkeit (1)
- Yaglom limits (1)
- Zeolith (1)
- Zielgruppe (1)
- Zielgruppen (1)
- acidification (1)
- adhesion (1)
- aerodynamic drag (1)
- algebraic attack (1)
- alkin (1)
- alkyne (1)
- amid (1)
- amide (1)
- apprehension (1)
- artial differential algebraic equations (1)
- asymptotic Cosserat models (1)
- automobile (1)
- beam refocusing (1)
- beating rate (1)
- bin coloring (1)
- binomial tree (1)
- biological motivated (1)
- biologisch motiviert (1)
- blackout period (1)
- brand (1)
- brittle fracture (1)
- building trade (1)
- c-Abl (1)
- calibration (1)
- cells on chips (1)
- cohesive cracks (1)
- composite (1)
- computational finance (1)
- consistency (1)
- convergence behaviour (1)
- correlation (1)
- coverage (1)
- crack path tracking (1)
- crash (1)
- curved viscous fibers (1)
- decoding (1)
- deformable bodies (1)
- differential algebraic equations (1)
- digital integrated circuit (1)
- discrete mechanics (1)
- discrete time setting (1)
- distributed compliant control (1)
- disulfide bond transfer (1)
- dividend discount model (1)
- dividends (1)
- drift due to noise (1)
- drug metablism (1)
- dynamic network flows (1)
- earliest arrival flow (1)
- earliest arrival flows (1)
- edge detection (1)
- efficiency loss (1)
- elastomer (1)
- electronically excited states (1)
- elektronisch angeregte Zustände (1)
- enamid (1)
- enamide (1)
- energy conservation (1)
- ernergy effcient motion (1)
- experimentelle Untersuchung (1)
- fallible knowledge (1)
- fiber-fluid interaction (1)
- fiber-fluid interactions (1)
- fibre reinforced plastic (1)
- finite differences (1)
- finite element method (1)
- flexible bodies (1)
- folding rocks (1)
- force-based simulation (1)
- formal description technique (1)
- formal method (1)
- foundational translation validation (1)
- full vehicle model (1)
- gaussian filter (1)
- geometric ergodicity (1)
- geometrically exact rods (1)
- global tracking (1)
- hardware verification (1)
- humanoid robot (1)
- humanoide Roboter (1)
- hybrid materials (1)
- hydrogen bonds (1)
- hyperealstic (1)
- image analysis (1)
- imaging (1)
- imidazolium salts (1)
- improving and feasible directions (1)
- impulse control (1)
- individual (1)
- inference (1)
- inhomogeneous Helmholtz type differential equations in bounded domains (1)
- ioneninduzierte Nukleation (1)
- ionic liquid (1)
- ioninduced nucleation (1)
- ionische Flüssigkeit (1)
- kernel estimates (1)
- lifestyle (1)
- limit theorems (1)
- linear code (1)
- logic (1)
- long slender fibers (1)
- machine-checkable proof (1)
- markov model (1)
- matroid flows (1)
- maximal dynamic flow (1)
- maximal function (1)
- maximum capacity path (1)
- maximum flows (1)
- mean-variance approach (1)
- mechanism design (1)
- mesoporous (1)
- minimum cut (1)
- mixture models (1)
- model reduction (1)
- modified gradient projection method (1)
- monotone Konvergenz (1)
- monotropic programming (1)
- multi-asset (1)
- multi-asset option (1)
- multibody dynamics (1)
- negative refraction (1)
- neonatal rat ventricular cardiomyocytes (1)
- neonatale ventrikuläre Kardiomyozyten der Ratte (1)
- network flows (1)
- nicht-newtonsche Strömungen (1)
- nichtlineare Druckkorrektor (1)
- non-newtonian flow (1)
- nonlinear diffusion (1)
- nonlinear model reduction (1)
- nonlinear pressure correction (1)
- nucleofection (1)
- numerical methods (1)
- objectoriented (1)
- operations (1)
- optimal control theory (1)
- optimal investment (1)
- optimales Investment (1)
- optimization correctness (1)
- option valuation (1)
- organic nanoparticles (1)
- organische Nanopartikel (1)
- oxidative DNA Damage (1)
- oxidative DNA Schäden (1)
- oxygen consumption (1)
- particular (1)
- path cost models (1)
- path-connected sublevelsets (1)
- pattern recognition (1)
- phase equilibrium (1)
- phenothiazine (1)
- photonic crystals (1)
- photonic crystals filter (1)
- polymer blends (1)
- polynomial algorithms (1)
- portfolio decision (1)
- portfolio optimization (1)
- price of anarchy (1)
- price of stability (1)
- processing (1)
- proof generating optimizer (1)
- quantile estimation (1)
- quasi-variational inequalities (1)
- radiotherapy planning (1)
- rare disasters (1)
- rate of convergence (1)
- reactive oxygen species (1)
- respiratory chain (1)
- rolling friction (1)
- ruthenium (1)
- safety critical components (1)
- sawtooth effect (1)
- segmentation (1)
- selfish routing (1)
- sharp function (1)
- sicherheitsrelevante Bauteile (1)
- slender-body theory (1)
- software architecture (1)
- solubility (1)
- spatial statistics (1)
- stabile Transfektion (1)
- stable transfection (1)
- stochastic arbitrage (1)
- stochastische Arbitrage (1)
- strong equilibria (1)
- sulfonic (1)
- target group (1)
- tax (1)
- technische und berufliche Aus- und Weiterbildung Lehrer lernen (1)
- tensions (1)
- thiazolium (1)
- transactions (1)
- translation contract (1)
- turbulence modeling (1)
- turbulence modelling (1)
- universal (1)
- vetreilte nachgiebige Regelung (1)
- volatility arbitrage (1)
- wave based method (1)
- weakly/ strictly pareto optima (1)
- wear (1)
- weld (1)
- worst-case (1)
- Öffentlichkeitsbeteiligung (1)
- Überdeckung (1)
- Übersetzung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Fraunhofer (ITWM) (29)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
A series of (oligo)phenthiazines, thiazolium salts and sulfonic acid functionalized organic/inorganic hybrid materials were synthesized. The organic groups were covalently bound on the inorganic surface through reactions of organosilane precursors with TEOS or with the silanol groups of material surface. These synthetic methods are called the co-condensation process and the post grafting. The structures and the textural parameters of the generated hybrid materials were characterized by XRD, N2 adsorption-desorption measurements, SEM and TEM. The incorporations of the organic groups were verified by elemental analysis, thermogravimetric analysis, FT-IR, UV-Vis, EPR, CV, as well as by 13C CP-MAS NMR and 29Si CP-MAS NMR spectroscopy. Introduction of various organic groups endow different phsysical, chemical properties to these hybrid materials. The (oligo)phenothiazines provide a group of novel redox acitive hybrid materials with special electronic and optic properties. The thiazolium salts modified materials were applied as heterogenized organo catalysts for the benzoin condensation and the cross-coupling of aldehydes with acylimines to yield a-amido ketones. The sulfonic acid containing materials can not only be used as Broensted acid catalysts, but also can serve as ion exchangable supports for further modifications and applications.
Radiotherapy is one of the major forms in cancer treatment. The patient is irradiated with high-energetic photons or charged particles with the primary goal of delivering sufficiently high doses to the tumor tissue while simultaneously sparing the surrounding healthy tissue. The inverse search for the treatment plan giving the desired dose distribution is done by means of numerical optimization [11, Chapters 3-5]. For this purpose, the aspects of dose quality in the tissue are modeled as criterion functions, whose mathematical properties also affect the type of the corresponding optimization problem. Clinical practice makes frequent use of criteria that incorporate volumetric and spatial information about the shape of the dose distribution. The resulting optimization problems are of global type by empirical knowledge and typically computed with generic global solver concepts, see for example [16]. The development of good global solvers to compute radiotherapy optimization problems is an important topic of research in this application, however, the structural properties of the underlying criterion functions are typically not taken into account in this context.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Das aktuelle Design von Wirkstoffen ist fokussiert auf die Entwicklung von Molekülen, die das Tumorzellwachstum durch Inhibition mehrerer Signalwege unterdrücken können. Indirubin wurde als Hauptwirkstoff von Dangui Longhui Wan, einem Mittel der Traditionellen Chinesischen Medizin identifiziert, welches in China zur Behandlung vieler Krankheiten wie Leukämie benutzt wurde. Indirubine wurden als potente ATP-kompetitive CDK-Inhibitoren identifiziert, die in der ATP-Bindungstasche binden, Apoptose induzieren und das Wachstum von Tumorzellen effizient hemmen. Darüber hinaus zeigten Indirubin-Derivate Hemmwirkungen auf eine ganze Reihe anderer Kinasen wie z. B. GSK-3ß, VEGFR und c-Src, die beim Tumorzellwachstum eine entscheidende Rolle spielen. Ziel war es, Substituenten am Indirubingrundgerüst in die 5-, 5’- und 3’-Position einzuführen, um die Wasserlöslichkeit weiter zu verbessern, die metabolische Stabilität zu erhöhen, ohne jedoch Antitumorwirksamkeit abzuschwächen. Durch Einführung weiterer N-Atome in das Indirubingrundgerüst sollten CYP450-induzierte Hydroxylierungen am Kern vermieden werden, die zur Wirkungsabschwächung führten, wie frühere Arbeiten gezeigt haben. Im Rahmen dieser Arbeit wurden 19 neue Indirubin-Derivate und 3 neue Aza- und Diazaindirubine hergestellt und mittels CHN-Analyse und NMR-spektroskopisch charakterisiert. Für das bei der Kondensation zu 7-Aza- und 7,7’-Diazaindirubin benötigte 7-Azaisatin wurde eine neue Synthesemethode entwickelt. Die Wasserlöslichkeit der neuen Indirubine wurde photometrisch und ihre Zytotoxizität mit Hilfe von SRB-Assays an LXFL529L-Tumorzellen bestimmt. Durch Inkubation mit Rinderlebermikrosomen wurde der Phase-I-Metabolismus von Indirubin-5- carboxamiden und Indirubin-3’-oximethern untersucht. Die Hauptmetaboliten von E748, E857, E857a, E860 und E860a wurden mittels HPLC, HPLC-NMR und LC-MS/MS identifiziert. Weitere Untersuchungen zum Wirkmechanismus ausgewählter neuer Verbindungen, wie z. B. die Hemmung von Topoisomerasen und die Erstellung eines Hemmprofils an 30 verschiedenen Kinasen wurden durch andere Institute durchgeführt. Im Vergleich zu Indirubin-5-carboxamiden zeigen Indirubin-5’-carboxamide mit gleichem Substituenten eine 2 – 15 fache schwächere Wachstumshemmung an LXFL529L-Zellen und trotz basischem Zentrums auch keine signifikant verbesserte Wasserlöslichkeit. 5,5’-Disubstituierte Indirubine mit Carboxyl- oder Carboxamid- Gruppe als Substituent zeigten sogar bis zu einer Konzentration von 100 μM keine Hemmwirkung mehr. Eine Erklärung hierfür könnte der knapp bemessene Raum der ATP-Bindungstasche im Bereich der 5’-Position sein. Die Oximether E857 und E860, sowie die Hydrochloride E857a und E860a zeigten eine sehr potente Proliferationshemmung an LXFL529L-Zellen mit IC50-Werten von ca. 1 μM. Die Hydrochloride wiesen hervorragende Werte für die Wasserlöslichkeit mit über 25000 mg/L auf, so dass in vivo Applikationen ohne weitere Formulierungen durchführbar sind. 7,7’-Diazaindirubin (E864) zeigte eine äußerst potente Wachstumshemmung von humanen Tumorzellen. Die IC50-Werte im SRB-Assay von E864 lagen im unteren nanomolaren Bereich an verschiedenen Tumorzellen. 7-Azaindirubin (E866) zeigte im Vergleich mit Indirubin eine erhöhte Wasserlöslichkeit und verbesserte antiproliferative Wirkung, insbesondere löst es sich in vielen organischen Lösungsmitteln. E865 ist das 7’-Aza-Analoge von E857, einem 3’-Oximether mit basischen Zentrum und zeigt 7-fach verbesserte Wasserlöslichkeit ohne Abschwächung der Hemmwirkung an der Tumorzelllinie LXFL529L. Ergebnisse des Kinaseprofilings ergaben jedoch, dass die ATP-Bindungsstelle von Proteinkinasen vermutlich nicht das Haupttarget dieser Wirkstoffe sind. Beim Testen von 277 Proteinkinasen konnte keine Proteinkinase als Target für E864, dem potentesten Inhibitor der Tumorzellproliferation, identifiziert werden. Bei Inkubationen mit Rinderlebermikrosomen von E748, einem Indirubin-5- carboxamid, fand eine Hydroxylierung an der 7’-Position statt. Weil eine Hydroxylierung an dieser Position eine Bindung des Moleküls in der ATP-Bindungstasche erschwert oder verhindert, ist der Metabolit vermutlich ein schwächerer Tumorzellwachstumsinhibitor. Zur Vermeidung einer derartigen Hydroxylierung erschien es sinnvoll, die Substituenten zur Verbesserung der Wasserlöslichkeit in 3’-Position anzubringen, was die Ergebnisse der Metabolisierung von E857 und E857a bestätigten. Nach Inkubation mit Lebermikrosomen fanden die Metabolisierungen nicht am Indirubin-Gerundgerüst statt. Als Hauptmetaboliten konnten das N-oxid (E867) und ein Hydroxymethylpiperazin-Derivat identifiziert werden. Das Kinaseprofiling, das Rückschlüsse auf den Wirkmechanismus ermöglicht, zeigte, dass E857 nicht nur CDKs und GSK-3ß hemmt (IC50 = 1-10 μM), sondern auch andere für eine Tumorentstehung relevante Targets wie z. B. FAK und IGF1-R (IC50 < 1 μM). Damit scheinen E857 und E857a die bisher am besten geeigneten Indirubine für eine Weiterentwicklung zum Antitumortherapeutikum zu sein und weitere Untersuchungen sollen in vivo durchgeführt werden, um die Ergebnisse mit den in vitro-Daten zu vergleichen und abzusichern.
Modern digital imaging technologies, such as digital microscopy or micro-computed tomography, deliver such large amounts of 2D and 3D-image data that manual processing becomes infeasible. This leads to a need for robust, flexible and automatic image analysis tools in areas such as histology or materials science, where microstructures are being investigated (e.g. cells, fiber systems). General-purpose image processing methods can be used to analyze such microstructures. These methods usually rely on segmentation, i.e., a separation of areas of interest in digital images. As image segmentation algorithms rarely adapt well to changes in the imaging system or to different analysis problems, there is a demand for solutions that can easily be modified to analyze different microstructures, and that are more accurate than existing ones. To address these challenges, this thesis contributes a novel statistical model for objects in images and novel algorithms for the image-based analysis of microstructures. The first contribution is a novel statistical model for the locations of objects (e.g. tumor cells) in images. This model is fully trainable and can therefore be easily adapted to many different image analysis tasks, which is demonstrated by examples from histology and materials science. Using algorithms for fitting this statistical model to images results in a method for locating multiple objects in images that is more accurate and more robust to noise and background clutter than standard methods. On simulated data at high noise levels (peak signal-to-noise ratio below 10 dB), this method achieves detection rates up to 10% above those of a watershed-based alternative algorithm. While objects like tumor cells can be described well by their coordinates in the plane, the analysis of fiber systems in composite materials, for instance, requires a fully three dimensional treatment. Therefore, the second contribution of this thesis is a novel algorithm to determine the local fiber orientation in micro-tomographic reconstructions of fiber-reinforced polymers and other fibrous materials. Using simulated data, it will be demonstrated that the local orientations obtained from this novel method are more robust to noise and fiber overlap than those computed using an established alternative gradient-based algorithm, both in 2D and 3D. The property of robustness to noise of the proposed algorithm can be explained by the fact that a low-pass filter is used to detect local orientations. But even in the absence of noise, depending on fiber curvature and density, the average local 3D-orientation estimate can be about 9° more accurate compared to that alternative gradient-based method. Implementations of that novel orientation estimation method require repeated image filtering using anisotropic Gaussian convolution filters. These filter operations, which other authors have used for adaptive image smoothing, are computationally expensive when using standard implementations. Therefore, the third contribution of this thesis is a novel optimal non-orthogonal separation of the anisotropic Gaussian convolution kernel. This result generalizes a previous one reported elsewhere, and allows for efficient implementations of the corresponding convolution operation in any dimension. In 2D and 3D, these implementations achieve an average performance gain by factors of 3.8 and 3.5, respectively, compared to a fast Fourier transform-based implementation. The contributions made by this thesis represent improvements over state-of-the-art methods, especially in the 2D-analysis of cells in histological resections, and in the 2D and 3D-analysis of fibrous materials.
The thesis at hand deals with the numerical solution of multiscale problems arising in the modeling of processes in fluid and thermo dynamics. Many of these processes, governed by partial differential equations, are relevant in engineering, geoscience, and environmental studies. More precisely, this thesis discusses the efficient numerical computation of effective macroscopic thermal conductivity tensors of high-contrast composite materials. The term "high-contrast" refers to large variations in the conductivities of the constituents of the composite. Additionally, this thesis deals with the numerical solution of Brinkman's equations. This system of equations adequately models viscous flows in (highly) permeable media. It was introduced by Brinkman in 1947 to reduce the deviations between the measurements for flows in such media and the predictions according to Darcy's model.
Four aspects are important in the design of hydraulic lters. We distinguish between two cost factors and two performance factors. Regarding performance, filter eciencynd lter capacity are of interest. Regarding cost, there are production considerations such as spatial restrictions, material cost and the cost of manufacturing the lter. The second type of cost is the operation cost, namely the pressure drop. Albeit simulations should and will ultimately deal with all 4 aspects, for the moment our work is focused on cost. The PleatGeo Module generates three-dimensional computer models of a single pleat of a hydraulic lter interactively. PleatDict computes the pressure drop that will result for the particular design by direct numerical simulation. The evaluation of a new pleat design takes only a few hours on a standard PC compared to days or weeks used for manufacturing and testing a new prototype of a hydraulic lter. The design parameters are the shape of the pleat, the permeabilities of one or several layers of lter media and the geometry of a supporting netting structure that is used to keep the out ow area open. Besides the underlying structure generation and CFD technology, we present some trends regarding the dependence of pressure drop on design parameters that can serve as guide lines for the design of hydraulic lters. Compared to earlier two-dimensional models, the three-dimensional models can include a support structure.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
In dieser Arbeit wurden für die Moleküle B3, B3- und C3+ mit dem MR-CI-Verfahren hochgenaue Potentialfächen für ein oder mehrere elektronische Zustände berechnet. Alle drei Moleküle besitzen elektronisch entartete Jahn-Teller-Zustände. Im Gegesatz zu den früher untersuchten Alkalitrimeren liegt hier die konische Durchschneidung so tief, dass sie bei der Schwingungsanalyse berücksichtigt werden muss und daher eine diabatische Behandlung erfordlich ist. Für den X<-1E'-Übergang im B3 konnte die Übereinstimmung des berechneten Spektrum mit dem gemessenen durch den Einsatz des größeren Basissatzes VQZ, im Vergleich zu den bereits veröffentlichten Ergebnissen, nochmals deutlich verbessert werden. Für den berechneten 00-Übergang ist im gemessen Spektrum kein Übergang zu beobachten. Neben der guten Übereinstimmung der anderen Peaks wird diese These auch die T00 Energie gestützt. Die einfache Progression des experimentellen X<-2E'-Übergangs im B3 konnte ebenfalls in gute Übereinstimmung berechnet werden. Die einfache und kurze Progression ergibt sich aus der Tatsache, dass praktisch keine Jahn-Teller-Verzerrung vorhanden ist, und beide Teilflächen fast deckungsgleich sind. Für den X<-1E'-Übergang des B3- wurde ebenfalls ein Spektrum simuliert, allerdings findet sich keine Übereinstimmung zu den gemessenen Übergängen. Da die beobachtete Elektronenablöseenergie nur unwesentlich oberhalb der Elektronenanregungsenergie liegt und im Hinblick auf die starken X<-2E'-Absorptionen des B3 in der gleichen Messung bleibt offen, welche Strukturn im Experiment zu sehen sind. Zum C3+ wurde eine Schwingungsanalyse für den E'-Grundzustand durchgeführt. Experimentelle Vergleichswerte fehlen in diesem Fall. Allerdings konnte die bereits seit mehr als einem Jahrzehnt diskutierte Höhe der Isomerisierungsenergie zwischen gewinkelter und linearer Geometrie sehr genau, auf nun 6.8 +- 0.5 kcal/mol festgelegt werden. Bei vibronischer Betrachtung unter Einbeziehung der Nullpunktsenergien reduziert sich diese auf bzw. 4.8 kcal/mol. Ausserdem wurde die Existenz eines linearen Minimums bestätigt. C3+ liefert auch ein sehr schönes Beispiel für die Verschränkung verschiedener lokaler und globaler Schwingungszustände, was zu einer irregulären Abfolge von Zuständen führt. Für die Reaktivität des C3+ wurde beobachtet, dass es unterhalb von 50 K die höchste Reaktivität besitzt und darüber deutlich abnimmt. Auf dieses Verhalten liefert die Schwingungsanalyse keine Antwort, da bis selbst zur Raumtemperatur keine thermische Schwingungsanregung statt finden kann.
Die vorliegende Arbeit befasst sich mit der Generierung von organischen Nanopartikeln in einer übersättigten Gasströmung. Als Versuchsmaterialien kamen Kupferphthalocyanin und Paliogen Rot L4120 zum Einsatz. Sie werden bereits erfolgreich in der Informations- und Kommunikationstechnologie als Bestandteil in Halbleiterbaugruppen oder organischen Leuchtdioden eingesetzt. Gerade in solchen Anwendungsgebieten ist eine hohe Reinheit der Materialien unerlässlich. Gasphasenprozesse bieten diesen Vorteil einer hohen Reinheit der generierten Partikeln und schaffen deswegen im Hinblick auf innovative Anwendungsgebiete, den Anreiz zur Erforschung alternativer Prozesse zur Herstellung nanoskaliger organischer Partikeln aus der Gasphase. Durch die Sublimation des Ausgangsmaterials wurde eine untersättigte bis gesättigte Gasströmung erzeugt. Die Übersättigung wurde durch die adiabatische Entspannung in einer Lavaldüse und der sich anschließenden Expansion des Freistrahls in einer Expansionskammer erzeugt. Die dafür entwickelte Anlage wurde dabei so konzipiert, dass durch die modulare Bauweise verschiedene Techniken zur Generierung, Modifizierung oder Konditionierung der organischen Partikeln untersucht werden konnten. Die Arbeit gliedert sich in die vier folgenden Untersuchungsschwerpunkte: Generierung organischer Partikeln durch adiabatische Entspannung in Düsen. • Steuerung der Partikelbildung durch Prozessparameter. • Beeinflussung der Partikelbildung durch Ionen. • Herstellung von Core-Shell-Strukturen mit einem organischen Beschichtungsmaterial.
In der chemischen Industrie treten bei vielen Absorptions- und Desorptionsanlagen wässrige Lösungen flüchtiger schwacher Elektrolyte, d. h. chemisch gelöster saurer (z. B. Kohlendioxid, Schwefeldioxid) und basischer (z. B. Ammoniak) Gase auf, die oftmals auch Salze und organische Komponenten enthalten. Die dabei anfallenden Elektrolytlösungen müssen zur Rückgewinnung der beteiligten Einsatzstoffe sowie aus Umweltschutzgründen aufgearbeitet werden. Zur Auslegung und Optimierung solcher Verfahren sind Informationen zum Phasengleichgewicht erforderlich. Die Korrelation und Vorhersage solcher Phasengleichgewichte wird durch die in der flüssigen Phase ablaufenden chemischen Reaktionen und die dabei auftretenden ionischen Spezies maßgeblich beeinflusst. In früheren Arbeiten wurde ein thermodynamisches Modell für die Löslichkeit der Gase Kohlendioxid, Schwefeldioxid, Schwefelwasserstoff und Ammoniak in wässrigen, auch salzhaltigen Lösungen entwickelt, in dem die in der flüssigen Phase auftretenden chemischen Reaktionen zwischen Ammoniak und den sauren Gasen berücksichtigt werden. Der Einsatz dieses Modells ist jedoch auf das Lösungsmittel Wasser beschränkt. Um auch die Vorgänge in Lösungsmittelgemischen aus Wasser und organischen Komponenten (über den gesamten Konzentrationsbereich, d. h. vom reinen Wasser bis zum reinen organischen Lösungsmittel) beschreiben zu können, wurde von ein neues thermodynamisches Modell entwickelt. In der vorliegenden Arbeit wird dieses Modell weiter getestet und parametriert. Die hier vorliegende Arbeit behandelt Dampf – Flüssigkeit – Feststoff – Gleichgewichte (und die Gleichgewichte der benötigten Untersysteme) der Systeme (Wasser + Methanol + Ammoniak + Kohlendioxid + (Natriumchlorid / -sulfat)), (Wasser + Aceton + Kohlendioxid + (Natriumchlorid / -sulfat)) sowie (Wasser + 1–Propanol + 1–Methylimidazol + Natriumchlorid).
We prove a general monotonicity result about Nash flows in directed networks and use it for the design of truthful mechanisms in the setting where each edge of the network is controlled by a different selfish agent, who incurs costs when her edge is used. The costs for each edge are assumed to be linear in the load on the edge. To compensate for these costs, the agents impose tolls for the usage of edges. When nonatomic selfish network users choose their paths through the network independently and each user tries to minimize a weighted sum of her latency and the toll she has to pay to the edges, a Nash flow is obtained. Our monotonicity result implies that the load on an edge in this setting can not increase when the toll on the edge is increased, so the assignment of load to the edges by a Nash flow yields a monotone algorithm. By a well-known result, the monotonicity of the algorithm then allows us to design truthful mechanisms based on the load assignment by Nash flows. Moreover, we consider a mechanism design setting with two-parameter agents, which is a generalization of the case of one-parameter agents considered in a seminal paper of Archer and Tardos. While the private data of an agent in the one-parameter case consists of a single nonnegative real number specifying the agent's cost per unit of load assigned to her, the private data of a two-parameter agent consists of a pair of nonnegative real numbers, where the first one specifies the cost of the agent per unit load as in the one-parameter case, and the second one specifies a fixed cost, which the agent incurs independently of the load assignment. We give a complete characterization of the set of output functions that can be turned into truthful mechanisms for two-parameter agents. Namely, we prove that an output function for the two-parameter setting can be turned into a truthful mechanism if and only if the load assigned to every agent is nonincreasing in the agent's bid for her per unit cost and, for almost all fixed bids for the agent's per unit cost, the load assigned to her is independent of the agent's bid for her fixed cost. When the load assigned to an agent is continuous in the agent's bid for her per unit cost, it must be completely independent of the agent's bid for her fixed cost. These results motivate our choice of linear cost functions without fixed costs for the edges in the selfish routing setting, but the results also seem to be interesting in the context of algorithmic mechanism design themselves.
We present a parsimonious multi-asset Heston model. All single-asset submodels follow the well-known Heston dynamics and their parameters are typically calibrated on implied market volatilities. We focus on the calibration of the correlation structure between the single-asset marginals in the absence of sucient liquid cross-asset option price data. The presented model is parsimonious in the sense that d(d􀀀1)=2 asset-asset cross-correlations are required for a d-asset Heston model. In order to calibrate the model, we present two general setups corresponding to relevant practical situations: (1) when the empirical cross-asset correlations in the risk neutral world are given by the user and we need to calibrate the correlations between the driving Brownian motions or (2) when they have to be estimated from the historical time series. The theoretical background, including the ergodicity of the multidimensional CIR process, for the proposed estimators is also studied.
Forderungen nach kürzeren Entwicklungszyklen bei gleichzeitig höherer Produktqualität führen in allen Bereichen der Nutzfahrzeugtechnik und insbesondere auch bei Baumaschinen zum verstärkten Einsatz von Simulationssoftware. Um in diesem Sinne Lebensdauerberechnungen durchführen zu können, sind jedoch genaue Kenntnisse über die im Kundeneinsatz auftretenden Betriebslasten und Beanspruchungen erforderlich. Für deren Ermittlung hat der Baumaschinenhersteller VOLVO Construction Equipment einen Mobilbagger umfassend mit Messtechnik ausgestattet, die neben den mechanischen Belastungen an der Arbeitsausrüstung auch wesentliche Kenndaten des Hydrauliksystems und des Fahrantriebs erfasst. Dieser Messbagger wurde bereits bei unterschiedlichen Kunden in Europa eingesetzt. Der Artikel beschreibt die methodische Vorgehensweise zur Verarbeitung der erfassten Daten und zur Generierung von repräsentativen Nutzungsprofilen am Beispiel der mechanischen Belastungen an der Arbeitseinrichtung, die im Wesentlichen vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) erarbeitet wurde.
This work is concerned with dynamic flow problems, especially maximal dynamic flows and earliest arrival flows - also called universally maximal flows. First of all, a survey of known results about existence, computation and approximation of earliest arrival flows is given. For the special case of series-parallel graphs a polynomial algorithm for computing maximal dynamic flows is presented and this maximal dynamic flow is proven to be an earliest arrival flow.
Bei der Erprobung sicherheitsrelevanter Bauteile von Nutzfahrzeugen steht man vor der Aufgabe, die sehr vielfältige Belastung durch die Kunden abschätzen zu müssen und daraus ein Prüfprogramm für die Bauteile abzuleiten, das mehreren gegenläufigen Anforderungen gerecht werden muss: Das Programm muss scharf genug sein, damit bei erfolgreicher Prüfung ein Ausfall im Feld im Rahmen eines bestimmungsgemäßen Gebrauchs ausgeschlossen werden kann, es soll aber nicht zu einer Überdimensionierung der Bauteile führen, und es soll mit relativ wenigen Bauteilversuchen eine ausreichende Aussagesicherheit erreicht werden. Wegen der hohen Anforderungen bzgl. Sicherheit müssen bei der klassischen statistischen Vorgehensweise – Schätzen der Verteilung der Kundenbeanspruchung aus Messdaten, Schätzen der Verteilung der Bauteilfestigkeit aus Versuchsergebnissen und Ableiten einer Ausfallwahrscheinlichkeit – die Verteilungen in den extremen Rändern bekannt sein. Dazu reicht aber das Datenmaterial in der Regel bei weitem nicht aus. Bei der klassischen „empirischen“ Vorgehensweise werden Kennwerte der Beanspruchung und der Festigkeit verglichen und ein ausreichender Sicherheitsabstand gefordert. Das hier vorgeschlagene Verfahren kombiniert beide Methoden, setzt dabei die Möglichkeiten der statistischen Modellierung soweit aufgrund der Datenlage vertretbar ein und ergänzt die Ergebnisse durch empirisch begründete Sicherheitsfaktoren. Dabei werden bei der Lastfestlegung die im Versuch vorhandenen Möglichkeiten berücksichtigt. Hauptvorteile dieses Verfahrens sind a) die Transparenz bzgl. der mit statistischen Mitteln erreichbaren Aussagen und des Zusammenspiels zwischen Lastermittlung und Versuch und b) die Möglichkeit durch entsprechenden Aufwand bei Messungen und Erprobung die empirischen zugunsten der statistischen Anteile zu reduzieren.
In the ground vehicle industry it is often an important task to simulate full vehicle models based on the wheel forces and moments, which have been measured during driving over certain roads with a prototype vehicle. The models are described by a system of differential algebraic equations (DAE) or ordinary differential equations (ODE). The goal of the simulation is to derive section forces at certain components for a durability assessment. In contrast to handling simulations, which are performed including more or less complex tyre models, a driver model, and a digital road profile, the models we use here usually do not contain the tyres or a driver model. Instead, the measured wheel forces are used for excitation of the unconstrained model. This can be difficult due to noise in the input data, which leads to an undesired drift of the vehicle model in the simulation.
One approach to multi-criteria IMRT planning is to automatically calculate a data set of Pareto-optimal plans for a given planning problem in a first phase, and then interactively explore the solution space and decide for the clinically best treatment plan in a second phase. The challenge of computing the plan data set is to assure that all clinically meaningful plans are covered and that as many as possible clinically irrelevant plans are excluded to keep computation times within reasonable limits. In this work, we focus on the approximation of the clinically relevant part of the Pareto surface, the process that consititutes the first phase. It is possible that two plans on the Parteto surface have a very small, clinically insignificant difference in one criterion and a significant difference in one other criterion. For such cases, only the plan that is clinically clearly superior should be included into the data set. To achieve this during the Pareto surface approximation, we propose to introduce bounds that restrict the relative quality between plans, so called tradeoff bounds. We show how to integrate these trade-off bounds into the approximation scheme and study their effects.
This thesis deals with 3 important aspects of optimal investment in real-world financial markets: taxes, crashes, and illiquidity. An introductory chapter reviews the portfolio problem in its historical context and motivates the theme of this work: We extend the standard modelling framework to include specific real-world features and evaluate their significance. In the first chapter, we analyze the optimal portfolio problem with capital gains taxes, assuming that taxes are deferred until the end of the investment horizon. The problem is solved with the help of a modification of the classical martingale method. The second chapter is concerned with optimal asset allocation under the threat of a financial market crash. The investor takes a worst-case attitude towards the crash, so her investment objective is to be best off in the most adverse crash scenario. We first survey the existing literature on the worst-case approach to optimal investment and then present in detail the novel martingale approach to worst-case portfolio optimization. The first part of this chapter is based on joint work with Ralf Korn. In the last chapter, we investigate optimal portfolio decisions in the presence of illiquidity. Illiquidity is understood as a period in which it is impossible to trade on financial markets. We use dynamic programming techniques in combination with abstract convergence results to solve the corresponding optimal investment problem. This chapter is based on joint work with Holger Kraft and Peter Diesinger.
Die vorliegende Arbeit befasst sich mit den Anforderungen und der Programmarchitektur moderner objektorientierter 3D-CAD-Programme im Bauwesen. Die digitale Revolution des letzten Jahrzehnts hatte auch Auswirkungen auf die Bauplanung. Das Zeichenbrett wurde aus den Architektur- und Ingenieurbüros verbannt und die Arbeit wird in allen Bereichen durch den Computer bestimmt. In diesem Zeitraum setzten sich viele Innovationen im Bereich der CAD-Anwendungen durch. Heutige moderne CAD-Programme sind objektorientiert, verfügen über eine graphische Oberfläche und besitzen ein dreidimensionales Datenmodell. Die innovativen 3D-Datenmodelle der CAD-Programme ermöglichen nicht nur die Erstellung von Zeichnungen, sondern auch die Verwendung des Datenmodells für die Gebäudeausrüstung, Tragwerksplanung, Ausschreibung und Abrechnung des Bauwerkes. Die Programme besitzen eine mehrschichtige Architektur, welche die Möglichkeit der einfachen Änderung und Erweiterung der Anwendung bietet. Ziel dieser Arbeit ist die Beschreibung der Programmarchitektur und der Anforderungen an die Funktionalität, die Oberfläche und das Datenmodell moderner, objektorientierter 3D-CAD-Systeme für die Verwendung im Bauwesen. Für die Demonstration einer modernen Softwarearchitektur wurde das CAD-Programm GoCAD entwickelt, in welchem verschiedene moderne Architekturmuster exemplarisch implementiert wurden.
The goal of this work is the development and investigation of an interdisciplinary and in itself closed hydrodynamic approach to the simulation of dilute and dense granular flow. The definition of “granular flow” is a nontrivial task in itself. We say that it is either the flow of grains in a vacuum or in a fluid. A grain is an observable piece of a certain material, for example stone when we mean the flow of sand. Choosing a hydrodynamic view on granular flow, we treat the granular material as a fluid. A hydrodynamic model is developed, that describes the process of flowing granular material. This is done through a system of partial differential equations and algebraic relations. This system is derived by the kinetic theory of granular gases which is characterized by inelastic collisions extended with approaches from soil mechanics. Solutions to the system have to be obtained to understand the process. The equations are so difficult to solve that an analytical solution is out of reach. So approximate solutions must be obtained. Hence the next step is the choice or development of a numerical algorithm to obtain approximate solutions of the model. Common to every problem in numerical simulation, these two steps do not lead to a result without implementation of the algorithm. Hence the author attempts to present this work in the following frame, to participate in and contribute to the three areas Physics, Mathematics and Software implementation and approach the simulation of granular flow in a combined and interdisciplinary way. This work is structured as follows. A continuum model for granular flow which covers the regime of fast dilute flow as well as slow dense flow up to vanishing velocity is presented in the first chapter. This model is strongly nonlinear in the dependence of viscosity and other coefficients on the hydrodynamic variables and it is singular because some coefficients diverge towards the maximum packing fraction of grains. Hence the second difficulty, the challenging task of numerically obtaining approximate solutions for this model is faced in the second chapter. In the third chapter we aim at the validation of both the model and the numerical algorithm through numerical experiments and investigations and show their application to industrial problems. There we focus intensively on the shear flow experiment from the experimental and analytical work of Bocquet et al. which serves well to demonstrate the algorithm, all boundary conditions involved and provides a setting for analytical studies to compare our results. The fourth chapter rounds up the work with the implementation of both the model and the numerical algorithm in a software framework for the solution of complex rheology problems developed as part of this thesis.
Das Fügen von Faserverbunden und Metallen durch Induktionsschweißen ist ein
neuartiges Verfahren, das im Rahmen einer DFG-Forschergruppe entwickelt wurde.
In dieser Arbeit werden auf solche Weise hergestellte Fügungen zwischen einer
Aluminiumlegierung (AlMg3) und CFK (kohlenstofffaserverstärktes Polyamid)
experimentell und simulativ untersucht. Detaillierte Kenntnisse über das mechanische
Verhalten und den Einfluss der Prüfgeschwindigkeit und der Temperatur darauf
sind für einen späteren Einsatz der Fügetechnik bei der Verbindung von Bauteilen
wichtig. Die begleitend durchgeführten Simulationen auf Basis der Finiten Elemente
(FE) ermöglichen einen Blick in das Innere der Fügezone und stellen nach der
Validierung mit Hilfe der Experimente eine Erweiterung der Messtechnik dar. Besondere
Anforderungen an die Messtechnik entstehen bei diesen Untersuchungen aus
den geringen Abmessungen des Fügebereiches. Ergänzend durchgeführte makroskopische
und mikroskopische (Rasterelektronenmikroskop) Bruchflächenanalysen
untermauern die Schlüsse und Erläuterungen aus den experimentellen und simulativen
Untersuchungen.
Abgeleitet von kritischen Lastfällen wird das mechanische Verhalten an Grundlagenexperimenten
in Quer-Druck- und Schubversuchen untersucht und simuliert. Für die
globale und lokale Verschiebungsanalyse, die eine detaillierte Versuchsauswertung
und einen Abgleich mit den Simulationen ermöglicht, wird das Grauwertkorrelationsverfahren
eingesetzt. Die wichtigsten experimentellen Ergebnisse sind:
Bei den Quer-Druck-Versuchen kommt es zu einer normalspannungsdominierten
Schälbelastung in der Fügezone mit einem konstant wachsenden Riss. Die Temperaturvariationen
im Bereich von -30 °C und 80 °C haben fast keinen Einfluss auf das
mechanische Verhalten. Die Prüfgeschwindigkeitsvariationen im Bereich von
0,03 mm/s bis 1500 mm/s zeigen bei steigenden Prüfgeschwindigkeiten einen
deutlichen Anstieg der maximalen Kräfte und Verschiebungen. In den Versuchen ist
ein adhäsiver Versagensmode zu beobachten. Eine Ausnahme bilden die Versuche
bei höheren Prüfgeschwindigkeiten, bei denen ein grenzschichtnahes Versagen in
der Fügezone auftritt.
In den Schubversuchen kommt es zu einem stärker mehrachsialen Spannungszustand
in der Fügezone, der von Schub- und Normalzugspannungen dominiert wird. Die erreichten Kräfte liegen deutlich über denen der Quer-Druck-Versuche. Dieses
Kraftniveau ist kaum beeinflusst von den Temperaturvariationen zwischen -30 °C und
80 °C. Die Prüfgeschwindigkeitssteigerungen bis zu 1500 mm/s haben einen signifikanten
Einfluss auf die Kräfte und besonders auf die maximalen Verformungen. Die
Bruchflächen sind in den meisten Versuchen adhäsiv dominiert. Bei Temperaturen
von -30°C und Prüfgeschwindigkeiten von 500 mm/s und 1500 mm/s bilden sich
hingegen Bereiche mit grenzschichtnahem Versagen und köhasiven Anteilen. Die
REM-Untersuchungen der Bruchbilder zeigen, dass mechanisches Interlocking einen
maßgeblichen Beitrag zur Haftung zwischen Polyamid und Aluminium leistet.
Die Simulationen wurden mit Hilfe der globalen und lokalen Verschiebungszustände
in den Grundlagen- und zusätzlich durchgeführten Versuchen validiert und zeigen
eine gute Übereinstimmung mit den Experimenten. Die Spannungszustände im
Inneren der Fügezone sind wegen der unterschiedlichen Fügewerkstoffe und Steifigkeiten
unsymmetrisch und stark inhomogen. Es bilden sich in allen simulierten
Versuchen am Rand Spannungsspitzen, die zum Versagen führen, während in der
Fügezonenmitte ein niedriges Spannungsniveau vorherrscht. Mit wachsendem Riss
steigen die Spannungen im Inneren der Restfügezone in geringem Maße, bis es zur
vollständigen Trennung des AlMg3- und des CFK-Fügeteils kommt. Eine Parameterstudie
mit dem validierten Simulationsmodell der Schweißung zeigt, wie eine erhöhte
Dicke des AlMg3-Fügeteils oder ein Anstieg der CFK-Steifigkeit zu einer günstigeren
Spannungsverteilung in der Fügezone und so zu höheren Versagenskräften führt.
Die in dieser Arbeit erzielten experimentellen und simulativen Ergebnisse tragen zum
Verständnis der Vorgänge bei mechanisch belasteten induktionsgeschweißten
Fügungen zwischen Faserverbunden und Metallen bei. Der eingeschlagene Weg und
die zum Einsatz gebrachten Methoden sind auch auf andere Verbindungen übertragbar.
Das aufgebaute und validierte Simulationsmodell kann dabei für weiterführende
Parametervariationen oder zur mikromechanischen Analyse der Schweißungen
eingesetzt werden.
Die vorliegende Untersuchung beschäftigt sich mit thermodynamischen Grundlagen einiger Prozesse der chemischen Industrie, in denen ionische Flüssigkeiten eingesetzt werden. Die ionischen Flüssigkeiten werden z.B. als Lösungsmittel für chemische Reaktionen, oder als Alternativen zu klassischen Lösungsmitteln diskutiert. Im ersten kommerziellen Verfahren mit ionischen Flüssigkeiten, sog. BASIL-Prozess (2002), wird eine organische Base (z.B. eine Imidazolium-Verbindung) zum „Abfangen“ einer bei einer Reaktion anfallenden Säure verwendet, wobei eine ionische Flüssigkeit entsteht. Diese zeigt mit dem bei der Reaktion entstehenden Wertstoff häufig eine große flüssig-flüssig Mischungslücke, wodurch sich die Aufarbeitung des Wertstoffes vereinfacht. Die Rückgewinnung dieser organischen Base aus der ionischen Flüssigkeit geschieht i.d.R. durch eine chemische Umsetzung mit einer starken, anorganischen Base in einer wässrigen Lösung und einer Extraktion in ein organisches Lösungsmittel. Dabei fallen wässrig/organische Lösungsmittel mit starken Elektrolyten an. Im Fokus des ersten Teils der Arbeit standen experimentelle Untersuchungen zum binären Phasengleichgewicht von Systemen aus einer Imidazolium-basierten ionischen Flüssigkeit und einem organischen Lösungsmittel. Die ionische Flüssigkeit 1-n-Butyl-3-Methylimidazolium Hexafluorophosphat, [bmim][PF6], wurde auf ihre Mischbarkeit mit sieben organischen Lösungsmitteln (Ethanol, bzw. 1-Propanol, bzw. 1-Butanol, bzw. Cyclohexan, bzw. Butylacetat, bzw. Toluol, bzw. Chloroform) mittels Trübungstitration bei verschiedenen Temperaturen geprüft. Wegen nicht ausreichender Genauigkeit der Trübungsmethode im Bereich geringer Löslichkeiten wurde für die Systeme aus ([bmim][PF6] + Alkohol) die organisch-reiche Seite der Binodalkurve mittels UV/Vis - Spektroskopie untersucht. Im zweiten Teil der Arbeit wurden die gegenseitige Löslichkeit der ionischen Flüssigkeit 1-Methylimidazolium Hydrochlorid, HMIMCl, mit Butylacetat als Funktion der Temperatur, sowie binäre und ternäre Phasengleichgewichte in Systemen aus Wasser, 1-Propanol, 1-Methylimidazol und Natriumchlorid im Temperaturbereich zwischen 25 und 60 °C experimentell untersucht. Dazu wurden z.B. aus den im Phasengleichgewicht existierenden flüssigen Phasen Proben entnommen und mit verschiedenen Analysenmethoden (titrimetrischen Verfahren (pH-, Karl-Fischer-) und chromatographischen Verfahren (IC, GC)) die Zusammensetzung dieser Phasen bestimmt. Die Ergebnisse der experimentellen Untersuchungen sollen die für die Entwicklung und Erprobung thermodynamischer Modelle zur Beschreibung solcher Phasengleichgewichte erforderliche Datenbasis erweitern.
Knowledge discovery from large and complex collections of today’s scientific datasets is a challenging task. With the ability to measure and simulate more processes at increasingly finer spatial and temporal scales, the increasing number of data dimensions and data objects is presenting tremendous challenges for data analysis and effective data exploration methods and tools. Researchers are overwhelmed with data and standard tools are often insufficient to enable effective data analysis and knowledge discovery. The main objective of this thesis is to provide important new capabilities to accelerate scientific knowledge discovery form large, complex, and multivariate scientific data. The research covered in this thesis addresses these scientific challenges using a combination of scientific visualization, information visualization, automated data analysis, and other enabling technologies, such as efficient data management. The effectiveness of the proposed analysis methods is demonstrated via applications in two distinct scientific research fields, namely developmental biology and high-energy physics. Advances in microscopy, image analysis, and embryo registration enable for the first time measurement of gene expression at cellular resolution for entire organisms. Analysis of highdimensional spatial gene expression datasets is a challenging task. By integrating data clustering and visualization, analysis of complex, time-varying, spatial gene expression patterns and their formation becomes possible. The analysis framework MATLAB and the visualization have been integrated, making advanced analysis tools accessible to biologist and enabling bioinformatic researchers to directly integrate their analysis with the visualization. Laser wakefield particle accelerators (LWFAs) promise to be a new compact source of highenergy particles and radiation, with wide applications ranging from medicine to physics. To gain insight into the complex physical processes of particle acceleration, physicists model LWFAs computationally. The datasets produced by LWFA simulations are (i) extremely large, (ii) of varying spatial and temporal resolution, (iii) heterogeneous, and (iv) high-dimensional, making analysis and knowledge discovery from complex LWFA simulation data a challenging task. To address these challenges this thesis describes the integration of the visualization system VisIt and the state-of-the-art index/query system FastBit, enabling interactive visual exploration of extremely large three-dimensional particle datasets. Researchers are especially interested in beams of high-energy particles formed during the course of a simulation. This thesis describes novel methods for automatic detection and analysis of particle beams enabling a more accurate and efficient data analysis process. By integrating these automated analysis methods with visualization, this research enables more accurate, efficient, and effective analysis of LWFA simulation data than previously possible.
Der Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Umweltprüfung von Bebauungsplänen
(2009)
Die im Jahr 2001 erlassene europäische SUP-Richtlinie schreibt vor, dass die Umweltauswirkungen bestimmter Pläne und Programme frühzeitig und umfassend ermittelt, beschrieben und bewertet sowie bei der Aufstellung oder Änderung der betreffenden Pläne und Programme berücksichtigt werden müssen. Seit der Implementierung der Vorschriften der SUP-Richtlinie in nationales Recht ist die so genannte Strategische Umweltprüfung auch für bestimmte Pläne und Programme des deutschen Planungssystems verpflichtend durchzuführen. Der Verfahrensschritt der Öffentlichkeitsbeteiligung und die Berücksichtigung der Ergebnisse der Öffentlichkeitsbeteiligung bei der Entscheidungsfindung sind unverzichtbare Bestandteile der Strategischen Umweltprüfung. Nach Erwägungsgrund 15 der SUP-Richtlinie soll durch die Öffentlichkeitsbeteiligung zu einer transparenteren Entscheidungsfindung beigetragen und die Vollständigkeit und Zuverlässigkeit der für die Prüfung bereitgestellten Informationen gewährleistet werden. Danach hat die Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung eine Kontroll- und Informationsfunktion. Bisher gibt es kaum wissenschaftlich fundierte Erkenntnisse darüber, ob die Öffentlichkeitsbeteiligung diese Funktionen erfüllt oder inwieweit sie sich auf die Strategische Umweltprüfung auswirkt. Dieses Wissensdefizit wurde zum Anlass genommen, im Rahmen dieser Arbeit den Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Strategischen Umweltprüfung zu ermitteln. Anhand der beispielhaften Auswertung von 41 Bebauungsplanverfahren 6 verschiedener Kommunen wurde untersucht, ob durch die Öffentlichkeit neue, abwägungsrelevante Umweltinformationen eingebracht werden und diese zu Modifikationen von Untersuchungsrahmen, Umweltbericht und Plan führen. Überdies wurden Einflussfaktoren ermittelt, die sich auf die Öffentlichkeitsbeteiligung und deren Beitrag zur Berücksichtigung von Umweltschutzbelangen im Planungs- und Entscheidungsprozess auswirken können. Die Untersuchung hat gezeigt, dass die Öffentlichkeit sich im Rahmen der untersuchten Bebauungsplanverfahren beteiligt und Stellungnahmen abgegeben hat. Von allen aus der Öffentlichkeit eingebrachten Einwendungen hatten durchschnittlich 37 Prozent Umweltschutzbelange zum Inhalt. Diese können als Einwendungen zur Umweltprüfung betrachtet werden, da diese der Ermittlung des umweltrelevanten Abwägungsmaterials dient. Wichtigstes Ergebnis der Untersuchung ist somit, dass die Informationsfunktion der Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung erfüllt wurde. Privatpersonen wollten v.a. ihre persönlichen Interessen in der Planung vertreten sehen. Von ihnen wurden in erster Linie Umwelteinwendungen zu den Themen Lärm und Verkehr sowie zu Pflanzen eingebracht. Umweltakteure haben sich mit ihren Umwelteinwendungen in erster Linie für Pflanzen eingesetzt. Weiterhin wurden die Naturgüter Wasser und Luft vermehrt angesprochen. Daneben bildeten Einwendungen zu aktuellen umweltpolitischen Themen einen Schwerpunkt der Umwelteinwendungen von Umweltakteuren. Dazu zählten Einwendungen zum Klima, zu erneuerbaren Energien und zur Flächeninanspruchnahme. Auch wichtig war den Umweltakteuren die Eingriffsregelung. Abweichend von den Erwartungen wurden dagegen kaum Einwendungen zu Tieren gemacht. Die Einwendungen der Öffentlichkeit führten zu Modifikationen von Untersuchungsrahmen, Umweltberichten und Plänen. Es wurden insgesamt 15 Prozent der untersuchten Umweltberichte und 44 Prozent der Pläne modifiziert. Neue Informationen, die zu Veränderungen von Untersuchungsrahmen und Umweltberichten geführt haben, wurden in erster Linie von Umweltakteuren eingebracht. Der Großteil der Modifikationen von Plänen ist dagegen auf Umwelteinwendungen von Privatpersonen zurückzuführen. Auch der Anteil der Umwelteinwendungen, der zu Modifikationen von Untersuchungsrahmen und Umweltbericht führte, war bei Umweltakteuren größer als bei Privatpersonen. Der Anteil der Umwelteinwendungen, der zu Modifikationen des Plans führte, war dagegen bei Umweltakteuren und Privatpersonen annährend gleich. Beim Großteil der untersuchten Verfahren waren zur frühzeitigen Beteiligung die Resonanz der Öffentlichkeit und deren Einfluss auf den Plan und die Umweltprüfung größer als zur regulären Beteiligung. Hieraus kann geschlussfolgert werden, dass der Zeitpunkt der Beteiligung ein wichtiger Einflussfaktor ist, der sich auf die Öffentlichkeitsbeteiligung auswirkt.
This thesis is devoted to two main topics (accordingly, there are two chapters): In the first chapter, we establish a tropical intersection theory with analogue notions and tools as its algebro-geometric counterpart. This includes tropical cycles, rational functions, intersection products of Cartier divisors and cycles, morphisms, their functors and the projection formula, rational equivalence. The most important features of this theory are the following: - It unifies and simplifies many of the existing results of tropical enumerative geometry, which often contained involved ad-hoc computations. - It is indispensable to formulate and solve further tropical enumerative problems. - It shows deep relations to the intersection theory of toric varieties and connected fields. - The relationship between tropical and classical Gromov-Witten invariants found by Mikhalkin is made plausible from inside tropical geometry. - It is interesting on its own as a subfield of convex geometry. In the second chapter, we study tropical gravitational descendants (i.e. Gromov-Witten invariants with incidence and "Psi-class" factors) and show that many concepts of the classical Gromov-Witten theory such as the famous WDVV equations can be carried over to the tropical world. We use this to extend Mikhalkin's results to a certain class of gravitational descendants, i.e. we show that many of the classical gravitational descendants of P^2 and P^1 x P^1 can be computed by counting tropical curves satisfying certain incidence conditions and with prescribed valences of their vertices. Moreover, the presented theory is not restricted to plane curves and therefore provides an important tool to derive similar results in higher dimensions. A more detailed chapter synopsis can be found at the beginning of each individual chapter.
In this article we prove existence and uniqueness results for solutions to the outer oblique boundary problem for the Poisson equation under very weak assumptions on boundary, coefficients and inhomogeneities. Main tools are the Kelvin transformation and the solution operator for the regular inner problem, provided in [1]. Moreover we prove regularisation results for the weak solutions of both, the inner and the outer problem. We investigate the non-admissible direction for the oblique vector field, state results with stochastic inhomogeneities and provide a Ritz-Galerkinm approximation. The results are applicable to problems from Geomathematics, see e.g. [2] and [3].
In this article we combine the modern theory of Sobolev spaces with the classical theory of limit formulae and jump relations of potential theory. Also other authors proved the convergence in Lebesgue spaces for integrable functions. The achievement of this paper is the L2 convergence for the weak derivatives of higher orders. Also the layer functions F are elements of Sobolev spaces and a two dimensional suitable smooth submanifold in R3, called regular Cm-surface. We are considering the potential of the single layer, the potential of the double layer as well as their first order normal derivatives. Main tool is the convergence in Cm-norm which is proved with help of some results taken from [14]. Additionally, we need a result about the limit formulae in L2-norm, which can be found in [16], and a reduction result which we took from [19]. Moreover we prove the convergence in the Hölder spaces Cm,alpha. Finally, we give an application of the limit formulae and jump relations to Geomathematics. We generalize a density results, see e.g. [11], from L2 to Hm,2. For it we prove the limit formula for U1 in (Hm,2)' also.
This dissertation deals with two main subjects. Both are strongly related to boundary problems for the Poisson equation and the Laplace equation, respectively. The oblique boundary problem of potential theory as well as the limit formulae and jump relations of potential theory are investigated. We divide this abstract into two parts and start with the oblique boundary problem. Here we prove existence and uniqueness results for solutions to the outer oblique boundary problem for the Poisson equation under very weak assumptions on boundary, coefficients and inhomogeneities. Main tools are the Kelvin transformation and the solution operator for the regular inner problem, provided in my diploma thesis. Moreover we prove regularization results for the weak solutions of both, the inner and the outer problem. We investigate the non-admissible direction for the oblique vector field, state results with stochastic inhomogeneities and provide a Ritz-Galerkin approximation. Finally we show that the results are applicable to problems from Geomathematics. Now we come to the limit formulae. There we combine the modern theory of Sobolev spaces with the classical theory of limit formulae and jump relations of potential theory. The convergence in Lebesgue spaces for integrable functions is already treated in literature. The achievement of this dissertation is this convergence for the weak derivatives of higher orders. Also the layer functions are elements of Sobolev spaces and the surface is a two dimensional suitable smooth submanifold in the three dimensional space. We are considering the potential of the single layer, the potential of the double layer and their first order normal derivatives. Main tool in the proof in Sobolev norm is the uniform convergence of the tangential derivatives, which is proved with help of some results taken from literature. Additionally, we need a result about the limit formulae in the Lebesgue spaces, which is also taken from literature, and a reduction result for normal derivatives of harmonic functions. Moreover we prove the convergence in the Hölder spaces. Finally we give an application of the limit formulae and jump relations. We generalize a known density of several function systems from Geomathematics in the Lebesgue spaces of square integrable measureable functions, to density in Sobolev spaces, based on the results proved before. Therefore we have prove the limit formula of the single layer potential in dual spaces of Soboelv spaces, where also the layer function is an element of such a distribution space.
Doppelbindungen verminderter Konjugation auftreten, ähnlich der 9,10-Doppelbindung in Phenanthren. Die Eignung von Dbf-1 als η5-Metallocenligand konnte durch die Darstellung einer Reihe von Übergangsmetallkomplexen gezeigt werden: Neben dem symmetrischen Ferrocen Dbf2Fe, dessen analoge Fluorenylverbindung nicht bekannt ist, konnten auch die unsymmetrisch substituierten Ferrocene (η5-Dbf)Fe(η5-4Cp) (4Cp: 1,2,3,4- Tetraisopropylcyclopentadienyl) und (η5-Dbf)Fe(η5-Cp’’’) (Cp’’’: 1,2,4-Tri-tert-butylcyclopentadienyl) erhalten werden. Weiterhin wurden Metallocen- und Arenkomplexe mit Gruppe VI-Metallen ((η3-Allyl)(η5-Dbf)M(CO)2, M = Mo, W und (η6-DbfH)Cr(CO)3 isoliert, sowie Metallocene der Metalle Mangan ((η5-Dbf)Mn(CO)3), Cobalt ([(η5-Dbf)Co(η5-Cp*)]PF6, Cp*: 1,2,3,4,5-Pentamethylcyclopentadienyl), Ruthenium ((η5-Dbf)Ru(PPh3)2Cl, [(η5-Dbf)Ru(PPh3)2(NCMe)]SbF6) und Titan (η5-Dbf)(η1-Dbf)Ti(OiPr)2. Für die lokalisierten Doppelbindungen in 3,4- und 3’,4’-Position wird – wie im Fall des Phenanthren – partielle olefinische Reaktivität erwartet. Dies konnte durch die selektive Anwendung olefintypischer Reaktionen an diesen Positionen bestätigt werden. Reaktion von Dbf-Ferrocenen mit molekularem Wasserstoff in Gegenwart von Pd/C erlaubt selektive Hydrierung der Komplexe an Position 3,4 und 3’,4’ und liefert die entsprechenden 3,3’,4,4’-Tetrahydrodibenzo[c,g]fluorenylkomplexe (H4-Dbf)2Fe und (H4-Dbf)Fe(4Cp). Die Umsetzung mit ZnEt2 und ClCH2I erlaubt die selektive Cyclopropanierung der Ferrocens (Dbf)Fe(Cp’’’).
Gegenstand dieser Arbeit ist die Entwicklung eines Wärmetransportmodells für tiefe geothermische (hydrothermale) Reservoire. Existenz- und Eindeutigkeitsaussagen bezüglich einer schwachen Lösung des vorgestellten Modells werden getätigt. Weiterhin wird ein Verfahren zur Approximation dieser Lösung basierend auf einem linearen Galerkin-Schema dargelegt, wobei sowohl die Konvergenz nachgewiesen als auch eine Konvergenzrate erarbeitet werden.
It was recently reported that imatinib causes cell death in neonatal rat ventricular cardiomyocytes (NRVCM) by triggering endoplasmic reticulum (ER) stress and collapsed mitochondrial membrane potential. Retroviral gene transfer of an imatinib-resistant mutant c-Abl into NRVCM appeared to alleviate imatinib-induced cell death and it was concluded that the observed imatinib-induced cytotoxicity is mediated through direct interactions of imatinib with c-Abl. The imatinib effects were described as being specific for cardiomyocytes only, which are relevant also for the in vivo situation in man. [Kerkelä et al. 2006] The goal of the present study was to reproduce the published experiments and to further explore the dose-response relationship of imatinib-induced cell death in cardiomyocytes. Additional markers of toxicity were investigated. The following biochemical assays were applied: LDH release (membrane leakage marker), MTS-reduction (marker of mitochondrial integrity), ATP cellular contents (energy homoeostasis) and caspase 3/7 activity (apoptosis). The endoplasmatic reticulum (ER) stress markers eIF2α (elongation initiation factor 2α), XBP1 (X Box binding Protein 1), and CHOP (cAMP response element-binding transcription factor (C/EBP) homologous protein) were determined at the transcriptional and protein level. Online monitoring of cell attachment of, oxygen consumption and acidification of the medium by rat heart cells (H9c2) seated on chips (Bionas) allowed the determination of the onset and reversibility of cellular functions. Image analysis measured the spontaneous beating rates after imatinib treatment. The role of imatinib-induced reactive oxygen species was evaluated directly by 2’,7’-Dichlorofluorescein fluorescence and indirectly by means of interference experiments with antioxidants. The specificity of imatinib-induced effects were specific to cardiomyocytes was evaluated in fibroblasts derived from rat heart, lung and skin. The specific role of c-Abl in the imatinib-induced cellular toxicity was investigated by specific gene silencing of c-Abl in NRVCM. The results demonstrated that imatinib caused concentration-dependent cytotoxicity, apoptosis, and ER stress in heart, skin and lung fibroblasts, similar or stronger to those observed in cardiomyocytes. Similar to the results from cardiomyocytes, ER stress markers in fibroblasts were only increased at cytotoxic concentrations of imatinib. This effect was not reversible; also, reactive oxygen species did not participate in the mechanism of the imatinib-induced cytotoxicity in NRVCM. Small interfering RNA (siRNA)-mediated reduction of c-Abl mRNA levels by 51 % and c-Abl protein levels by 70 % had neither an effect on the spontaneous beating frequency of cardiomyocytes nor did it induce cytotoxicity, apoptosis, mitochondrial dysfunction or ER stress in NRVCM. Incubation of imatinib with c-Abl siRNA-transfected NRVCM suggested that reduced c-Abl protein levels did not rescue cardiomyocytes from imatinib-induced cytotoxicity. In conclusion, results from this study do not support a specific c-Abl-mediated mechanism of cytotoxicity in NRVCM.
Home Health Care (HHC) services are becoming increasingly important in Europe’s aging societies. Elderly people have varying degrees of need for assistance and medical treatment. It is advantageous to allow them to live in their own homes as long as possible, since a long-term stay in a nursing home can be much more costly for the social insurance system than a treatment at home providing assistance to the required level. Therefore, HHC services are a cost-effective and flexible instrument in the social system. In Germany, organizations providing HHC services are generally either larger charities with countrywide operations or small private companies offering services only in a city or a rural area. While the former have a hierarchical organizational structure and a large number of employees, the latter typically only have some ten to twenty nurses under contract. The relationship to the patients (“customers”) is often long-term and can last for several years. Therefore acquiring and keeping satisfied customers is crucial for HHC service providers and intensive competition among them is observed.
This thesis deals with the application of binomial option pricing in a single-asset Black-Scholes market and its extension to multi-dimensional situations. Although the binomial approach is, in principle, an efficient method for lower dimensional valuation problems, there are at least two main problems regarding its application: Firstly, traded options often exhibit discontinuities, so that the Berry- Esséen inequality is in general tight; i.e. conventional tree methods converge no faster than with order 1/sqrt(N). Furthermore, they suffer from an irregular convergence behaviour that impedes the possibility to achieve a higher order of convergence via extrapolation methods. Secondly, in multi-asset markets conventional tree construction methods cannot ensure well-defined transition probabilities for arbitrary correlation structures between the assets. As a major aim of this thesis, we present two approaches to get binomial trees into shape in order to overcome the main problems in applications; the optimal drift model for the valuation of single-asset options and the decoupling approach to multi-dimensional option pricing. The new valuation methods are embedded into a self-contained survey of binomial option pricing, which focuses on the convergence behaviour of binomial trees. The optimal drift model is a new one-dimensional binomial scheme that can lead to convergence of order o(1/N) by exploiting the specific structure of the valuation problem under consideration. As a consequence, it has the potential to outperform benchmark algorithms. The decoupling approach is presented as a universal construction method for multi-dimensional trees. The corresponding trees are well-defined for an arbitrary correlation structure of the underlying assets. In addition, they yield a more regular convergence behaviour. In fact, the sawtooth effect can even vanish completely, so that extrapolation can be applied.
Von der Bauplanung zur Gebäudebewirtschaftung: Ein integrales Bewertungs- und Transformationsmodell
(2009)
Gegenstand der vorliegenden Arbeit ist der Entwurf eines integralen Bewertungs- und Transformationsmodells zur Integration der Gebäudebewirtschaftung in die Bauplanungsphase. Das Ziel der Untersuchung ist die Bildung eines Modells zur Identifizierung einer Bauplanungsvariante, die hinsichtlich ihrer späteren Nutzung bezüglich des Ressourcenverbrauchs, der Belastung für Mensch und Umwelt, der Durchführung von Bewirtschaftungsprozessen und bezüglich der Umgebungsressourcen eine optimierte Variante darstellt. Im ersten Teil der Arbeit werden nach einer kurzen Einführung zunächst die Motivation zur vorliegenden Arbeit, ihre Zielsetzung und die Grundlagen des Facility Management, der Bauplanung und Baukosten erläutert. Die ganzheitliche Betrachtung von Facility Management über den gesamten Lebenszyklus unter Berücksichtigung auch nicht monetärer Ziele wie Belastungsvermeidung oder Optimierung der Umgebungsressourcen macht eine eigene Neudefinition von Facility Management notwendig. Basis der weiteren Untersuchungen sind die entwickelten Übergeordneten Ziele des Facility Management. Zur Befriedigung der Übergeordneten Ziele des Facility Management muss Facility Management schon in der frühen Phase der Rahmen- und Nutzungsplanung und auf der funktional organisatorischen Bauplanungsebene integriert werden und muss die Interessen aller an Bau und Nutzung beteiligten integrieren. Der zweite Teil der Arbeit befasst sich mit der Integration von Facility Management in den Bauplanungsprozess. Dazu werden in einem ersten Schritt planungsabhängige Kosten und Leistungen des Facility Management identifiziert. Durch eine Analyse der Planungsabhängigkeiten der Übergeordneten Ziele des Facility Management wird aufgezeigt, wie Planungsobjekte identifiziert werden. Das entwickelte Transformationsmodell erlaubt die Transformation von Planungsobjekten zu Bewirtschaftungsobjekten, deren Variation in der Planungsphase die Bewirtschaftungsphase maßgeblich beeinflussen. Das erarbeitete Objektmodell zeigt im Sinne der Objektorientierung die Beziehungen der Bewirtschaftungsobjekte untereinander auf. Das Transformationsmodell bildet die Grundlage zur abschließenden Planungsbewertung anhand derer verschiedene Bauplanungsalternativen untereinander vergleichbar gemacht werden und hinsichtlich ihres Nutzwertes bezüglich der Bewirtschaftungsphase bewertet werden können.
Nowadays, vehicle control systems such as anti-lock braking systems, electronic stability control, and cruise control systems yield many advantages. The electronic control units that are deployed in this specific application domain are embedded systems that are integrated in larger systems to achieve predefined applications. Embedded systems consist of embedded hardware and a large software part. Model-based development for embedded systems offers significant software-development benefits that are pointed out in this thesis. The vehicle control system Adaptive Cruise Control is developed in this thesis using a model-based software development process for embedded systems. As a modern industrial design tool that is prevalent in this domain, simulink,is used for modeling the environment, the system behavior, for determining controller parameters, and for simulation purposes. Using an appropriate toolchain, the embedded code is automatically generated. The adaptive cruise control system could be successfully implemented and tested within this short timespan using a waterfall model without increments. The vehicle plant and important filters are fully deduced in detail. Therefore, the design of further vehicle control systems needs less effort for development and precise simulation.
Im Rahmen dieser Arbeit konnte gezeigt werden, dass Cobalt(II)-Komplexe mit Akzeptor-substituierten β-Diketonat-abgeleiteten Liganden geeignete Reagenzien sind, um molekularen Sauerstoff effektiv zu aktivieren und zur stereoselektiven Synthese β-hydroxylierter Tetrahydrofurane aus 1-substituierter Bishomoallylalkoholen zu verwenden. Die Reaktionen verliefen hoch diastereoselektiv (cis:trans < 1:99) und lieferten 2,5-trans-konfigurierte 2-Hydroxymethyltetrahydrofurane. Reaktivität und Selektivität waren abhängig von Solvens, Temperatur, Katalysatormenge und -konzentration, O2-Druck sowie Substitutionsgrad an den reaktiven Teilstrukturen, d. h. der olefinischen Doppelbindung und der Hydroxylgruppe. Es konnten Beiträge präparativer und mechanistischer Art geleistet werden, die einerseits zu einem vertieften Verständnis der Gesamtreaktion und andererseits zu einer weiteren Anwendung der Cobalt(II)-katalysierten Oxidation von Alkenolen führten. In präparativer Hinsicht wurde zunächst eine verbesserte Methodik entwickelt, um Alkenoloxygenierungen in einer stationären O2-Atmosphäre ohne Substrat- und Produktverlust durchzuführen. Zur Optimierung der Reaktionsbedingungen bezüglich der oben genannten Parameter wurde die aerobe Oxidation von 2,2-Dimethyl-6-hepten-3-ol im Detail untersucht. Hierbei wurden unter Verwendung der Kombination aus Lösungsmittel iPrOH, 60 °C, c0 (CoIIKat.) = 1.25 ´ 10–2 M und 1 bar O2-Druck die höchsten Ausbeuten an Zielmolekül [5-(tert-Butyl)tetrahydrofur-2-yl]methanol (63–64 %) erzielt. Präparativ interessante Ausbeuten (53–66 %) an β-hydroxylierten Tetrahydrofuranen konnten ebenfalls für die Oxidation von 4-Phenylpent-4-en-1-ol sowie von (E)- und (Z)-konfigurierten Methyl- und Phenyl-substituierten Bishomoallylalkoholen unter Anwendung der optimierten Bedingungen erzielt werden. Die erhaltene 2,5-trans-Selektivität und die Diastereoselektivität in der Seitenkette waren hierbei unabhängig – die Reaktivität und Produktselektivität dagegen abhängig – von den Substituenten und der ursprünglichen Konfiguration der π-Bindung. Im Zusammenhang mit mechanistischen Fragenstellungen gelang zum ersten Mal eine nahezu vollständige Massenbilanzierung bei aeroben Oxidationen 1-substituierter Bishomoallylalkohole. Hierbei wurden Verbindungen, deren Bildung auf reduktive Cyclisierungen, C,C-π-Bindungsspaltungen, Dehydrierungen sowie Alken-Hydratisierungen und -Reduktionen zurückgeführt wird, als Nebenprodukte identifiziert und quantifiziert. Zudem konnte eine Umkehr der Produktselektivität zugunsten der Bildung von 2-Methyl-, 2-Ethyl- und 2-Benzyl-substituierten 2,5-trans-Tetrahydrofuranen nach Durchführung der Reaktion in einem Gemisch aus Cyclohexa-1,4-dien und Benzol [50:50 (v/v)] erreicht werden. Darüber hinaus gelang eine Quantifizierung von Wasser und Aceton, den Redoxkoppelprodukten aerober Alkenoloxidationen in Isopropanol. Dabei korrelierten die ermittelten Acetonmengen mit der Bildung der 2-Hydroxymethyltetrahydrofurane und die des Wassers mit dem Reaktionsumsatz. Basierend auf den erhaltenen Daten und unter Berücksichtigung vorliegender Informationen über ähnliche Umsetzungen aus der Literatur wurde ein mechanistischer Vorschlag für den Reaktionsverlauf Cobalt(II)-katalysierter Oxidationen von Bishomoallylalkoholen entworfen, welcher die Bevorzugung des 5-exo-Ringschlusses und die beobachteten Selektivitäten erklärt. Hierbei wurde das Auftreten eines Tetrahydrofurylalkylradikals als zentrale Zwischenstufe postuliert, welches durch Heteroatomdonoren oder durch Alkene zu 1/1-Addukten abgefangen werden könnten. Aufgrund der hohen Stereoselektivität des vorangegangenen Ringschlusses würde eine Anwendung der Methode insbesondere in der Naturstoffsynthese ganz neue Perspektiven eröffnen.
A general multi-period network redesign problem arising in the context of strategic supply chain planning (SCP) is studied. Several aspects of practical relevance in SCP are captured namely, multiple facility layers with different types of facilities, flows between facilities in the same layer, direct shipments to customers, and facility relocation. An efficient two-phase heuristic approach is proposed for obtaining feasible solutions to the problem, which is initially modeled as a large-scale mixed-integer linear program. In the first stage of the heuristic, a linear programming rounding strategy is applied to second initial values for the binary location variables in the model. The second phase of the heuristic uses local search to correct the initial solution when feasibility is not reached or to improve the solution when its quality does not meet given criteria. The results of an extensive computational study performed on randomly generated instances are reported.
The manuscript divides in 7 chapters. Chapter 2 briefly introduces the reader to the elementary measures of classical continuum mechanics and thus allows to familiarize with the employed notation. Furthermore, deeper insight of the proposed first-order computational homogenization strategy is presented. Based on the need for a discrete representative volume element (rve), Chapter 3 focuses on a proper rve generation algorithm. Therein, the algorithm itself is described in detail. Additionally, we introduce the concept of periodicity. This chapter finalizes by granting multiple representative examples. A potential based soft particle contact method, used for the computations on the microscale level, is defined in Chapter 4. Included are a description of the used discrete element method (dem) as well as the applied macroscopically driven Dirichlet boundary conditions. The chapter closes with the proposition of a proper solution algorithm as well as illustrative representative examples. Homogenization of the discrete microscopic quantities is discussed in Chapter 5. Therein, the focus is on the upscaling of the aggregate energy as well as on the derivation of related macroscopic stress measures. Necessary quantities for coupling between a standard finite element method and the proposed discrete microscale are presented in Chapter 6. Therein, we tend to the derivation of the macroscopic tangent, necessary for the inclusion into the standard finite element programs. Chapter 7 focuses on the incorporation of inter-particle friction. We select to derive a variational based formulation of inter-particle friction forces, founded on a proposed reduced incremental potential. This contribution is closed by providing a discussion as well as an outlook.
Faser-Kunststoff-Verbunde (FKV) werden aufgrund ihres hohen Leichtbaupotentials
in vielen Industriebereichen eingesetzt. Eine Verstärkung von Kunststoffen mit Fasern
führt zu einer deutlichen Verbesserung der mechanischen Eigenschaften. Positive
Veränderungen des Eigenschaftsspektrums sind zum Beispiel deutliche Verbesserungen
des Zug-E-Moduls und der Zugfestigkeit. Negative Erscheinungen, die aus
der Faserverstärkung resultieren können, sind eine geringere Bruchdehnung des
Verbundwerkstoffes und ein spröderes Bruchverhalten bei Impakt- und Crashbelastung.
Um diesen Nachteil auszugleichen, werden vermehrt Metall-Kunststoff-
Composites (Hybridverbundwerkstoffe) entwickelt, bei denen die positiven Eigenschaften
von Metallen und Faser-Kunststoff-Verbunden gezielt kombiniert werden,
um weitere Eigenschaftsverbesserungen zu erreichen.
Die vorliegende Arbeit behandelt die Entwicklung eines Herstellungsverfahrens sowie
die Charakterisierung, Modellierung und Simulation von neuartigen hybriden
edelstahltextilverstärkten Polypropylen- (ETV-PP) und Polypropylen/Langglasfaser-
Werkstoffen (ETV-PP/GF). Für die Fertigung von ETV-Verbundwerkstoffen wurde ein
zweistufiges Verfahren im Labormaßstab erarbeitet und eingeführt. Während der
Fertigungsstudien wurden ausgewählte Prozess- und Materialparameter variiert, um
deren Einfluss auf die mechanischen Eigenschaften der neuartigen ETVFaserkunststoffverbunde
(ETV-FKV) zu untersuchen. Nicht in jedem Fall konnte eine
eindeutige Abhängigkeit der mechanischen Eigenschaft von der variierten Prozessgröße
festgestellt werden. Wenn die Ergebnisse in ihrer Gesamtheit betrachtet werden,
treten folgende zwei äußerst positive Effekte in den Vordergrund: Zum einen
konnte durch den Einsatz der Edelstahltextilverstärkungen die Fragmentierungsneigung
von spröden PP-Matrixsystemen bei Impaktbelastung erheblich verringert werden
und zum anderen wurde die Energieabsorption bei hochdynamischer Durchstoßbeanspruchung
signifikant verbessert. Die mittels Licht- und Rasterelektronenmikroskopie
(REM) identifizierte schlechte Stahl/PP-Anhaftung konnte durch eine
mechanische Vorbehandlung der Verstärkungstextilien ebenfalls gesteigert werden.
Modelle zur mikromechanischen finite Elemente (FE) Simulation des Zug-E-Moduls
von ETV-Verbundwerkstoffen wurden entwickelt und anhand von experimentellen
Daten verifiziert und validiert.
Epoxy resins have achieved acceptance as adhesives, coatings, and potting compounds,
but their main application is as matrix to produce reinforced composites.
However, their usefulness in this field still limited due to their brittle nature. Some
studies have been done to increase the toughness of epoxy composites, of which the
most successful one is the modification of the polymer matrix with a second toughening
phase.
Resin Transfer Molding (RTM) is one of the most important technologies to manufacture
fiber reinforced composites. In the last decade it has experimented new impulse,
due to its favorable application to produce large surface composites with good technical
properties and at relative low cost.
This research work focuses on the development of novel modified epoxy matrices,
with enhanced mechanical and thermal properties, suitable to be processed by resin
transfer molding technology, to manufacture Glass Fiber Reinforced Composites
(GFRC’s) with improved performance in comparison to the commercially available
ones.
In the first stage of the project, a neat epoxy resin (EP) was modified using two different
nano-sized ceramics: silicium dioxide (SiO2) and zirconium dioxide (ZrO2); and
micro-sized particles of silicone rubber (SR) as second filler. Series of nanocomposites
and hybrid modified epoxy resins were obtained by systematic variation of filler
contents. The rheology and curing process of the modified epoxy resins were determined
in order to define their aptness to be processed by RTM. The resulting matrices
were extensively characterized qualitatively and quantitatively to precise the effect
of each filler on the polymer properties.
It was shown that the nanoparticles confer better mechanical properties to the epoxy
resin, including modulus and toughness. It was possible to improve simultaneously
the tensile modulus and toughness of the epoxy matrix in more than 30 % and 50 %
respectively, only by using 8 vol.-% nano-SiO2 as filler. A similar performance was
obtained by nanocomposites containing zirconia. The epoxy matrix modified with 8 vol.-% ZrO2 recorded tensile modulus and toughness improved up to 36% and 45%
respectively regarding EP.
On the other hand, the addition of silicone rubber to EP and nanocomposites results
in a superior toughness but has a slightly negative effect on modulus and strength.
The addition of 3 vol.-% SR to the neat epoxy and nanocomposites increases their
toughness between 1.5 and 2.5 fold; but implies also a reduction in their tensile modulus
and strength in range 5-10%. Therefore, when the right proportion of nanoceramic
and rubber were added to the epoxy resin, hybrid epoxy matrices with fracture
toughness 3 fold higher than EP but also with up to 20% improved modulus were
obtained.
Widespread investigations were carried out to define the structural mechanisms responsible
for these improvements. It was stated, that each type of filler induces specific
energy dissipating mechanisms during the mechanical loading and fracture
processes, which are closely related to their nature, morphology and of course to
their bonding with the epoxy matrix. When both nanoceramic and silicone rubber are
involved in the epoxy formulation, a superposition of their corresponding energy release
mechanisms is generated, which provides the matrix with an unusual properties
balance.
From the modified matrices glass fiber reinforced RTM-plates were produced. The
structure of the obtained composites was microscopically analyzed to determine their
impregnation quality. In all cases composites with no structural defects (i.e. voids,
delaminations) and good superficial finish were reached. The composites were also
properly characterized. As expected the final performance of the GFRCs is strongly
determined by the matrix properties. Thus, the enhancement reached by epoxy matrices
is translated into better GFRC´s macroscopical properties. Composites with up
to 15% enhanced strength and toughness improved up to 50%, were obtained from
the modified epoxy matrices.
Funktionalisierte Binaphthyle erlangen immer größere Bedeutung für die enantioselektive Katalyse. Durch Koordination an entsprechende Metallzentren vermögen sie Reaktionen zu katalysieren und Chiralität zu induzieren. Die Synthese neuer chiraler P,N-Binaphthylliganden mit verschiedenen Heterozyklen wie Pyrazol oder Triazol als N-Donoreinheit war das Ziel dieser Arbeit. Ausgehend von 1,1’-Binaphth-2,2’-diol (BINOL) konnten auf unterschiedlichen Reaktionswegen entsprechende Ligandvorstufen mit Phosphanoyleinheit in 2-Position synthetisiert werden. Anhand von Einkristallen konnte die Festkörperstruktur der zum Teil enantiomerenreinen Binaphthyle mit Cyano-, Acetyl-, Methylester-, Carbonsäure- und Amidgruppe in 2’-Position mittels Röntgenstrukturanalyse nachgewiesen werden. Durch die Kondensation der Acetyl- bzw. Amidvorstufe mit N,N-Dimethylformamiddimethylacetal sowie der anschließenden Zyklisierung mit Hydrazin-Monohydrat gelang es den Pyrazol- bzw. Triazolring in das Binaphthylgerüst einzuführen. Die Reduktion der Phosphanoyleinheit mit Trichlorsilan komplettierte die Ligandsynthesen. Während vom Triazolliganden die Synthese beider Enantiomere durchgeführt wurde, konnte vom Pyrazolliganden im Rahmen dieser Arbeit nur das S-Enantiomer erhalten werden. Die neuen P,N-Liganden wurden im weiteren Verlauf der Arbeit auf ihre Fähigkeit zur Koordination an Übergangsmetallen wie Palladium untersucht. Die Komplexierung mit PdCl2(PhCN)2 konnte bislang jedoch nur mit dem Triazolliganden erfolgreich durchgeführt werden. Spektroskopische und kristallographische Untersuchungen zeigten dabei einen interessanten Aspekt im Koordinationsverhalten dieses neuen P,N-Binaphthyls. Sowohl beim S-Enantiomer als auch beim R-Enantiomer dieses Liganden wurde die Bildung eines dimeren Pd2Cl2-Komplexes beobachtet und durch Röntgenstrukturanalyse des enantiomerenreinen R-Komplexes bestätigt.
The enamide moiety is an important substructure often encountered in biologically active compounds and synthetic drugs. Furthermore, enamides and their derivatives are versatile synthetic intermediates for polymerization, [4+2] cycloaddition, crosscoupling, Heck-olefinination, Halogenation, enantioselective addition or asymmetric hydrogenation. Traditional syntheses of this important substrate class involve rather harsh reaction conditions such as high temperatures and/or the use of strong bases. In continuation of our work on the addition of secondary amides to alkynes, we have developed a broadly applicable protocol for the catalytic addition of N-nucleophiles such as primary amides, imides and thioamides to terminal alkynes. The choice of ligands and additives determines the regiochemical outcome so that with two complementary catalyst systems, both the E-anti-Markovnikov products and the Z-anti-Markovnikov products can be synthesized highly regio- and stereoselectively.
The understanding of the motion of long slender elastic fibers in turbulent flows is of great interest to research, development and production in technical textiles manufacturing. The fiber dynamics depend on the drag forces that are imposed on the fiber by the fluid. Their computation requires in principle a coupling of fiber and flow with no-slip interface conditions. However, theneeded high resolution and adaptive grid refinement make the direct numerical simulation of the three-dimensional fluid-solid-problem for slender fibers and turbulent flows not only extremely costly and complex, but also still impossible for practically relevant applications. Embedded in a slender body theory, an aerodynamic force concept for a general drag model was therefore derived on basis of a stochastic k-o; description for a turbulent flow field in [23]. The turbulence effects on the fiber dynamics were modeled by a correlated random Gaussian force and its asymptotic limit on a macroscopic fiber scale by Gaussian white noise with flow-dependent amplitude. The concept was numerically studied under the conditions of a melt-spinning process for nonwoven materials in [24] – for the specific choice of a non-linear Taylor drag model. Taylor [35] suggested the heuristic model for high Reynolds number flows, Re in [20, 3 · 105], around inclined slender objects under an angle of attack of alpha in (pi/36, pi/2] between flow and object tangent. Since the Reynolds number is considered with respect to the relative velocity between flow and fiber, the numerical results lackaccuracy evidently for small Re that occur in cases of flexible light fibers moving occasionally with the flow velocity. In such a regime (Re << 1), linear Stokes drag forces were successfully applied for the prediction of small particles immersed in turbulent flows, see e.g. [25, 26, 32, 39], a modifiedStokes force taking also into account the particle oscillations was presented in [14]. The linear drag relation was also conferred to longer filaments by imposing free-draining assumptions [29, 8]. Apart from this, the Taylor drag suffers from its non-applicability to tangential incident flow situations (alpha = 0) that often occur in fiber and nonwoven production processes.
Das zentrale Thema dieser Arbeit sind vollständig gekoppelte reflektierte Vorwärts-Rückwärts-Stochastische-Differentialgleichungen (FBSDE). Zunächst wird ein Spezialfall, die teilweise gekoppelten FBSDE, betrachtet und deren Verbindung zur Bewertung Amerikanischer Optionen aufgezeigt. Für die Lösung dieser Gleichung wird Monte-Carlo-Simulation benötigt, daher werden verschiedene Varianzreduktionsmaßnahmen erarbeitet und miteinander verglichen. Im Folgenden wird der allgemeinere Fall der vollständig gekoppelten reflektierten FBSDE behandelt. Es wird gezeigt, wie das Problem der Lösung dieser Gleichungen in ein Optimierungsproblem übertragen werden kann und infolgedessen mit numerischen Methoden aus diesem Bereich der Mathematik bearbeitet werden kann. Abschließend folgen Vergleiche der verschiedenen numerischen Ansätze mit bereits existierenden Verfahren.
Microfibrillar reinforced composites (MFC) have attracted considerable academic and practical interests after the concept was introduced more than a decade years ago. This new type of composites will be created by blending of two polymers with different melting temperatures and processing the blend under certain thermo-mechanical conditions to generate in-situ formed microfibrils of the higher melting polymer grade of temperature in the blend. The compression molded microfibrillar composites were reported to possess excellent mechanical properties and thus they are promising materials for different applications. In the present work, a typical immiscible polymer blend PET/PP was selected for the preparation of PET/PP, PET/PP/TiO2 microfibrillar reinforced composites. The objective of this study is to analyse the processing-structure-property relationship in the PET/PP based MFCs. The morphology of the PET microfibrils and the dispersion of the TiO2 nanoparticles were characterized by scanning electron microscopy (SEM) and transmission electron microscopy (TEM), and discussed. The crystallization behaviour of PET and PP was studied by means of differential scanning calorimetry (DSC). The thermomechanical and mechanical properties of the composites were determined by dynamic mechanical thermal analysis (DMTA) and uniaxial tensile tests and the related results discussed as a function of the composition of the corresponding system. During stretching of the PET/PP extrudate, the PET dispersed phase was deformed into microfibrils. These microfibrils were still well persevered after compression molding of the drawn strands. Therefore the PET microfibrils acted as the reinforcement for the PP matrix. Compared with neat PP, the tensile properties of the PET/PP MFC were greatly improved. For the PET/PP/TiO2 MFC, the effects of polypropylene grafted maleic anhydride (PP-g-MA, introduced as compatibilizer) and TiO2 particles on the structure and properties of drawn strands and composites were investigated. Upon the addition of PP-g-MA, the preferential location of TiO2 particles changed: they migrated from the PET dispersed phase to the continuous PP matrix phase. This was accompanied with structural changes of the drawn strands. The microfibril formation mechanism was also investigated. After injection molding of the microfibrillar composites, the preferential location of TiO2 particles was still preserved. DMTA analysis of drawn strands, the tensile and impact tests of the composites demonstrated that the mechanical properties of the drawn strands of the microfibrillar composites were strongly dependent on the respective structures of the tested materials. To further investigate the preferential location of TiO2 particles in the PET/PP blend which were discovered during the preparation of PET/PP/TiO2 MFCs, PET/PP/TiO2 ternary nanocomposites were prepared according to four blending procedures. The preferential location of TiO2 nanoparticles was influenced by the blending sequence and the amount of PP-g-MA incorporated. Furthermore, it was discovered that TiO2 nanoparticles exerted a compatibilizing effect on the morphology of the composites. Three different compatibilization mechanisms of nanoparticles were proposed depending on the location of the nanoparticles.
Der Entkopplermechanismus von UCP-2 sollte weitergehend untersucht sowie eine Methode zur Messung des Einfluss von UCP-2 auf die ROS-Homöostase gefunden werden. Durch Kompetitionsmessungen mit spinmarkierten Fettsäuren an rekonstituiertem UCP-2 sollte das Flip Flop Modell als Entkopplungsmechanismus weiter unterstützt und Bindungskonstanten abgeschätzt werden. Dies sollte in Titrationsmessungen mit kompetitierenden Fettsäuren und Purinnucleotiden gezeigt und mit Messungen in Gegenwart eines Kontrollproteins ohne Fettsäurebindungsstelle verglichen werden. Es konnte allerdings kein substöchiometrischer Verdrängungseffekt mit den Fettsäuren oder ATP gezeigt werden. Deswegen wurde der Einfluss des Detergens sowie der Ionenstärke auf das ESR-Signal untersucht und das Vorhandensein hochimmobilisierter spektraler Komponenten, typisch für die Einlagerung in eine Bindungsstelle, auch in Abwesenheit von UCP-2 gefunden. Um einen potenziellen Einfluss von UCP-2 auf die Homöostase von ROS zeigen zu können, sollte ein ESR-basierter Assay etabliert werden. Dazu wurden Spin Trapping Experimente mit ex vivo Detektion (Extraktion der generierten ROS in Ethylacetat) und in situ Detektion (direktes Messen bei der Entstehung) mit biologischen Proben (Mitochondrien, Mitoplasten und Zellen aus Zellkulturen) durchgeführt. Der in situ Assay schien geeigneter, allerdings waren die Radikalkonzentrationen nahe der Nachweisgrenze. Um dennoch eine zeitaufgelöste Auswertung der Daten zu ermöglichen und das Signal-Rauschen-Verhältnis zu verbessern, wurde zur Datenanalyse das Rauschen mit einer auf Singulärwertzerlegung basierten Methode gefiltert und zum Teil die zeitlichen Spuren der verschiedenen Radikaladdukte bestimmt. Eine weitere Methode zum Nachweis von UCP-2 auf die ROS-Homöostase ist die Verwendung fluoreszierender Double Spin Traps. Hier erlischt die zuächst vorhandene Fluoreszenz durch ROS-Einwirkung. Die Double Trap p-Nitrostilbentert.butylnitron sollte durch veränderte Substitution so modifiziert werden, dass sich die spektroskopischen Eigenschaften verbessern. Beide Spin Traps wurden hinsichtlich optischer und ESR-spektroskopischer Eigenschaften sowie dem Verhalten in der Zelle verglichen. Da die Einführung eines Coumarinrestes als Fluorophor nicht zur erhofften Rotverschiebung der Anregungswellenlänge führt, aber die Cytotoxizität ausgeprägter ist, ist NSN geeigneter, zumal dessen Fluoreszenz deckungsgleich mit dem mitochondrialem Marker TMRE ist. Das spricht für Akkumulation an diesem wichtigen Entstehungsort von ROS. In Gegenwart von ROS zeigen beide Spin Traps ein ESR-Signal und auch das Löschen der Fluoreszenz aufgrund des nahe gelegenen stabilen Radikals. Bei NSN war der Effekt ausgeprägter: Die Halbwertszeiten des Fluoreszenzrückgangs wurden zu typischerweise 25 s in Anwesenheit von ROS-induzierenden Atmungsketteninhibitoren und 180 s in deren Abwesenheit bestimmt. Zusammenfassend kann mit den vorgestellten Spin Trapping Methoden der Einfluss von UCP-2 auf die ROS-Homöostase direkt gemessen werden, indem Zellen mit deletierter Expression von UCP-2 mit adäquaten Wildtypzellen verglichen werden. Mit NSN lässt sich ROS mittels Fluoreszenzmikroskopie mit subzellulärer Auflösung in Mitochondrien detektieren.