Refine
Year of publication
- 2023 (146)
- 2021 (117)
- 2022 (109)
- 2015 (100)
- 2020 (99)
- 2016 (92)
- 2017 (84)
- 2018 (79)
- 2014 (78)
- 2009 (76)
- 2019 (74)
- 2006 (69)
- 2012 (66)
- 2013 (65)
- 2007 (64)
- 2008 (63)
- 2011 (62)
- 2010 (61)
- 2005 (58)
- 2004 (55)
- 2002 (50)
- 2003 (50)
- 2001 (35)
- 2024 (35)
- 2000 (34)
- 1999 (28)
- 1998 (7)
- 1995 (3)
- 1996 (2)
- 1997 (2)
- 1994 (1)
Document Type
- Doctoral Thesis (1864) (remove)
Language
- German (930)
- English (928)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (18)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
- Tribologie (10)
- Visualization (10)
- finite element method (10)
- Eisen (9)
- Flüssig-Flüssig-Extraktion (9)
- Optimierung (8)
- Oxidativer Stress (8)
- Querkraft (8)
- Streptococcus pneumoniae (8)
- Deep Learning (7)
- Gasphase (7)
- Numerische Strömungssimulation (7)
- Optimization (7)
- Palladium (7)
- Polyphenole (7)
- Querkrafttragfähigkeit (7)
- Acrylamid (6)
- Algebraische Geometrie (6)
- Evaluation (6)
- Heterogene Katalyse (6)
- Leber (6)
- Machine Learning (6)
- Mischwasserbehandlung (6)
- Portfolio Selection (6)
- Ruthenium (6)
- Supramolekulare Chemie (6)
- Bemessung (5)
- Bewertung (5)
- CFD (5)
- Carbonsäuren (5)
- Clusterion (5)
- Cobalt (5)
- Computergraphik (5)
- Cyclopeptide (5)
- Finanzmathematik (5)
- Fluoreszenz (5)
- Homogene Katalyse (5)
- Leichtbau (5)
- Messtechnik (5)
- Metabolismus (5)
- Model checking (5)
- Monte-Carlo-Simulation (5)
- Phosphaalkin (5)
- Polymere (5)
- Raumordnung (5)
- Regionalentwicklung (5)
- Retentionsbodenfilter (5)
- Robotik (5)
- Stahlbeton (5)
- Stochastische dynamische Optimierung (5)
- Unsicherheit (5)
- Verbundbauweise (5)
- Zeolith (5)
- machine learning (5)
- verification (5)
- Ab-initio-Rechnung (4)
- Apfelsaft (4)
- Artificial Intelligence (4)
- Bauen im Bestand (4)
- Bildverarbeitung (4)
- Cluster (4)
- Computeralgebra (4)
- Elastizität (4)
- Faser-Kunststoff-Verbunde (4)
- Faserkunststoffverbunde (4)
- Filtration (4)
- Genregulation (4)
- Geoinformationssystem (4)
- Glutathion (4)
- Homogenisierung <Mathematik> (4)
- Kontinuumsmechanik (4)
- Massenspektrometrie (4)
- Materialermüdung (4)
- Molekularstrahl (4)
- Navier-Stokes-Gleichung (4)
- Nichtlineare Finite-Elemente-Methode (4)
- Numerische Mathematik (4)
- Phosphor (4)
- Portfolio-Optimierung (4)
- Reibung (4)
- Spincrossover (4)
- Stadtentwicklung (4)
- Stahlbetonbau (4)
- Verifikation (4)
- catalysis (4)
- computational mechanics (4)
- homogene Katalyse (4)
- mobile radio (4)
- palladium (4)
- polyphenols (4)
- portfolio optimization (4)
- Ackerschmalwand (3)
- Algorithmus (3)
- Anthocyane (3)
- Apfel (3)
- Apoptose (3)
- Automation (3)
- Biaryle (3)
- Bruchmechanik (3)
- CAD (3)
- Comet Assay (3)
- Cytochrom P-450 (3)
- Datenanalyse (3)
- Datenbank (3)
- Differenzierung (3)
- Digitalisierung (3)
- Dissertation (3)
- EPR (3)
- ESR (3)
- ESR-Spektroskopie (3)
- Effizienter Algorithmus (3)
- Elektromobilität (3)
- Ermüdung (3)
- Erwarteter Nutzen (3)
- Evolution (3)
- Experiment (3)
- Extrapolation (3)
- FT-ICR-Spektroskopie (3)
- Faserverbundwerkstoff (3)
- Finite-Volumen-Methode (3)
- Flavonoide (3)
- Formal Verification (3)
- Formale Beschreibungstechnik (3)
- Glycidamid (3)
- Gröbner-Basis (3)
- Harnstoff (3)
- Hochleistungsbeton (3)
- Hohlkörper (3)
- Hydrodynamik (3)
- IR-MPD (3)
- IRMPD (3)
- ITC (3)
- Immobilisierung (3)
- Implementation (3)
- In vitro (3)
- In vivo (3)
- Indirubin (3)
- Innenstadt (3)
- Interaktion (3)
- Inverses Problem (3)
- Ionenfalle (3)
- Katalytische Hydrierung (3)
- Kinetik (3)
- Koordinationschemie (3)
- Kupfer (3)
- Kupferkomplexe (3)
- Layout (3)
- Leukämie (3)
- MIMO (3)
- Machine learning (3)
- Maschinelles Lernen (3)
- Mehrskalenmodell (3)
- Mensch-Maschine-Kommunikation (3)
- Metallcluster (3)
- Metallorganische Chemie (3)
- Microarray (3)
- Mikroklima (3)
- Mikrostruktur (3)
- Molekulardynamik (3)
- Mosco convergence (3)
- Mustererkennung (3)
- N-Liganden (3)
- NOx (3)
- NURBS (3)
- Nachhaltigkeit (3)
- Nanopartikel (3)
- Netzwerk (3)
- Neural Networks (3)
- Nickel (3)
- Niederspannungsnetz (3)
- OFDM (3)
- Oberflächenvorbehandlung (3)
- Optionspreistheorie (3)
- Optische Zeichenerkennung (3)
- Organische Chemie (3)
- P (3)
- Partial Differential Equations (3)
- Phylogenie (3)
- Portfolio Optimization (3)
- Portfoliomanagement (3)
- ROS (3)
- Ray casting (3)
- Reaktive Sauerstoffspezies (3)
- Reaktivextraktion (3)
- Recommender Systems (3)
- Regenwasserbehandlung (3)
- Regionalplanung (3)
- Resistenz (3)
- Risikoanalyse (3)
- Risikomanagement (3)
- Räumliche Statistik (3)
- Schnittstelle (3)
- Scientific Visualization (3)
- Semantic Web (3)
- Sensitivitätsanalyse (3)
- Sicherheit (3)
- Signaltransduktion (3)
- Stoffübergang (3)
- System-on-Chip (3)
- Tetrachlordibenzodioxine (3)
- Thermodynamik (3)
- Thermoplast (3)
- Transaction Costs (3)
- Tropische Geometrie (3)
- Verbundträger (3)
- Verbundwerkstoffe (3)
- Verschleiß (3)
- Wasserstoffbrückenbindungen (3)
- Wavelet (3)
- Wein (3)
- anionic receptors (3)
- cobalt (3)
- computer graphics (3)
- deep learning (3)
- document analysis (3)
- isogeometric analysis (3)
- model (3)
- optical character recognition (3)
- optimales Investment (3)
- phase equilibria (3)
- phase equilibrium (3)
- ruthenium (3)
- supramolecular chemistry (3)
- visualization (3)
- Überflutung (3)
- 1 (2)
- 1'-Binaphthyle (2)
- ADAS (2)
- AG-RESY (2)
- ATP-Synthase (2)
- Abgasnachbehandlung (2)
- Absorption (2)
- Abwasserreinigung (2)
- Acetylcholinrezeptor (2)
- Activity recognition (2)
- Additionsreaktion (2)
- Adhäsion (2)
- Adipinsäure (2)
- Adsorption (2)
- Affinitätschromatographie (2)
- Aktivierung <Chemie> (2)
- Algorithm (2)
- Alkin (2)
- Alterung (2)
- Alterungsbeständigkeit (2)
- Aluminium (2)
- Amide (2)
- Aminierung (2)
- Androgene (2)
- Anionenrezeptor (2)
- Anpassung (2)
- Arabidopsis (2)
- Arsen (2)
- Arylhydrocarbon-Rezeptor (2)
- Asymptotic Expansion (2)
- Asymptotik (2)
- Ausschnitt <Öffnung> (2)
- Automatische Differentiation (2)
- B-Spline (2)
- B-splines (2)
- Bauphysik (2)
- Beta-Lactam-Resistenz (2)
- Beteiligung (2)
- Betriebsfestigkeit (2)
- Bildung (2)
- Biogeographie (2)
- Bioinformatik (2)
- Biologie (2)
- Biomarker (2)
- Biomechanik (2)
- Bismut (2)
- Blattschneiderameisen (2)
- Bodenfilter (2)
- Bottom-up (2)
- Bounded Model Checking (2)
- CAFM (2)
- CF-PEEK (2)
- CSO (2)
- CYP1A1 (2)
- Calcium (2)
- Carboxylierung (2)
- Carcinogenese (2)
- Cat-CVD-Verfahren (2)
- Cluster-Analyse (2)
- Cobaltcluster (2)
- Code Generation (2)
- Combined Sewer Overflow (2)
- Computational Fluid Dynamics (2)
- Computersimulation (2)
- Cyanobacteria (2)
- Cyanobakterien (2)
- Cyclometallierung (2)
- Cyclopentadienderivate (2)
- Cytochrome P450 (2)
- Cytotoxizität (2)
- DNA-Schäden (2)
- DNS (2)
- DNS-Schädigung (2)
- Dampf-flüssig-flüssig-Gleichgewicht (2)
- Darm (2)
- Darmkrebs (2)
- Daseinsvorsorge (2)
- Decarboxylierende Kreuzkupplung (2)
- Demographie (2)
- Demographischer Wandel (2)
- Derivat <Wertpapier> (2)
- Dimerisierung (2)
- Diskrete Fourier-Transformation (2)
- Disproportionierung (2)
- Domänenumklappen (2)
- Dreidimensionale Bildverarbeitung (2)
- EAG (2)
- Effizienz (2)
- Elasticity (2)
- Elastomer (2)
- Elastoplasticity (2)
- Elastoplastizität (2)
- Electronic Design Automation (2)
- Elektromagnetische Induktion (2)
- Elektronenspinresonanzspektroskopie (2)
- Emissionsverringerung (2)
- Empfangssignalverarbeitung (2)
- Endliche Geometrie (2)
- Endlicher Automat (2)
- Energieeffizienz (2)
- Entscheidungsunterstützung (2)
- Entwurf (2)
- Epoxidharz (2)
- Epoxydharz (2)
- Erdmagnetismus (2)
- Ermüdung bei hohen Lastspielzahlen (2)
- Ethan (2)
- Ethylen (2)
- Eupoecilia ambiguella (2)
- Experimentelle Psychologie (2)
- Experimentelle Untersuchungen (2)
- Explainable Artificial Intelligence (2)
- FEM (2)
- FFT (2)
- FISH (2)
- Facility Management (2)
- Faserbeton (2)
- Faserverstärkter Kunststoff (2)
- Fassade (2)
- Fermentation (2)
- Festkörper (2)
- Filtergesetz (2)
- Finite Elemente Methode (2)
- Finite Pointset Method (2)
- Flechten (2)
- Flexibilität (2)
- Fließgewässer (2)
- Flugzeitmassenspektrometrie (2)
- Flüssig-Flüssig-Gleichgewicht (2)
- Formale Methode (2)
- Fremdstoffmetabolismus (2)
- Frequenzverdopplung (2)
- Fruchtsaft (2)
- Funktionale Sicherheit (2)
- Fußgängerverkehr (2)
- Füllstoff (2)
- Gebäudeautomation (2)
- Gelonin (2)
- Genetik (2)
- Gentoxizität (2)
- Geometric Ergodicity (2)
- Geometrische Produktspezifikation (2)
- Geotechnik (2)
- Gesundheit (2)
- Glasfaser (2)
- Glasfaserverstärkter Thermoplast (2)
- Governance (2)
- HIF-1 (2)
- HPLC (2)
- Hamilton-Jacobi-Differentialgleichung (2)
- Hardwareverifikation (2)
- Hochdrucktechnik (2)
- Hochschuldidaktik (2)
- Hochskalieren (2)
- Homogenization (2)
- Hydrodynamics (2)
- Hypoxie (2)
- Hysterese (2)
- Hämodialyse (2)
- IMRT (2)
- Implementierung (2)
- Induktionsschweißen (2)
- Industrie 4.0 (2)
- Inhibitor (2)
- Innovation (2)
- Integration (2)
- Interaction (2)
- Interfaces (2)
- Ionencluster (2)
- Isogeometrische Analyse (2)
- Jugendfußball (2)
- KCC2 (2)
- Kalibrierung (2)
- Kleben (2)
- Klebstoff (2)
- Kläranlage (2)
- Knowledge Management (2)
- Kohlendioxid (2)
- Kohlenstoffdioxid (2)
- Kohlenstofffaser (2)
- Kollaboration (2)
- Kombinierte IR/UV-Spektroskopie (2)
- Kommunikation (2)
- Kooperation (2)
- Kopfbolzendübel (2)
- Kopplung (2)
- Korrelationsanalyse (2)
- Kraftfahrzeugindustrie (2)
- Kreditrisiko (2)
- Kreuzkupplung (2)
- Kristallographie (2)
- Kultivierung (2)
- Kunststofftechnik (2)
- Kühlturm (2)
- Künstliche Intelligenz (2)
- Langevin equation (2)
- Laserverdampfung (2)
- Lebensversicherung (2)
- Lebertumor (2)
- Leichtbeton (2)
- Lennard-Jones (2)
- Level-Set-Methode (2)
- Lineare Elastizitätstheorie (2)
- Lineare partielle Differentialgleichung (2)
- Lobesia botrana (2)
- Local smoothing (2)
- Magnetische Eigenschaften (2)
- Malondialdehyd (2)
- Martensit (2)
- Materialcharakterisierung (2)
- Mathematik (2)
- Mathematische Modellierung (2)
- Mehrschichtige Stahlbetonwandtafel (2)
- Mehrskalenanalyse (2)
- Mehrsprachigkeit (2)
- Membranprotein (2)
- Mercaptursäuren (2)
- Merkmalsextraktion (2)
- Merocyanine (2)
- Metallocene (2)
- Metathese (2)
- Metathese <Chemie> (2)
- Metropolregion (2)
- Migration (2)
- Mikrofräsen (2)
- Mikroskopie (2)
- Model Checking (2)
- Model Predictive Control (2)
- Modell (2)
- Modelling (2)
- Modulraum (2)
- Molekularsieb (2)
- Molybdän (2)
- Monte Carlo (2)
- Morphologie (2)
- Morphology (2)
- Motivation (2)
- Multiset Multicover (2)
- Mutagenität (2)
- Myasthenia gravis (2)
- Münzmetall (2)
- N (2)
- Nanocomposites (2)
- Nanodur-Beton (2)
- Natural Language Processing (2)
- Naturstoffverteilung (2)
- Network Calculus (2)
- Netzzustandsschätzung (2)
- Nichtlineare Kontinuumsmechanik (2)
- Nichtlineare Optik (2)
- Niederschlag (2)
- Niederschlagsabfluss (2)
- Niederspannung (2)
- Numerisches Modell (2)
- Oberflächenmorphologie (2)
- Objektorientierung (2)
- Ochratoxin A (2)
- Ontologie (2)
- Optik (2)
- Organische Synthese (2)
- Organometallcluster (2)
- Oxidation (2)
- Ozon (2)
- P10 (2)
- Palladiumkomplexe (2)
- Partielle Differentialgleichung (2)
- Pattern Recognition (2)
- Peng-Robinson-EoS (2)
- Pflanzenschutzmittel (2)
- Photochemie (2)
- Photodissoziation (2)
- Piezoelektrizität (2)
- Planung (2)
- Plastizität (2)
- Plazenta (2)
- Pn-Liganden (2)
- Polychlorierte Biphenyle (2)
- Polyetheretherketon (2)
- Polymermatrix-Verbundwerkstoff (2)
- Polypropylen (2)
- Populationsbilanzen (2)
- Poröser Stoff (2)
- Potenzialhyperfläche (2)
- Produktionssystem (2)
- Projektmanagement (2)
- Propanole (2)
- Proteine (2)
- Protonentransfer (2)
- Pyrazole (2)
- Pyrimidin (2)
- Qualität (2)
- RFID (2)
- RNS-Interferenz (2)
- Ratte (2)
- Raumakustik (2)
- Raumplanung (2)
- Reaktionskinetik (2)
- Redoxchemie (2)
- Reduktion (2)
- Regressionsanalyse (2)
- Regularisierung (2)
- Response Priming (2)
- Rissausbreitung (2)
- Robotics (2)
- Robust Optimization (2)
- Room acoustics (2)
- Rotordynamik (2)
- Rutheniumkomplexe (2)
- SCR (2)
- SDL (2)
- SKY (2)
- SOC (2)
- Sandwichbauweise (2)
- Sauerstoff (2)
- Scattered-Data-Interpolation (2)
- Scheduling (2)
- Schlauchflechten (2)
- Schnitttheorie (2)
- Schrumpfung (2)
- Schwermetalle (2)
- Schädigung (2)
- Self-X (2)
- Sendesignalverarbeitung (2)
- Sensor (2)
- Sensorik (2)
- Sepsis (2)
- Sheet-Molding-Compounds (2)
- Signalverarbeitung (2)
- Smart Grid (2)
- Smart Meter (2)
- Softwareentwicklung (2)
- Solarzelle (2)
- Soziale Ungleichheit (2)
- Sprache (2)
- Stadtmodell (2)
- Stadtumbau (2)
- Starkregen (2)
- Statine (2)
- Statistisches Modell (2)
- Stegöffnung (2)
- Stochastic Control (2)
- Stochastische Differentialgleichung (2)
- Stoffaustausch (2)
- Streptococcus (2)
- Streptomyces (2)
- Strukturationstheorie (2)
- Strömungsmechanik (2)
- Suzuki-Kupplung (2)
- TD-CDMA (2)
- Technische Mechanik (2)
- Teilchen (2)
- Textilbeton (2)
- Thermal Comfort (2)
- Thermische Behaglichkeit (2)
- Thermodynamics (2)
- Thermoformen (2)
- Time Series (2)
- Topology (2)
- Transaktionskosten (2)
- Transformation (2)
- Transkription (2)
- Transport (2)
- Tropenökologie (2)
- Tumorpromotion (2)
- UML (2)
- UPnP (2)
- UV-VIS-Spektroskopie (2)
- Ultraschall (2)
- Uncertain Data (2)
- Uncertainty Visualization (2)
- Unterricht (2)
- Upscaling (2)
- Valenztautomerie (2)
- Vanadium (2)
- Vektorwavelets (2)
- Verbunddecken (2)
- Verkehrsablauf (2)
- Verkehrssicherheit (2)
- Verschleißprüfung (2)
- Virtual Reality (2)
- Virtuelles Messen (2)
- Viskoelastizität (2)
- Visual Analytics (2)
- Voronoi-Diagramm (2)
- Wahrscheinlichkeitsfunktion (2)
- Wearable computing (2)
- White Noise Analysis (2)
- WiFi (2)
- Wissenschaftliches Rechnen (2)
- Wohnen (2)
- Wässrige Lösung (2)
- Zellulares Mobilfunksystem (2)
- Zielgruppe (2)
- Zielgruppen (2)
- ab initio (2)
- acrylamide (2)
- aftertreatment (2)
- air interface (2)
- alkyne (2)
- alpha (2)
- ammonia (2)
- analysis (2)
- anisotropy (2)
- anthocyanins (2)
- apoptosis (2)
- apple (2)
- artificial intelligence (2)
- auditory brainstem (2)
- autoencoder (2)
- benzene (2)
- beyond 3G (2)
- biaryls (2)
- biodiversity (2)
- bottom-up (2)
- calcium channel (2)
- carboxylic acids (2)
- chiral (2)
- classification (2)
- climate change (2)
- cluster (2)
- clustering (2)
- combined sewer overflow treatment (2)
- composite beam (2)
- computational fluid dynamics (2)
- computational homogenization (2)
- computer vision (2)
- configurational forces (2)
- constructed wetland (2)
- continuum mechanics (2)
- cross-coupling (2)
- curvature (2)
- curve singularity (2)
- cyclopeptides (2)
- deuteration (2)
- dipeptide (2)
- direct laser writing (2)
- domain decomposition (2)
- duality (2)
- elastomer (2)
- elektronisch angeregte Zustände (2)
- enamide (2)
- epoxy (2)
- experiment (2)
- experimentelle Untersuchung (2)
- fatigue (2)
- finite deformations (2)
- finite elements (2)
- finite volume method (2)
- fluid interface (2)
- forest fragmentation (2)
- gas phase (2)
- geomagnetism (2)
- glioblastoma (2)
- glycidamide (2)
- high-pressure vapour-liquid-liquid equilibria (2)
- higher education (2)
- homogenization (2)
- hypoxia (2)
- ice shelves (2)
- illiquidity (2)
- image analysis (2)
- image processing (2)
- impedance spectroscopy (2)
- infrared spectroscopy (2)
- interface (2)
- interface problem (2)
- intervention study (2)
- invariant (2)
- iron (2)
- langfaserverstärkte Thermoplaste (2)
- layout analysis (2)
- leukemia (2)
- lichen (2)
- linear kinetics theory (2)
- lineare kinetische Theorie (2)
- liquid-liquid-extraction (2)
- liquid-liquid-extraction of natural products (2)
- mass transfer (2)
- material forces (2)
- mechanische Eigenschaften (2)
- mesh generation (2)
- metabolism (2)
- metal (2)
- metal cluster (2)
- mobile radio systems (2)
- molecular simulation (2)
- nahekritischer Zustandsbereich (2)
- near-critical ethene+water+propanol (2)
- numerics (2)
- numerische Mechanik (2)
- optimal investment (2)
- phase field model (2)
- placenta (2)
- probabilistic approach (2)
- processing (2)
- rate-dependency (2)
- real-time systems (2)
- reduction (2)
- regression analysis (2)
- rolling friction (2)
- semantic web (2)
- sensor fusion (2)
- shear bearing capacity (2)
- single molecule magnet (2)
- social media (2)
- spatial planning (2)
- splines (2)
- thermisches Gebäudeverhalten (2)
- thermodynamics (2)
- thermophysical properties (2)
- thermoplastische Halbzeuge (2)
- tractor (2)
- tribology (2)
- virtual acoustics (2)
- viscoelasticity (2)
- web opening (2)
- wetting (2)
- zerstörungsfreie Prüfung (2)
- Übergangsmetallcluster (2)
- "Slender-Body"-Theorie (1)
- "Stress-Mentor" (1)
- (Joint) chance constraints (1)
- (oxidative) DNA-Schäden (1)
- 150 bar loop (1)
- 17beta-Estradiol (1)
- 19-century architecture (1)
- 1D-CFD (1)
- 2,3,7,8-Tetrachlordibenzo-p-dioxin (1)
- 2,3,7,8-tetrachlordibenzo-p-dioxine (1)
- 2-D-Elektrophorese (1)
- 2D-CFD (1)
- 3D (1)
- 3D City Model (1)
- 3D Druckverfahren (1)
- 3D Gene Expression (1)
- 3D Point Data (1)
- 3D image analysis (1)
- 3D printing (1)
- 3D-City Model (1)
- 3D-Druck (1)
- 3D-Prozesssimulation (1)
- 3D-Stadtmodell (1)
- 3MET (1)
- 4-Aminopiperidin (1)
- 4-Aminopiperidine (1)
- 5-> (1)
- 50CrMo4 (1)
- A-infinity-bimodule (1)
- A-infinity-category (1)
- A-infinity-functor (1)
- A/D conversion (1)
- A431 (1)
- ADAM10 (1)
- ADMM (1)
- AFDX (1)
- AFLP (1)
- AFS (1)
- AFSfein (1)
- ALE-Methode (1)
- AMC225xe (1)
- AMS (1)
- ANC (1)
- ANTR5 (1)
- ASM (1)
- ATP (1)
- ATP-Stoffwechsel (1)
- ATPase-Aktivität (1)
- AUTOSAR (1)
- Aarhus-Konvention (1)
- Abfluss (1)
- Abflussbeiwert (1)
- Abflussbildung (1)
- Abflussmodellierung (1)
- Abgastemperaturmanagement (1)
- Ablation <Medizin> (1)
- Ableitungsfreie Optimierung (1)
- Ableitungsschätzung (1)
- Abrasiver Verschleiß (1)
- Abrechnungsmanagement (1)
- Abscheidung (1)
- Absorptionsspektroskopie (1)
- Abstraction (1)
- Abstraction-Based Controller Design (1)
- Abstraktion (1)
- Abtragen (1)
- Abwasserbeseitigung (1)
- Abwasserentsorgung (1)
- Abwasserinfrastruktur (1)
- Abwassersystem (1)
- Abwasserwärmenutzung (1)
- Abwasserwärmerückgewinnung (1)
- Accelerometer (1)
- Accounting Agent (1)
- Acetylcholin (1)
- Acetylcholinrezetorfragment (1)
- Acetylierung (1)
- Achslage (1)
- Acinetobacter calcoaceticus (1)
- Acrolein (1)
- Acrylglas (1)
- Acrylic Glas (1)
- Active Noice Canceling (1)
- Actor Engagement (1)
- Actor Roles (1)
- Acute toxicity (1)
- Ad-hoc networks (1)
- Ad-hoc-Netz (1)
- Adaptive Antennen (1)
- Adaptive Building Controller (1)
- Adaptive Data Structure (1)
- Adaptive Entzerrung (1)
- Adaptive time step (1)
- Additive 3D-Druckverfahren (1)
- Additive Fertigung (1)
- Addukt (1)
- Addukte (1)
- Adenylat (1)
- Adiabatische Abkühlung (1)
- Adjoint method (1)
- Adjungiertenverfahren (1)
- Adsorbermaterialien (1)
- Adsorptionsisotherme (1)
- Adsorptionskinetik (1)
- Adult identity (1)
- Adult learning (1)
- Advanced Encryption Standard (1)
- Aerodynamik (1)
- Aerosol (1)
- Aerosol Particles (1)
- Aerosol Partikeln (1)
- Affine Arithmetic (1)
- Agglomerat (1)
- Aggregation (1)
- Agile Methoden (1)
- Agriculture Loan (1)
- Ah-Rezeptor (1)
- AhR (1)
- AhR-Knockout Mäuse (1)
- AhR-VDR-Crosstalk (1)
- AhR-deficient mice (1)
- AhR/ER Crosstalk (1)
- AhRR (1)
- Ahr Knockout Model (1)
- Akquisition (1)
- Aktin (1)
- Aktive Stadt- und Ortsteilzentren (1)
- Aktivierung <Physiologie> (1)
- Aktivitätskoeffizient (1)
- Akustik (1)
- Akute lymphatische Leukämie (1)
- Akute myeloische Leukämie (1)
- Akzeptanz (1)
- Algebraic dependence of commuting elements (1)
- Algebraic geometry (1)
- Algebraic groups (1)
- Algebraische Abhängigkeit der kommutierende Elementen (1)
- Algebraischer Funktionenkörper (1)
- Algorithmic Differentiation (1)
- Alkenylbenzene (1)
- Alkine (1)
- Alkoholfreier Wein (1)
- Alkylaromaten (1)
- Alkylcarbonate (1)
- Alkylglucosid (1)
- Allgemeine Mikrobiologie (1)
- Allgemeinheit (1)
- Allokation (1)
- Allylierung (1)
- Altern (1)
- Aluminiumphosphate (1)
- Amazonia (1)
- Ambidextrie (1)
- Ambulatory Assessment (1)
- Ames-Fluktuationstest (1)
- Amharic, Attention, Factored Convolutional Neural Network, OCR (1)
- Amidbindungsknüpfung (1)
- Amination (1)
- Aminosäuren (1)
- Ammoniak (1)
- Ammoniumcarbamat (1)
- Analyse (1)
- Analysis (1)
- Analytical method (1)
- Analytische Modellierung (1)
- Ananasgewächse (1)
- Aneignung (1)
- Aneuploidy, Whole Genome Doubling (1)
- Angebotspreise (1)
- Angeregter Zustand (1)
- Angewandte Mathematik (1)
- Angewandte Toxikologie (1)
- Anion recognition (1)
- Anionenerkennung (1)
- Anionenrezeptoren (1)
- Anisotropie (1)
- Annulus (1)
- Anomaly Detection (1)
- Anorganische Chemie (1)
- Anorganisches Pigment (1)
- Ansäuerung (1)
- Ant Colony Optimization (1)
- Anthocyanidine (1)
- Anthropogener Einfluss (1)
- Anthropotechnik (1)
- Anti-diffusion (1)
- Antiandrogene (1)
- Antidiffusion (1)
- Antiestrogene (1)
- Antigenspezifische Immunsuppression (1)
- Antimon (1)
- Antioxidans (1)
- Antioxidanzien (1)
- Antioxidative Kapazität (1)
- Anämiebehandlung (1)
- Aperiodic Crystal (1)
- Aperiodischer Kristall (1)
- Apfelsaftextrakte (1)
- Apfelsorte (1)
- Apple juice (1)
- Application Framework (1)
- Approximationsalgorithmus (1)
- Arabidopsis thaliana (1)
- Arachidonsäurestoffwechsel (1)
- Arbeitsmarkt (1)
- Arbeitsmaschine (1)
- Arbitrage (1)
- Arc distance (1)
- Archaikum (1)
- Archimedische Kopula (1)
- Architectural History (1)
- Architektur (1)
- Architektur des 19. Jahrhunderts (1)
- Aren-Komplex (1)
- Aristoteles (1)
- Arithmetic data-path (1)
- Arithmetik (1)
- Armierung (1)
- Aromastoffe (1)
- Aromatizität (1)
- Aroniabeere (1)
- Arseniden (1)
- Artefakt (1)
- Aryl hydrocarbon Receptor (1)
- Arylaminierung (1)
- Arzneimittelresistenz (1)
- Asarone (1)
- Ascorbat (1)
- Ascorbinsäure (1)
- Ascorbylradikal (1)
- Asiatische Option (1)
- Asset Administration Shell (1)
- Asset allocation (1)
- Asset-liability management (1)
- Assistenzsystem (1)
- Association (1)
- Asympotic Analysis (1)
- Asymptotic Analysis (1)
- Asymptotische Entwicklung (1)
- Atmungskette (1)
- Atom optics (1)
- Atomoptik (1)
- Attribution (1)
- Aufbau von Steuerungsmechanismen (1)
- Aufladung (1)
- Augmented Reality (1)
- Augustinus (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Ausfallrisiko (1)
- Ausflussfaktor (1)
- Ausfällen (1)
- Aushärtung (1)
- Auslegung (1)
- Ausparken (1)
- Austin (1)
- Aut (1)
- Automat <Automatentheorie> (1)
- Automatic Differentiation (1)
- Automatic Image Captioning (1)
- Automatic risk assessment (1)
- Automatische Gefahrenanalyse (1)
- Automatische Risikobewertung (1)
- Automatisches Beweisverfahren (1)
- Automatisiertes Fahren (1)
- Automatisierungssystem (1)
- Automobil (1)
- Automobilindustrie (1)
- Automorphismengruppe (1)
- Autonomer Agent (1)
- Autonomer Roboter (1)
- Autonomes Fahren (1)
- Autopoiese (1)
- Autoprozessierung (1)
- Autoregressive Hilbertian model (1)
- Autökologie (1)
- Außerschulisches Lernen (1)
- Aven (1)
- Avirulence (1)
- Axiale Chiralität (1)
- Axialschub (1)
- Azaindirubin (1)
- Azidifizierung (1)
- Aziridin (1)
- B-CLL (1)
- B3 (1)
- B3- (1)
- BAD (1)
- BASIL-Verfahren (1)
- BASIL-process (1)
- BDH (1)
- BMP1 MAP-Kinase (1)
- BRCA2 (1)
- Backlog (1)
- Bacteriocin (1)
- Baeocyte (1)
- Bahnplanung (1)
- Baiturrahman Grand Mosque (1)
- Bakteriophage (1)
- Balance sheet (1)
- Baldwin (1)
- Bamipin (1)
- Banda Aceh old city center (1)
- Barbiturate (1)
- Barock (1)
- Baroque (1)
- Barrierefreiheit (1)
- Barriers (1)
- Basaltfaserverstärkte Kunststoffe (1)
- Basic Scheme (1)
- Basis Risk (1)
- Basisband (1)
- Basische Feststoffkatalysatoren (1)
- Basket Option (1)
- Bass-ackwards analysis (1)
- Batch Methode (1)
- Batchkalorimetrie (1)
- Baugeschichte (1)
- Baugrund-Tragwerk-Interaktion (1)
- Bauleitplanung (1)
- Baulicher Brandschutz (1)
- Bauplanung (1)
- Bauteilauslegung (1)
- Bauvorhaben (1)
- Bauwesen (1)
- Bayes method (1)
- Bayes-Entscheidungstheorie (1)
- Bayes-Verfahren (1)
- Beam models (1)
- Beam orientation (1)
- Bearing (1)
- Bebauungsplan (1)
- Beere (1)
- Beerenobst (1)
- Befahrbarkeitsanalyse (1)
- Befestigungsmittel (1)
- Befähigung (1)
- Begriff (1)
- Behinderung (1)
- Bekreuzter Traubenwickler (1)
- Belastung nichtruhende (1)
- Belastung zyklisch (1)
- Beleuchtung (1)
- Bemessungskonzept (1)
- Bemessungsmodell (1)
- Benetzbarkeit (1)
- Benetzung (1)
- Benutzer (1)
- Benutzerfreundlichkeit (1)
- Benutzeroberfläche (1)
- Benzinverbrauch (1)
- Benzol (1)
- Bernstein–Gelfand–Gelfand construction (1)
- Berry fruit juice (1)
- Berufliche Entwicklung (1)
- Berufsberatung (1)
- Berufspädagogik (1)
- Berufsrolle (1)
- Berufswahl (1)
- Berührungslose Messung (1)
- Berührungsloser Sensor (1)
- Beschichten (1)
- Beschichtungsprozess (1)
- Beschichtungswerkstoffen (1)
- Beschleunigung (1)
- Beschränkte Arithmetik (1)
- Beschränkte Krümmung (1)
- Besonderheit (1)
- Beton (1)
- Betonbau (1)
- Betonfestigkeit (1)
- Betonstahl (1)
- Betonverzahnung (1)
- Betrachtung des Schlimmstmöglichen Falles (1)
- Betriebliche Gesundheitsförderung (1)
- Betriebsmittel (1)
- Betriebspädagogik (1)
- Bettungsmodul (1)
- Bevolkingsdaling (1)
- Bewegungsanalyse (1)
- Bewertungsverfahren (1)
- Bewältigung (1)
- Bewässerung (1)
- Biaryl (1)
- Bibligraphic References (1)
- Bicyclus (1)
- Biegetragfähigkeit (1)
- Bifunktioneller Katalysator (1)
- Bifurkation (1)
- Bilanzierung (1)
- Bilanzstrukturmanagement (1)
- Bilayer (1)
- Bildsegmentierung (1)
- Bildungsforschung (1)
- Bildungskapital (1)
- Bildungsreform (1)
- Bildungsungleichheit (1)
- Binaphthalin (1)
- Binaphthyle (1)
- Bindiger Boden (1)
- Binomialbaum (1)
- Bio-basierte Materialien (1)
- Bio-inspired (1)
- Biodiesel (1)
- Biodiversität (1)
- Biogeography (1)
- Biokatalyse (1)
- Biomimetic (1)
- Bionas (1)
- Bionik (1)
- Biophysics (1)
- Bioplastic-based blend nanocomposites (1)
- Biorthogonalisation (1)
- Biot Poroelastizitätgleichung (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Biotechnologie (1)
- Biotransformation (1)
- Biotrophy (1)
- Bioturbation (1)
- Bipedal Locomotion (1)
- Bis(kronenether) (1)
- Bispyrazole (1)
- Bitvektor (1)
- Blitztemperatur (1)
- Blue Collar Worker (1)
- Blue Ocean (1)
- Bluetooth (1)
- Blumenbach (1)
- Boltzmann Equation (1)
- Bondindizes (1)
- Boosting (1)
- Bootstrap (1)
- Bootstrapping (1)
- Boratom (1)
- Botrytis cinerea (1)
- Botrytis fabae (1)
- Boundary Value Problem / Oblique Derivative (1)
- Brandenburg-Lubuskie (1)
- Brandfall (1)
- Brandschutz (1)
- Brandversuche (1)
- Brinkman (1)
- Brombeere (1)
- Bromierung (1)
- Broutman-Versuch (1)
- Brownian Diffusion (1)
- Brownian motion (1)
- Brownsche Bewegung (1)
- Brückenbau (1)
- Buchstabe (1)
- Buffer (1)
- Buffer Zone Method (1)
- Buffon (1)
- Building Design (1)
- Building Simulation (1)
- Bundle Methods (1)
- Buntsaftkonzentrat (1)
- Busfahrer (1)
- Business Model Innovation (1)
- Business Sustainability (1)
- Butterflykomplex (1)
- Bändchenhalbzeuge (1)
- Büroflächen (1)
- Bürostuhl mit Heiz- und Kühlfunktion (1)
- Büyükçekmece and Mogan Lake (1)
- C-Si-Kupplung (1)
- C3+ (1)
- C5H3(SiMe3)2-Liganden (1)
- CAD-Modell (1)
- CBR (1)
- CCT (1)
- CD11b (1)
- CD18 (1)
- CDK1 (1)
- CDMA (1)
- CDO (1)
- CDS (1)
- CDSwaption (1)
- CFD Simulation (1)
- CFK, Epoxidharzmatrix (1)
- CFRP (1)
- CGH (1)
- CHAMP (1)
- CID (1)
- CMC (1)
- CMOS (1)
- CMOS-Schaltung (1)
- CNS (1)
- COX-2 (1)
- CPDO (1)
- CSI (1)
- CSOs treatment (1)
- CUDA (1)
- CYP1A (1)
- CYP1A2 (1)
- CYP1B1 (1)
- CYP3A4 (1)
- Caching (1)
- Cadmium (1)
- Caedibacter (1)
- Calcitriol (1)
- Calciumkanal (1)
- Calibration (1)
- Capabilities (1)
- Car-Sharing (1)
- CarSharing (1)
- Carben (1)
- Carbene (1)
- Carbon Capture (1)
- Carbon footprint (1)
- Carbonbeton (1)
- Carcinogenesis (1)
- Careless Responding (1)
- Caspase (1)
- Castelnuovo Funktion (1)
- Castelnuovo function (1)
- Catecholat (1)
- Cauchy-Born Regel (1)
- Cauchy-Born Rule (1)
- Cauchy-Born rule (1)
- Cauchy-Navier-Equation (1)
- Cauchy-Navier-Gleichung (1)
- Cefotaxim (1)
- Cell crosstalk (1)
- Cell proliferation (1)
- Cellular Communications (1)
- Cellulose (1)
- Celluloseacetat (1)
- Censoring (1)
- Center Location (1)
- Chalkogen (1)
- Chancengleichheit (1)
- Change (1)
- Change Point Analysis (1)
- Change Point Test (1)
- Change-point Analysis (1)
- Change-point estimator (1)
- Change-point test (1)
- Channel Hopping (1)
- Channel Scheduling (1)
- Channel estimation (1)
- Channel hopping (1)
- Channel sensing (1)
- Chaperone (1)
- Charakter <Gruppentheorie> (1)
- Chemisc (1)
- Chemische Analyse (1)
- Chemische Bindung / Theorie (1)
- Chemische Reaktion (1)
- Chemische Synthese (1)
- Chemolumineszenz (1)
- Chevron-Prozess (1)
- Chi-Quadrat-Test (1)
- Chiral (1)
- Chirale Induktion (1)
- Chiralität <Chemie> (1)
- Chlamydomonas reinhardii (1)
- Chloratom (1)
- Chloride regulation (1)
- Chlorierung (1)
- Cholesky-Verfahren (1)
- Chow Quotient (1)
- Chrom (1)
- Chromatin (1)
- Chromatographiesäule (1)
- Chronische Darmentzündung (1)
- Chroococcales (1)
- Chroococcidiopsis (1)
- Chroococcidiopsis cubana (1)
- Chroococcidiopsis thermalis (1)
- Chroococcidiopsisdaceae (1)
- Circle Location (1)
- City center (1)
- Classification (1)
- Classification of biomedical signals (1)
- Cleaning Efficiency (1)
- Click chemistry (1)
- Click-Chemie (1)
- Clock and Data Recovery Circuits (1)
- Clostridium difficile (1)
- Closure (1)
- Clustering (1)
- Clusterverbindungen (1)
- Co-Curing (1)
- Coaching (1)
- Coarse graining (1)
- Cobalt(II)-Komplexe (1)
- Cobalt(III)-Komplexe (1)
- Cobalt-Halbsandwichkomplexe (1)
- Cobaltkomplexe (1)
- Codierung (1)
- Coenogonium (1)
- Cognitive Amplification (1)
- Cognitive Load (1)
- Cohen-Lenstra heuristic (1)
- Collaboration (1)
- Collision Induced Dissociation (1)
- Combinatorial Optimization (1)
- Combinatorial Testing (1)
- Combined IR/UV spectroscopy (1)
- Combined Mobility (1)
- Commodity Index (1)
- Comparative Genomische Hybridisierung (1)
- Competence (1)
- Complex Structures (1)
- Composite Materials (1)
- Composites (1)
- Computational Homogenization (1)
- Computational Mechanics (1)
- Computer Algebra (1)
- Computer Algebra System (1)
- Computer Graphic (1)
- Computer Supported Cooperative Work (1)
- Computer algebra (1)
- Computer graphics (1)
- Computer-Aided Diagnosis (1)
- Computeralgebra System (1)
- Computerphysik (1)
- Computertomographie (1)
- Computervision (1)
- Concrete experience (1)
- Concurrent data structures (1)
- Conditional Value-at-Risk (1)
- Configurational Forces (1)
- Congitive Radio Networks (1)
- Connectivity (1)
- Conservation laws (1)
- Consistencyanalysis (1)
- Consistent Price Processes (1)
- Consolidation (1)
- Constraint Generation (1)
- Constraint-Coupled Systems (1)
- Constructed Wetland (1)
- Construction of hypersurfaces (1)
- Constructivism (1)
- Containertypen (1)
- Containertypes (1)
- Content Management (1)
- Context Awareness (1)
- Continuous-Time Neural Networks (1)
- Continuum Damage (1)
- Continuum-Atomistic Multiscale Algorithm (1)
- Continuum-Atomistics (1)
- Control Engineering (1)
- Controller Synthesis (1)
- Convergence Rate (1)
- Convex Optimization (1)
- Cook Wilson (1)
- Coordination (1)
- Coping (1)
- Copper (1)
- Copula (1)
- Correct-by-Design Controller Synthesis (1)
- Corridors (1)
- Coupled PDEs (1)
- Coxeter-Freudenthal-Kuhn triangulation (1)
- Crack resistance (1)
- Crash (1)
- Crash Hedging (1)
- Crash modelling (1)
- Crash-Charakteristiken (1)
- Crashmodellierung (1)
- Crashverhalten (1)
- Cre-loxP-System (1)
- Credit Default Swap (1)
- Credit Risk (1)
- Cross-Cultural Product Development (1)
- Cross-border regions (1)
- Cross-border transport (1)
- Crowdsourcing (1)
- Cryo (1)
- Cryptophyte (1)
- Cryptothecia (1)
- Crystallization fouling (1)
- Curvature (1)
- Curved viscous fibers (1)
- Cusanus (1)
- Cy (1)
- Cyanobakterium (1)
- Cyber-Physical Systems (1)
- Cycle Accuracy (1)
- Cycle Decomposition (1)
- Cyclin-abhängige Kinasen (1)
- Cyclisches Nucleotid Phosphodiesterase <3 (1)
- Cyclisches Pseudopeptid (1)
- Cyclo-AMP (1)
- Cyclo-GMP (1)
- Cycloheximid (1)
- Cyclopentadien (1)
- Cyclopentadienylliganden (1)
- Cyclophilin B (1)
- Cyochrome P450 (1)
- Cyp1a1 (1)
- Cyp1a1 Genexpression (1)
- Cyp24a1 Genexpression (1)
- Cytochomes P450 (1)
- Cytochrome P-450 (1)
- Cytogenetik (1)
- Cytokine (1)
- Cytotoxicity (1)
- Czochralski (1)
- DC/DC Converter (1)
- DCE <Programm> (1)
- DDR-Bildungssystem (1)
- DDR-Leistungssportsystem (1)
- DFG (1)
- DFT (1)
- DFT calculation (1)
- DGR (1)
- DHFR (1)
- DL-PCBs (1)
- DLW (1)
- DNA (1)
- DNA Addukte (1)
- DNA adducts (1)
- DNA damage (1)
- DNA metabarcoding (1)
- DNA-Addukte (1)
- DNA-Schädigung (1)
- DNA-damage (1)
- DNS-Bindung (1)
- DNS-Chip (1)
- DNS-Doppelstrangbruch (1)
- DNS-Reparatur (1)
- DNS-Strangbruch (1)
- DNS-Topoisomerase I (1)
- DOSY (1)
- DPN (1)
- DSM (1)
- DSMC (1)
- Dach (1)
- Damage (1)
- Dampf-Flüssigkeit-Gemisch (1)
- Dark-state Polariton (1)
- Darmflora (1)
- Darmkrankheit (1)
- Darstellungstheorie (1)
- Darwin (1)
- Das Urbild von Ideal unter einen Morphismus der Algebren (1)
- Data Analysis (1)
- Data Modeling (1)
- Data Spreading (1)
- Data path (1)
- Dataset (1)
- Datenausgabegerät (1)
- Datenbankanbindungen und Datenorganisation (1)
- Datenbanken (1)
- Datenbanksystem (1)
- Datenfusion (1)
- Datenrückgewinnungsschaltungen (1)
- Datenspreizung (1)
- Dauerhaftigkeit (1)
- Dauerstandfestigkeit (1)
- De (1)
- Debt Management (1)
- Decane (1)
- Decarboxylierende Kupplung (1)
- Decarboxylierende Kupplungen (1)
- Decarboxylierung (1)
- Decision Support Systems (1)
- Deckensystem (1)
- Defaultable Options (1)
- Defektinteraktion (1)
- Definition (1)
- Deformationsmessung (1)
- Deformationstheorie (1)
- Degenerate Diffusion Semigroups (1)
- Dehnungsmessung (1)
- Dehydratasen (1)
- Dehydratisierung (1)
- Dehydrierung (1)
- Dekonsolidierung (1)
- Delaunay (1)
- Delaunay triangulation (1)
- Delaunay triangulierung (1)
- Delaunay-Triangulierung (1)
- Demand Side Integration (1)
- Demografischer Wandel (1)
- Demographische Alterung (1)
- Dendritische Zellen (1)
- Derivative Estimation (1)
- DesLaNAS (1)
- Despoblacion (1)
- Detektionsverfahren (1)
- Deterioration (1)
- Determination (1)
- Deuterierung (1)
- Deuteromycetes (1)
- Dexamethason (1)
- Dezentrale Heiz- und Kühlsysteme (1)
- Dialektische Logik (1)
- Dialkali-Halogen (1)
- Dialysemembran (1)
- Diamant (1)
- Diamine (1)
- Diazapyridinophane (1)
- Diazoniumverbindungen (1)
- Dicarbonsäuren (1)
- Dichte (1)
- Dichtefunktionalformalismus (1)
- Dickwandigkeit (1)
- Diclofenac (1)
- Dienstgüte (1)
- Dienstleistungen (1)
- Dienstschnittstellen (1)
- Diesel engine (1)
- Dieselmotor (1)
- Differential forms (1)
- Differentialgleichung des Sandwichtheorie (1)
- Differenz (1)
- Differenzenverfahren (1)
- Differenzkonstruktion (1)
- Differenzmenge (1)
- Diffusion (1)
- Diffusion processes (1)
- Diffusionskoeffizient (1)
- Diffusionsmessung (1)
- Diffusionsmodell (1)
- Diffusionsprozess (1)
- Digital Image Correlation (1)
- Digital Manufacturing System (1)
- Digital technology (1)
- Digitale Arbeitsblätter (1)
- Digitale Medien (1)
- Digitale integrierte Schaltung (1)
- Digitaler Zwilling (1)
- Digitales Produktionssystem (1)
- Digitalmodulation (1)
- Dihydrofolatreduktase (1)
- Dimethyldisulfid (1)
- Dimethylfumarat (1)
- Dinickelocen (1)
- Dioxin (1)
- Dioxin-like Compounds (1)
- Dioxolanligand (1)
- Dipeptide (1)
- Diphenylfulven (1)
- Direct Numerical Simulation (1)
- Direct X (1)
- Direktantrieb (1)
- Discrete Event Simulation (DES) (1)
- Discrimination (1)
- Discriminatory power (1)
- Diskontinuität (1)
- Diskrepanz (1)
- Diskrete Elemente Methode (1)
- Diskrete Simulation (1)
- Diskretisierung (1)
- Diskriminierung (1)
- Diskurs (1)
- Diskursive Haltung (1)
- Dislocations (1)
- Dispergierung (1)
- Dispersionsrelation (1)
- Disproportionierung von Ethylbenzol (1)
- Distickstoff (1)
- Distributed Hash Tables (1)
- Distributed Optimization (1)
- Distributed Rendering (1)
- Distributed system (1)
- Disulfidbrücken-Transfer (1)
- Diversifikation (1)
- Diversity Management (1)
- Diversität (1)
- Diversitätsgenerierende Retroelemente (1)
- Diversitätssensibler Unterricht (1)
- Dokumentation (1)
- Domain switching (1)
- Doppelresonanz (1)
- Doppelschicht (1)
- Dopplerlimitiert (1)
- Dosierung (1)
- Dotieren (1)
- Double Dissociation (1)
- Double Minutes (1)
- Downlink (1)
- Drehen (1)
- Dreidimensionale Modellierung (1)
- Dreidimensionale Rekonstruktion (1)
- Dreidimensionale Software (1)
- Dreidimensionale Strömung (1)
- Dreikerncluster (1)
- Drilltragverhalten (1)
- Drohne (1)
- Drone (1)
- Droplet breakage (1)
- Droplet coalescence (1)
- Drosselspalt (1)
- Druckabfall (1)
- Druckdifferenz (1)
- Druckkorrektur (1)
- Drug delivery systems (1)
- Dry Coating (1)
- Dry Fiber Plachement Preforms (1)
- Dry Weight (1)
- Dsitribution (1)
- Dual Decomposition (1)
- Duftstoffanalyse (1)
- Duftstoffe (1)
- Dunkelzustandspolariton (1)
- Duplicate Identification (1)
- Duplikaterkennung (1)
- Durchfluss (1)
- Durchflußzytometrie (1)
- Durchlaufbecken (1)
- Durchlaufträger (1)
- Durchmessersensor (1)
- Duromere (1)
- Dynamically reconfigurable analog circuits (1)
- Dynamik / Baumechanik (1)
- Dynamische Gebäudesimulation (1)
- Dynamische Massengenerierung (1)
- Dynamischer Test (1)
- Dyslexie (1)
- Dyson-Schwinger Gleichung (1)
- Dübelkennlinie (1)
- Dünnfilmapproximation (1)
- Dünnschichtsolarz (1)
- E (1)
- E-Auto (1)
- E-Learning (1)
- EAMG (1)
- ECC (1)
- EDA (1)
- EDF observation models (1)
- EEG (1)
- EGFR (1)
- ELISA (1)
- EM algorithm (1)
- EMPO (1)
- EMS-Training (1)
- ENT (1)
- EP-Komposite (1)
- EPDM (1)
- EPR Spectroscopy (1)
- EPR Spektroskopie (1)
- EPR-Spectroscopy (1)
- EROD (1)
- EROD Induktion (1)
- ESPI (1)
- ESTELLE (1)
- ETB (1)
- Earthworms (1)
- Eastern Boundary Upwelling Systems (1)
- Ebullition time-series (1)
- Echtzeit (1)
- Ecology (1)
- Eddy (1)
- Education (1)
- Edwards Model (1)
- Effective Conductivity (1)
- Effects of Design Choices (1)
- Efficiency (1)
- Efficient Reliability Estimation (1)
- Effizienzsteigerung (1)
- Eierstockkrebs (1)
- Eigenfrequenz (1)
- Eigenfrequenzbeeinflussung (1)
- Eigenschaftsprüfung (1)
- Eigenspannungen (1)
- Eikonal equation (1)
- Einbindiger Traubenwickler (1)
- Einparken (1)
- Einzelhandel (1)
- Einzelheit <Philosophie> (1)
- Einzelmolekülspektroskopie (1)
- Einzelzell-Analyse (1)
- Eisen(II)-Komplexe (1)
- Eisen-Phosphor-Cluster (1)
- Eisen-Schwefel-Cluster (1)
- Eisencarbonylkomplexe (1)
- Elastase (1)
- Elastische Deformation (1)
- Electroless Plating (1)
- Electronic Commerce (1)
- Electronic Laboratory Notebook (1)
- Electronically excited states (1)
- Elektrisch (1)
- Elektrischer Durchschlag (1)
- Elektroautomobil (1)
- Elektrochromie (1)
- Elektrohydraulik (1)
- Elektrolytlösung (1)
- Elektrolytlösungen (1)
- Elektromagnetische Streuung (1)
- Elektromuskelstimulationstraining (1)
- Elektromyostimulationstraining (1)
- Elektronenspinresonanz (1)
- Elektronisches Laborjournal (1)
- Elektrooptik (1)
- Elektrophysiologie (1)
- Elektroporation (1)
- Elementarteilchenphysik (1)
- Eliminationsverfahren (1)
- Ellagsäure (1)
- Ellipsometrie (1)
- Elliptische Verteilung (1)
- Elliptisches Randwertproblem (1)
- Emission (1)
- Emissionen (1)
- Emissionsspektroskopie (1)
- Emotion (1)
- Empfehlungssysteme (1)
- Empfängerorientierung (1)
- Empirische Forschung (1)
- Empirische Pädagogik (1)
- Enamide (1)
- Endliche Gruppe (1)
- Endliche Lie-Gruppe (1)
- Endokrin wirksamer Stoff (1)
- Endoplasmatisches Retikulum (1)
- Energie (1)
- Energie auf Kläranlagen (1)
- Energieabsorptionsvermögen (1)
- Energieeinsparung (1)
- Energieversorgungsnetz (1)
- Energiewende (1)
- Energy Efficiency (1)
- Engagement (1)
- Engagementförderung (1)
- Engineering 4.0 (1)
- Englisches Planungssystem (1)
- English Planning System (1)
- Ensemble Feature Selection (1)
- Ensemble Visualization (1)
- Entalkoholisierter Wein (1)
- Entladung (1)
- Entlastung (1)
- Entlastungsverhalten (1)
- Entscheidung (1)
- Entscheidungsbaum (1)
- Entscheidungsproblem (1)
- Entscheidungstheorie (1)
- Entstehung (1)
- Entwicklung (1)
- Entwicklungsgeschichte (1)
- Entwicklungspsychologie (1)
- Entwicklungsstabilität (1)
- Entwurfsautomation (1)
- Entzündung (1)
- Enumerative Geometrie (1)
- Environmental Psychology (1)
- Environmental inequality (1)
- Environmental stress cracking resistance (1)
- Enzyminhibitor (1)
- Epidermaler Wachstumsfaktor-Rezeptor (1)
- Epigenese (1)
- Epigenetik (1)
- Epiphyten (1)
- Epitaxie (1)
- Epoxidation (1)
- Epoxide (1)
- Epoxidharzklebstoff (1)
- Epoxidharzverbunden (1)
- Epoxidklebstoffe Härtungskinetik Oberflächenvorbehandlung Aluminium Netzwerkstrukturen (1)
- Epoxy Adhesive (1)
- Erdbebeningenieurwesen (1)
- Erdbeere (1)
- Erdschluss (1)
- Erdschlussentfernung (1)
- Erdöl Prospektierung (1)
- Erfüllbarke (1)
- Erfüllbarkeitsproblem (1)
- Ergonomie (1)
- Erhaltungsgleichungen (1)
- Erkenntnistheorie (1)
- Erklärungen (1)
- Ermüdung bei niedrigen Lastspielzahlen (1)
- Ermüdungsrisse (1)
- Erreichbarkeit (1)
- Ersatzteil (1)
- Ersatzteilmarkt (1)
- Ersatzteilversorgung (1)
- Ersatzwertgenerierung (1)
- Erschließungsform (1)
- Erwachsenenbildung (1)
- Erwartungswert-Varianz-Ansatz (1)
- Erweiterte Realität <Informatik> (1)
- Essential m-dissipativity (1)
- Estradiol (1)
- Estradiolrezeptor (1)
- Estragol (1)
- Estrogene (1)
- Ethanol (1)
- Ethernet (1)
- Ethik (1)
- Ethylbenzol (1)
- Etylbenzene disproportionation (1)
- Europa (1)
- European Pollutant Release and Transfer Register (E-PRTR) (1)
- European Territorial Cooperation (1)
- European Union (1)
- European Union policy-making (1)
- European integration (1)
- Europeanisation (1)
- Europäische Metropolregionen in Deutschland (1)
- Europäische Strukturpolitik (1)
- Europäische Territoriale Zusammenarbeit (1)
- Eurosoils (1)
- Evakuierung (1)
- Event psychology (1)
- Eventpsychologie (1)
- Eventual consistency (1)
- Evolutionary Algorithm (1)
- Evolutionärer Algorithmus (1)
- Exekutive Funktionen (1)
- Expected shortfall (1)
- Experiential learning (1)
- Experimentation (1)
- Experimentauswertung (1)
- Experimentelle Charakterisierung (1)
- Experimentelle Ermittlung (1)
- Experimentelle Untersuchung (1)
- Explainability (1)
- Exponential Utility (1)
- Exponentieller Nutzen (1)
- Exposed Datapath Architectures (1)
- Expressiveness (1)
- Extended Finite-Elemente-Methode (1)
- Extended Kalman Filter (1)
- Extended Mind (1)
- Extreme Events (1)
- Extreme value theory (1)
- Extrudiertes Polystyrol (1)
- Eyewear Computing (1)
- F1-ATPase (1)
- FERAL (1)
- FICTION (1)
- FKV (1)
- FKV-Rotor (1)
- FOF1-ATP-Synthase (1)
- FPM (1)
- FT-ICR Zelle (1)
- FT-IR-Spektrsokopie (1)
- FT-MIR (1)
- FTIR-Spektroskopie (1)
- Facade (1)
- Fachwerkmodell (1)
- Facility-Management (1)
- Faden (1)
- Fahrerassistenzsystem (1)
- Fahrgemeinschaft (1)
- Fahrtkostenmodelle (1)
- Fahrzeugbau (1)
- Fahrzeugcrashberechnung (1)
- Fahrzeughydraulik (1)
- Faltenbildung (1)
- Faltungsaktivität (1)
- Farbe (1)
- Farbstabilität (1)
- Farnesylpyrophosphat-Synthase (1)
- FasLigand (1)
- Faser (1)
- Faser-Kunststoff-Verbund-Laminate (1)
- Faser-Thermoplast-Verbunden (1)
- Faser/Matrix-Haftung (1)
- Faserablage (1)
- Faserfestigkeit (1)
- Faserorientierung (1)
- Faserorientierungen (1)
- Faserschädigung (1)
- Faserverbundmaterialien (1)
- Faserverbundstrukturen (1)
- Faserverstärkte Thermoplaste (1)
- Faserverstärkter Kunststoff, Faserkunststoffbewehrung, Betonbauteile, Verbund, Verankerung, Langzeitverhalten (1)
- Fast Mode-Signaling (1)
- Fatigue (1)
- Fattyacids (1)
- Fault Injection (1)
- Fault Tree Analysis (1)
- Fe(II)-Komplexe (1)
- Feasibility study (1)
- Feature (1)
- Feature Detection (1)
- Feature Extraction (1)
- Feature extraction (1)
- Federated Learning (1)
- Federgelenk (1)
- Feedfoward Neural Networks (1)
- Fehlerbaumanalyse (1)
- Fehlerwiderstand (1)
- Feige (1)
- Feinkornbeton (1)
- Femtosecond Laser (1)
- Femtosekundenlaser (1)
- Femtosekundenspektroskopie (1)
- Fernerkundung (1)
- Fernstudium (1)
- Ferrocen (1)
- Fertigteildecken mit Ortbetonergänzung (1)
- Fertigungslogistik (1)
- Fertigungsmesstechnik (1)
- Fertigungsverfahren (1)
- Festkörperchemie (1)
- Festkörpergrenzschichten (1)
- Festkörperlaser (1)
- Feststoff (1)
- Feststoff-Dosiersystem (1)
- Feststoffe (1)
- Fettsäurealkohol (1)
- Fettsäuremethylester (1)
- Fettsäuren (1)
- Feuchtetransport (1)
- Feynman Integrals (1)
- Feynman path integrals (1)
- Fiber suspension flow (1)
- Fifth generation (5G) mobile networks (1)
- Filler (1)
- Filmkühlung (1)
- Filterauslegung (1)
- Filterbecken (1)
- Filterkuchenwiderstand (1)
- Filtermittelwiderstand (1)
- Filtersubstrat Lavasand (1)
- Filterversuche (1)
- Filtrierbarkeit (1)
- Financial Engineering (1)
- Finanzkrise (1)
- Finanznumerik (1)
- Fine Grain Concrete (1)
- Finite Element Method (1)
- Finite Elementes (1)
- Finite Elements (1)
- Finite element method (1)
- Finite-Elemente-Simulation (1)
- Finite-Punktmengen-Methode (1)
- Firmware (1)
- Firmwertmodell (1)
- First Order Optimality System (1)
- Fitts Law (1)
- Flachwasser (1)
- Flachwassergleichungen (1)
- Flechtenalgen (1)
- Flexibilisierung (1)
- Fliehkraftinvariant (1)
- Fließanalyse (1)
- Fließgelenk (1)
- Fließpresshalbzeugen (1)
- Floatglas (1)
- Floatingpotential (1)
- Flow Visualization (1)
- Fluid dynamics (1)
- Fluid-Feststoff-Strömung (1)
- Fluid-Struktur-Kopplung (1)
- Fluid-Struktur-Wechselwirkung (1)
- Fluktuationen der kleinen Eigenwerte des Dirac-Operators (1)
- Fluorescence (1)
- Fluoreszenzfarbstoff (1)
- Fluoreszenzspektrometer (1)
- Fluoreszenzspektroskopie (1)
- Fluoreszenzspektrum (1)
- Fluoridkatalysierte Kupplungsreaktionen (1)
- Flächennutzungsplan (1)
- Flächennutzungsplanung (1)
- Flüssig-Flüssig System (1)
- Flüssig-Flüssig-System (1)
- Flüssigkeitsreibung (1)
- Foam decay (1)
- Fokker-Planck-Gleichung (1)
- Folgeprozesse (1)
- Formale Grammatik (1)
- Formale Ontologie (1)
- Formale Sprache (1)
- Formaler Beweis (1)
- Forward-Backward Stochastic Differential Equation (1)
- Fotochemie (1)
- Fourier-Transformation (1)
- Fracture behavior (1)
- Fragmentierung (1)
- Framework (1)
- Fredholmsche Integralgleichung (1)
- Freiformfläche (1)
- Freiheit (1)
- Freiheitsgrad (1)
- Freiraumentwicklung (1)
- Freiraumplanung (1)
- Freiraumschutz (1)
- Freistrahl (1)
- Fremdspracherwerb (1)
- Frequenzsprungverfahren (1)
- Friction (1)
- Frischbetondruck (1)
- Fulven (1)
- Functional Safety (1)
- Functional autoregression (1)
- Functional time series (1)
- Fungi (1)
- Funkdienst (1)
- Funktioneller Gradientenwerkstoff (1)
- Funktionenkörper (1)
- Funktionsanalyse (1)
- Funktionsmorphologie (1)
- Furan (1)
- Furocumarine (1)
- Fusion (1)
- Future Internet (1)
- Fußball (1)
- Fußgängerzone Kaiserslautern (1)
- Fußverkehr (1)
- Fußverkehrsnetz (1)
- Fähigkeiten (1)
- Fügetechnik (1)
- Fügetechnologie (1)
- Führen im Change (1)
- Führen ist eine Frage der Haltung (1)
- Führung (1)
- Füllkörpersäule (1)
- Füllstandüberwachung (1)
- Fünfgliedrige heterocyclische Betaine (Synthese und Reaktivität) (1)
- G. Bateson (1)
- GABAerge Nervenzelle (1)
- GARCH (1)
- GARCH Modelle (1)
- GFK-Rotorglocke (1)
- GGPP (1)
- GIS (1)
- GIS-Analyse (1)
- GK-EMS (1)
- GPU (1)
- Galerkin Verfahren (1)
- Galerkin methods (1)
- Galerkin-Methode (1)
- Gamification (1)
- Gamma-Konvergenz (1)
- Ganze (1)
- Ganzkörper-Elektromyostimulation (1)
- Garantiezins (1)
- Garbentheorie (1)
- Gasströmung (1)
- Gast-Wirt-Beziehung (1)
- Gateway (1)
- Gauß-Filter (1)
- Gebietszerlegung (1)
- Gebietszerlegungsmethode (1)
- Gebogener viskoser Faden (1)
- Gebäude (1)
- Gebäudegesamtsystem (1)
- Gebäudesimulation (1)
- Gebäudetechnik (1)
- Gedächtnis (1)
- Gefahren- und Risikoanalyse (1)
- Gefährdungsanalyse (1)
- Gelenkige Rohrverbindung (1)
- Gemeinsame Kanalschaetzung (1)
- Gen-Expression (1)
- Genamplifikation (1)
- Gender (1)
- Gender Classification (1)
- Gene Expression (1)
- Gene expression programming (1)
- Genealogie (1)
- Generalisierte Plastizität (1)
- Generierung (1)
- Genetische Algorithmen (1)
- Genexpression (1)
- Genome analysis (1)
- Genotoxizität (1)
- Gentechnisch transfizierte V79-Zellen (1)
- Gentherapie (1)
- Geo-referenced data (1)
- GeoWeb (1)
- Geodesie (1)
- Geographic Information System (GIS) (1)
- Geographie (1)
- Geometrical Nonlinear Thermomechanics (1)
- Geometrical product specification (1)
- Geometrienormale (1)
- Geometrische Ergodizität (1)
- Geomodellierung (1)
- Georg Wilhelm Friedrich (1)
- Georgien (1)
- Georgien / Zivilgesetzbuch (1)
- Georgien <Ost> (1)
- Georgien <West> (1)
- Geostatistik (1)
- Geovisualization (1)
- Geoweb (1)
- German census (1)
- Geräusch (1)
- Geschlecht (1)
- Geschlechterdiskriminierung (1)
- Geschlechtsbestimmung (1)
- Geschwindigkeitsbegrenzung (1)
- Geschwindigkeitsregelung (1)
- Geschwindigkeitswahrnehmung (1)
- Gestaltungslehre (1)
- Gestaltungsplanung (1)
- Gesundheitsberichterstattung (1)
- Gesundheitsförderung / Unternehmen (1)
- Gesundheitsmanagement (1)
- Gesundheitsverhalten (1)
- Gesundheitszustand (1)
- Gewebeverstärkter Thermoplast (1)
- Gewerbeimmobilien (1)
- Gewerbliche Abwärme (1)
- Gewichteter Sobolev-Raum (1)
- Gewässerschutz (1)
- Giga bit per second (1)
- Gitterbaufehler (1)
- Gittererzeugung (1)
- Gitterträger (1)
- Glasbau (1)
- Glasfaserverstärkte Kunststoffe (1)
- Glasfaserverstärkter Kunststoff (1)
- Glasklebung (1)
- Glassy polymers (1)
- Glaziale Refugien (1)
- Gleichgewichtsstrategien (1)
- Gleichspannungswandler (1)
- Gleichzeitigkeit (1)
- Gleitlager (1)
- Gleitverschleiß (1)
- Glioblastom (1)
- Gliome (1)
- GlucDOR (1)
- Glucocorticoidrezeptor (1)
- Glucosedehydrogenase (1)
- Glutamat (1)
- GlyHis (1)
- Glycogen Synthase Kinase 3 (1)
- Glycogen-Synthase-Kinase-3 (1)
- Glycosidasen (1)
- Glykolipid (1)
- Glykosylierung (1)
- Goethe (1)
- Gold nanoparticles (1)
- Goldnanopartikel (1)
- Golgi-Apparat (1)
- Google Earth (1)
- Grabeloser Leitungsbau (1)
- Gradient based optimization (1)
- Gradientenverfahren (1)
- Grand challenge (1)
- Granular (1)
- Granular flow (1)
- Granulat (1)
- Granulozyten (1)
- Grape Quality (1)
- Grapevine Fanleaf Virus (1)
- Graph Theory (1)
- Grauwasser (1)
- Grauwasserbehandlung (1)
- Grauwertkorrelation (1)
- Gravitationsfeld (1)
- Greater Region Saar-Lor-Lux+ (1)
- Green's functions (1)
- Green-Funktion (1)
- Grenzfläche (1)
- Grenzflächen (1)
- Grenzflächenpolarisation (1)
- Grenzflächenspannung (1)
- Grenzraum (1)
- GroEL/GroES-System (1)
- Gromov Witten (1)
- Gromov-Witten-Invariante (1)
- Group and Organizational Learning (1)
- Grouping by similarity (1)
- Große Abweichung (1)
- Großregion Saar-Lor-Lux+ (1)
- Grundlagen der Imprägnierung (1)
- Grundschule (1)
- Grundwassersanierung (1)
- Gruppenoperation (1)
- Gruppentheorie (1)
- Gröbner bases (1)
- Gröbner basis (1)
- Gröbner-basis (1)
- Grüne Chemie (1)
- GtCPES (1)
- Guillardia theta (1)
- Gyroscopic (1)
- H/D exchange (1)
- H4IIE (1)
- HAZOP Automation (1)
- HAZOP Automatisierung (1)
- HAZOP Digitalization (1)
- HAZOP-Verfahren (1)
- HCL (1)
- HCVL (1)
- HDACi (1)
- HETE (1)
- HMG-CoA-Reduktase (1)
- HNE (1)
- HODE (1)
- HPC (1)
- HPRT-Test (1)
- HSF (1)
- HSF1 (1)
- HSP (1)
- HSP70 (1)
- HT29 cells (1)
- HT29-Zellen (1)
- Hadamard manifold (1)
- Hadamard space (1)
- Hadamard-Mannigfaltigkeit (1)
- Hadamard-Raum (1)
- Haeckel (1)
- Haftreibwert (1)
- Halbfrequenzwirbel (1)
- Halbsandwich-Verbindungen (1)
- Halogenasen (1)
- Halogencyclisierung (1)
- Haloperoxidase-Modelle (1)
- Haltung (1)
- Hamburg <Metropolregion> (1)
- Hamilton Rezeptor (1)
- Hamiltonian Path Integrals (1)
- Hamiltonian systems (1)
- Hand (1)
- Hand gestures (1)
- Hand-Arm-System (1)
- Handbuch für die Bemessung von Straßenverkehrsanlagen (1)
- Handelsstrategien (1)
- Handlungsempfehlungen (1)
- Handwerker (1)
- Hardware Security (1)
- Hardware/Software co-verification (1)
- Harmonische Analyse (1)
- Harmonische Spline-Funktion (1)
- Harold Arthur (1)
- Hartschaumstoffe (1)
- Harvey (1)
- Harze (1)
- Harzinjektionstechnik (1)
- Harzinjektionsverfahren (1)
- Haushalt (1)
- Haustoria (1)
- Hazard Analysis (1)
- Hazard Functions (1)
- HeLa-Zelle (1)
- Heat stress response (1)
- Heat transfer (1)
- Heavy-tailed Verteilung (1)
- Hedging (1)
- Hegel (1)
- Heizrate (1)
- Heißes Elektron (1)
- Helicene (1)
- Helmholtz Type Boundary Value Problems (1)
- HepG2 (1)
- Hepatocytes (1)
- Hepatotoxizität (1)
- Herkunftsfläche (1)
- Hertwig (1)
- Herz-Lungen-System (1)
- Heston-Modell (1)
- Heteroaromaten (1)
- Heterogeneous (1)
- Heterosolarzelle (1)
- Heterozyklen (1)
- Heusler (1)
- Hexaphenylcyclohexaarsan (1)
- Hexen <1-> (1)
- Hexenol (1)
- Hidden Markov models for Financial Time Series (1)
- Hierarchische Matrix (1)
- Hierarchische verteilte Architekturen (1)
- High Voltage (1)
- High-Spin-Komplexe (1)
- High-cycle fatigue (1)
- Higher education (1)
- Hilbert complexes (1)
- Himbeere (1)
- Hinweise für barrierefreie Verkehrsanlagen (1)
- Hirnstamm (1)
- HisGly (1)
- Histamin (1)
- Histologie (1)
- Histondeacetylase-inhibitor (1)
- Hitting families (1)
- Hochbau (1)
- Hochleistungsoptik (1)
- Hochleistungsverbundbauteile (1)
- Hochspannung (1)
- Hochspannungsfeld (1)
- Hohlkörperdecke (1)
- Hohlkörperdecken (1)
- Hohlräume (1)
- Holz-Beton-Verbundbau (1)
- Holzbau (1)
- Holzleichtbaukonstruktion (1)
- Homogeneous deformation (1)
- Homogenisieren (1)
- Homologische Algebra (1)
- Honduras (1)
- Horizontal gene transfer (1)
- Hormon (1)
- Hot-Wire-Verfahren (1)
- Hub Location Problem (1)
- Hufeisenwirbel (1)
- Human Liver Cell Models (1)
- Human Pose (1)
- Human-Computer Interaction (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- Human-centric lighting (1)
- Human-centric virtual lighting (1)
- Humanblut (1)
- Humangenetik (1)
- Humanism (1)
- Humanstudie (1)
- Hunsrück (1)
- Hybrid (1)
- Hybrid CBR (1)
- Hybrid Models (1)
- Hybrid Thermoplastisch Duroplastisch Wickeln (1)
- Hybride Werkstoffsysteme (1)
- Hybridlager (1)
- Hybridmaterialien (1)
- Hybridverbundwerkstoff (1)
- Hybridwerkstoff (1)
- Hydratation (1)
- Hydride (1)
- Hydrierung (1)
- Hydroamidierung (1)
- Hydrogel (1)
- Hydrogen Bonding (1)
- Hydrokracken (1)
- Hydrolyse (1)
- Hydrostatischer Druck (1)
- Hydrovinylierung (1)
- Hydroxymethylierung (1)
- Hyperelastizität (1)
- Hyperelliptische Kurve (1)
- Hyperflächensingularität (1)
- Hypergraph (1)
- Hyperspektraler Sensor (1)
- Hypocoercivity (1)
- Hysteresismessung (1)
- Hämoglobin (1)
- Hämoglobin-Addukt (1)
- Härten (1)
- Hören (1)
- Hüftkraft (1)
- ICT (1)
- IEC 61508 (1)
- IEEE 802.15.4 (1)
- IMU (1)
- IP Address (1)
- IP Traffic Accounting (1)
- IP-XACT (1)
- IRTG 2057 (1)
- ISO 26262 (1)
- ISO26262 (1)
- ITSM (1)
- Idealklassengruppe (1)
- Ileostomy (1)
- Illiquidität (1)
- Image (1)
- Image Processing (1)
- Image restoration (1)
- Imatinib mesilat (1)
- Imidacloprid (1)
- Imidazoliumsalze (1)
- Imido (1)
- Imine (1)
- Immersion (1)
- Immiscible lattice BGK (1)
- Immobilien (1)
- Immobilienaktie (1)
- Immobilienmarkt (1)
- Immobilienpreis (1)
- Immobilisierte Katalysatoren (1)
- Immunity (1)
- Immunität (1)
- Immunoblot (1)
- Immunofluoreszenzmikroskopie (1)
- Immuntoxin (1)
- Imote2 (1)
- Imprägnierung (1)
- Impulsfrequenz (1)
- In-Line Qualitätssicherungsmerkmal (1)
- In-vitro-Translation (1)
- Incommensurate Structure (1)
- Incremental recomputation (1)
- Index Insurance (1)
- Indigo (1)
- Indigorot (1)
- Individual (1)
- Individualisierte Mobilitätsdienstleistungen (1)
- Induction heating (1)
- Induktive logische Programmierung (1)
- Induktives Fügen (1)
- Industrial Robotics (1)
- Industrial air pollution (1)
- Industrieabwasser (1)
- Industrielle Abwärme (1)
- Industrielle Mikrobiologie (1)
- Industrielle Produktion (1)
- Infektionsmechanismus (1)
- Inflation (1)
- Information Extraction (1)
- Information Visualization (1)
- Informationsfunktion (1)
- Informationslogistik (1)
- Informationsmodellierung (1)
- Informationstheorie (1)
- Informationsübertragung (1)
- Infrared Multi Photon Dissociation (1)
- Infrared Multiphoton Dissociation Spectroscopy (IR-MPD) (1)
- Infrarotspek (1)
- Ingenieurmodell (1)
- Innovationsadoption (1)
- Innovationsbewertung (1)
- Innovationsmanagement (1)
- Input-To-State Stability (1)
- Insekten (1)
- Insertionsreaktion (1)
- Instandsetzung (1)
- Insurance (1)
- Integralbauweise (1)
- Integrated Operation (1)
- Integration geometrischer Oberflächenparameter (1)
- Integrative Beleuchtung (1)
- Integrative lighting (1)
- Integrine (1)
- Intensity estimation (1)
- Intensität (1)
- Interactive decision support systems (1)
- Interaktionsanalyse (1)
- Interaktionsgerät (1)
- Interaktionsmodell (1)
- Interaktive Planung (1)
- Interaktive Verhandlung (1)
- Interferenz (1)
- Interferenzklassifizierung (1)
- Interferenzreduktion (1)
- Interferometrie (1)
- Intergeschlechtlichkeit (1)
- Intergine (1)
- Interkulturelle Produktentwicklung (1)
- Intermediate Composition (1)
- Internationale Diversifikation (1)
- Interorganisationales (1)
- Interpolation (1)
- Interpolation Algorithm (1)
- Intersexualität (1)
- Intervention (1)
- Interventionsstudie (1)
- Interzellinterferenz (1)
- Intra-Rezeptor Wechselwirkungen (1)
- Invariante (1)
- Invariante Momente (1)
- Inverse Problem (1)
- Inverse spin injection (1)
- Inwertsetzung (1)
- Ion pairs (1)
- Ionensolvatation (1)
- Ionentauscher (1)
- Ionentransport (1)
- Iron (1)
- Irreduzibler Charakter (1)
- Isogeometric Analysis (1)
- Isoindigo (1)
- Isomerisierung (1)
- Isomerisierung von n-Decan (1)
- Isomerisierungsreaktion (1)
- Isopropylacrylamid Natriummethacrylat N-Vinyl-2-pyrrolidon (1)
- Isotopieeffekt (1)
- Isotrope Geometrie (1)
- Isotropes System (1)
- Isotropie (1)
- Ito (1)
- JAK-STAT-Weg (1)
- JAK-STAT-pathway (1)
- Jablonka (1)
- Jacobigruppe (1)
- Jet in crossflow (1)
- Jitter (1)
- Johannisbeere (1)
- John L. (1)
- Joint Transmission (1)
- KANO-Modell (1)
- Kaffee (1)
- Kaffeeextrakte (1)
- Kaffeegetränke (1)
- Kaffeeinhaltsstoffe (1)
- Kalibriernormale (1)
- Kalmus (1)
- Kalziumkanal (1)
- Kanalcodierung (1)
- Kanalisation (1)
- Kanalnetzsteuerung (1)
- Kanalschätzung (1)
- Kant (1)
- Kapazitiver Sensor (1)
- Kapazitätsmessung (1)
- Karbonatisierung (1)
- Kardiotoxizität (1)
- Kardiovaskuläre Krankheit (1)
- Karhunen-Loève expansion (1)
- Kartoffel (1)
- Katalysator (1)
- Katalytische Iso (1)
- Katalytische Isomerisierung (1)
- Kategorientheorie (1)
- Kationenrezeptoren (1)
- Kaukasus (1)
- Kausale Inferenz (1)
- Kausalmodell (1)
- Keilzinkenverbindung (1)
- Keimbildung (1)
- Kellerautomat (1)
- Kelvin Transformation (1)
- Keramik <T (1)
- Keratinozyten (1)
- Kern-Schale-Struktur (1)
- Kerngenom (1)
- Ketone (1)
- Kettengelenk (1)
- Kettentrieb (1)
- Kieselgel (1)
- Kinder mit Migrationshintergrund (1)
- Kinder- und Jugendsportschule der DDR (1)
- Kirchenmanagement (1)
- Kirchenreform (1)
- Kirchhoff-Love shell (1)
- Kiyoshi (1)
- Klassifikation (1)
- Klebverbindungen (1)
- Klein- und Mittelstädte (1)
- Klima (1)
- Klimagerechtes Bauen (1)
- Klimastuhl (1)
- Klimawandel (1)
- Klimaänderung (1)
- Kniestabilität (1)
- Knochenmetastase (1)
- Knotenpunkt (1)
- Knowledge transfer (1)
- Knuth-Bendix completion (1)
- Knuth-Bendix-Vervollständigung (1)
- Ko-Kontraktion (1)
- Koaleszenz (1)
- Kobalt (1)
- Koexistenz (1)
- Koexpression (1)
- Kognition (1)
- Kognitive Psychologie (1)
- Kogut-Susskind-Fermionen (1)
- Kohlenstoff (1)
- Kohlenstoff-Wasserstoff-Bindung (1)
- Kohlenstofffasern (1)
- Kohlenstofffaserverstärkte Kunststoffe (1)
- Kohlenstofffaserverstärkter Kohlenstoffwer (1)
- Kohlenstofffaserverstärkter Kohlenstoffwerkstoff (1)
- Kohlenstofffaserverstärkter Kunststoff (1)
- Kohäsive Grenzschichten (1)
- Koinzidenz (1)
- Kolonisierung (1)
- Kombinationsschwingungen (1)
- Kombinatorik (1)
- Kombinierte Mobilität (1)
- Kommunale Zusammenarbeit (1)
- Kommunalentwicklung (1)
- Kommutative Algebra (1)
- Kompaktierungs und Permabilitätskennwert (1)
- Kompetenz (1)
- Kompetenzentwicklung (1)
- Kompetenzmodellierung (1)
- Komplex-analytische Struktur (1)
- Komplexaufklärung (1)
- Komplexchemie (1)
- Komplexe (1)
- Komplexität (1)
- Komponentenmodell (1)
- Kompression (1)
- Konfiguration <Chemie> (1)
- Konfigurationskräfte (1)
- Konfigurationsmechanik (1)
- Konformation (1)
- Kongruenz (1)
- Konjugierte Dualität (1)
- Konsolidierung (1)
- Konstitutionsform (1)
- Konstruktion von Hyperflächen (1)
- Konstruktivismus (1)
- Kontaktlose Chipkarte (1)
- Kontaktwiderstand (1)
- Kontextbezogenes System (1)
- Kontinuum <Mathematik> (1)
- Kontinuums-Atomistische Kopplung (1)
- Kontinuumsphysik (1)
- Konvektion (1)
- Konvergenz (1)
- Konvergenzrate (1)
- Konvergenzverhalten (1)
- Konvexe Optimierung (1)
- Konzentrationsmessung (1)
- Koordinatengeber (1)
- Koordinationslehre (1)
- Koordinationsverbindungen (1)
- Koordinierte Regionalentwicklung (1)
- Kopolymere (1)
- Kopplungsmethoden (1)
- Kopplungsproblem (1)
- Kopula <Mathematik> (1)
- Korpusanalyse (1)
- Korrelationen (1)
- Korrosion (1)
- Kraft-Verformungs-Verhalten (1)
- Krafteinleitung (1)
- Krafteinleitungen (1)
- Kraftstoffverbrauch (1)
- Kraftwa (1)
- Kraftwelligkeit (1)
- Kraftwelligkeitsausgleich (1)
- Krebs <Medizin> / Prävention (1)
- Kreiselpumpe (1)
- Kreisverkehr (1)
- Kreitderivaten (1)
- Kreuzkupplungen (1)
- Kreuzkupplungsreaktion (1)
- Kriechen (1)
- Kristallcharakterisierung (1)
- Kristallisation (1)
- Kristallisationsfouling (1)
- Kristallstrukturanalyse (1)
- Kryptoanalyse (1)
- Kryptologie (1)
- Krümmung (1)
- Kullback-Leibler divergence (1)
- Kulturelles Kapital (1)
- Kunststoff (1)
- Kunststoff / Verbundwerkstoff (1)
- Kunststoffeinfärbung (1)
- Kunststoffschweißen (1)
- Kupferion (1)
- Kurbelgehäuse (1)
- Kurve (1)
- Kurvenschar (1)
- Kurzkohärente Interferometrie (1)
- Kutaissi (1)
- Körperhaltung (1)
- Körperliche Arbeit (1)
- Körperschall (1)
- Körperschallübertragung (1)
- Kühni (1)
- L1 (1)
- LEADER (1)
- LIBOR (1)
- LIDAR (1)
- LIR-Tree (1)
- LOADBAL (1)
- Lactone (1)
- Lagerstrom (1)
- Lagerung (1)
- Lagrangian relaxation (1)
- Lamarck (1)
- Lambda-cyhalothrin (1)
- Laminare Grenzschicht (1)
- Land Use Planning (1)
- Landesplanung (1)
- Landschaftsplanung (1)
- Landwirtschaft (1)
- Language Management (1)
- Language Policy (1)
- Laplace transform (1)
- Large Data (1)
- Large Eddy Simulation (1)
- Large High-Resolution Displays (1)
- Large Synchronous Networks (1)
- Laser Wakefield Particle Accelerator (1)
- Laser spectroscopy (1)
- Laserdiode (1)
- Laserparameter (1)
- Laserspektroskopie (1)
- Lastkollektive (1)
- Lastprofil (1)
- Lastpunktverschiebung (1)
- Lateinamerika (1)
- Latentwärmespeicher (1)
- Lateral superior olive (1)
- Latin America (1)
- Lattice Boltzmann (1)
- Lattice Boltzmann Method (1)
- Lattice-BGK (1)
- Lattice-Boltzmann (1)
- Lautarium (1)
- Laval-Düse (1)
- Lead (1)
- Leading-Order Optimality (1)
- Lean Automation (1)
- Lean Production (1)
- Learning Analytics (1)
- Least-squares Monte Carlo method (1)
- Lebensdauer (1)
- Lebensdaueranalyse (1)
- Lebensmittel (1)
- Lebensstil (1)
- Lebenszykloskostenanalyse (1)
- Leberepithelzelle (1)
- Lecitin (1)
- Leckage (1)
- Lehrer (1)
- Lehrerverhalten (1)
- Lehrkräftebildung (1)
- Lehrkräfteprofessionalisierung (1)
- Leibniz (1)
- Leichtbaupotenzial (1)
- Leichtbauvarianten (1)
- Leichtbauweise Faser-Kunststoff-Verbundwerkstoffe (FKV) (1)
- Leistungsdiagnostik (1)
- Leistungseffizienz (1)
- Leistungsflussregler (1)
- Leistungsmessung (1)
- Leistungsmotivation (1)
- Leitbilder und Handlungsstrategien für die Raumentwicklung (1)
- Leitbilder und Handlungsstrategien für die Raumentwicklung in Deutschland (1)
- Leitfähigkeit (1)
- Leittechnik (1)
- Leitungen (1)
- Leitungsabschottung (1)
- Leitungsführungen (1)
- Leptonen (1)
- Leptonen Massen (1)
- Lernhilfen (1)
- Lerntheorie (1)
- Lese-Rechtschreiberwerb (1)
- Lese-Rechtschreibschwierigkeiten (1)
- Lese-Rechtschreibstörung (1)
- Lesen (1)
- Lesenlernen (1)
- Lesestörung (1)
- Level set methods (1)
- Lexikalische Sprachgebrauchsmuster (1)
- Lezitin (1)
- LiDAR (1)
- Lichtdurchlässige Kunststoffe (1)
- Lichtflecke (1)
- Lichtforschung (1)
- Lichtsignalanlage (1)
- Lichtspeicherung (1)
- Lie algebras (1)
- Lie-Typ-Gruppe (1)
- Lieferkette (1)
- Ligandenaustauschreaktion (1)
- Ligandenfeldstärke (1)
- Light Storage (1)
- Lighting (1)
- Lighting Design (1)
- Lighting research (1)
- Lightweight Structures (1)
- Limonen-Umsetzung (1)
- Linear-Quadratic-Regulator (1)
- Linearmotor (1)
- Linguistic Landscape (1)
- Linguistic Schoolscape (1)
- Linguistik (1)
- Linienbus (1)
- Link Metric (1)
- Linked Data (1)
- Linking Data Analysis and Visualization (1)
- Linksparken (1)
- Lipid (1)
- Lipidperoxidation (1)
- Lipoxygenasen (1)
- Lippmann-Schwinger Equation (1)
- Lippmann-Schwinger equation (1)
- Liquid Crystal Phases (1)
- Liquid-Liquid Extraction (1)
- Liquid-liquid dispersion (1)
- Liquid-liquid extraction (1)
- Liquid-liquid-equilibrium (1)
- Liquidität (1)
- Literaturdatenbank (1)
- Literature review (1)
- Liver (1)
- Liver Toxicity (1)
- Liver toxicity (1)
- Local Development Framework (1)
- Local continuum (1)
- Locally Supported Zonal Kernels (1)
- Location (1)
- Location Based Service (1)
- Logiksynthese (1)
- Logistik (1)
- Lokale Durchstanztragfähigkeit (1)
- Lokales Durchstanzen (1)
- Lokalisierung (1)
- London-Dispersion (1)
- Low Jitter (1)
- Lubrication (1)
- Ludwig von Mises (1)
- Luftfahrt (1)
- Luftfahrtindustrie (1)
- Luftlager (1)
- Luftpermeabilität (1)
- Luftschnittstellen (1)
- Lumineszenzspektroskopie (1)
- Lunge (1)
- Lungenchirurgie (1)
- Lungenemphysem (1)
- Lungenkrebs (1)
- Lyse <Biologie> (1)
- Lysozyme (1)
- Ländliche (1)
- Ländliche Regionen (1)
- Ländliche Räume (1)
- Ländlicher Raum (1)
- Längenmessung (1)
- Längszug (1)
- Lärm (1)
- Lärmbelastung (1)
- Lärmimmission (1)
- Lärmschädigung (1)
- Lärmverteilung (1)
- Löslichkeit (1)
- MAC protocols (1)
- MAP-Kinase (1)
- MAPK signaling (1)
- MBS (1)
- MCF (1)
- MCF-7 (1)
- MCFK (1)
- MCM-41 (1)
- MCMT (1)
- MFC-Knochennagel-Implantat (1)
- MHYT-Domäne (1)
- MIMO Systeme (1)
- MIMO-Antennen (1)
- MIP-Emissionsspektroskopie (1)
- MIP-Massenspektrometrie (1)
- MKS (1)
- ML-estimation (1)
- MO-Theorie (1)
- MS-Klebstoff (1)
- MS-Polymers (1)
- MSR (1)
- MYC (1)
- Macaulay’s inverse system (1)
- Mach-Zehnder-Interferometer (1)
- Macht (1)
- Magnesium (1)
- Magnesiumhydroxid (1)
- Magnetfeldbasierter Lokalisierung (1)
- Magnetfelder (1)
- Magnetischer Röntgenzirkulardichroismus (1)
- Magnetismus (1)
- Magnetit-Partikel (1)
- Magneto-Elastic Coupling (1)
- Magnetoelastic coupling (1)
- Magnetoelasticity (1)
- Magnetometer (1)
- Magnetostriction (1)
- Makrophage (1)
- Makrophagen (1)
- Management (1)
- Manufacturing (1)
- Manufacturing Control (1)
- Manufacturing System (1)
- MapReduce (1)
- Marangoni (1)
- Marangoni-Effekt (1)
- Marine Biotechnologie (1)
- Marke (1)
- Market Equilibrium (1)
- Markierungsgen (1)
- Markov Chain (1)
- Markov Kette (1)
- Markov-Ketten-Monte-Carlo-Verfahren (1)
- Markov-Prozess (1)
- Markt (1)
- Marktmanipulation (1)
- Marktplatz (1)
- Marktrisiko (1)
- Marktsegmentierung (1)
- Martensite transformation (1)
- Martingaloptimalitätsprinzip (1)
- Maschennetz (1)
- Maschinelle Übersetzung (1)
- Mass transfer (1)
- Massivbau (1)
- Material Modelling (1)
- Material Properties under Exctreme Conditions (1)
- Material-Force-Method (1)
- Materialmanagement (1)
- Materialmodellierung (1)
- Materialsysteme (1)
- Materialverhalten (1)
- Materielle Kräfte (1)
- Mathematical Finance (1)
- Mathematics (1)
- Mathematische Optimierung (1)
- Mathematisches Modell (1)
- Matrix Completion (1)
- Matrixkompression (1)
- Matrizenfaktorisierung (1)
- Matrizenzerlegung (1)
- Maturana (1)
- Mauerwerk (1)
- Maus (1)
- Maus <Datentechnik> (1)
- Mausmodell (1)
- Maximal Cohen-Macaulay modules (1)
- Maximale Cohen-Macaulay Moduln (1)
- Maximum Intensity Projection (1)
- Maximum Likelihood Estimation (1)
- Maximum-Likelihood-Schätzung (1)
- Maxwell's equations (1)
- Maßnahmen (1)
- McKay conjecture (1)
- McKay-Conjecture (1)
- McKay-Vermutung (1)
- Meaningful Work (1)
- Measurement plattform (1)
- Measurement standards (1)
- Mechanical (1)
- Mechanics (1)
- Mechanisch (1)
- Medical Image Analysis (1)
- Medienexperimentelles Entwerfen (1)
- Medizinische Physik (1)
- Mehragentensystem (1)
- Mehrdimensionale Bildverarbeitung (1)
- Mehrdimensionales Variationsproblem (1)
- Mehrfruchtsaft (1)
- Mehrkernige Koordinationsverbindungen (1)
- Mehrkriterielle Optimierung (1)
- Mehrkörpersimulation (1)
- Mehrkörpersystem (1)
- Mehrperspektivischer Unterricht (1)
- Mehrphasenströmung (1)
- Mehrschichtsystem (1)
- Mehrskalen (1)
- Mehrtraegeruebertragungsverfahren (1)
- Membranreinigung (1)
- Memory Architecture (1)
- Memory Consistency (1)
- Memory Theory (1)
- Mendel (1)
- Meningeom (1)
- Mensch (1)
- Mensch-Roboter-Koexistenz (1)
- Mensch-Roboter-Kooperation (1)
- Menschenmenge (1)
- Merkmalsraum (1)
- Mesh-Free (1)
- Messplatform (1)
- Messung des Durchmessers (1)
- Metabolism (1)
- Metabolomics (1)
- Metacontrast Masking (1)
- Metal-Free (1)
- Metallkomplexe (1)
- Metalloproteinasen (1)
- Metalloptik (1)
- Metallorganik (1)
- Metalloxide (1)
- Metallschicht (1)
- Metapopulation (1)
- Metasprache (1)
- Metasprachliche Erklärungen (1)
- Metasprachliche Fähigkeiten (1)
- Metaverse (1)
- Metaversum (1)
- Meter (1)
- Methane emissions (1)
- Methode der finiten Elemente (1)
- Methotrexat (1)
- Methyleugenol (1)
- Methylphenylfulven (1)
- Metric Learning (1)
- Meßverfahren (1)
- Michael-Addition (1)
- Micro Cutting (1)
- Micro Grinding (1)
- Micro Lead (1)
- Microcystins (1)
- Microelectromechanical Systems (1)
- Microstructure (1)
- Microstructure morphology (1)
- Microsystem Technology (1)
- Mie- and Helmholtz-Representation (1)
- Mie- und Helmholtz-Darstellung (1)
- Mikrobewehrter Beton (1)
- Mikrobewehrung (1)
- Mikrobiegeversuch (1)
- Mikrobieller (1)
- Mikrobiologie (1)
- Mikrodrall (1)
- Mikroelektronik (1)
- Mikrofiltration (1)
- Mikromorphe Kontinua (1)
- Mikrosomen (1)
- Mikrosystemtechnik (1)
- Mikrowelle (1)
- Mikrozerspanung (1)
- Milchsäurebakterien (1)
- Milieus (1)
- Mindesthaltbarkeitsdatum (1)
- Mindfulness (1)
- Miner-Regel (1)
- Minimal Cut Set Visualization (1)
- Minimal training (1)
- Miniplant (1)
- Mischcluster (1)
- Mischsystem (1)
- Mischwasser (1)
- Mitarbeiterbefragungen (1)
- Mitarbeitergesundheit (1)
- Mitfahrerparkplatz (1)
- Mitochondria (1)
- Mitochondrien (1)
- Mitochondrium (1)
- Mittelstädte (1)
- Mixed Connectivity (1)
- Mixed Reality (1)
- Mixed integer programming (1)
- Mixed method (1)
- Mixed-integer Programming (1)
- Mobile Communications (1)
- Mobile Computing (1)
- Mobile Machines (1)
- Mobile Robots (1)
- Mobile Telekommunikation (1)
- Mobile system (1)
- Mobiler Roboter (1)
- Mobilfunksysteme (1)
- Mobility (1)
- Mobility as a Service (1)
- Mobility on Demand (1)
- Mobilität (1)
- Mode-Based Scheduling with Fast Mode-Signaling (1)
- Model-Dynamics (1)
- Model-driven Engineering (1)
- Modelica (1)
- Modeling (1)
- Modellbasierte Fehlerdiagnose (1)
- Modellbildung (1)
- Modellgenerierung (1)
- Modellgetriebene Entwicklung (1)
- Modellprädiktive Regelung (1)
- Modellvorhaben (1)
- Modernisierung (1)
- Modes of learning (1)
- Modifizierte Teilsicherheitsbeiwerte (1)
- Modifiziertes Epoxidharz (1)
- Modularisierung (1)
- Modulationsspektroskopie (1)
- Modulationsübertragungsfunktion (1)
- Modusbasierte Signalisierung (1)
- Molecular Dynamics (1)
- Molecular Redistribution (1)
- Molecular beam (1)
- Molecular dynamics (1)
- Moleculardynamics (1)
- Molekularbiologie (1)
- Molekulare Bioinformatik (1)
- Molekulare Erkennung (1)
- Molekulargenetik (1)
- Molekülcluster (1)
- Molekülorbital (1)
- Molkeproteine (1)
- Molybdat (1)
- Molybdenium (1)
- Moment Invariants (1)
- Moment-Generating Functions (1)
- Momentum and Mas Transfer (1)
- Monitoring (1)
- Monomer (1)
- Monte Carlo simulation (1)
- Monte-Carlo Modelling (1)
- Monte-Carlo-Simulation chiraler (1)
- Mood-based Music Recommendations (1)
- Moreau-Yosida regularization (1)
- Morphismus (1)
- Most (1)
- Mostkonzentrierung (1)
- Motorprozeßrechnung (1)
- MucR (1)
- Multi Primary and One Second Particle Method (1)
- Multi-Asset Option (1)
- Multi-Edge Graph (1)
- Multi-Field (1)
- Multi-Variate Data (1)
- Multibody (1)
- Multicore Resource Management (1)
- Multicore Scheduling (1)
- Multicriteria optimization (1)
- Multidisciplinary Optimization (1)
- Multidrug-Resistenz (1)
- Multifield Data (1)
- Multifunktionalität (1)
- Multigenanalyse (1)
- Multileaf collimator (1)
- Multipass-Amplifier (1)
- Multipass-Verstärker (1)
- Multiperiod planning (1)
- Multiperspektivität (1)
- Multiphase Flows (1)
- Multiple Jobholding (1)
- Multiresolution Analysis (1)
- Multiscale (1)
- Multiscale modelling (1)
- Multiskalen-Entrauschen (1)
- Multispektralaufnahme (1)
- Multispektralfotografie (1)
- Multivariate Analyse (1)
- Multivariate Wahrscheinlichkeitsverteilung (1)
- Multivariates Verfahren (1)
- Murine Knochenmarkzellen (1)
- Muskeltraining (1)
- Mutation (1)
- Mykotoxine (1)
- Myosin (1)
- Mössbauer-Spektroskopie (1)
- Mößbauer-Spektroskopie (1)
- Mündlicher Sprachgebrauch (1)
- N-Liganden Palladium Allyl Rhodium Ruthenium Cymol (1)
- N-Nitroso-verbindungen (1)
- N-isopropyl acrylamide (1)
- N-ligands Palladium allyl Rhodium Ruthenium cymene (1)
- N-tridentate Liganden (1)
- NCN-Pinzettenliganden (1)
- NICS (1)
- NIR-Spektroskopie (1)
- NLO-Chromophor (1)
- NMR (1)
- NMR Spectroscopy (1)
- NMR und ITC (1)
- NMR-Spektroskopie (1)
- NNK (1)
- NO (1)
- NO-Synthase (1)
- Nachbarkanalinterferenz (1)
- Nachbarschaft (1)
- Nachbarschaftshilfe (1)
- Nachrechnung (1)
- Nachwachsende Rohstoffe (1)
- Nachweis (1)
- Nachwuchsleistungssport (1)
- Nahmobilität (1)
- Nahrung (1)
- Nahrungsnetz (1)
- Namibia (1)
- Nanocomposite (1)
- Nanofaser (1)
- Nanokomposit (1)
- Nanoverbundwerkstoffe (1)
- Natriummolekül (1)
- Natriumsulfat (1)
- Natural Neighbor (1)
- Natural Neighbor Interpolation (1)
- Naturfasern (1)
- Naturstoffe (1)
- Naturstoffsynthese (1)
- Natürliche Auslese (1)
- Natürliche Nachbarn (1)
- Navigation (1)
- NbdA (1)
- Nd:YAG (1)
- Nekrose (1)
- Nematode (1)
- Nennspannungskonzept (1)
- Neodym (1)
- Nephrotoxizit (1)
- Network (1)
- Network Architecture (1)
- Networked Automation Systems (1)
- Networks (1)
- Netzbasierte Automatisierungssysteme (1)
- Netzkonzept (1)
- Netzplanung (1)
- Netzregler (1)
- Netztopologie (1)
- Netzwerksteuerungsmechanismen (1)
- Netzwerksynthese (1)
- Neuartige Sanitärsysteme (1)
- Neue Institutionenökonomie (1)
- Neue Institutionenökonomik (1)
- Neural ADC (1)
- Neural Architecture Search (1)
- Neurales Zell-Adhäsionsmolekül (1)
- Neuronales Netz (1)
- Neurotransmitterrezeptor (1)
- Neutrinos (1)
- New Venture (1)
- Nexus (1)
- Nexus Analysis (1)
- Nexus of practice (1)
- Nexusanalyse (1)
- NiTi-Formgedächtnislegierung (1)
- Nicht dioxin-artig (1)
- Nicht-Desarguessche Ebene (1)
- Nichtglatte Optimierung (1)
- Nichtinvasiv (1)
- Nichtkommutative Algebra (1)
- Nichtkonvexe Optimierung (1)
- Nichtkonvexes Variationsproblem (1)
- Nichtlineare Approximation (1)
- Nichtlineare Diffusion (1)
- Nichtlineare Dynamik (1)
- Nichtlineare Mechanik (1)
- Nichtlineare Optimierung (1)
- Nichtlineare Schwingung (1)
- Nichtlineare Zeitreihenanalyse (1)
- Nichtlineare partielle Differentialgleichung (1)
- Nichtpositive Krümmung (1)
- Nichtrauchen (1)
- Nickel-Halbsandwichkomplexe (1)
- Nickel-katalysierte Decarboxylierung (1)
- Nickelkomplexe (1)
- Niere (1)
- Nierenversagen (1)
- Nilpotent elements (1)
- Ninequilibirum Electron Kinetics (1)
- Niob (1)
- Nische (1)
- Nitniol (1)
- Nitridierung (1)
- Nitrierung (1)
- Nitrone (1)
- Nitrones (1)
- Nitrosamine (1)
- Nitsches method (1)
- No-Arbitrage (1)
- NoSQL (1)
- Nocardia (1)
- Node-Link Diagram (1)
- Nodularins (1)
- Noise control (1)
- Non dioxin like polychlorinated biphenyls (1)
- Non--local atomistic (1)
- Non-Newtonian (1)
- Non-commutative Computer Algebra (1)
- Nonlinear Optimization (1)
- Nonlinear time series analysis (1)
- Nonparametric time series (1)
- Nonsmooth Optimization (1)
- Nonspecific Adsorption (1)
- Normalbeton (1)
- Normenvorschlag (1)
- North Sea (1)
- Nostocales (1)
- Nrf2 (1)
- Nrf2/ARE-Signalweg (1)
- Nucleoside (1)
- Nucleotid-Bindungsstellen (1)
- Nukleosidtransporter (1)
- Nukleotid (1)
- Nukleotidtransporter (1)
- Null Modell (1)
- Nulldimensionale Schemata (1)
- Numerical Flow Simulation (1)
- Numerical methods (1)
- Numerische Homogenisierung (1)
- Numerische Integration (1)
- Numerische Mathematik / Algorithmus (1)
- Numerische Simulat (1)
- Numerische Untersuchungen (1)
- Numerisches Verfahren (1)
- Nutzerorientierte Produktentwicklung (1)
- Nutzungsbedürfnisse (1)
- Nutzungsintention (1)
- Nährstoffelimination (1)
- Nürnberg <Metropolregion> (1)
- O3 (1)
- OCR (1)
- OFDM mobile radio systems (1)
- OFDM-Mobilfunksysteme (1)
- OME (1)
- OWL (1)
- Oberflächenanalyse (1)
- Oberflächenmaße (1)
- Oberflächenmesstechnik (1)
- Oberflächenphysik (1)
- Oberflächenplasmonresonanz (1)
- Oberflächenprotein (1)
- Oberflächenproteine (1)
- Oberflächenschutzsystem (1)
- Oberflächenspannung (1)
- Oberflächenstruktur (1)
- Oberkörperkontrolle (1)
- Oberpfalz (1)
- Oberschwingung (1)
- Oberton (1)
- Object-orientation (1)
- Objekterkennung (1)
- Octylglucosid (1)
- Oedometer (1)
- Off-road Robotics (1)
- Off-road Robotik (1)
- Offenheit (1)
- Oktylglukosid (1)
- Olefine (1)
- Oligomerisation (1)
- Omics data analysis (1)
- Omics-Thechnologie (1)
- On-line-Methode (1)
- On-line-Verfahren (1)
- Onkogen (1)
- Online chain partitioning (1)
- Online-Arbeitsmärkte (1)
- Online-Handel (1)
- Ontogenie (1)
- Ontologiebasierte Kausalmodelle (1)
- Ontology (1)
- Ontology-based causation model (1)
- Open Estelle (1)
- Open Strategy (1)
- Operationen (1)
- Operator (1)
- Optiksimulation (1)
- Optimal Control (1)
- Optimale Kontrolle (1)
- Optimale Portfolios (1)
- Optimierender Compiler (1)
- Optimization Algorithms (1)
- Option (1)
- Option Valuation (1)
- Optionsbewertung (1)
- Optische Abbildung (1)
- Optische Anisotropie (1)
- Optische Fernerkundung (1)
- Optische Messtechn (1)
- Optische Spektroskopie (1)
- Optischer Sensor (1)
- Optisches Messen (1)
- Orchideen (1)
- Order (1)
- Organik (1)
- Organisationsentwicklung (1)
- Organische Moleküle (1)
- Organisches Pigment (1)
- Organizational structure (1)
- Organizational value (1)
- Organoblech (1)
- Organobleche (1)
- Organosilica (1)
- Organosiloxane (1)
- Ortspezifische Mutagenese (1)
- Osteoblast (1)
- Osteomimicry (1)
- Ottomotor (1)
- Oversampling (1)
- Ovoid (1)
- Oxidant Evolution (1)
- Oxidationskatalyse (1)
- Oxidative Stress (1)
- P-Glykoprotein (1)
- P2 (1)
- P2C2Ph2 (1)
- P3CtBu (1)
- P4 (1)
- P5 (1)
- PCB (1)
- PCDD/Fs (1)
- PCDD/Fs PCBs (1)
- PCM (1)
- PCS (1)
- PDD (1)
- PDE-Constrained Optimization, Robust Design, Multi-Objective Optimization (1)
- PDF3D (1)
- PFGE (1)
- PM63 (1)
- PMN (1)
- PMO (1)
- PN-Hybridliganden (1)
- POD (1)
- PPARgamma (1)
- PSPICE (1)
- PTA (1)
- PV-Anlage (1)
- PXR (1)
- Paarungsstörung (1)
- Packed Columns (1)
- Palindrom (1)
- Palladium-katalysierte Isomerisierung (1)
- Panama (1)
- Pangenese (1)
- Papiermaschine (1)
- Parabolrinne (1)
- Paradoxien (1)
- Parallel Algorithms (1)
- Paralleler Algorithmus (1)
- Paralleler Hybrid (1)
- Paramecium primaurelia (1)
- Parameter (1)
- Parameter identification (1)
- Parameteridentifikation (1)
- Pareto Optimality (1)
- Parken (1)
- Parkhaus (1)
- Parking Abrasion Test (1)
- Parkmanöver (1)
- Partially ordered sets (1)
- Participant Burden (1)
- Participatory Sensing (1)
- Particle (1)
- Particle-In-Cell (1)
- Partieller Hygrothermischer Abbau (1)
- Partikel Methoden (1)
- Partikel-Schwarm-Optimierung (1)
- Partikelgrößenverteilung (1)
- Partizipation (1)
- Parvovirus (1)
- Passivrauchen (1)
- Patchworking Methode (1)
- Patchworking method (1)
- Pathfinder (1)
- Pathogen (1)
- Pathogenabwehr (1)
- Pathogenese (1)
- Pathwise Optimality (1)
- Pauson-Khand (1)
- Paxillin (1)
- Pedestrian (1)
- Pedestrian FLow (1)
- Peer Feedback (1)
- Peltier (1)
- Pendlerverkehr (1)
- Penicillin-Bindeprotein 2x (1)
- Penicillin-resistance (1)
- Penicilline (1)
- Pentaphosphaferrocen (1)
- Pentenol (1)
- Peptide (1)
- Peptide synthesis (1)
- Peptidsynthese (1)
- Perceptual grouping (1)
- Performance (1)
- Periglazialraum (1)
- Periodic Homogenization (1)
- Permeabilität (1)
- Permutationsäquivalenz (1)
- Personal Comfort (1)
- Personalentwicklung (1)
- Personalisation (1)
- Pervasive health (1)
- Pestizid (1)
- Pestizidbelastung (1)
- Peugeot (1)
- Pfadintegral (1)
- Pflanzenfressende Insekten (1)
- Pflanzenkläranlage (1)
- Pflanzenphysiologie (1)
- Pflanzenschutz (1)
- Pflanzenzellkultivierung (1)
- Pflasterflächen (1)
- Phagozytose (1)
- Phase Transition (1)
- Phase Transition Effect (1)
- Phase Transition Effekt (1)
- Phase equilibria (1)
- Phase field method (1)
- Phasenfeld (1)
- Phasengrenzfläche (1)
- Phasenumwandlung (1)
- Phasenverhalten (1)
- Phasenwechselmaterial (1)
- Phasmatodea (1)
- Phenothiazin (1)
- Phenothiazinderivate (1)
- Phenylalanin (1)
- Phenylessigsäurederivate (1)
- Phenylpropanoide (1)
- Phenylpropene (1)
- Pheromon (1)
- Pheromone (1)
- Philosophy of Technology (1)
- Phonemwahrnehmung (1)
- Phosphaalkine (1)
- Phosphaheterocyclen (1)
- Phosphatasen (1)
- Phosphatidylinositolkinase <3-> (1)
- Phosphit (1)
- Phosphodiesterasehemmer (1)
- Phosphonit (1)
- Phosphor-Metall-Komplexe (1)
- Phosphor-Phosphor-Bindung (1)
- Phosphorkomplexe (1)
- Photochemischer Smog (1)
- Photoelektron (1)
- Photolumineszenz (1)
- Photonische Kristalle (1)
- Photonischer Kristall (1)
- Photoreaktionen (1)
- Photovoltaik (1)
- Photovoltaikanlage (1)
- Phycobiliproteine (1)
- Phycobiliproteinlyase (1)
- Phycoerythrin (1)
- Phyllopsora (1)
- Phylogeny (1)
- Phylogeographie (1)
- Physical activity monitoring (1)
- Physical spaces (1)
- Physiksimulation (1)
- Physiologie (1)
- Physiologische Psychologie (1)
- Piezoelectric Materials (1)
- Piezoelectricity (1)
- Piezokeramik (1)
- Pigment (1)
- Pilotmaßstab (1)
- Pilze (1)
- Planar Pressure (1)
- Planares Polynom (1)
- Planning (1)
- Planning Support Systems (1)
- Planu (1)
- Planungsgrundsätze (1)
- Planungskontrolle (1)
- Planungsprozess (1)
- Plasma / Dimension 2 (1)
- Plasma-Immersions-Implantation (1)
- Plasmamembran (1)
- Plasmaphysik (1)
- Plasmarandschicht (1)
- Plasmaschicht (1)
- Plasmaschwingung (1)
- Plasmatechnik (1)
- Plasmid (1)
- Plasmon (1)
- Plastizitätstheorie (1)
- Plate heat exchanger (1)
- Platformeconomy (1)
- Platon (1)
- Plattenextrusion (1)
- Plattenwärmeübertrager (1)
- Plattformökonomie (1)
- Pleurocapsales (1)
- Plug and Play (1)
- Pn (1)
- Pn ligands (1)
- Pn-ligands (1)
- PnAsm Liganden (1)
- Poisson noise (1)
- Poisson-Gleichung (1)
- Polarisierbarkeit zweiter Ordnung (1)
- Polariton (1)
- Policy implementation (1)
- Politikfeldanalyse (1)
- Poly( vinyl pyrrolidone) (1)
- Poly(butylene adipate-co-terephthalate) (PBAT) (1)
- Poly(lactic acid) (PLA) (1)
- PolyBoRi (1)
- Polyamid 66 (1)
- Polyamide (1)
- Polycycloarsan (1)
- Polyelektrolyt (1)
- Polyester- und Epoxidharze (1)
- Polyethylenterephthalat (PET) (1)
- Polyhydroxyalkanoate (PHA) (1)
- Polyme (1)
- Polymer (1)
- Polymer OR Verbund OR Füllstoff OR Klebstoff OR Epoxid OR Polyurethan OR innere Oberfläche (1)
- Polymer nanocomposites (1)
- Polymer-Metall-Verbund (1)
- Polymerisation (1)
- Polymerlösung (1)
- Polymers (1)
- Polymertribologie (1)
- Polymorphismus (1)
- Polynukleare Komplexe (1)
- Polyphosphol (1)
- Polystyrolschaumstoff (1)
- Polyurethan (1)
- Polyvinylpyrrolidon (1)
- Population Balance Equation (1)
- Population balance (1)
- Population balances (1)
- Populationsbilanzmodelle (1)
- Populationsstruktur (1)
- Populationswachstum (1)
- Porenwasserdruck (1)
- Portfolio Optimierung (1)
- Portfoliooptimierung (1)
- Positive Leadership (1)
- Positive Psychologie (1)
- Posttranskriptionelle Regulation (1)
- Potentialabschätzung (1)
- Potenzial (1)
- Potenzial- und Risikoanalyse (1)
- Potenzialanalyse (1)
- Potenzialbestimmung (1)
- Power Efficiency (1)
- Pragmatism (1)
- Praktiken (1)
- Praxeologie (1)
- Preimage of an ideal under a morphism of algebras (1)
- Prepreg-Autoklav-Fertigung (1)
- Prepreg-Technologie (1)
- Prepregtechnologie (1)
- Presstechnik (1)
- Pressure Drop (1)
- Prichard (1)
- Primary human Hepatocytes (1)
- Primärschlamm (1)
- Privacy (1)
- Privatwirtschaftslehre (1)
- Probabilistic (1)
- Probabilistik (1)
- Probust optimization (1)
- Process Data (1)
- Process-Structure-Property relationships (1)
- Processor Architecture (1)
- Processor Architectures (1)
- Produkt-Service Systeme (1)
- Produktentwicklung (1)
- Produktinnovation (1)
- Produktionstechnik (1)
- Professional development (1)
- Prognose (1)
- Programmverifikation (1)
- Projektentwicklung (1)
- Projektionsoperator (1)
- Projektive Fläche (1)
- Projektplanung (1)
- Proliferation (1)
- Promotor (1)
- Propenylfulven (1)
- Property checking (1)
- Property-Driven Design (1)
- Prostaglandinsynthase (1)
- Prostatakrebs (1)
- Protein phosphatases (1)
- Protein-Tyrosin-Kinasen (1)
- Protein/detergent complexes (1)
- Proteinaufreinigung (1)
- Proteincarbonyle (1)
- Proteinfaltung (1)
- Proteinkinase C (1)
- Proteinkinaseinhibitor (1)
- Proteinstruktur (1)
- Proteintransport (1)
- Protistan Plankton (1)
- Protocol Compliance (1)
- Protocol Composition (1)
- Protonentransf (1)
- Prototyp (1)
- Prototype (1)
- Prox-Regularisierung (1)
- Prozessanalyse (1)
- Prozessanalyse des Umformens (1)
- Prozessauslegung (1)
- Prozessvisualisierung (1)
- Präformationstheorie (1)
- Prävention (1)
- Prüfungen (1)
- Pseudomonas aeruginosa (1)
- Pseudomonas syringae (1)
- Psychoakustik (1)
- Psychologie (1)
- Psychology of Perception (1)
- Psychosocial theory (1)
- Psychosoziale Gesundheit (1)
- Pteridine (1)
- Public Transport (1)
- Pultrusion (1)
- Pump Intake Flows (1)
- Pumpe (1)
- Punktdefekte (1)
- Punktprozess (1)
- Push-Out-Test (1)
- Pyrolyse (1)
- Pädagogen an Sportschulen (1)
- QMC (1)
- QVIs (1)
- QoS (1)
- Quadratic Approximation (1)
- Quadratischer Raum (1)
- Qualitative Forschung (1)
- Quality (1)
- Qualitätsbewertung (1)
- Qualitätssicherung (1)
- Quantenchemie (1)
- Quantenchromodynamik (1)
- Quantencomputer (1)
- Quanteninformatik (1)
- Quantenmechanik (1)
- Quantenwell (1)
- Quantifizierung (1)
- Quantile autoregression (1)
- Quantilwertbestimmung (1)
- Quantisierungsfehler (1)
- Quantitative Bildanalyse (1)
- Quantization (1)
- Quartz (1)
- Quasi-Newton Methods (1)
- Quasi-Variational Inequalities (1)
- Quasiplastisches Verformungsverhalten (1)
- Quelldehnung (1)
- Quelldruck (1)
- Quellen (1)
- Quellung (1)
- Quellung in wässrigen Lösungen (1)
- Quellverhalten (1)
- Quenched and tempered steel (1)
- Querschnitt (1)
- Quest3D (1)
- Quicksort (1)
- Quorum Sensing (1)
- Quorum sensing (1)
- R-Beton (1)
- R. Fisher (1)
- REMPI (1)
- RH795 (1)
- RKHS (1)
- RNAi (1)
- RNS-Viren (1)
- RSK-Werte (1)
- RTL (1)
- RTM Prozess (1)
- Radfahrerverkehr (1)
- Radial Basis Functions (1)
- Radialwellendichtring (1)
- Radiative Cooling (1)
- Radikalliganden (1)
- Radio Resource Managements (1)
- Radiofrequenzidentifikation (1)
- Radiotherapy (1)
- Radsport (1)
- Radverkehr (1)
- Raman-Spektroskopie (1)
- Random testing (1)
- Random-Matrix-Theorie (1)
- Randwertproblem (1)
- Randwertproblem / Schiefe Ableitung (1)
- Rank test (1)
- Rapid-Chase Theory (1)
- Rarefied gas (1)
- Rate Gyro (1)
- Ratenabhängigkeit (1)
- Rauchen (1)
- Raucherentwöhnung (1)
- Rauheit auf Konturen (1)
- Rauheitsmessung (1)
- Raum als Ressource (1)
- Raumplanung - Mittelzentren - Kleinstädte (1)
- Rauschen (1)
- Ray Tracing (1)
- Ray tracing (1)
- Reachability (1)
- Reactive Absorption (1)
- Reactive extraction (1)
- Reaktionsdynamik (1)
- Reaktionsquerschnitt (1)
- Reaktive Sauerstoff Spezies (1)
- Reaktivität (1)
- Real-Time (1)
- Real-Time Control (1)
- Real-Time Systems (1)
- Realität (1)
- Realtime (1)
- Receptor design (1)
- Rechtecksgitter (1)
- Recognition (1)
- Rectilinear Grid (1)
- Recyclingverfahren (1)
- Red Sea (1)
- Redundanzvermeidung (1)
- Referenzarchitektur (1)
- Reflexionsspektroskopie (1)
- Regelkennlinie (1)
- Regelung (1)
- Regenwurm (1)
- Regenüberlaufbecken (1)
- Regime Shifts (1)
- Regime-Shift Modell (1)
- Regionale Kooperation (1)
- Regionale Netzwerke (1)
- Regionalpark (1)
- Regularisierung / Stoppkriterium (1)
- Regularität (1)
- Regularization / Stop criterion (1)
- Regularization methods (1)
- Regulatorgen (1)
- Regulatory gene search (1)
- Reifung (1)
- Reinforcement Learning (1)
- Reinigungsleistung (1)
- Reinigungswirkung (1)
- Rekollektion (1)
- Rekonstruktion (1)
- Relative effect potencies (REPs) (1)
- Reliability (1)
- Repeat (1)
- Repeated-Batch (1)
- Repeats (1)
- Representation (1)
- Repression (1)
- Requirements engineering (1)
- Resilienz (1)
- Response-Zeit (1)
- Ressourcenschonung (1)
- Restricted Regions (1)
- Retention Soil Filter (1)
- Retroviren (1)
- Retrovirus (1)
- Revitalisierung (1)
- Revitalisierung/Modernisierung (1)
- Rhabdomyolyse (1)
- Rhein-Main-Gebiet (1)
- Rheinland-Pfalz (1)
- Rhenium (1)
- Rheologie (1)
- Rho (1)
- Rho-Proteine (1)
- Rhodium (1)
- Rhodiumcluster (1)
- Rhodiumkomplexe (1)
- Richtlinien für integrierte Netzgestaltung (1)
- Riemannian manifolds (1)
- Riemannsche Mannigfaltigkeiten (1)
- Riesling (1)
- Rigid Body Motion (1)
- Ringschlussmetathese (1)
- Ringversuch (1)
- Risikobewertung (1)
- Risikomaße (1)
- Risikotheorie (1)
- Risk Assessment (1)
- Risk Management (1)
- Risk Measures (1)
- Risk Sharing (1)
- Risk assessment (1)
- Rissbreite (1)
- Robot Control (1)
- Roboter (1)
- Robotic Manipulators (1)
- Robust smoothing (1)
- Rohrsanierung (1)
- Rohrvortrieb (1)
- Rohstoffhandel (1)
- Rohstoffindex (1)
- Rollreibung (1)
- Rollreibung und -verschleiß (1)
- Rollstuhl (1)
- Rombopak (1)
- Rote Traube (1)
- Routing (1)
- Rust effector (1)
- Ruthenium-Phosphor-Cluster (1)
- Ruthenium-Vinyliden (1)
- Ruß / Anorganisches Pigment (1)
- Rydberg molecule (1)
- Räumliche Differenzierung (1)
- Räumliche Planung (1)
- Röntgenfluoreszenzanalyse (1)
- Röntgenstrukturanalyse (1)
- Röntgenstrukturen (1)
- Rückmeldung (1)
- Rütteltisch (1)
- S. pneumoniae (1)
- S1P (1)
- SAHARA (1)
- SBA-15 (1)
- SBR-Verfahren (1)
- SCAD (1)
- SCR-Verfahren (1)
- SDL extensions (1)
- SDZ IMM125 (1)
- SFK-Materialmodell (1)
- SHCC (1)
- SIMERO (1)
- SM-SQMOM (1)
- SMS (1)
- SOEP (1)
- SPARQL (1)
- SPARQL query learning (1)
- SQMOM (1)
- SQUID-Magnetometer (1)
- SUc(2)-Eichfelder (1)
- SWARM (1)
- Safety (1)
- Safety Analysis (1)
- Sagnac-Effekt (1)
- Salzlösung (1)
- Sandmeyer Trifluormethylierung (1)
- Sandwiching algorithm (1)
- Sandwichkomplex (1)
- Sandwichtheorie (1)
- Sandwichverbindung (1)
- Sandwichwand (1)
- Satelliten-DNS (1)
- Satellitenfernerkundung (1)
- Sauerstoffradikal (1)
- Sauerstoffverbrauch (1)
- Saugspannung (1)
- Saugspannungsmessung (1)
- Scalar (1)
- Scale function (1)
- Scanning Electron Microscope (1)
- Scattering Light Sensor (1)
- Scavenger (1)
- Schadensmechanik (1)
- Schadenspotenzialanalyse (1)
- Schadenstoleranz (1)
- Schale (1)
- Schalenringelement (1)
- Schaltwerk (1)
- Schaum (1)
- Schaumzerfall (1)
- Scheduler (1)
- Schelling (1)
- Schema <Informatik> (1)
- Schematisation (1)
- Schematisierung (1)
- Scherer (1)
- Schichtstruktur (1)
- Schiefe Ableitung (1)
- Schlagfrequenz (1)
- Schlauch (1)
- Schlauchleitungen (1)
- Schluss (1)
- Schmierstoff (1)
- Schnelligkeit (1)
- Schnellkraft (1)
- Schnittstellen (1)
- Schrittmotor (1)
- Schrumpfen (1)
- Schub (1)
- Schubspannung (1)
- Schulbau (1)
- Schule (1)
- Schwache Formulierung (1)
- Schwache Konvergenz (1)
- Schwache Lösu (1)
- Schwarze Johannisbeere (1)
- Schwefeldioxid (1)
- Schwermetallakkumulation (1)
- Schwermetallaufnahme (1)
- Schwermetallbelastung (1)
- Schwinden (1)
- Schwingermüdung (1)
- Schwingfestigkeit (1)
- Schwingungsisolierung (1)
- Schüttgutsilo (1)
- Scientific Community Analysis (1)
- Scientific Computing (1)
- Screening (1)
- Second Order Conditions (1)
- Sediment gas storage (1)
- Sedimentation (1)
- Sedimentation Tank (1)
- Sedimentationsbecken (1)
- See (1)
- Sekretomanalyse (1)
- Sekundärstruktur (1)
- Selbstbestimmung (1)
- Selbstfahrende Elektroshuttle (1)
- Selbstorganisation (1)
- Selbstreguliertes-Lernen (1)
- Selektive Monoarylierung (1)
- Self-directed learning (1)
- Self-splitting objects (1)
- Self-supervised Learning (1)
- Semantic Communications (1)
- Semantic Index (1)
- Semantic Wikis (1)
- Semantische Modellierung (1)
- Semantische Reasoner (1)
- Semantisches Datenmodell (1)
- Semi-Markov-Kette (1)
- Semi-infinite optimization (1)
- Semichinonat (1)
- Sendesignalvorverarbeitung (1)
- Sensing (1)
- Sensor Fusion (1)
- Sensoren (1)
- Sensors (1)
- Sequencing Batch Reactor (1)
- Sequenz (1)
- Sequenzieller Algorithmus (1)
- Serienfertigung (1)
- Serinprotease HtrA (1)
- Serinproteinasen (1)
- Serotyp (1)
- Serotyptrandformation (1)
- Serre functor (1)
- Serumalbumine (1)
- Service Access Points (1)
- Service-oriented Architecture (1)
- Services (1)
- Settlement Appropriateness and Thresholds (1)
- Shallow Water Equations (1)
- Shape Memory Alloy Hybrid Composite (1)
- Shape optimization (1)
- Shared Resource Modeling (1)
- Sheet extrusion (1)
- Shrinking smart (1)
- SiO2 (1)
- Sicherheitsanalyse (1)
- Sicherheitskonzept (1)
- Sicherheitskultur (1)
- Sicherheitstechnik (1)
- Siedlungsklima (1)
- Siedlungsplanung (1)
- Signaling (1)
- Signalisierung (1)
- Silanisierung (1)
- Silanization (1)
- Silberkomplexe (1)
- Silicium (1)
- Silicium / Amorpher Zustand (1)
- Siliciumcarbid (1)
- Siliciumdioxid (1)
- Silicon dioxide nanoparticles (1)
- Silicones (1)
- Silikonklebstoff (1)
- Silo (1)
- Similarity Join (1)
- Similarity Joins (1)
- Simplex-Algorithmus (1)
- Simulation acceleration (1)
- Simulationen (1)
- Simulationsdaten (1)
- Simulationsmodelle (1)
- Single Cell Analysis (1)
- Singly Occupied Molecular Orbital (SOMO) (1)
- Singular <Programm> (1)
- Singularity theory (1)
- Singularität (1)
- Singularitätentheorie (1)
- Sinkgeschwindigkeit (1)
- Skalar (1)
- Skelettmuskel (1)
- Skills (1)
- Slender body theory (1)
- Smart City (1)
- Smart Device (1)
- Smart Materials (1)
- Smart Mobile Device (1)
- Smart Production (1)
- Smart Textile (1)
- Smartphone (1)
- Smartphoneanalytik (1)
- Smartphones (1)
- Smartwatch (1)
- Sobolev spaces (1)
- Sobolev-Raum (1)
- Social movement (1)
- Socio-Semantic Web (1)
- Socs-3 (1)
- Sodium methacrylate (1)
- Soft Spaces (1)
- Software (1)
- Software Comprehension (1)
- Software Dependencies (1)
- Software Engineering (1)
- Software Evolution (1)
- Software Maintenance (1)
- Software Measurement (1)
- Software Testing (1)
- Software Visualization (1)
- Software engineering (1)
- Software transactional memory (1)
- Software-Architektur (1)
- Softwarearchitektur (1)
- Softwareergonomie (1)
- Softwaremetrie (1)
- Softwareproduktionsumgebung (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Softwarewiederverwendung (1)
- Sol-Gel (1)
- Sol-Gel-Verfahren (1)
- Solvatochromie (1)
- Solvency II (1)
- Solvency-II-Richtlinie (1)
- Sommersmog (1)
- Sonotroden (1)
- Sorption (1)
- Sorptionisotherme (1)
- Soudness (1)
- Sound Simulation (1)
- Soziale Differenzierung (1)
- Soziale Infrastruktur (1)
- Soziale Stadt (1)
- Sozialer Wohnungsbau (1)
- Sozialraumanalyse (1)
- Soziologie (1)
- Spaltströmung (1)
- Spanende Bearbeitung (1)
- Spanische Kolonialzeit (1)
- Spanish Colonial Period (1)
- Spannbeton (1)
- Spannungs-Dehn (1)
- Spannungsanalyse (1)
- Spannungsfeld (1)
- Spannungsregelung (1)
- Spatial Econometrics (1)
- Spatial Statistics (1)
- Spatial regression models (1)
- Species sensitivity distribution (1)
- Spectral Method (1)
- Spectral theory (1)
- Spectrum Management System (1)
- Spectrum Sharing (1)
- Speech recognition (1)
- Speed (1)
- Speed management (1)
- Speicher (1)
- Spektralanalyse <Stochastik> (1)
- Spektroskopie (1)
- Spektrumnutzungsregeln (1)
- SphK2 (1)
- Spherical Fast Wavelet Transform (1)
- Spherical Location Problem (1)
- Sphärische Approximation (1)
- Sphärische Rohre (1)
- Spiders (1)
- Spiegel (1)
- Spiking Neural ADC (1)
- Spin Crossover (1)
- Spin trapping (1)
- Spinat (1)
- Spinfalle (1)
- Spinnen (1)
- Spiralrillenlager (1)
- Spiritual leadership (1)
- Spirituality (1)
- Spline-Approximation (1)
- Split Operator (1)
- Splitoperator (1)
- Sport (1)
- Sprachbewusstheit (1)
- Sprachdefinition (1)
- Sprache und Kommunikation (1)
- Sprachentwicklung (1)
- Sprachliche Bildung (1)
- Sprachliche Differenz (1)
- Sprachlicher Markt (1)
- Sprachliches Kapital (1)
- Sprachpolitik (1)
- Sprachprofile (1)
- Sprachvergleich (1)
- Spritzgusstechnologie (1)
- Sprung-Diffusions-Prozesse (1)
- Sprungkraft (1)
- Sprödbru (1)
- Spumaviren (1)
- Stabile Vektorbundle (1)
- Stabilität (1)
- Stable vector bundles (1)
- Stadtbahn (1)
- Stadtblock (1)
- Stadterneuerung (1)
- Stadtfest (1)
- Stadtklima (1)
- Stadtsimulation (1)
- Stahl/TP-FKV Verbindung (1)
- Stahlbau (1)
- Stahlbetondecke (1)
- Stahlbetonkonstruktionen (1)
- Stahlbetonplatten (1)
- Stahlfaserbeton (1)
- Stahlverbundbau (1)
- Stahlverbunddecke (1)
- Stahlverbundkonstruktion (1)
- Stahlversagen (1)
- Stamp forming (1)
- Standard basis (1)
- Standortprobleme (1)
- Stapedektomie (1)
- Stapedotomie (1)
- Stapelfaserorganobleche (1)
- State Estimation (1)
- Static Program Analysis (1)
- Static light scattering (1)
- Stationary Light (1)
- Stationäres Licht (1)
- Statistical Independence (1)
- Statistics (1)
- Statistische Schlussweise (1)
- Steady state (1)
- Stegplatte (1)
- Stent (1)
- Step-Scan FTIR-Technik (1)
- Step-scan-FTIR-Spektroskopie (1)
- Stereotyp (1)
- Stereotype (1)
- Sterische Hinderung (1)
- Sternpunkterdung (1)
- Steuer (1)
- Steuerungstheorie (1)
- Stickoxide (1)
- Stickstoff (1)
- Stickstoffaktivierung (1)
- Stickstoffmonoxid (1)
- Stickstoffmonoxidradikal (1)
- Stilbenderivate (1)
- Stilbene derivatives (1)
- Stimmungsbasierte Musikempfehlungen (1)
- Stochastic Dependence (1)
- Stochastic Impulse Control (1)
- Stochastic Network Calculus (1)
- Stochastic Processes (1)
- Stochastische Inhomogenitäten (1)
- Stochastische Processe (1)
- Stochastische Zinsen (1)
- Stochastische optimale Kontrolle (1)
- Stochastischer Automat (1)
- Stochastischer Prozess (1)
- Stochastisches Modell (1)
- Stoffgesetz (1)
- Stoffwechsel (1)
- Stokes Equations (1)
- Stokes-Gleichung (1)
- Stop- und Spieloperator (1)
- Stormwater Treatment (1)
- Stormwater treatment (1)
- Stornierung (1)
- Stoßdämpfer (1)
- Strafstoß (1)
- Strahlentherapie (1)
- Strahlungstransport (1)
- Strategie (1)
- Strategieentwicklung (1)
- Strategische Umweltprüfung (1)
- Straßenentwässerung (1)
- Streaming (1)
- Streptococcus mitis (1)
- Streptococcus oralis (1)
- Stress (1)
- Stress management (1)
- Stressbewältigung (1)
- Stressmessung (1)
- Streulicht (1)
- Streulichtsensor (1)
- Structural Behaviour (1)
- Structural Reliability (1)
- Structure-property relationships (1)
- Struktur-Wirkungs-Abhängigkeit (1)
- Strukturation (1)
- Strukturgleichungsmodellierung (1)
- Strukturiertes Finanzprodukt (1)
- Strukturiertes Gitter (1)
- Strukturoptimierung (1)
- Strukturwandel (1)
- Strömung (1)
- Strömungsdynamik (1)
- Student types (1)
- Studie (1)
- Studium (1)
- Styrene (1)
- Städtebau (1)
- Städtebauförderung (1)
- Subgradient (1)
- Subjektive Perspektiven (1)
- Sublimation (1)
- Subset Simulationen (1)
- Substitutionsreaktion (1)
- Suburbane Räume (1)
- Success Run (1)
- Sulfaterkennung (1)
- Sulfonaterkennung (1)
- Sulfotransferasen (1)
- Superior olivary complex (1)
- Supply Chain (1)
- Supramolecular chemistry (1)
- Surface Reconstruction (1)
- Surface-Hopping (1)
- Survival Analysis (1)
- Susceptor (1)
- Suspension (1)
- Sustainability (1)
- Sustainable architecture (1)
- Suzuki-Miyaura-Reaktion (1)
- Swakopmund (1)
- Swelling equilibrium in aqueous solution (1)
- Swift Heavy Ion (1)
- Switched Linear System (1)
- Symbolic Methods (1)
- Symbolic execution (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- Symmetry (1)
- Synchronisation zyklischer Prozesse (1)
- Synchronnetze (1)
- Synchronous Control Asynchronous Dataflow (1)
- Synthese (1)
- System (1)
- System Identification (1)
- SystemC (1)
- Systemarchitektur (1)
- Systematics (1)
- Systematik (1)
- Systemdesign (1)
- Systementwurf (1)
- Systemic Constructivist Approach (1)
- Systemidentifikation (1)
- Systemische Konstruktivistischen Ansatz (1)
- Systems Engineering (1)
- Systemtheorie (1)
- Systemumstellung (1)
- Sägezahneffekt (1)
- T cells (1)
- T-Lymphozyt (1)
- T-Zellen (1)
- TCDD (1)
- TDN (1)
- TDP1 (1)
- TEAC (1)
- TEOSQ (1)
- TIPARP (1)
- TMS (1)
- TPC Bauteile (1)
- TRPC6 (1)
- TRPV5 (1)
- TRPV6 (1)
- TSA (1)
- TTEthernet (1)
- TVET teachers’ education (1)
- Tablet-PC (1)
- Tagesrhythmus (1)
- Tail Dependence Koeffizient (1)
- Taktrückgewinnungsschaltungen (1)
- Talent (1)
- Talentauswahl (1)
- Talentidentifikation (1)
- Tandemreaktion (1)
- Task and Trajectory Planning (1)
- Task-based (1)
- Tastwahrnehmung (1)
- Taylor-Couette (1)
- Technik (1)
- Technikbegriff (1)
- Technikphilosophie (1)
- Technische-Zeichnung (1)
- Technologieakzeptanz (1)
- Teichonsäure (1)
- Teilgesättigte Böden (1)
- Teilhabe (1)
- Teilsignalisierung (1)
- Temperaturverteilung (1)
- Temporal Decoupling (1)
- Temporal Logic (1)
- Temporal Variational Autoencoders (1)
- Temporal data processing (1)
- Tensiometer (1)
- Tension-Stiffening (1)
- Tensor (1)
- Tensorfeld (1)
- Tesselation (1)
- Test for Changepoint (1)
- Testgüte (1)
- Tethered Machines (1)
- Tetrachlordibenzo-p-dioxin (1)
- Tetraeder (1)
- Tetraedergi (1)
- Tetrahedral Grid (1)
- Tetrahedral Mesh (1)
- Tetrahedran (1)
- Tetrahydrofuran (1)
- Tetrahydrofuranderivate (1)
- Tetrahydropyran (1)
- Tetrahydropyranderivate (1)
- Tetraphosphabicyclobutan (1)
- Textilbewehrung (1)
- Textual CBR (1)
- Texturanalyse (1)
- Texture Orientation (1)
- Texturrichtung (1)
- Thecla (1)
- Thekla (1)
- Thelotrema (1)
- Thematic analysis (1)
- Themenbasierte Empfehlungen von Ressourcen (1)
- Theoretische Physik (1)
- Thermal conductive polymer composites (1)
- Thermisch leitfähige Polymerkomposite (1)
- Thermische Harnstoffaufbereitung (1)
- Thermische Simulation (1)
- Thermodynamisches Gleichgewicht (1)
- Thermoelektrische Kühlwand (1)
- Thermolyse (1)
- Thermomechanik (1)
- Thermomechanische Behandlung (1)
- Thermophoresis (1)
- Thermoplast Blends (1)
- Thermoplast-Elastomer- und Duromer-Matrizes (1)
- Thermoplast-Tapelegeverfahren (1)
- Thermoplaste (1)
- Thermoplastic (1)
- Thermoplastische Faserverbundwerkstoffe (1)
- Thermoset (1)
- Thiazolidindione (1)
- Thin film approximation (1)
- Thiophen (1)
- Thylakoid (1)
- Tichonov-Regularisierung (1)
- Tiflis (1)
- Tight junction (1)
- Time series classification (1)
- Time-Series (1)
- Time-Triggered (1)
- Time-delay-Netz (1)
- Time-motion-Ultraschallkardiographie (1)
- Time-slotted (1)
- Tire-soil interaction (1)
- Titanium complex (1)
- ToF (1)
- Top-down (1)
- Topic-based Resource Recommendations (1)
- Topografische Gefährdungsanalyse (1)
- Topoisomerasegifte (1)
- Topoisomerasehemmstoffe (1)
- Topoisomerasen (1)
- Topologie (1)
- Topologiefehler (1)
- Topologieoptimierung (1)
- Topology optimization (1)
- Topology visualization (1)
- Toxifizierung (1)
- Toxikokinetik (1)
- Toxikologie (1)
- Toxizität (1)
- Tracking (1)
- Traditionelle Chinesische Lebensmittel (1)
- Traffic flow (1)
- Tragfähigkeit (1)
- Tragverhalten (1)
- Trainer im Hochleistungssport (1)
- Trajektorie <Kinematik> (1)
- Trajektorienplanung (1)
- Traktor (1)
- Trans-European Transport Networks (1)
- Transaction Level Modeling (TLM) (1)
- Transaction costs (1)
- Transaktionen (1)
- Transeuropäische Verkehrsnetze (1)
- Transfektion (1)
- Transferhydrierung (1)
- Transferred proteins (1)
- Transformation <Genetik> (1)
- Transformationslän (1)
- Transient modeling (1)
- Transient state (1)
- Transkriptomanalyse (1)
- Transparent-leitendes Oxid (1)
- Transparente Wärmedämmung (1)
- Transport Protocol (1)
- Transskriptionsaktivität (1)
- Traubenqualität (1)
- Traubensortierung (1)
- Traversability Analysis (1)
- Trendsport (1)
- Trendsports (1)
- Trennkanalisation (1)
- Trennschärfe <Statistik> (1)
- Triaxialgerät (1)
- Tribologie der Kunststoffe (1)
- Tribology (1)
- Trifluormethylierung (1)
- Tripeldeckerartige Strukturen (1)
- Tripeldeckerkomplexe (1)
- Triphosphol (1)
- Triple-decker li (1)
- Triplettzustand (1)
- Triterpene (1)
- Trockengewicht (1)
- Trockenharnstoff (1)
- Tropfenkoaleszenz (1)
- Tropfenzerfall (1)
- Tropical Grassmannian (1)
- Tropical Intersection Theory (1)
- Tropischer Regenwald (1)
- Tryptophan-Halogenasen (1)
- Trägerbohlwand (1)
- Trägerfrequenzmessung (1)
- Tube Drawing (1)
- Tumor (1)
- Tumorassoziierter Trypsininhibitor (1)
- Tumorzytogenetik (1)
- Turnover <Ökologie> (1)
- Two component system (1)
- Two-Phase System (1)
- Two-Scale Convergence (1)
- Two-phase flow (1)
- Type building (1)
- Typenbildende Qualitative Inhaltsanalyse (1)
- Typologie (1)
- Tyrosyl-DNA-Phosphodiesterase 1 (TDP1) (1)
- UCP2 (1)
- UCP2-Protein (1)
- UDP-Glucuronosyltranferase (1)
- UDP-Glucuronosyltranferasen (1)
- UHPC (1)
- UML Activity (1)
- UMTS (1)
- UTRA (1)
- UV-Vis Spektroskopie (1)
- UV-Vis-Spektroskopie (1)
- UV/VIS Spektrometrie (1)
- Ubiquitous Computing (1)
- Ubiquitous system (1)
- Ultrafeinkörnig (1)
- Ultrafiltration (1)
- Ultrahochleistungsbeton (1)
- Ultrapräzisionsdrehmaschine (1)
- Ultraschall-Preformen (1)
- Ultraschalldispergierung (1)
- Ultraschallkardiographie (1)
- Ultraschallschweißen (1)
- Ultraviolettspektroskopie (1)
- Umgebungslärm (1)
- Umkehrosmose (1)
- Umweltanalytik (1)
- Umweltgerechtigkeit (1)
- Umweltinformatik (1)
- Umweltpsychologie (1)
- Umweltverträglichkeitsprüfung (1)
- Umweltwirkungen (1)
- Uncertainty Estimation (1)
- Undecaphosphor (1)
- Undersampling (1)
- Unobtrusive instrumentations (1)
- Unorganized Data (1)
- Unreinheitsfunktion (1)
- Unspezifische Adsorption (1)
- Unstrukturiertes Gitter (1)
- Unterabtastung (1)
- Unterdrückung (1)
- Unterholz (1)
- Untermannigfaltigkeit (1)
- Unterrichtsanalyse (1)
- Unterrichtsforschung (1)
- Unterrichtsinteraktion (1)
- Unterrichtsorganisation (1)
- Unterrichtssituation (1)
- Upper bound (1)
- Upwind-Verfahren (1)
- Uracil (1)
- Urban Flooding (1)
- Urban Water Supply (1)
- Urban design (1)
- Urban sprawl (1)
- UrbanSim (1)
- Usability (1)
- Usabiliy (1)
- Usage modeling (1)
- User Model (1)
- User-Centred Product Development (1)
- User-Experience (1)
- Ussing-Kammer (1)
- Ussing-chamber (1)
- Utility (1)
- V-Stoffe (1)
- VALBM (1)
- VELVET (1)
- VIACOBI (1)
- VOF Model (1)
- VOF Modell (1)
- VPA (1)
- VSCPT (1)
- VTK (1)
- Vakuole (1)
- Vakuumpumpe (1)
- Vakuumverdampfung (1)
- Validierung (1)
- Valproinsäure (1)
- Value at Risk (1)
- Value at risk (1)
- Value-at-Risk (1)
- Values in Action (VIA) (1)
- Vancoresmycin (1)
- Vapor-liquid equilibrium (1)
- Variabilität (1)
- Variation (1)
- Variational autoencoders (1)
- Variationsrechnung (1)
- Vector (1)
- Vector Field (1)
- Vectorfield approximation (1)
- Vegetationsentwicklung (1)
- Vektor (1)
- Vektor <Genetik> (1)
- Vektorfeldapproximation (1)
- Vektorfelder (1)
- Vektorkugelfunktionen (1)
- Verankerung (1)
- Verantwortung (1)
- Verantwortungsgemeinschaft (1)
- Verarbeitungstechnik (1)
- Verband der Automobilindustrie (1)
- Verbrennungsmotor (1)
- Verbund (1)
- Verbunddübel (1)
- Verbundguss (1)
- Verbundorganisation (1)
- Verbundtragfähigkeit (1)
- Verbundversagen (1)
- Verdampfung (1)
- Verdeckung (1)
- Verdichter (1)
- Verdunstungsleistung (1)
- Vererbung (1)
- Verfahren 8.3 (1)
- Vergütungsstahl (1)
- Verification (1)
- Verkehrsfläche (1)
- Verkehrsflächen (1)
- Verkehrsnetz (1)
- Verkehrspolitik (1)
- Verkehrsregelung (1)
- Verkehrssignalanlage (1)
- Verkehrsverbund (1)
- Verkehrsverbünde (1)
- Verkehrswissenschaft (1)
- Vermittlung (1)
- Verschleißmodelle (1)
- Verschwindungsatz (1)
- Versicherung (1)
- Versickerung (1)
- Versickerungsrate (1)
- Versorgungsaufgabe (1)
- Verstellleitgitter (1)
- Versuchsanlage (1)
- Verteilnetz (1)
- Verteilungskoeffizient (1)
- Vertical Flow Filter (1)
- Vertrautheit (1)
- Verwaltungsschale (1)
- Verzerrungstensor (1)
- Verzweigung <Mathematik> (1)
- Verzögerte Fluoreszenz (1)
- Vesikel (1)
- Vielfalt in der Schule (1)
- Vierte Nebengruppe (1)
- Vinyl-2-pyrrolidon (1)
- Vinylallene (1)
- Vinylcyclopropan (1)
- Vinylester (1)
- Virotherapie (1)
- Virtual Environments (1)
- Virtual Prototyping (1)
- Virtual measurement (1)
- Virtual spaces (1)
- Virtuelle Realität (1)
- Virulence (1)
- Virulenzfaktor (1)
- Virulenzfaktoren (1)
- Virusübertragung (1)
- Viscosity Adaptive Lattice Boltzmann Method (1)
- Viskoelastische Flüssigkeiten (1)
- Viskose Transportschemata (1)
- Viskosität (1)
- Visual Queries (1)
- Visualization Theory (1)
- Visuelle Wahrnehmung (1)
- Vitamin C (1)
- Vitamin C-Derivate (1)
- Vitamin-D (1)
- Vitamin-D-Rezeptor (1)
- Vliese (1)
- Vocational education and training (1)
- Volatilität (1)
- Volatilitätsarbitrage (1)
- Voltage Control (1)
- Volume rendering (1)
- Volumen-Rendering (1)
- Volumenänderung (1)
- Vorkonditionierer (1)
- Voronoi diagram (1)
- Vorschubantrieb (1)
- Vortex Separator (1)
- Vorverarbeitung (1)
- Vorwärts-Rückwärts-Stochastische-Differentialgleichung (1)
- Völklingen (1)
- W.M.Predtetschenski-A.I.Milinski (1)
- WCET (1)
- WLI (1)
- WMS (1)
- Wabenplatte (1)
- Waddington (1)
- Wahrnehmungsförderung (1)
- Wahrnehmungslernen (1)
- Wahrnehmungspsychologie (1)
- Wahrnehmungsschulung (1)
- Wahrnehmungstraining (1)
- Waldfragmentierung (1)
- Waldökosystem (1)
- Walkability (1)
- Wanderungsmotive (1)
- Wasserstoff-ATPase (1)
- Wasserstoffbrückenbindung (1)
- Wasserstoffionenkonzentration (1)
- Wassertransport (1)
- Wasserzementwert (1)
- Water (1)
- Water reservoir management (1)
- Water resources (1)
- Wave Based Method (1)
- Wavelet-Theorie (1)
- Wavelet-Theory (1)
- Weak Memory Model (1)
- Weakest-link model (1)
- Wearable Computing (1)
- Wedderburn number (1)
- Weinrebe (1)
- Weinwirtschaft (1)
- Weismann (1)
- Weiterentwicklung (1)
- Weißer Phosphor (1)
- Weißes Rauschen (1)
- Weißlichtinterferometer (1)
- Wellenlängenmodulation (1)
- Wellenverschleiß (1)
- Werkstoffermüdung (1)
- Werkstoffprüfung (1)
- Wert (1)
- Wetland Conservation (1)
- Wetting (1)
- White Noise (1)
- Wi-Fi (1)
- Wide-column stores (1)
- Wiederverwertung Altgummipartikel (1)
- Wilhelm Rieger (1)
- Winsor-System (1)
- Winsor-system (1)
- Wirbelabscheider (1)
- Wirbelabtrennung (1)
- Wirbelströmung (1)
- Wirbelsäule (1)
- Wirklichkeit (1)
- Wirkstoffe (1)
- Wirkungsanalyse (1)
- Wirkungsgrad (1)
- Wirtschaftsförderung (1)
- Wirtsspezifität (1)
- Wissen (1)
- Wissensbasiertes System (1)
- Wissenserwerb (1)
- Wissensgesellschaft (1)
- Wissensmanagement (1)
- Wissenstransfer (1)
- Wohngebäudebestandsmodell (1)
- Wohnimmobilien aus den 1970er Jahren (1)
- Wohnstandortverhalten der Bevölkerungsgruppe 60plus (1)
- Wohnungsnachfrage (1)
- Wohnungsunternehmen (1)
- Wolff (1)
- Wolfram (1)
- Worst-Case (1)
- Wortschatz (1)
- Wurzelexsudate (1)
- Wurzelreaktion (1)
- Wälzlager (1)
- Wärmeleitfähigkeit (1)
- Wärmeleitung (1)
- Wärmepumpe (1)
- Wärmeübergang (1)
- Wärmeübertragung (1)
- Wöhlerlinie (1)
- XDBMS (1)
- XEC (1)
- XFEM (1)
- XMCD (1)
- XML (1)
- XML query estimation (1)
- XML summary (1)
- Xerogel (1)
- Xerogele (1)
- Xiphinema index (1)
- Yaglom limits (1)
- Yaroslavskiy-Bentley-Bloch Quicksort (1)
- Yeast-Two-Hybrid-System (1)
- Zahnspulenwicklung (1)
- Zeitfestigkeit (1)
- Zeitintegrale Modelle (1)
- Zeitraffende Alterung (1)
- Zeitreihe (1)
- Zeitsynchronisierung (1)
- Zelle / Physiologie (1)
- Zellmigration (1)
- Zellskelett (1)
- Zellularer Ansatz (1)
- Zellzyklus (1)
- Zentralnervensystem (1)
- Zentrenprobleme (1)
- Zentrieren (1)
- Zentrifugalkraft (1)
- Zeolite MCM-71 (1)
- Zeolite SSZ-53 (1)
- Zeolite UTD-1 (1)
- Zeolith ITQ-21 (1)
- Zeolith M41S (1)
- Zeolith MCM-71 (1)
- Zeolith SSZ-53 (1)
- Zeolith UTD-1 (1)
- Zeolith Y (1)
- Zeolith ZSM12 (1)
- Zero-dimensional schemes (1)
- Zertifikat (1)
- Zertifizierung (1)
- Zielverfolgung (1)
- Zigarettenrauchen (1)
- Zigarrenrauchen (1)
- Zink (1)
- Zinkkomplexe (1)
- Zirconium complex (1)
- Zopfgruppe (1)
- Zuckertransporter (1)
- Zufälliges Feld (1)
- Zug- Druckversuch (1)
- Zugbeanspruchung (1)
- Zugesicherte Eigenschaft (1)
- Zugfestigkeit (1)
- Zugkraft (1)
- Zugkriechen (1)
- Zugversuch (1)
- Zustandsgleichung (1)
- Zustandsüberwachung (1)
- Zuverlässigkeitskonzept (1)
- Zwang (1)
- Zwei-Komponenten System (1)
- Zwei-Komponenten-System (1)
- Zweikomponentensystem (1)
- Zweiphasenströmung (1)
- Zweiphasensysteme (1)
- Zweiphotonenspektroskopie (1)
- Zweitspracherwerb (1)
- Zwischenmolekulare Kraft (1)
- Zyklische Belastung (1)
- Zyklischer Schwellversuch (1)
- Zyklischer Triaxialversuch (1)
- Zyklischer Wechselversuch (1)
- Zylinderblock (1)
- Zytokine (1)
- Zytotoxizität (1)
- [2.2.1]-bicyclic substituents (1)
- [2.2.1]-bicyclisch (1)
- abc transporter (1)
- abgeleitete Kategorie (1)
- abgeschlossene Population (1)
- absorption (1)
- accessibility (1)
- acetate (1)
- acetylcholine receptor (1)
- acidification (1)
- acoustic modeling (1)
- actively steered implement (1)
- activity coefficient (1)
- acyclische Cucurbiturile (1)
- adaptive Antennen (1)
- adaptive algorithm (1)
- adaptive antennas (1)
- additiv-subtraktive Prozesskette (1)
- adenylate (1)
- adhesion (1)
- adhesive (1)
- adhesive bonding (1)
- adhesive joints in concrete (1)
- adhesives cure-behaviour aluminium (1)
- adjoint method (1)
- adjungierte (1)
- adulthood (1)
- aerobe Oxidation (1)
- affective user interface (1)
- affine arithmetic (1)
- affinity chromatographie (1)
- affinity chromatography (1)
- aging (1)
- air-bearing (1)
- aktiver Hybridverbund (1)
- algebraic attack (1)
- algebraic correspondence (1)
- algebraic function fields (1)
- algebraic geometry (1)
- algebraic number fields (1)
- algebraic topology (1)
- algebraische Korrespondenzen (1)
- algebraische Topologie (1)
- algebroid curve (1)
- alkali (1)
- alkin (1)
- alpha shape method (1)
- alternating minimization (1)
- alternating optimization (1)
- aluminium (1)
- aluminum (1)
- amid (1)
- amide (1)
- amorphes Silizium (1)
- analoge Mikroelektronik (1)
- analysis of algorithms (1)
- androgene (1)
- angewandte Mathematik (1)
- angewandte Topologie (1)
- anharmonic CH modes (1)
- anharmonic vibrations (1)
- anion recognition (1)
- anisotropen Viskositätsmodell (1)
- anisotropic viscosity (1)
- anoxia (1)
- anserine (1)
- anthocyanidins (1)
- anthropogenic effects (1)
- anti-inflammatorisch (1)
- anti-inflammatory (1)
- antigenspezifische Immunsuppression (1)
- antioxidant gene expression (1)
- antioxidative Genexpression (1)
- apple polyphenols (1)
- applied mathematics (1)
- apprehension (1)
- aquatic (1)
- aqueous solution (1)
- arachidonic acid (1)
- arbitrary Lagrangian-Eulerian methods (ALE) (1)
- archimedean copula (1)
- artificial neural network (1)
- aryl amination (1)
- aryl hydrocarbon receptor (1)
- aryl-hydrocarbon-receptor (1)
- ascorbate (1)
- ascorbic acid (1)
- ascorbyl radical (1)
- asian option (1)
- aspartam (1)
- aspartame (1)
- assembly tasks (1)
- associations (1)
- assymmetric carboxylate stretch vibrations (1)
- asymptotic-preserving (1)
- auditorischer Hirnstamm (1)
- auto-pruning (1)
- automated theorem proving (1)
- automobile (1)
- automotive (1)
- automotive aftermarket (1)
- autonomous networking (1)
- average-case analysis (1)
- axis orientation (1)
- aziridine (1)
- barrier-free (1)
- basic carboxylates (1)
- basket option (1)
- batch equilibrium (1)
- beam refocusing (1)
- beating rate (1)
- behaviour-based system (1)
- benders decomposition (1)
- bending strip method (1)
- benzo[a]pyrene (1)
- benzol (1)
- berry (1)
- beta-Lactame (1)
- beta-lactam-resistance (1)
- beta-ungesättigte Aldehyde und Ketone (1)
- beta-ungesättigte Carbonylverbindungen (1)
- bi-direktional gekoppelte Abflusssimulation (1)
- biaryl (1)
- bicyclische heterocyclische Verbindungen (1)
- biegeschlaff (1)
- bifurcation (1)
- binary analysis (1)
- binary countdown protocol (1)
- binomial tree (1)
- bio psycho sozial (1)
- bioactive metabolites (1)
- bioavailability (1)
- biochemical characterisation (1)
- biology of knowledge (1)
- biomarker (1)
- biomechanics (1)
- bionische Aspekte (1)
- biosensors (1)
- bitvector (1)
- black bursts (1)
- blackout period (1)
- blind (1)
- bocses (1)
- body-IMU calibration (1)
- boundary value problem (1)
- bounded model checking (1)
- brand (1)
- brittle fracture (1)
- building (1)
- building physics (1)
- building trade (1)
- bursting disk (1)
- butterfly molecule (1)
- c-Abl (1)
- cake filtration (1)
- calving (1)
- canonical ideal (1)
- canonical module (1)
- capacitive measurement (1)
- carbon (1)
- carbon dioxide (1)
- carboxylate bridge (1)
- carboxylates (1)
- carboxylic acid (1)
- carcinogenesis (1)
- carnosine (1)
- carrier-grade point-to-point radio networks (1)
- catalyst (1)
- cdc2 (1)
- cell adhesion molecule (1)
- cell migration (1)
- cells on chips (1)
- centrifugal force (1)
- change detection (1)
- changing market coefficients (1)
- character strengths (1)
- characteristic polynomial (1)
- characterization of Structures (1)
- charakteristische In-situ-Betondruckfestigkeit (1)
- charakteristische Werkstofffestigkeiten (1)
- chemical effect prediction (1)
- chemical reacting systems (1)
- chemically crosslinked hydrogels (1)
- chemiluminescence (1)
- chemisch vernetzte Hydrogele (1)
- chemoprevention (1)
- chemoresistance (1)
- cholesterische Phasen (1)
- chromium (1)
- chōra (1)
- classification of interference (1)
- click-reaction (1)
- climate (1)
- closure approximation (1)
- clustering methods (1)
- co-contraction (1)
- code coverage analysis (1)
- coexistence (1)
- coffee (1)
- cogging (1)
- cognition (1)
- cohesive cracks (1)
- cohesive elements (1)
- cohesive interface (1)
- collaborative information visualization (1)
- collaborative mobile sensing (1)
- collective intelligence (1)
- collision induced dissociation (1)
- colonization (1)
- colour stability (1)
- combination band (1)
- combinatorics (1)
- combustion engine (1)
- community assembly (1)
- complex (1)
- composite (1)
- composite materials (1)
- composite slab (1)
- composites (1)
- compound casting (1)
- computational biology (1)
- computational dynamics (1)
- computational finance (1)
- computational modelling (1)
- computer algebra (1)
- computer-based systems (1)
- computer-supported cooperative work (1)
- computeralgebra (1)
- computerbasiertes Training (1)
- concentration of musts (1)
- conceptual process design (1)
- concurrent (1)
- condition number (1)
- configurational mechanics (1)
- conflict (1)
- conserving time integration (1)
- consistent integration (1)
- constrained mechanical systems (1)
- constraint exploration (1)
- constructed wetlands (1)
- content-and-structure summary (1)
- context awareness (1)
- context management (1)
- context-aware topology control (1)
- continuous master theorem (1)
- continuum damage (1)
- continuum damage mechanics (1)
- continuum fracture mechanics (1)
- controller (1)
- convection (1)
- convergence behaviour (1)
- convex constraints (1)
- convex optimization (1)
- cooling tower (1)
- cooling tower shell (1)
- coordinated backhaul networks in rural areas (1)
- coordinative flexibility (1)
- coordinative stabilisation (1)
- core strengths (1)
- correlated errors (1)
- coupled problems (1)
- coupling methods (1)
- crack path tracking (1)
- crack propagation (1)
- crack-propagation-law (1)
- crank case (1)
- crash (1)
- crash application (1)
- crash hedging (1)
- crashworthiness (1)
- cre-Sequenz (1)
- credit risk (1)
- crop protection (1)
- cross coupling (1)
- cross section (1)
- crossphase modulation (1)
- crowd condition estimation (1)
- crowd density estimation (1)
- crowd scanning (1)
- crowd sensing (1)
- crowdsourcing (1)
- crystallization (1)
- cumulative IRMPD (1)
- curves and surfaces (1)
- cutting edges (1)
- cutting simulation (1)
- cyclic (1)
- cyclic nucleotide phosphodiesterase (1)
- cyclic peptides (1)
- cyclinabhängige Kinasen (1)
- cyclopentadienyl ligands (1)
- cylinder block (1)
- cytokine (1)
- cytotoxicity (1)
- damage tolerance (1)
- data annotation (1)
- data output unit (1)
- data race (1)
- data sets (1)
- data-flow (1)
- dataset (1)
- decarboxylative cross-coupling (1)
- decidability (1)
- decision support (1)
- decision support systems (1)
- decoding (1)
- default time (1)
- defect interaction (1)
- degenerations of an elliptic curve (1)
- degree of freedom (1)
- demografischer Wandel (1)
- dense univariate rational interpolation (1)
- density gradient theory (1)
- dependable systems (1)
- depth sensing (1)
- derived category (1)
- design (1)
- design automation (1)
- deterioration (1)
- determinant (1)
- deterministic arbitration (1)
- deuterierung (1)
- development (1)
- dialkali-halogen (1)
- diameter measurement (1)
- diameter sensor (1)
- diatoms (1)
- dielectric elastomers (1)
- diffusion coefficient (1)
- diffusion measurement (1)
- diffusion model (1)
- diffusion models (1)
- digital design (1)
- digital methodologies (1)
- digitale Methodik (1)
- digitaler Entwurf (1)
- dioxin-like compounds (1)
- directed graphs (1)
- discharge coefficient (1)
- dischargeable mass flow rate (1)
- discontinuous finite elements (1)
- discrepancy (1)
- dispersal (1)
- distributed (1)
- distributed real-time systems (1)
- distributed tasks (1)
- disulfide bond transfer (1)
- diurnal cycle (1)
- diversification (1)
- diversity (1)
- dna adducts (1)
- domain parametrization (1)
- domain switching (1)
- doping (1)
- double exponential distribution (1)
- downward continuation (1)
- driver assistance (1)
- driver status and intention prediction (1)
- drowsiness detection (1)
- drug metablism (1)
- durability (1)
- dyadisches Coping (1)
- dynamic (1)
- dynamic calibration (1)
- dynamic combinatorial chemistry (1)
- dynamic fracture mechanics (1)
- dynamic model (1)
- dysprosium (1)
- echtzeitsystem (1)
- ecology (1)
- economic development (1)
- ecosystem function (1)
- edge computing (1)
- effective refractive index (1)
- efficiency loss (1)
- elastoplasticity (1)
- electric field (1)
- electrical (1)
- electrical conductivity (1)
- electro-hydraulic systems (1)
- electrolyte solutions (1)
- electronically excited states (1)
- electroporation (1)
- elliptical distribution (1)
- embedded (1)
- embedded mixed-criticality systems (1)
- embedding (1)
- emergent aquatic insects (1)
- emomap (1)
- emotion visualization (1)
- empirical review (1)
- enamid (1)
- enantioselective catalysis P (1)
- end-to-end learning (1)
- endlosfaserverstärkte Thermoplaste (1)
- endocrine (1)
- endocrine disruptors (1)
- endokrine Disruptoren (1)
- endolithic (1)
- endomorphism ring (1)
- energetische Wohngebäudemodernisierung (1)
- engine process simulation (1)
- engineering (1)
- enrichment (1)
- ensemble (1)
- entrepreneurial orientation (1)
- entrepreneurship (1)
- enumerative geometry (1)
- environment perception (1)
- environmental noise (1)
- environmental risk assessment (1)
- epiphytes (1)
- equation of state (1)
- equilibrative nucleoside transporter (1)
- equilibrium strategies (1)
- equisingular families (1)
- erdschlusskompensiertes Netz (1)
- esterases (1)
- estrogene (1)
- evapotranspiration (1)
- event segmentation (1)
- evolutionary algorithm (1)
- exhaust temperature management (1)
- explainability (1)
- expression (1)
- face value (1)
- fallible knowledge (1)
- fatigue loading (1)
- fault-tolerant control (1)
- fehlertolerante Regelung (1)
- fermi resonance (1)
- ferroelectric fatigue (1)
- ferroelektrische Ermüdung (1)
- ferroelektrischer Perowskit (1)
- fiber reinforced silicon carbide (1)
- fibre damage (1)
- fibre lay-down dynamics (1)
- fibre reinforced plastic (1)
- fibre strength (1)
- fictitious configurations (1)
- filter (1)
- filter media resistance (1)
- filtration (1)
- financial mathematics (1)
- finite Elasto-Plastizität (1)
- finite difference schemes (1)
- finite elasto-plasticity (1)
- finite groups of Lie type (1)
- finite spin group (1)
- firewall (1)
- first hitting time (1)
- fish (1)
- flavour (1)
- flexible Fertigung (1)
- flexible multibody dynamics (1)
- float glass (1)
- floating potential (1)
- flood risk (1)
- flow chemistry (1)
- flow cytometry (1)
- flow visualization (1)
- fluid interfaces (1)
- fluid structure (1)
- fluid structure interaction (1)
- fluid-structure interaction (FSI) (1)
- fluorescence (1)
- flüssiges Polymer (1)
- flüssigkristalline Phasen (1)
- flüssigkristalliner Phasen (1)
- foamy virus (1)
- folding rocks (1)
- food (1)
- forest management (1)
- formal (1)
- formal analysis (1)
- formaldehyde (1)
- formale Analyse (1)
- formate (1)
- forward-shooting grid (1)
- foundational translation validation (1)
- fracture mechanics (1)
- fragmentation channel (1)
- free surface (1)
- free-form surface (1)
- free-living (1)
- freie Oberfläche (1)
- freshwater lentic systems (1)
- front end (1)
- front loader (1)
- fruit juice (1)
- fuel consumption (1)
- functional safety (1)
- functionally graded material (1)
- funktionsorientierten Oberflächencharakterisierung (1)
- furocoumarins (1)
- fuzzy Q-learning (1)
- fuzzy logic (1)
- gas bearing, aerostatic, porous, theoretical model (1)
- gas phase reaction (1)
- gas transfer at the water-atmosphere interface (1)
- gasoline engine (1)
- gasphase (1)
- gaussian filter (1)
- gebietszerlegung (1)
- gelonin (1)
- gemeinsame Aushärtung (1)
- gene silencing (1)
- gene therapy (1)
- generalized plasticity (1)
- generic character table (1)
- generic self-x sensor systems (1)
- generic sensor interface (1)
- genetic algorithms (1)
- genomische Diversität (1)
- genotoxicity (1)
- geographic information systems (1)
- geology (1)
- geometrically exact beams (1)
- geometrische Oberflächenbeschreibung (1)
- geomodelling (1)
- gewebeverstärkte Thermoplaste (1)
- gewebeverstärkter Thermoplaste (1)
- gitter (1)
- global tracking (1)
- glucocorticoid (1)
- glycine neurotransmission (1)
- glycolipid (1)
- good semigroup (1)
- governance (1)
- grape berry moth (1)
- grapevine moth (1)
- graph drawing algorithm (1)
- graph embedding (1)
- graph layout (1)
- graph p-Laplacian (1)
- gravitation (1)
- greenhouse gases (1)
- greywater (1)
- groundwater remediation (1)
- group action (1)
- groups of Lie type (1)
- großer Investor (1)
- großflächige Abscheidung (1)
- großräumige regionale Kooperation (1)
- hPRT-Genmutations-Assay (1)
- halogenases (1)
- hand pose, hand shape, depth image, convolutional neural networks (1)
- handover optimzaiion (1)
- haptic perception (1)
- haptotaxis (1)
- hardware (1)
- headed studs (1)
- hedging (1)
- hemodialysis (1)
- hemoglobin adduct (1)
- hetero-substituierte Diazapyridinophane (1)
- heterogene Werkstoffe (1)
- heterogeneous access management (1)
- heterogenous catalysis (1)
- heuristic (1)
- hexadiendiale (1)
- hierarchical matrix (1)
- hierarchical structure (1)
- higher order accurate conserving time integrators (1)
- higher-order continuum (1)
- hip strenght (1)
- historical documents (1)
- hochduktil (1)
- homobimetallische Komplexe (1)
- homogeneous catalysis (1)
- homolytische Substitution (1)
- hose lines (1)
- host preference (1)
- host-range (1)
- human body motion tracking (1)
- hybrid lightweight structures (1)
- hybrid material (1)
- hybrid materials (1)
- hybrid materials engineering (1)
- hybrid structure (1)
- hybride Leichtbaustrukturen (1)
- hydrides (1)
- hydrodynamics (1)
- hydrodynamische Injektion (1)
- hydrogen bonds (1)
- hydrogenation (1)
- hyperbolic systems (1)
- hyperelliptic function field (1)
- hyperelliptische Funktionenkörper (1)
- hypergraph (1)
- hyperspectal unmixing (1)
- hypocoercivity (1)
- hypolithic (1)
- hysteresis measurement (1)
- iB2C (1)
- iNOS (1)
- idealclass group (1)
- identity (1)
- image denoising (1)
- imaging (1)
- imidazolium salts (1)
- immobilization (1)
- immunotoxins (1)
- impact resistance (1)
- implement (1)
- implementation (1)
- impulse control (1)
- impurity functions (1)
- in-plane- und out-of-plane Kriechen (1)
- incompressible elasticity (1)
- individual (1)
- induzierbar (1)
- inelastic multibody systems (1)
- inelastische Mehrkörpersysteme (1)
- inertial measurement unit (1)
- inertial sensors (1)
- inference (1)
- infinite-dimensional analysis (1)
- infinite-dimensional manifold (1)
- inflation-linked product (1)
- information systems (1)
- infrarot (1)
- inhibition (1)
- injection molding (1)
- innerstädtische Einzelhandelslagen (1)
- insecticide tolerance (1)
- integer programming (1)
- integral constitutive equations (1)
- intellectual disability (1)
- intensity (1)
- inter-organisationale Netzwerke (1)
- interaction networks (1)
- interference (1)
- interference resistance (1)
- interkulturell (1)
- intermediate stops (1)
- intermediate-spin (1)
- intermtetallische Verbindung (1)
- internal seiche (1)
- interorganisationale Netzwerke (1)
- interpolation (1)
- interpretation (1)
- interval arithmetic (1)
- intrusion detection (1)
- inverse coordination (1)
- inverse optimization (1)
- inverse problem (1)
- inverses Pendel (1)
- ion exchanger (1)
- ion-sensitive field-effect transistor (1)
- ioneninduzierte Nukleation (1)
- ionic liquid (1)
- ioninduced nucleation (1)
- ionische Flüssigkeit (1)
- ionization (1)
- irrigation (1)
- isogeometric analysis (IGA) (1)
- isotropical (1)
- jenseits der dritten Generation (1)
- joint channel estimation (1)
- juice (1)
- jump table analysis (1)
- jump-diffusion process (1)
- kalman (1)
- katalytische Isomerisierung (1)
- katalytische Transferhydrierung (1)
- kernel (1)
- kidney (1)
- kinematic (1)
- kinematic model (1)
- kinetic equations (1)
- kinetic isotope effect (1)
- kinetischer Isotopeneffekt (1)
- klimaneutraler Wohngebäudebestand (1)
- knee joint stability (1)
- knock-out (1)
- konditionaler knock-out (1)
- konsistente Integration (1)
- kontinuierliches Verbundmittel (1)
- kontinuumsatomistischer Ansatz (1)
- koordinative Stabilisierung (1)
- lake classification (1)
- lake modeling (1)
- landsat (1)
- langfaserverstärkte Polymere (1)
- language definition (1)
- language modeling (1)
- language profiles (1)
- lanthanide (1)
- large investor (1)
- large neighborhood search (1)
- large scale integer programming (1)
- lattice Boltzmann (1)
- layout (1)
- leaf-cutting ants (1)
- leakage (1)
- lecithinabhängige Dehydrogenase (1)
- lecithine dependent dehydrogenase (1)
- letter (1)
- level K-algebras (1)
- level set method (1)
- lichens (1)
- life insurance (1)
- life-history (1)
- life-strategy (1)
- lifestyle (1)
- light scattering optimization (1)
- lightweight design (1)
- lightweight timber frame construction (1)
- limit theorems (1)
- linear code (1)
- linear motor (1)
- linear systems (1)
- linked data (1)
- lipases (1)
- lipid content (1)
- liquid-liquid equilibrium (1)
- liquid-liquid extraction (1)
- liver (1)
- load-displacement-law (1)
- loader (1)
- loadpoint shift (1)
- local-global conjectures (1)
- localizing basis (1)
- logic (1)
- logic synthesis (1)
- long short-term memory (1)
- long tail (1)
- longevity bonds (1)
- loss analysis (1)
- low-rank approximation (1)
- lung cancer (1)
- ländlich-periphere Räume (1)
- ländliche Regionen (1)
- mHealth (1)
- mRNA-Expression (1)
- machine code analysis (1)
- machine-checkable proof (1)
- macro derivative (1)
- macroinvertebrate community (1)
- macroinvertebrates (1)
- macrophytes (1)
- magnesium (1)
- magnetic field based localization (1)
- magnetism (1)
- magnetometer calibration (1)
- manganese (1)
- marine bacteria (1)
- marine biotechnology (1)
- market crash (1)
- market manipulation (1)
- markov model (1)
- martensite (1)
- martingale optimality principle (1)
- mass spectrometry (1)
- mass transfer kinetics (1)
- material characterisation (1)
- materielle Kräfte (1)
- mathematical modelling (1)
- mathematical morphology (1)
- mating disruption (1)
- matrix problems (1)
- matrix system (1)
- matrix visualization (1)
- matroid flows (1)
- mean-variance approach (1)
- mechanical properties (1)
- mechanism (1)
- mehreren Uebertragungszweigen (1)
- mercapturic acid (1)
- mercapturic acids (1)
- mesh deformation (1)
- mesoporous (1)
- mesoporöse Materialien (1)
- message-passing (1)
- meta-analysis (1)
- metadata (1)
- metaheuristics (1)
- metal fibre (1)
- metal organic frameworks (1)
- metalloproteases (1)
- metals (1)
- miRNA (1)
- mice (1)
- micro lead (1)
- micro-bending test (1)
- microclimate (1)
- microelectronics ontology (1)
- micromechanics (1)
- micromorphic continua (1)
- microstructures (1)
- microwave (1)
- migration (1)
- minimal polynomial (1)
- miniplant (1)
- mixed convection (1)
- mixed methods (1)
- mixed multiscale finite element methods (1)
- mixed-signal (1)
- mobile scale (1)
- mobility robustness optimization (1)
- mobilitätseingeschränkt (1)
- modal derivatives (1)
- model generation (1)
- model order reduction (1)
- model uncertainty (1)
- model-based fault diagnosis (1)
- modifizierte Teilsicherheitsbeiwerte (1)
- modularisation (1)
- moduli space (1)
- moisture transfer (1)
- moisture transport (1)
- molecular beam (1)
- molecular capsule (1)
- molecular capsules (1)
- molecular dynamics (1)
- molecular simulations (1)
- molekulare Chaperone (1)
- molekulare Kapsel (1)
- molekulare Simulation (1)
- molekularer Chiralitätswechselwirkungstensor (1)
- molybdate (1)
- moment (1)
- monotone Konvergenz (1)
- monotropic programming (1)
- mouse (1)
- muconaldehyde (1)
- multi scale (1)
- multi-asset option (1)
- multi-carrier (1)
- multi-class image segmentation (1)
- multi-core processors (1)
- multi-domain modeling and evaluation methodology (1)
- multi-gene analysis (1)
- multi-level Monte Carlo (1)
- multi-object tracking (1)
- multi-phase flow (1)
- multi-scale model (1)
- multi-user (1)
- multi-user detection (1)
- multicategory (1)
- multicore (1)
- multidimensional datasets (1)
- multifilament superconductor (1)
- multifunctionality (1)
- multigrid method (1)
- multileaf collimator (1)
- multinomial regression (1)
- multiobjective optimization (1)
- multipatch (1)
- multiplicative decomposition (1)
- multiplicative noise (1)
- multiplikative Zerlegung (1)
- multiscale analysis (1)
- multiscale denoising (1)
- multiscale methods (1)
- multitemporal (1)
- multithreading (1)
- multitype code coupling (1)
- multiuser detection (1)
- multiuser transmission (1)
- multivariate chi-square-test (1)
- multiway partitioning (1)
- murE (1)
- myasthenia gravis (1)
- n-Decane hydroconversion (1)
- nachwachsende Füllstoffe (1)
- nachwachsende Rohstoffe (1)
- naive diversification (1)
- nanocomposites (1)
- nanofiber (1)
- nanoparticle (1)
- nanoskalige Rezeptoren (1)
- native Aufreinigung (1)
- natural products (1)
- naturfaserverstärkte Kunststoffe (1)
- naturnahe Abwasserreinigungsverfahren (1)
- necrosis (1)
- negative refraction (1)
- neonatal rat ventricular cardiomyocytes (1)
- neonatale ventrikuläre Kardiomyozyten der Ratte (1)
- nestable tangibles (1)
- network flows (1)
- network synthesis (1)
- netzgenerierung (1)
- neural networks (1)
- neuromuscular aktivity (1)
- neuromuskuläre Aktivität (1)
- neurotrophin 3 (1)
- nicht-newtonsche Strömungen (1)
- nichtlineare Druckkorrektor (1)
- nichtlineare Modellreduktion (1)
- nichtlineare Netzwerke (1)
- nickel (1)
- niob (1)
- nitric oxide (1)
- non square linear system solving (1)
- non-conventional (1)
- non-desarguesian plane (1)
- non-equilibrium thermodynamics (1)
- non-newtonian flow (1)
- nonconvex optimization (1)
- nonlinear circuits (1)
- nonlinear diffusion filtering (1)
- nonlinear elasticity (1)
- nonlinear elastodynamics (1)
- nonlinear model reduction (1)
- nonlinear pressure correction (1)
- nonlinear term structure dependence (1)
- nonlinear vibration analysis (1)
- nonlocal filtering (1)
- nonnegative matrix factorization (1)
- nonwovens (1)
- normalization (1)
- nucleofection (1)
- nucleoside (1)
- null model (1)
- number fields (1)
- numerical irreducible decomposition (1)
- numerical methods (1)
- numerical model (1)
- numerical time integration (1)
- numerische Dynamik (1)
- numerische Strömungssimulation (1)
- numerisches Verfahren (1)
- nutrient removal (1)
- obere Eckbewehrung (1)
- objectoriented (1)
- objektimmanente Kriterien (1)
- oblique derivative (1)
- odour mixtures (1)
- oedometer (1)
- office market (1)
- ohne Querkraftbewehrung (1)
- olefin metathesis (1)
- operations (1)
- optical code multiplex (1)
- optical imaging (1)
- optically active (1)
- optimal (1)
- optimal capital structure (1)
- optimal consumption and investment (1)
- optiman stopping (1)
- optimization (1)
- optimization correctness (1)
- option pricing (1)
- option valuation (1)
- optisch aktiv (1)
- optisch aktiver Titankomplex (1)
- optisch aktiver Zirkoniumkomplex (1)
- optische Parameter (1)
- orbit (1)
- organic micropollutants (1)
- organic nanoparticles (1)
- organische Nanopartikel (1)
- organotypische Kokultur (1)
- oscillating magnetic fields (1)
- other-channel interference (1)
- out-of-order (1)
- output feedback approximation (1)
- ovarian carcinoma (1)
- overtone (1)
- oxidative Cyclisierung (1)
- oxidative DNA Damage (1)
- oxidative DNA Schäden (1)
- oxidative DNA-Schäden (1)
- oxidative damage (1)
- oxo centered transition metal complexes (1)
- oxygen consumption (1)
- p300 (1)
- p53 (1)
- p53-Gen (1)
- pKAP298 (1)
- parallel (1)
- parametric design (1)
- paramtrisches Design (1)
- partial differential equation (1)
- partial hydrolysis (1)
- partial information (1)
- participatory sensing (1)
- particle dynamics (1)
- particle finite element method (1)
- particle size distribution (1)
- particle-in-cell (1)
- particular (1)
- partition coefficient (1)
- path (1)
- path cost models (1)
- path relinking (1)
- path tracking (1)
- path-dependent options (1)
- pattern (1)
- pattern recognition (1)
- pbp (1)
- penalty methods (1)
- penalty-free formulation (1)
- peptide (1)
- peripheral blood mononuclear cells (1)
- periphere Region (1)
- permeability (1)
- pesticides (1)
- pesticides and wastewater (1)
- petroleum exploration (1)
- phase behavior (1)
- phase field modeling (1)
- phenothiazine (1)
- philosophy of technology (1)
- phonologische Bewusstheit (1)
- phosphorous-metall-complexes (1)
- phosphorus (1)
- photochemistry (1)
- photonic crystals (1)
- photonic crystals filter (1)
- photonic structures (1)
- photonics (1)
- phylogeny (1)
- phylogeography (1)
- piezoelectricity (1)
- pigments (1)
- pivot sampling (1)
- planar polynomial (1)
- planning systems (1)
- planning theory (1)
- plant-herbivore interactions (1)
- plasma sheaths (1)
- plasma source ion implantation (1)
- plasma-based ion implantation and deposition (1)
- plasticity (1)
- platin (1)
- platinum (1)
- pnc (1)
- pneumatische Abstandsmessung (1)
- point cloud (1)
- point defects (1)
- political ecology (1)
- polycyclische Aromaten (1)
- polyelectrolyte (1)
- polymer (1)
- polymer blends (1)
- polymer compound (1)
- polymer morphology (1)
- polymer nanocomposites (1)
- polymer solution (1)
- polymere Verbundwerkstoffe (1)
- polyphenol (1)
- population balance modelling (1)
- population genetics (1)
- poroelasticity (1)
- porous media (1)
- portfolio (1)
- portfolio decision (1)
- portfolio-optimization (1)
- poröse Medien (1)
- position detection (1)
- posterior collapse (1)
- potential (1)
- precipitation (1)
- preconditioners (1)
- preprocessing (1)
- pressure correction (1)
- pressure difference (1)
- pressure drop (1)
- pressure relief (1)
- preventive maintenance (1)
- primal-dual algorithm (1)
- primäre Rattenhepatozyten (1)
- probabilistic model checking (1)
- probabilistic modeling (1)
- probabilistic timed automata (1)
- probability distribution (1)
- probability of dangerous failure on demand (1)
- probe pruning (1)
- projective surfaces (1)
- proof generating optimizer (1)
- propagating discontinuities (1)
- property checking (1)
- property cheking (1)
- protein (1)
- protein adducts (1)
- protein analysis (1)
- protein conjugate (1)
- proximation (1)
- proxy modeling (1)
- prädiktive Regelung (1)
- public health (1)
- pulsed and stirred columns (1)
- pulsierte und gerührte Kolonen (1)
- pyrrolizidine alkaloids (1)
- quadrinomial tree (1)
- quality assurance (1)
- quantitative analysis (1)
- quantum gas (1)
- quasi-Monte Carlo (1)
- quasi-variational inequalities (1)
- quasihomogeneity (1)
- quasiregular group (1)
- quasireguläre Gruppe (1)
- quorum sensing (1)
- radiation therapy (1)
- radikalische Addition (1)
- radio frequency identification (1)
- radiotherapy (1)
- rainfall rate (1)
- rank-one convexity (1)
- rare disasters (1)
- rat (1)
- rat liver cell systems (1)
- rate of convergence (1)
- raum-zeitliche Analyse (1)
- ray casting (1)
- ray tracing (1)
- reaction coordinate (1)
- reaction cross section (1)
- reaction kinetics (1)
- reactive extraction (1)
- reactive oxygen species (1)
- reactivity (1)
- readout system (1)
- reaktionskinetik (1)
- real quadratic number fields (1)
- real-tiem (1)
- real-time PCR (1)
- real-time scheduling (1)
- real-time tasks (1)
- reasoning (1)
- received signal processing (1)
- receiver orientation (1)
- receptors for anions (1)
- reconstruction (1)
- reconstructions (1)
- reduktive Decyanierung (1)
- redundant constraint (1)
- reflectionless boundary condition (1)
- reflexionslose Randbedingung (1)
- regelbarer Ortsnetztransformator (1)
- regime-shift model (1)
- regional planning (1)
- regularity (1)
- regularization methods (1)
- reinforced concrete (1)
- reinforced plastics (1)
- reinforced thermoplastics (1)
- reinforcement learning (1)
- relative effect potencies (1)
- relative toxic potencies (1)
- relaxed memory models (1)
- remote sensing (1)
- repeated batch cultivation (1)
- resistance (1)
- respiratory chain (1)
- ressourcenorientierte Abwasserbewirtschaftung (1)
- retention soil filter (1)
- retroviral vector (1)
- retroviraler Vektor (1)
- retrovirus (1)
- reverse (1)
- reverse logistics (1)
- reverse osmosis (1)
- rezyklierte Gesteinskörnungen (1)
- rhabdomyolysis (1)
- rheology (1)
- ribosome-inactivating proteins (1)
- ring element (1)
- riparian food web (1)
- risk analysis (1)
- risk management (1)
- risk measures (1)
- risk reduction (1)
- river typology system (1)
- robustness (1)
- roll-over Cyclometallierung (1)
- root-reactions (1)
- round robin test (1)
- runtime monitoring (1)
- rupture disk (1)
- ruthenium-vinylidene (1)
- räumliche Ökonometrie (1)
- safety and security (1)
- safety-related systems (1)
- salt (1)
- sampling (1)
- satisfiability (1)
- sawtooth effect (1)
- scalar and vectorial wavelets (1)
- scalar field (1)
- scaled boundary isogeometric analysis (1)
- scaled boundary parametrizations (1)
- scattered light (1)
- scene flow (1)
- seasonal variability (1)
- second class group (1)
- secondary structure (1)
- secondary structure prediction (1)
- segmentation (1)
- seismic tomography (1)
- selbstgesteuertes Lernen (1)
- selektives Laserschmelzen (1)
- self calibration (1)
- self-optimizing networks (1)
- self-regulation (1)
- semiclassical (1)
- semigroup of values (1)
- semiklassisch (1)
- semiprobabilistische Bemessung (1)
- semisprays (1)
- sensitization effect (1)
- sensors (1)
- sepsis (1)
- sequential circuit (1)
- serum albumin (1)
- service area (1)
- shared production (1)
- sheaf theory (1)
- sho1 (1)
- short scales (1)
- shrinking cities (1)
- siRNA (1)
- signalling cascades (1)
- silica (1)
- silicon nanowire (1)
- similarity measures (1)
- simplex algorithm (1)
- simulation (1)
- singularities (1)
- skeletal muscle cells (1)
- sliding wear (1)
- small-multiples node-link visualization (1)
- smart decline (1)
- social cohesion (1)
- social-ecological systems (1)
- société des transports en commun (1)
- sodium sulfate (1)
- software (1)
- software architecture (1)
- software comprehension (1)
- software engineering (1)
- software engineering task (1)
- software reuse (1)
- solares Bauen (1)
- solid interfaces (1)
- solid urea (1)
- solid-born noise (1)
- solid-dosing-system (1)
- solubility (1)
- solutions containing electrolytes (1)
- solvation (1)
- sonotrodes (1)
- sorption isotherm (1)
- soziale Infrastruktur (1)
- spanende Bearbeitung (1)
- spare part (1)
- sparse interpolation of multivariate rational functions (1)
- sparse multivariate polynomial interpolation (1)
- sparse-to-dense (1)
- sparsity (1)
- spatial econometrics (1)
- spatial statistics (1)
- spectroscopy (1)
- sperrige Alkylcyclopentadienyl-Liganden (1)
- spherical approximation (1)
- spi (1)
- spin (1)
- spin flip (1)
- spin trapping (1)
- spiral-groove (1)
- sputtering process (1)
- srtm (1)
- stabile Transfektion (1)
- stability (1)
- stabilization (1)
- stable transfection (1)
- star-shaped domain (1)
- static and fatigue tests (1)
- static instrumentation (1)
- static software structure (1)
- statin (1)
- stationary sensing (1)
- stationär (1)
- stationärer Einzelhandel (1)
- statistics (1)
- steel fibre (1)
- steel fibre reinforced concrete (1)
- sternpunktisoliertes Netz (1)
- stochastic arbitrage (1)
- stochastic coefficient (1)
- stochastic optimal control (1)
- stochastic processes (1)
- stochastische Arbitrage (1)
- stop- and play-operator (1)
- storage (1)
- strain localization (1)
- stratifolds (1)
- stream pollution (1)
- streams (1)
- streptococcus (1)
- streptococcus pneumoniae (1)
- structural dynamics (1)
- structural summary (1)
- structural tensors (1)
- strukturelle Verformung (1)
- students (1)
- städtebauliche Projektentwicklung (1)
- städtische Regionen (1)
- subgradient (1)
- subjective evaluation (1)
- subjectivity (1)
- sugar transporter (1)
- sulfonate recognition (1)
- sulfonic (1)
- sulfur dioxide (1)
- summer smog (1)
- superposed fluids (1)
- surface measures (1)
- surface morphology (1)
- surface pre-treatment (1)
- surface tension (1)
- surface-hopping (1)
- surrender options (1)
- surrogate algorithm (1)
- suzuki coupling (1)
- swelling behavior (1)
- swelling pressure (1)
- swelling strain (1)
- symbolic simulation (1)
- symmetrc carboxylate stretch vibrations (1)
- symmetry (1)
- synchronization (1)
- synchronization of cyclic processes (1)
- synchronous (1)
- system architecture (1)
- syzygies (1)
- tabletop (1)
- tail dependence coefficient (1)
- taktile und haptische Wahrnehmung (1)
- target group (1)
- target sensitivity (1)
- task sequence (1)
- tax (1)
- technische und berufliche Aus- und Weiterbildung Lehrer lernen (1)
- technology mapping (1)
- teilgesättigt (1)
- tensions (1)
- tensor (1)
- tensorfield (1)
- terrain rendering (1)
- tetrachlorodibenzo-p-dioxin (1)
- tetrachlorodibenzodioxins (1)
- tetragonale Verzerrung (1)
- texture orientation (1)
- therapy (1)
- thermal analysis (1)
- thermisch (1)
- thermodynamic model (1)
- thermoplastische Bandhalbzeuge (1)
- thermoplastische Elastomere (TPE) (1)
- thermoplastische Verbundwerkstoffe (1)
- thiazolidinediones (1)
- thiazolium (1)
- thiol-disulfide exchange (1)
- three membered metall cluster (1)
- tight junction (1)
- time delays (1)
- time of flight mass spectrometry (1)
- time utility functions (1)
- time-dependent (1)
- time-varying flow fields (1)
- timeliness (1)
- tipping points (1)
- tooth-coil (1)
- top-down (1)
- topoisomerases (1)
- topological asymptotic expansion (1)
- topological incongruence (1)
- topological insulator (1)
- topologische Inkongruenz (1)
- toric geometry (1)
- torische Geometrie (1)
- total suspended solids (1)
- total variation (1)
- total variation spatial regularization (1)
- touch surfaces (1)
- toxic equivalency factor (TEF) concept (1)
- toxicity (1)
- tracking (1)
- trade-off (1)
- traffic safety (1)
- transactions (1)
- transfection (1)
- transfer film (1)
- transfer hydrogenation (1)
- transient (1)
- transition metal (1)
- transition metal complexes (1)
- transition metals (1)
- translation contract (1)
- translation invariant spaces (1)
- translinear circuits (1)
- translineare Schaltungen (1)
- transmission conditions (1)
- transmisson (1)
- transport (1)
- transport association (1)
- trasmit signal processing (1)
- triboligy (1)
- tribologische Systeme (1)
- trimethylsilyl (1)
- tropical ecology (1)
- tropical geometry (1)
- tropical mountain reservoirs (1)
- tropical rainforest (1)
- tropischer Regenwald (1)
- trunk control (1)
- truss model (1)
- turbocharging (1)
- turning (1)
- two component system (1)
- ultrasonic welding (1)
- ultrasound signals (1)
- unbeschränktes Potential (1)
- unbounded potential (1)
- ungesättigte Fettsäuren (1)
- unimodular certification (1)
- unimodularity (1)
- universal (1)
- unnatürliche Aminosäuren (1)
- unsaturated soils (1)
- urban design (1)
- urban modelling (1)
- urban planning (1)
- urban shrinkage (1)
- urban simulation (1)
- urban stormwater quality (1)
- urea (1)
- user interface (1)
- user-centered design (1)
- vacuum distillation (1)
- value semigroup (1)
- valuing contracts (1)
- variable neighborhood search (1)
- variable selection (1)
- variational methods (1)
- variational model (1)
- vector bundles (1)
- vector field visualization (1)
- vector spherical harmonics (1)
- vectorfield (1)
- vectorial wavelets (1)
- vehicle routing (1)
- verlaufsorientiert (1)
- vermaschtes Netz (1)
- vertical velocity (1)
- vertikale Elementfugen (1)
- vertikale Geschwindigkeiten (1)
- vesicle (1)
- viral vector (1)
- viraler Vektor (1)
- virtual reality (1)
- virtual training (1)
- virus-transmission (1)
- viscoelastic fluids (1)
- viscoelastic modeling (1)
- viscosity model (1)
- visual analytics (1)
- visual structure (1)
- volatility arbitrage (1)
- voltage sensitive dye (1)
- vortex seperation (1)
- w/z-Wert (1)
- wahrscheinlichkeitsbasierte Modellverifikation (1)
- wastewater infrastructure (1)
- wastewater treatment (1)
- water (1)
- waveguides (1)
- wavelength multiplex (1)
- weak localization (1)
- wear (1)
- wearable systems (1)
- weighing (1)
- weighted finite-state transducers (1)
- weißer Phosphor (1)
- weld (1)
- well-posedness (1)
- wheel side-slip estimation (1)
- whole genome microarray analysis (1)
- wine (1)
- wireless communications system (1)
- wireless networks (1)
- wireless sensor network (1)
- wireless signal (1)
- wirklichkeitsnahe numerische Simulation (1)
- wissenschaftliche Weiterbildung (1)
- worker assistance (1)
- worst-case (1)
- worst-case scenario (1)
- woven fabric reinforced polypropylene (1)
- wässrige Lösung (1)
- xai (1)
- zeitabhängige Strömungen (1)
- zementgebundene Feinkornsysteme (1)
- zerstörungsfreie Qualitätssicherung (1)
- zinc (1)
- zoledronic acid (1)
- zytogenetik (1)
- Ähnlichkeit (1)
- Äquisingularität (1)
- ÖPNV (1)
- ÖPNV-Beschleunigung (1)
- Ödometer (1)
- Öffentlicher Personennahverkehr (1)
- Öffentlichkeitsbeteiligung (1)
- Ökodesign (1)
- Ökologie (1)
- Ökonometrie (1)
- Ökosystem (1)
- Ökotoxizität (1)
- Örtliches Konzept (1)
- Östrogene (1)
- Überdeckung (1)
- Überflutungsrisiko (1)
- Überflutungsvorsorge (1)
- Übergangsbedingungen (1)
- Übergangsmetall (1)
- Übergangsmetallcyclopentadienyl-Komplexe (1)
- Übergangsmetallkomplexe (1)
- Übersetzung (1)
- ältere Menschen (1)
- ästhetische Differenz (1)
- überregionale Partnerschaft (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (369)
- Kaiserslautern - Fachbereich Mathematik (291)
- Kaiserslautern - Fachbereich Informatik (229)
- Kaiserslautern - Fachbereich Biologie (133)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (63)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (35)
Die Studie begreift Schule und Unterricht mit Bourdieu als sprachlichen Markt, auf dem über den Wert und die Legitimität von Sprache(n) und Sprechen verhandelt wird. Anhand der Zuschreibung sprachbiografischer Merkmale und sprachlicher Kompetenzen sowie der Bewertung sprachlicher Leistungen konstruieren schulische Akteur:innen – Lehrkräfte wie auch Schüler:innen - Differenzen innerhalb schulischer Sprachmärkte. Hierdurch werden Sprecher:innen soziale Positionen in einem komplex strukturierten (Klassen-)Raum zugewiesen, der sich durch konkurrierende Diskurse um das richtige und angemessene Sprechen auszeichnet (Spotti 2013; Fürstenau & Niedrig 2011). Um das Phänomen sprachbezogener Differenzkonstruktion in Schule und Unterricht multiperspektivisch zu beleuchten und hierbei wirksame Language Policies (Shohamy 2006; Spolsky 2010) aufzudecken, nutzt die Studie die Nexus Analysis (Scollon & Scollon 2004) als Meta-Methodologie, die verschiedene Analysedimensionen vereint: Betrachtet und verknüpft werden schulische und außerschulische Erfahrungen schulischer Akteur:innen in Bezug auf Sprache(n) und Sprachgebrauch, schulische Diskurse über sprachliche Vielfalt und die Legitimität von Sprache(n), die Gestaltung und Wahrnehmung schulischer Sprachlandschaften (Linguistic Schoolscapes) sowie Konstruktionen sprachbezogener Differenz und damit einhergehende Selbst- und Fremdpositionierungen in Unterrichtsinteraktionen. Die Untersuchung stützt sich auf Datenmaterial aus sechs Schulklassen dreier rheinland-pfälzischer Grundschulen: 100 Schüler:innen der sechs Klassen nahmen an einer Fragebogenerhebung teil, drei Schulleitungen und sieben Lehrkräfte wurden im Rahmen von Leitfadeninterviews befragt. Über die sechs Klassenzimmer hinweg wurden 1.797 schriftsprachliche Artefakte fotografisch dokumentiert und mithilfe eines Kodiermanuals in der Tradition der Linguistic Landscape-Forschung ausgewertet. In allen sechs Schulklassen wurde Unterricht audiovisuell aufgezeichnet; insgesamt liegen Aufnahmen von 40 Unterrichtsstunden vor. Die Unterrichtsaufzeichnungen wurden interaktionsanalytisch untersucht, teils multimodal, um mikroanalytisch offenzulegen, wie Lehrkräfte und Schüler:innen in ihrem Unterrichtshandeln zur Konstruktion von Differenz beitragen, etwa indem sie Schüler:innen als Personen mit Migrationsbiografien und/oder als Sprecher:innen des Deutschen als Zweitsprache exponieren. Die Zusammenführung der vielfältigen Zugänge und Perspektiven führt die Spannungen und Ambivalenzen dynamischer schulischer Sprachmärkte vor Augen und belegt datenbasiert die Komplexität des Anforderungs- und Handlungsfelds Schule.
Im Rahmen dieser Dissertation wurden neuartige tetraamidomakrozyklische Liganden mit verschiedenen Strukturmotiven entlang mehrstufiger Syntheserouten analysenrein dargestellt. Zum einen wurden als neuartige Grundstrukturen 1,8‑Diaminonaphthalin sowie 2-Aminobenzylamin in das tetraamidomakrozyklische Ringsystem eingebaut, wodurch sich Makrozyklen mit 14 Ringatomen ergaben. Zum anderen wurde das gegenüberliegende Ligandenrückgrat durch Variation der Substituenten am α‑Kohlenstoffatom von Malonsäurederivaten verändert. Bei bereits literaturbekannten Liganden mit einer Größe von 13 Ringatomen konnte durch Variation einiger Reaktionsparameter eine Optimierung der Ausbeuten im Cyclisierungsschritt erfolgen. Im Anschluss daran wurden alle erhaltenen Liganden zu Eisen(III)komplexen mit axialen Wasserliganden mit Kaliumgegenionen umgesetzt. Eine Kristallisation vieler Eisen(III)komplexe wurde durch Ionenaustausch erreicht, wobei in den meisten Fällen reproduzierbar, zusätzlich zum Ionenaustausch, ein Ligandenaustausch des axialen Liganden zu Chlorid beobachtet wurde. Die Charakterisierung aller erhaltenen paramagnetischen Eisen(III)komplexe erfolgte mittels verschiedener analytischer Methoden. Weiterhin konnte festgestellt werden, dass alle neuartigen makrozyklischen Liganden mit 14 Ringatomen bei unterschiedlichen verwendeten Reaktionsbedingungen keine Cobalt(III)komplexe ausbildeten. Zusätzlich wurde im Rahmen dieser Arbeit erstmalig die Komplexierung des 4d-Metalls Molybdän in der Oxidationsstufe +V durch einen tetraamidomakrozyklischen Liganden beobachtet, was durch röntgenkristallographische Messungen belegt wurde. Die dargestellten Eisen(III)komplexe kamen schließlich bei der selektiven Oxidation von Cyclohexen zur Untersuchung ihrer homogenkatalytischen Aktivität zum Einsatz. Hierbei fanden verschiedene Aktivierungsmethoden Anwendung. Die Variation einiger Reaktionsparameter resultierte in guten Ausbeuten sowie hohen Selektivitäten bei der katalytischen Anwendung. Auch konnten Struktur- und Reaktivitätsbeziehungen der verschiedenen Komplexe abgeleitet werden. Abschließend erfolgten erste Versuche zur katalytischen Oxidation von Cumol.
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung funktionaler Modellsysteme von Bromo- und Chloroperoxidasen zur Oxidation von Bromid und Chlorid unter wasserfreien und nachhaltigen Bedingungen. Die neuen Methoden fanden Anwendung in der Synthese halogenierter O-Heterocyclen, welche häufig als Grundstrukturen von Naturstoffen mit ausgeprägten physiologischen Wirkungen auftreten. Die gewonnenen Erkenntnisse lösten vorhandene Probleme mit Reaktivität und Chemoselektivität in oxidativen Bromierungsreaktionen und trugen zu einem besseren Verständnis der beobachteten Regioselektivitäten in Bromcyclisierungen hochsubstituierter 4-Pentenole bei. Aufbauend auf diesen Ergebnissen konnte erstmalig eine analoge Methode zur oxidativen Chlorcyclisierung für die Darstellung beta-chlorierter Tetrahydrofurane und Tetrahydropyrane entwickelt werden.
Um die bei modernen stationären Industriegasturbinen geforderten Leistungsdichten bei hohem Wirkungsgrad zu erreichen, werden sehr oft transsonische Axialkompressoren eingesetzt. Neben vielen Vorteilen, haben sie eine erhöhte Sensibilität gegenüber Ungleichförmigkeiten im Geschwindigkeits- und Druckprofil der Zuströmung als entscheidenden Nachteil. Da diese Ungleichförmigkeiten direkt von der Gestaltung des Einlaufgehäuses mitbestimmt werden, spielt das Design eine außerordentlich wichtige Rolle bei der Auslegung der Gesamtmaschine. Diese Arbeit beschäftigt sich mit den Strömungen in der ersten Transsonikstufe eines mehrstufigen Axialverdichters und untersucht deren Wechselwirkung mit den Strömungen im Einlaufgehäuse. Durch die Geometrie des Einlaufgehäuses, welche die Strömung in den meisten Fällen von vertikaler in horizontale Richtung umlenkt, entstehen Ungleichförmigkeiten im Strömungsprofil, die den Druckaufbau, den Wirkungsgrad und den stabilen Betriebsbereich der Maschine einschränken können. Zusätzlich können stärkere Blattschwingungen auftreten, die die mechanische Beanspruchung der Rotorstruktur erhöhen. Mit Hilfe der numerischen Strömungsmechanik werden drei verschiedene Einlaufgehäuse untersucht, um festzustellen, welche Strömungsungleichförmigkeiten auftreten und wie diese die Strömung in der Transsonikstufe beeinflussen. Zwei der drei Varianten sind um 90° umlenkend und entsprechen denen, wie sie in realen Gasturbinen eingesetzt werden. Dabei ist eine Variante strömungstechnisch optimiert, die andere im Sinne einer möglichst einfachen Fertigung gestaltet. Die dritte Variante ist ein rein axiales Gehäuse mit einer eingebauten Versperrung, um zu untersuchen, wie gut sich Strömungsungleichförmigkeiten, die in einem radial umlenkenden Einlaufgehäuse einer stationären Gasturbine entstehen, durch Einbauten simulieren lassen. Desweiteren bietet sich diese Simulation an, da das Einlaufgehäuse zusammen mit dem 5-stufigen Axialkompressor auf einem Prüfstand vermessen wurde und so ein Vergleich mit Messwerten möglich ist. Die Simulationen haben gezeigt, dass es möglich ist, mit einem aerodynamisch günstig gestalteten Einlaufgehäuse Zuströmbedingungen zu erzeugen, die in der darauffolgenden Transsonikstufe nicht zu nennenswerten Einschränkungen in Wirkungsgrad, Druckverhältnis und Betriebsbereich führen. Eine Parameterstudie mit verschiedenen axialen Baulängen hat gezeigt, dass eine Verkürzung des Einlaufgehäuses durchgeführt werden kann, ohne zusätzliche Verluste in Kauf nehmen zu müssen. Erst bei Unterschreitung eines kritischen Maßes kommt es zu deutlichen Verlusten und einer Reduktion des Druckverhältnisses. Hier ist eine Anpassung der Vorleitreihe nötig, um den geänderten Zuströmbedingungen der Vorleitreihe hinter der verkürzten Einlaufgehäusevariante Rechnung zu tragen. Die zweite radial umlenkende Einlaufgehäusevariante ist aus aerodynamischer Sicht ungünstiger gestaltet. Hier zeigen die Simulationen, dass sich im Einlaufgehäuse Wirbel ausbilden, die zum einen im Einlaufgehäuse selbst und zum anderen in der Transsonikstufe hohe Verluste hervorrufen. Darüber hinaus kommt es zu einer Abnahme des Stufendruckverhältnisses, und es ist auch mit negativen Auswirkung auf folgende Stufen zu rechnen, da die Wirbel hinter der ersten Stufe immer noch abgeschwächt vorhanden sind. Obwohl die hinter einem radial umlenkenden Einlaufgehäuse entstehenden Geschwindigkeitsprofile komplex sind, lassen sie sich auch in einem axialen Einlaufgehäuse durch Einbauten simulieren. Auch wenn sich die verschiedenen Verlustentstehungsmechanismen gegenseitig beeinflussen und eine exakte Trennung nicht möglich ist, konnte mit einer groben Abschätzung festgestellt werden, wie groß der Anteil der Stoß- und Spaltverluste an den Gesamtverlusten ist. So haben beispielsweise im Auslegungspunkt nur etwa 15 % der Verluste ihre Ursache in den Verdichtungsstößen, und weniger als 10 % der Verluste sind auf die Spaltströmung zwischen Rotorblattspitze und Gehäuse zurückzuführen. Mit fast 80 % entsteht der überwiegende Anteil der Verluste in den Profil- und Seitenwandgrenzschichten. Die berechneten Strömungs- und Druckprofile zeigen eine sehr gute Übereinstimmung mit den durchgeführten Messungen.
Ökonomische Prozessanalyse und Modellintegration zur Kostenberechnung von Faser-Kunststoff-Verbunden
(2006)
The introduction to the topic is a description of the techno-economic evolution of
composites. Apart from this, today’s market state of the art of composites is also explained.
As a conclusion, the principal trend towards the higher quality by the increased
application of carbon fibers is ascertained. In particular, it is pointed out that
the restraints of the market growth are mainly caused by the high price, most notably,
of the fiber materials. This situation, in connection with the maturation of the composite
manufacturing processes, demands the need of a cost calculation tool.
In the second step, former composite cost models and their implementations into
software – if available – are described and benchmarked. As a result it is proposed to
combine, different approaches because of their fundamental potential as well as the
deficits. It is suggested to use a resource-based methodology combined with the
PBKM (prozessbasierte Kostenmodellierung = process-based cost modelling) and to
implement the models in a cost calculation software.
The first aim is an economic process analysis which is carried out to receive an abstract
and modular system. Thereby, it is possible to describe the production processes
by successive refinement more and more detailed. The process is divided in
multiple steps which are itself subdivided in technical activities or handlings. The
relevant cost objects with the identifiable cost positions are assigned to those handlings.
This approach assures modularity and offers the possibility of an easy software
implementation. In addition, the functionality of this methodology is demonstrated
considering the two examples “thermoplastic tape placement” and “continuous
pressing”. For that reason these composite manufacturing techniques are analyzed
and the structure is mapped within the use of suggested methodology.
The next topic deals with the modelling of the cycle time for the thermoplastic tape
placement with the use of the PBKM. Within this methodology the derivation of the
cycle time depends only on physical process parameters, which results in a geometrical
complexity based model. The developed model is verified by comparing of the
theoretically derived values with practical experiments. Along with this, the assumptions
for this model are revised and verified. As a technical enhancement of the tape
placement process, different designs of a geometry-adaptive consolidation role are introduced. This technical extension of the process technology is necessary for the
final verification of the model. The new consolidation unit enables to move all geometrical
degrees of freedom and complexities with the same laminate quality. Finally,
a possibility to transfer the methodology of the PBKM to other technologies is proved.
Therefore, it is offered a modus operandi how the continuous pressing technique can
be modelled with the help of the PBKM.
The last chapter deals with the cost calculation tool concerning the structural configuration,
design, and functionality of the software. It is the consequential synthesis of
the results of the economic process analysis and the cycle time models. The practicability
of the modularity is proved by its application in the design phase of the software
and by the integration of the modelling into the tool. The developed cost calculation
software for composite manufacturing processes offers a standardization of the
inputs and calculation algorithms by the use of introduced process analysis, the subdivision
into smallest units. The cycle time calculation models are process specific
know-how which can easily be used unlike an expert's system. The separation of the
single functional entities assures a stringent data management, possibilities for the
advancement, and furthermore, the variableness of representation and reuse of the
derived data. The functionality of the cost tool concerning evaluations and comparisons
are pointed out with two case studies. Plus, the postulated transferability of the
methodology on other composite technologies is demonstrated. The main advantage
of this system is that the modelling offers economical statements of different process
variations without experimentation. Besides, the values ascertained by the PBKM are
more precise compared to other existing models. Therefore, the PBKM can be the
basis for investment decisions like technology change or modifications and helps to
identify techno-economic limitations and potentials.
This version of the cost calculation software offers only the standard repertoire of
cost evaluations and comparisons which turn out to be upgradeable. Thus, there exists
potential to enhance the functionality concerning sensitivity analyses, the integration
of cycle time models for other composite processing technologies, and further
possibilities for the graphic processing. As a conclusion the software with the combination
of different attempts offers a good starting position with respect to the current
evolution status and should be extended.
Der kausale Zusammenhang zwischen der Dominanz von Mikroflechten gegen über Makroflechten in Tieflandregenwäldern war nicht bekannt und wird in vorliegender Studie erörtert. In der Literatur wird eine unvorteilhafte Kombination von hohen Temperaturen, niedrigen Lichtintensitäten und hoher Feuchtigkeit für die weitgehende Abwesenheit von Makroflechten in tropischen Tieflandregenwäldern verantwortlich gemacht. Aufgrund der hohen Abundanz in diesen Habitaten, kann diese Aussage für krustige Flechten nur bedingt zutreffen. Es wurden eine Reihe von Arbeitshypothesen entwickelt, die klären sollten, ob corticole Grünalgenflechten bestimmte funktionelle Lebensstrategie aufweisen, in welcher Weise das Mikroklima ihren Stoffwechselprozess beeinflusst, und warum sie im tropischen Tiefland-Regenwald dominieren. Die Fragenstellungen wurden unter Verwendung von ökophysiologischen Methoden in vivo und in situ in einem für die Flechten mikroklimatisch unvorteilhafte, tropischen immergrünen Tieflandregenwald im National Park Les Nouragues (Französisch-Guyana) untersucht. Aufgrund des intensiven Kontakts mit ihrem Substrat werden corticole Flechten stark von den mikroklimatischen Bedingungen des Phorophyten beeinflusst. Sie zeigen morphologisch-anatomische Anpassungen, die einen physiologisch vorteilhaften Zustand zwischen Wasserübersättigung und Austrocknung ermöglichen. Ihre Photosynthese ist an niedrige Lichtintensitäten angepasst und nutzt unterschiedliche Lichtqualitäten aufgrund physiologischer Strategien verschieden aus. Weitere Ergebnisse zeigten dass Krustenflechten neben funktionellen morphologisch-anatomischen und physiologischen Strategien, auch durch ein hohes Oberflächen zu Volumen Verhältnis, durch ein hohes Biomassenverhältnis des Photobionten zum Mycobionten und wahrscheinlich durch die Fähigkeit, saprophytisch Kohlenstoff zu gewinnen, befähigt sind, mikroklimatisch unvorteilhafte Habitate, wie die eines tropischen Tieflandregenwaldes, zu besiedeln
Der erhebliche Anstieg an Penicillin-resistenten Bakterienstämmen stellt ein weltweit immer größer werdendes Problem in der Medizin dar. Für die Bekämpfung solcher resistenten Stämme ist es wichtig, die Entstehung und den Mechanismus der Penicillin-Resistenz auf molekularer Ebene zu verstehen und dadurch Targets für neue Klassen antimikrobieller Wirkstoffe zu identifizieren. Die Lösung dieser Problemstellung war somit der Schwerpunkt der Untersuchungen in der vorliegenden Arbeit. Die Arbeit befasste sich mit der Übertragung der beta-Laktam-Resistenz von einem hochresistenten klinischen S. oralis Isolat aus Ungarn auf den sensitiven S. pneumoniae R6 Stamm. Dabei sollte durch Transformationsexperimente überprüft werden, ob und wie weit S. oralis als Donor für die Penicillin-Resistenz in S. pneumoniae fungieren kann und welche Gene dabei eine Rolle spielen. Solche Experimente bilden die Grundlage für das bessere Verständnis der Evolution und Ausbreitung der beta-Laktam-Resistenz in kommensalen und pathogenen Streptokokken. Durch sukzessive DNA-Transformation konnte der Resistenzphänotyp des Donorstammes zu einem hohen Grad in den sensitiven S. pneumoniae Stamm R6 übertragen werden. Von Interesse war zunächst, welche S. oralis PBPs dabei eine Rolle spielen. Für die bekannten Resistenzdeterminanten PBP2x, PBP2b und PBP1a konnte nachgewiesen werden, dass sie auch hier einen entscheidenden Beitrag für die Resistenzentwicklung leisten. Nach insgesamt sechs aufeinanderfolgenden Transformationsstufen mit chromosomaler S. oralis DNA konnte das Resistenzniveau des Rezipienten ca. 600- bis 700-fach erhöht werden; PBPs waren nur bei den ersten drei Stufen beteiligt. Microarray-Analysen mit DNA der Transformanten gaben Hinweise darauf, welche anderen Gene übertragen wurden und erlaubten in einem Fall die Identifizierung einer neuen Resistenzdeterminante: MurE. Die gesamte Resistenz des Donors konnte nicht in S. pneumoniae übertragen werden; die Gründe hierfür sind denkbar vielfältig und wurden in der Diskussion aufgegriffen. Die Charakterisierung der Nicht-PBP-Resistenzdeterminate MurE standen nach deren Identifizierung im Mittelpunkt der Analysen in der vorliegenden Arbeit. Die Selektion von beta-Laktam-resistenten Transformanten mit modifiziertem MurE zeigten zum ersten Mal die Rolle dieses Proteins in der Entwicklung der Penicillin-Resistenz in S. pneumoniae. Austausche in diesem Gen führten zu einer ca. 3- bis 5-fachen Erhöhung der Resistenz gegenüber Cefotaxim und Piperacillin und bewirkten einen 40-fachen Anstieg der Cefotaxim-Resistenz und 20-fachen Anstieg der Oxacillin-Resistenz in Verbindung mit einem Mosaik-PBP2x. In Verbindung mit einem Mosaik-PBP2b führte das ausgetauschte MurE zu einem 20-fachen Anstieg der Piperacillin-Resistenz. Durch Herstellung von Stämmen mit ektopischer Kopie von murE mit unterschiedlichen Promotor- und Genfragmenten und anschließender Deletion des Wildtyp-Allels im Genom konnte nachgewiesen werden, dass sowohl veränderte Bereiche im Strukturgen als auch der murE-Promotorbereich von S. oralis Uo5 zu einem Anstieg der Resistenz in S. pneumoniae führen. Einige der Veränderungen, die Aminosäuren betreffen, sind in der Nähe des aktiven Zentrums lokalisiert und könnten die Bindung zum Substrat bzw. ATP beeinflussen. Die Bestimmung der Promotoraktivität von murE aus S. oralis Uo5 und S. pneumoniae R6 ergab, dass das Gen aus S. oralis etwa zweifach stärker exprimiert wird. Die stärkere Expression von murE hat allerdings keinen Einfluss auf die Produktion von PBP2x, PBP1a oder PBP2b, wie durch spezifische Antikörper und Western-Blots für alle drei PBPs festgestellt werden konnte. Dies konnte auch mit Hilfe von Reporter-Assays zur Bestimmung der Promotoraktivität von pbp2x bestätigt werden. Signifikante Veränderungen in der Zellwandzusammensetzung der murE-Transformanten konnten ebenfalls nicht beobachtet werden. Eine Hypothese geht davon aus, dass sowohl die erhöhte Promotoraktivität als auch die Mutationen im Strukturprotein dasselbe bewirken, nämlich die Bereitstellung von mehr MurE-Produkt (durch mehr Enzym oder durch aktiveres Enzym). Möglicherweise ist dadurch der Pool an Muropeptidvorstufen erhöht, was wiederrum Einfluss auf die Mureinbiosynthese hat und somit ein besseres Wachstum in Gegenwart von beta-Laktamen erlaubt, d.h. unter den hier verwendeten Selektions- und Testbedingungen.
Im ersten Teil der vorliegenden Arbeit wurde Knochenmarksmaterial von 110 Leukämiepatienten auf das Vorliegen von p53-Gen-Deletionen untersucht. Zu diesem Zweck wurden sowohl Interphasezellkerne als auch Metaphasen der Leukämiezellen mittels der Fluoreszenz-in-situ-Hybridisierungstechnik (FISH) mit der p53-Gen-Sonde untersucht. Dabei konnte in keinem der 55 untersuchten Patienten mit lymphatischer Leukämie eine Alleldeletion des p53-Gens nachgewiesen werden. Da die p53-Gen-Deletion nach den Literaturangaben bei etwa 7% der Patienten mit lymphatischer Leukämie vorkommt, widersprechen die eigenen Ergebnisse diesen Angaben. Als Grund kann die zu geringe Anzahl der untersuchten Fälle genannt werden. Bei den 55 hier untersuchten Patienten, die an myeloischer Leukämie erkrankt waren, konnte in 7 Fällen (13%) eine Deletion im p53-Gen mittels FISH nachgewiesen werden. Der Anteil der gefundenen p53-Gen-Deletionen war deutlich höher als aufgrund der Literaturangaben erwartet. Die sieben Patienten, bei denen eine p53-Gen-Deletion nachgewiesen wurde, waren alle an akuter myeloischer Leukämie (AML) erkrankt. Alle Patienten, die eine p53-Gen-Deletion aufwiesen, zeigten auch einen numerisch und strukturell aberranten Karyotyp. Im zweiten Arbeitsabschnitt wurden Knochenmarkszellen von 21 Patienten mit hämatologischen Erkrankungen mittels spektraler Karyotypisierung (SKY) untersucht und mit dem zytogenetischen Routinebefund verglichen. Ziel der Untersuchung war die Identifizierung von numerischen und strukturellen Chromosomenaberrationen, die durch die konventionelle zytogenetische Untersuchung nicht identifiziert werden konnten. Bei 17 (81%) der Fälle wurden durch SKY zusätzliche Chromosomenaberrationen festgestellt. Nur bei 4 (19%) der Fälle wurde der zytogenetische Befund bestätigt. Im dritten Arbeitsabschnitt wurden Meningeome untersucht. Bei 22 Meningeomen (17 benigne und 5 atypische Meningeomen) wurde mittels Interphase-FISH nach einer Alleldeletion des p53-Gens gesucht. Es konnte jedoch in keinem Fall eine solche Deletion nachgewiesen werden. Weiterhin wurden bei 24 Meningeomen 96 frische Biopsieproben von verschiedenen Tumorarealen mit G-Bänderungstechnik zytogenetisch analysiert. Zur besseren Aufklärung komplex aberranter Karyotypen wurden zwei Fälle (Nr. 1 und Nr. 7) auch mittels SKY-Analyse untersucht. Ziel der vorliegenden Arbeit war es festzustellen, ob zytogenetische Unterschiede zwischen den unterschiedlichen Arealen innerhalb eines Tumors vorliegen. Es gab bei 13 von 24 Meningeomen (54%) zytogenetische Unterschiede zwischen den verschiedenen Arealen innerhalb eines Tumors. 24 (83%) von 29 Meningeomen wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft und 5 (17%) von 29 Meningeomen in den Tumorgrad II. Die Tumorgradverteilung in dieser Arbeit entspricht den Literaturangaben. 13 von 24 Tumoren wiesen entweder einen normalen Karyotyp oder nur eine Monosomie 22 auf. Alle 13 Tumoren wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft. Vier Meningeome wiesen stark aberrante Karyotypen auf, was vermutlich ein Zeichen für die Tumorprogression darstellt. Es wurde auch untersucht, ob eine Korrelation zwischen dem zytogenetischen und histologischen Befunden vorliegt. In der vorliegenden Arbeit hat bei sechs Fällen der histologische Befund nicht mit dem zytogenetischen Befund übereingestimmt, da die Tumore in den Tumorgrad I eingestuft wurden, der zytogenetische Befund aber einen aberranten Chromosomensatz aufwies, der normalerweise nicht bei niedriggradigen Meningeomen, sondern bei atypischen und anaplastischen Meningeomen vorkommt. Die Untersuchungsergebnisse deuten darauf hin, dass die Kombination verschiedener zytogenetischer und molekularzytogenetischer Methoden zur Charakterisierung Chromosomaler Aberrationen bei Meningeomen sinnvoll ist.
Prüfungen sind untrennbar mit der Vorstellung von Hochschule und Studium verbunden und tief im hochschlichen Selbstverständnis verankert. So wie Prüfungen traditionell Strukturelemente des Lehrens und Lernens sind, so traditionell ist auch die Prüfungskritik. Prüfungen gelten als ein besonders wenig erforschtes Thema, obwohl sie in Bildungs- und Studienbiografien Wendepunkte und Krisen markieren und gewollt oder ungewollt das Lernverhalten maßgeblich beeinflussen. Mit der vorliegenden Arbeit wird das Phänomen der kompetenzorientierten Hochschulprüfung mit seinen vielfältigen Wechselwirkungen aus einer hochschuldidaktischen Perspektive erkundet. Die Hochschuldidaktik, die sich mit Fragen der Lehrqualität und Lehrentwicklung befasst, bewegt sich zwischen verschiedenen Disziplinen. So bewegt sich auch die vorliegende Ausarbeitung zwischen diesen Disziplinen und ist dementsprechend interdisziplinär angelegt. In der explorativen Untersuchung wurde die umfangreiche Literatur zu dem Thema systematisch ausgewertet und aufbereitet sowie Interviews geführt und mittels Inhaltsanalyse weitere Faktoren expliziert. Die Ergebnisse der Inhaltsanalyse werden vorgestellt und systemtheoretisch eingeordnet sowie im Mehrebenenmodell und mit einer Einzelfallbetrachtung betrachtet. In den Schlussbetrachtungen wird der Frage nachgegangen, inwiefern die identifizierten Faktoren durch hochschuldidaktische Massnahmen überwunden werden können.
Die Bewertung bestehender Bauteile unterscheidet sich grundsätzlich von der Bemessung neu zu erstellender Bauteile, da im Gegensatz zur Neubausituation bemessungsrelevante Parameter am Bestandstragwerk ermittelt werden können. Trotzdem müssen baustatische Nachweise in beiden Fällen auf Basis der aktuellen technischen Baubestimmungen geführt werden, deren Sicherheits- und Nachweiskonzept zur Erstellung von Neubauten konzipiert wurde und berücksichtigt, dass die tatsächlichen Bauteilkennwerte zum Zeitpunkt der Bemessung mit Unsicherheiten behaftet sind.
Bestehende Tragwerke können und müssen in vielen Fällen die darin enthaltenen Anforderungen nicht erfüllen, da im Vergleich zur Neubausituation eine Vielzahl von Tragwerksinformationen vorliegen, die eine Absenkung der im Zuverlässigkeitskonzept enthaltenen Unsicherheitsfaktoren begründen.
Aus diesem Grund wird innerhalb der vorliegenden Arbeit ein zur Bewertung bestehender Wasserbauwerke angepasstes, semiprobabilistisches Nachweiskonzept erarbeitet, das auf den wahrscheinlichkeitstheoretischen Festlegungen des Eurocode beruht. Im Vergleich zum aktuellen Nachweiskonzept zeichnet es sich durch die Berücksichtigung von im Rahmen einer qualifizierten Bestandsaufnahme am Tragwerk festgestellten Bauteilkennwerten und Einwirkungen sowie angepassten Zuverlässigkeitselementen aus.
Innerhalb einer probabilistischen Querschnittsanalyse werden weiterhin die zur Zuverlässigkeitsbewertung bestehender Wasserbauwerke aus Beton maßgebenden Basisvariablen identifiziert und es wird nachgewiesen, dass auch die Zuverlässigkeitselemente des modifizierten Nachweiskonzeptes dem Format nach den wahrscheinlichkeitstheoretischen Festlegungen des Eurocodes entsprechen.
Darüber hinaus wird gezeigt, dass die Konstruktionsweise zur Errichtung von unbewehrten Gewichtsstützwänden alter Schleusen zu einem Zuverlässigkeitsniveau führt, wie es aktuell auch innerhalb des Eurocodes gefordert wird.
In der aktuellen technologischen Entwicklung spielen verteilte eingebettete Echtzeitsysteme eine immer zentralere Rolle und werden zunehmend zum Träger von Innovationen. Durch den hiermit verbundenen steigenden Funktionsumfang der verteilten Echtzeitsysteme und deren zunehmenden Einsatz in sicherheitsrelevanten Anwendungsgebieten stellt die Entwicklung solcher Systeme eine immer größere Herausforderung dar. Hierbei handelt es sich einerseits um Herausforderungen bezogen auf die Kommunikation hinsichtlich Echtzeitfähigkeit und effizienter Bandbreitennutzung, andererseits werden geeignete Methoden benötigt, um den Entwicklungsprozess solcher komplexen Systeme durch Tests und Evaluationen zu unterstützen und zu begleiten. Die hier vorgestellte Arbeit adressiert diese beiden Aspekte und ist entsprechend in zwei Teile untergliedert.
Der erste Teil der Arbeit beschäftigt sich mit der Entwicklung neuer Kommunikationslösungen, um den gestiegenen Kommunikationsanforderungen begegnen zu können. So erfordert die Nutzung verteilter Echtzeitsysteme im Kontext sicherheitsrelevanter Aufgaben den Einsatz zeitgetriggerter Kommunikationssysteme, die in der Lage sind, deterministische Garantien bezüglich der Echtzeitfähigkeit zu gewähren. Diese klassischen auf exklusiven Reservierungen basierenden Ansätze sind jedoch gerade bei (seltenen) sporadischen Nachrichten sehr ineffizient in Bezug auf die Nutzung der Bandbreite.
Das in dieser Arbeit verwendete Mode-Based Scheduling with Fast Mode-Signaling (modusbasierte Kommunikation) ist ein Verfahren zur Verbesserung der Bandbreitennutzung zeitgetriggerter Kommunikation, bei gleichzeitiger Gewährleistung der Echtzeitfähigkeit. Um dies zu ermöglichen, erlaubt Mode-Based Scheduling einen kontrollierten, slotbasierten Wettbewerb, welcher durch eine schnelle Modussignalisierung (Fast Mode-Signaling) aufgelöst wird. Im Zuge dieser Arbeit werden verschiedene robuste, zuverlässige und vor allem deterministische Realisierungen von Mode-Based Scheduling with Fast Mode-Signaling auf Basis existierender drahtgebundener Kommunikationsprotokolle (TTCAN und FlexRay) vorgestellt sowie Konzepte präsentiert, welche eine einfache Integration in weitere Kommunikationstechnologien (wie drahtlose Ad-Hoc-Netze) ermöglichen.
Der zweite Teil der Arbeit konzentriert sich nicht nur auf Kommunikationsaspekte, sondern stellt einen Ansatz vor, den Entwicklungsprozess verteilter eingebetteter Echtzeitsysteme durch kontinuierliche Tests und Evaluationen in allen Entwicklungsphasen zu unterstützen und zu begleiten. Das im Kontext des Innovationszentrums für Applied Systems Modeling mitentwickelte und erweiterte FERAL (ein Framework für die Kopplung spezialisierter Simulatoren) bietet eine ideale Ausgangsbasis für das Virtual Prototyping komplexer verteilter eingebetteter Echtzeitsysteme und ermöglicht Tests und Evaluationen der Systeme in einer realistisch simulierten Umgebung. Die entwickelten Simulatoren für aktuelle Kommunikationstechnologien ermöglichen hierbei realistische Simulationen der Interaktionen innerhalb des verteilten Systems. Durch die Unterstützung von Simulationssystemen mit Komponenten auf unterschiedlichen Abstraktionsstufen kann FERAL in allen Entwicklungsphasen eingesetzt werden. Anhand einer Fallstudie wird gezeigt, wie FERAL verwendet werden kann, um ein Simulationssystem zusammen mit den zu realisierenden Komponenten schrittweise zu verfeinern. Auf diese Weise steht während jeder Entwicklungsphase ein ausführbares Simulationssystem für Tests zur Verfügung. Die entwickelten Konzepte und Simulatoren für FERAL ermöglichen es, Designalternativen zu evaluieren und die Wahl einer Kommunikationstechnologie durch die Ergebnisse von Simulationen zu stützen.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Die vorliegende Arbeit liefert zutreffende zyklische Lastverformungs- und Rissfortschrittsbeziehungen für Trägerverbundfugen mit Kopfbolzendübel 22mm (Durchmesser) anhand derer man in der Lage ist, den Schädigungs- und Lastverformungszustand in einem Verbundträger unter zyklischer Belastung zu bestimmen. Die Modelle wurden auf Grundlage einer hohen Anzahl von weggeregelten Push-Out-Versuchen abgeleitet und an einigen zyklischen Trägerversuchen verifiziert. Mit den gefundenen Zusammenhängen ist es möglich, sehr genaue Lebensdauerprognosen für Kopfbolzendübel in Trägerverbundfugen abzugeben. Weiter wird ein einfaches Bemessungskonzept für Kopfbolzenermüdung vorgeschlagen.
Als alternatives Bewehrungsmaterial für Betonbauteile kann eine Faserkunststoffbewehrung (FKB), bestehend aus faserverstärkten Kunststoffen (FVK) eingesetzt werden. Im Vergleich zu Stahlbewehrung weist eine FKB verschiedene Vorteile auf. Neben einer geringen Wärmeleitfähigkeit, nicht magnetischen Eigenschaft und einer hohen Zugfestigkeit weist FKB eine hohe Beständigkeit gegenüber stahlkorrosionsfördernden Umgebungsbedingungen auf. Durch die Anwendung von FKB in Betonbauteilen, besteht das Potenzial eine tragfähige und wartungsarme Betonkonstruktion herzustellen.
Da noch keine allgemeingültige Bemessungsnorm für FKB existiert, werden faserkunststoffbewehrte Betonbauteile derzeit nach den für Betonstahl gültigen Normen in Kombination mit den allgemeinen bauaufsichtlichen Zulassungen bemessen. Infolge der voneinander abweichenden Materialcharakteristiken der Werkstoffe Stahl und FVK, können nicht alle geltenden Bemessungsgleichungen ohne Anpassung angewendet werden. Dies betrifft die Bemessung der Verankerungslänge zur Sicherstellung der Verankerungstragfähigkeit.
Der aktuelle Stand der Wissenschaft bezieht sich überwiegend auf das stabspezifische Verbundverhalten von FKB-Stäben unter Kurzzeitbeanspruchung. Erkenntnisse zum Langzeitverbundverhalten und der Verankerungstragfähigkeit eines faserkunststoffbewehrten Betonbauteils sind unzureichend vorhanden.
Gegenstand der vorliegenden Arbeit ist die Erforschung des Verbundtragverhaltens von FKB-Stäben und die Erarbeitung eines Bemessungskonzepts zur Sicherstellung der Verankerungstragfähigkeit unter Kurz- und Langzeitbeanspruchung. Die Basis hierfür bildet der aktuelle Arbeitsentwurf des Eurocode 2. Die darin aufgeführte Bemessungsgleichung der Verankerungslänge wird für FKB-Stäbe angepasst und um eine Mindestverankerungslänge zur Sicherstellung einer dauerhaften Verankerungstragfähigkeit sowie eine Mindestbetondeckung zur Vermeidung eines schlagartigen Bauteilversagens erweitert.
Zur Erstellung des Bemessungskonzepts werden experimentelle Untersuchungen an faserkunststoffbewehrte Betonbauteile mit Bewehrungsstäben aus glasfaserverstärktem Kunststoff (GFK) durchgeführt. Es werden das Verbundverhalten und das Veran-kerungstragverhalten in Abhängigkeit konstruktiver Parameter erforscht. Um den Einfluss von Langzeiteinflüssen auf die Verankerungstragfähigkeit zu erforschen, wird ein Versuchsstand konzipiert, mit dessen Hilfe der Einfluss einer langandauernden Belas-tung und einer kombinierten Einwirkung von Temperatur, Feuchtigkeit und Betonalkalität auf die Verbundfestigkeit bestimmt wird. Des Weiteren wird ein Versuchskörper entwickelt, welcher ermöglicht die Spannungsverteilung einer Verankerung quantitativ zu erfassen. Hiermit wird die Beanspruchung des Betons entlang der Verankerungslänge abgeleitet.
Die gesammelten Erkenntnisse münden in einem Modell zur Berechnung des Verbundspannungsverlaufs, dessen zeitliche Entwicklung sowie der Beanspruchung der Betondeckung. Anhand dieses Modells werden Bemessungswerte der Verbundfestigkeit stabspezifisch abgeleitet.
Mit dem vorliegende Projekt sollten die Voraussetzungen dafür geschaffen werden, filigrane Fassadenplatten aus Hochleistungsbeton im Fertigteilbau realisieren zu können. Konventionelle Befestigungsmittel (Dübel, Anker) scheiden wegen der geringen Materialstärke weitgehend aus. Bestehende Systeme mit Klebtechnik erfordern eine aufwändige metallische Unterkonstruktion aus nichtkorrosivem Material. Zudem erweist sich die Montage als schwierig, sodass sich diese Systeme in der Praxis bisher nicht durchgesetzt haben. Die hier vorgeschlagene Lösung baut auf eine punktförmige Befestigung der Fassadenplatten mittels Klebtechnik auf. Die Klebanker (d = 12 mm) aus glasfaserverstärkten Kunststoffen (GfK) werden zusammen mit einer Tragschale und Wärmedämmung hergestellt und dann mittels Wendetechnik im Fertigteilwerk rückseitig auf die Fassadenplatten geklebt. Im Rahmen der vorliegenden Arbeit wurde ein neuartiger Über- und Unterdruckversuchsstand entwickelt. Zusätzlich wurden neue Zug-, Scher- und Interaktions-Versuchsstände für Klebversuche an Platten konzipiert. Die Biegezugfestigkeit des Glasfaserbetons wurde in Abhängigkeit von der Zeit untersucht. Das Trag- und Verformungsverhalten der GfK-Stäbe wurde in Abhängigkeit von der Zeit ausgewertet und ausgewählt. Wie die Untersuchungen zeigen, können bis zu 2,7 x 3,5 m große Fassadenplatten realisiert werden, wenn die Klebanker einen Gelenkkopf erhalten, der die Verformungsbehinderung der Fassadenplatte reduziert. Das Langzeittragverhalten der GfK-Anker, das aus dem Zulassungsverfahren der verwendeten Schöck ComBAR® bekannt ist, wurde berücksichtigt. Ein Ankerraster von 500 x 500 mm hat sich als wirtschaftlich sinnvoll ergeben. Für die Fassadenplatten werden wegen der besseren Tragfähigkeit der Klebverbindung hochfeste Betone „Referenzbeton 1“ den Glasfaserbetonen „Referenzbeton 2“ vorgezogen. Fertigungsbedingte Schwankungen der Klebfugendicke im Bereich von 1 mm bis 5 mm können ohne signifikante Festigkeitseinbußen toleriert werden. Die durchgeführten mechanischen Versuche und Berechnungen zeigen, dass die Standsicherheit des Fassadensystems bei entsprechender Dimensionierung der Klebflächen gegeben ist.
Um eine weitere Zunahme der Umweltbelastung infolge des stetig anwachsenden Leergewichtes heutiger Kraftfahrzeuge zu vermeiden, wird dem vermehrten Einsatz von Faser-Kunststoff-Verbundwerkstoffen (FKV) auch für hochbelastete Sekundärstrukturen zukünftig eine zentrale Rolle beim intelligenten Fahrzeug-Leichtbau zukommen. Die hierzu erforderliche Substitution metallischer Bauweisen durch FKV-Lösungen bietet das Potential, aufgrund des herausragenden gewichtsspezifischen Eigenschaftsprofils der Werkstoffgruppe und der Möglichkeit einer weitreichenden Teile- und Funktionsintegration eine deutliche Gebrauchswerterhöhung und auch Kostenreduktion zu erzielen.
Die im Rahmen dieser Arbeit durchgefüh1ie Analyse des heutigen Entwicklungsstandes von
Fahrzeug-Sitzstrukturen und Fahrwerkselc1nenten in FKV-Bauweise zeigte, daß bei vorderen
Pkw-Sitzen die Grenzen des mit FKV derzeit Umsetzbaren erreicht sind. Bei Pkw-Fahrwerken konnte festgehalten werden, daß bislang keine längsorientierte, nicht angetriebene Hinterachse in FKV-Bauweise ohne zusätzliches Querelement bekannt ist, obwohl diese Achsbauart zunehmend eingesetzt wird. Zielsetzung der Arbeit war es daher, innovative Ansätze für die integrierte Gestaltung vorderer Sitzstruktur-Komponenten zu entwickeln, die Leichtbau und hohe Funktionalität mit Großserienfertigung verbinden und weiter Vorschläge zur Gestaltung längsorientierter, nicht angetriebener Pkw-Hinterachsen in FKV-Bauweise zu erarbeiten. Die Arbeit geht zunächst detailliert auf die Besonderheiten der FKV-Bauweisenentwicklung im Vergleich zum klassischen Konstruktionsablauf bei metallischen Strukturen ein. Darauf aufbauend wird die werkstoff- und fertigungsgerechte Spritzgieß-Konstruktion einer oberen Lehnen-Quertraverse aus diskontinuierlich langglasfaserverstärktem Thermoplasten (DLFRP oder LFT) vorgestellt, die zwei Kopfstützen-Führungselemente und die eigentliche metallische Quertraverse integriert. Zudem ermöglicht die Funktionserweiterung der axialen Drehbarkeit des gesamten Bauteils ein verbessertes Anstellen der Kopfstütze an den Insassen-Hinterkopf. Quasi-statische und auch dynamische Kopfaufprall-Prüfungen an Prototypen zeigten eine gute
Übereinstimmung mit den numerischen Simulationsergebnissen und bestätigten das geforderte „gutmütige" Versagensverhalten des Bauteils durch den Einsatz von Langfasern.
Im weiteren stellt die Arbeit erstmals ein schlüssiges werkstoff- und fertigungsgerechtes Konzept für eine längsorientierte, nicht angetriebene Hinterachse in FKV-Bauweise auf der Basis eines funktionsintegrierten CFK-Doppel-Blattfeder-Elementes mit in Reihe geschalteter FKV-Drehrohrfeder-Anordnung vor. Die im Vergleich zu herkömmlichen Metallbauweisen um etwa 40 % leichtere Konstruktion verzichtet auf ein mitfederndes Querelement zur Aufnahme der Seitenkräfte und ermöglicht ein elastokinematisch basiertes In-Vorspur-Gehen des kurvenäußeren Hinterrades. Die grundsätzliche Funktionstüchtigkeit der Konstruktion konnte in ausführlichen strukturmechanischen Simulationsrechnungen nachgewiesen werden.
Die effektive Nutzung der attraktiven Materialeigenschaften von Verbundwerkstoffen,
insbesondere die der langfaserverstärkten Polymere in Großserienbauteilen, macht
nicht nur die Entwicklung entsprechender Fertigungsverfahren sondern einhergehend
prognosefähige Berechnungsmethoden für Werkstoff und Bauweise notwendig.
Praxistaugliche Berechnungsmodelle beschränken sich in der Regel auf bewusst einfach
gehaltene analytische Modelle zur Grobdimensionierung oder auf Finite-Elemente-
Analysen. Letztere erlauben, lokale Konstruktionsaspekte darzustellen und
detaillierte Einsicht in das Strukturverhalten zu nehmen.
Am Beispiel von mit der Wickeltechnik hergestellter zylindrischer Vollkunststoff-
Druckbehälter wurden Auslegungsmethoden für unidirektional verstärkte FKV-Strukturen
erörtert, experimentell validiert und zusammen mit analytisch formulierten
Randbedingungen bzw. Modellen zu Geometrie, Werkstoff und Fertigung in ein vollparamtrisches,
dreidimensionales FE-Auslegungsmodul implementiert. Durch die
Auflösung der tragenden Tankstruktur in die einzelnen Wickellagen und der parametrischen
Variation von Lagenaufbau und Domgeometrie gestattet dieses eine effektive
Bauweisenoptimierung hinsichtlich Gewicht und Werkstoffausnutzung. Insbesondere
die neuartige, experimentell verifizierte Beschreibung der einzelnen Wickellagendicken
im Behälterdom erlaubt eine der Fertigung entsprechende, im jeweiligen
Wicklungslagenende wulstfreie Behältermodellgenerierung.
Gewebeverstärkte thermoplastische Halbzeuge können oberhalb ihrer Verformungstemperatur
wiederholt mittels Stempelumformprozess in aufeinander abgestimmten
Werkzeughälften umgeformt werden. Für eine effektivere Auslegung solcher Bauweisen
durch Verbesserung der Werkstoffmodellierung wird erstmalig die Prozesssimulation
mit der Strukturanalyse gekoppelt. Die hierfür entwickelte Schnittstelle vollzieht neben der Datenübersetzung die automatisierte Aufbereitung des Simulationsschalennetzes
zum voluminösen Strukturmodell nebst Modellbeschneidung und beinhaltet
erste Ansätze zur Abschätzung der Werkstoffkennwerte des infolge der Drapierung
nicht mehr orthogonal gewebeverstärkten FKV. Die Berücksichtigung von
Fadenorientierung, Dickenverteilung und auftretenden Falten durch Übertragung des
Simulationsnetzes erlaubt eine im Vergleich zum Stand der Technik realitätsnähere,
durch Bauteilprüfungen validierte Abbildung des mechanischen Strukturverhaltens.
The effective use of the attractive material properties of fiber reinforced plastics
(FRP), especially of long fiber reinforced polymers in mass production, requires an
advanced development of suitable manufacturing processes and prognostic design
and analysis methods for the material and structural behavior. This paper resulted
out of two research projects, accompanied by industrial, close to series development
tasks. The objective was to increase the efficiency of the material, structure and
manufacturing aspects of the prototype development through improved modeling
methods in analysis and simulation in close relationship with the design, material
development and testing facilities.
Mass production capability of thermoforming processing in combination with weight
saving potentials on the one hand and thermal and electrical insulation advantages of
thermoplastics in comparison to steel on the other hand was the motivation for the
development of a safety toe cap for safety shoes made of canvas reinforced thermoplastics.
An innovative analysis method for structures made of canvas reinforced
plastics which was initiated by this development program focus on a realistic
reproduction of the non-orthogonal fiber reinforcement of the woven fabric after the
thermoforming process. Canvas reinforced thermoplastics can be simplified as an
alignment of small unidirectional fiber reinforced sections in weft and warp direction.
The underlying design theories for unidirectional FRP were rehashed and advanced
in the framework of a full plastic high pressure vessel development program. To
improve the effectiveness of the pressure vessel design work, the mentioned design
theories and further specific manufacturing models were implemented in an innovative,
full-parametric design module validated by burst pressure vessel tests.
Of importance for the dimensioning and wide application of FRP-structures is the
ability to forecast the material behavior, particularly with regard to the frequent lack of measured material properties in practical design work. The conceptual formulation
was augmented for the quality assessment of the accomplished design work with a
systematic evaluation of the most well known estimations in regards to stiffness and
strength properties of unidirectional and canvas reinforced plastics. For non-orthogonal
canvas reinforced FRP, as in case of thermoformed components, no appropriate material model is available. A relative easy handling material model for orthogonal
canvas reinforced FRP known in literature was augmented to non-orthogonal.
This paper is not dealing with lightweight construction methods but in fact with the
objective to improve the praxis relevant design methods of unidirectional and bidirectional
fiber reinforced plastics; i.e. including estimations for material properties
and manufacturing influences.
The fundamentals of the presented analyses are the consideration of fiber orientation
and ply thickness close to reality by analytical models implemented in the FEA like
the description of the fiber deposition in a filament winding process.
A significant improvement of the design and analyses methods for unidirectional FRP
exemplarity in the case of high pressure vessels made of full plastic has been done
by the comprehension of relevant manufacturing parameters, especially through the
improved description of the ply thickness in the vessel domes. This was achieved by
combining two models, each separately known in literature, to level the bulges at the
end of each ply due to increasing fiber coverage and their mathematical description.
This leveling meets the practical corrections that also have to be done in a filament
winding program in the manufacturing process. Validating measurements on pressure
vessel prototypes were performed and showed excellent accordance.
Beyond it, the developed parametric FE analysis tool for cylindrical pressure vessels
produced with the filament winding technique enables a time efficient design optimization vessels in the analysis tool were set back to future work due to the unsufficient amount of vessel tests and for the benefit of a challenging design
analysis concept for canvas reinforced FRP.
For thermoformed canvas reinforced FRP the fiber orientation and play thickness can
be determined by process simulation. Interfaces to the structural analysis that particularly
include the theoretical estimation of material properties and the material
modeling are not available in the commercial market. Hence, even the structural
analysis of such constructions can not be assumed to be state of the art. Previous
analyses of thermoformed constructions depend on material isotropy or neglect the
canvas shearing during draping; i.e. the thermoformed woven fabric material is
modeled with orthogonal fiber orientation and constant ply thickness. The objective of
this paper is to combine forming simulation and structural analysis in a way, that
beside the pure data translation, the interface performs an automated transformation
of the shell based process simulation FE net to a volumetric structure model including
the model trimming and the estimation of the non-orthogonal material properties.
The consideration of fiber orientation, thickness distribution and eventually occurring
crinkles transferred with the FE net of the process simulation into the structural
analysis allows a much more reliable reproduction of the mechanical structure behavior
as in comparison to the traditional state of the art analysis which has been
validated by extensive prototype tests.
The static, non-linear analysis of the toe cap made of canvas reinforced thermoplastic
is accompanied by very successful prototype tests, which in turn pushed this
toe cap design ahead. This series are closely linked to material development, as well
as new manufacturing technology.
and analysis because of it's automated model generation. The analysis or
evaluation of variants of the load bearing FRP lay-up, the influence of different valve
geometry and dome contours necessitates now solely the modification of the input
parameters.
For a specific forecast of the achievable burst pressure of a pressure vessel design
additional work has to be done. A degradation model has to be implemented in the
analysis tool to evaluate the increasing local ply failures until the vessel burst. The
main objective for the unidirectional FRP essay of the paper was to improve the
model generation and to increase the time effectiveness of the design analysis,
which has been achieved. The originally planed implementation of a strength evaluation
of pressure
Liquid composite moulding (LCM) is an efficient process for manufacturing polymer
composite structures. During LCM a liquid thermoset resin is injected into the mould
cavity containing a pre-placed dry fabric preform. In the last step of the process the
resin cures and afterwards the part can be removed from the mould. Due to relative
low injection pressure applied in processing this technique is expected to offer
potential for cost reduction in the fabrication of large parts of complex shape.
However, in practice, much time is spent for optimising processing parameters and
properly designing the mould in order to avoid problems such as void formation and
dry spots. The common trial and error tactic to determine optimised parameters
increases time and costs for an optimal process configuration. Thus simulation will
help to speed up the development process saving cost and time.
When producing double curved parts the angles between warp and weft fibres of the
fabrics change and influence the permeability of the fabric as well as the preferred
direction of flow through the fabric during the injection phase. Further on these
shearing effects increase the fibre volume fractions and therefore less resin is
available in the correspondent areas. This leads to different results of the curing
process in the sheared areas compared to the curing process in the unsheared
areas.
Opposite to the current LCM simulation technique where only the injection process is simulated, this work presents the simulation of the three single processes and
combines them in an appropriate way to improve the simulation results.
First draping simulations are performed. Therefore, the shear behaviour is
investigated. These results are used in the draping simulation in order to obtain the
fibre orientations of the warp and weft fibres. The draping results are verified by
comparing them with the corresponding parameters of parts formed.
In order to use the results of the draping simulation in the flow simulation an interface
is developed that transforms the result files obtained from the draping simulation into
a file format suitable for the flow simulation. The mode of operation of this interface is
illustrated. First a standard file format is generated to combine the shearing angles
and the node locations delivered by PamForm™. A programme is developed that reads the node locations, the shear angles and the fibre orientations at the end of the
draping simulation and creates a new file usable for the flow simulations. Further on
several features are implemented in the new model as for example the automatic
generation of a circular inlet with a defined diameter and the adjustment of the
draping model to the model for the flow simulation concerning the fitting of the
geometry model. In order to consider the changes of permeability and fibre volume
fraction in sheared areas, zones are defined which represent areas of the same fibre
volume fractions and the same permeability. Flow experiments on sheared fabrics
are performed to get information about the flow behaviour. The permeability values of
the sheared fabric are calculated by observing the position of the flow front over time
and the application of Darcy’s law. This material behaviour is implemented into a
commercially available LCM-simulation software which is verified first using a simple
plate with a sheared fabric, then using a double curved structure (hemisphere) with
draped fabric. After the verification based on the hemisphere another part is chosen
to show the ability of the interface to deal with more complicated geometries.
To obtain the input parameters for the cure kinetic model of Kamal-Sourour an epoxy
resin is characterised using DSC. The validity of this model is verified by comparing
the cure process of a flat sheet with a rib with the corresponding simulation results.
To determine the influence of the fibre volume fraction on the maximum temperature,
a cure simulation of the hemisphere with the zone distribution is performed. Cure
Simulation on a flat plate are done to quantify the influence of the thickness of the
part on the maximum temperature in the part.
In der vorliegenden Arbeit wird eine Simulation der Prozesskette der
Harzinjektionsverfahren vorgestellt. Dazu wird der Gesamtprozess in drei
unterschiedliche Einzelprozesse unterteilt: Drapierung, Injektion und Aushärtung.
Die für die gesamte Prozesskette grundlegende Simulation stellt die
Drapiersimulation dar. Diese liefert die Faserorientierungen des drapierten Bauteils,
die für die im Anschluss durchzuführende Injektionssimulation entscheidend sind.
Um die Ergebnisse der Drapiersimulation zur Simulation der Fließvorgänge zu
nutzen, wird eine Schnittstelle entwickelt. Diese wandelt die Ergebnisse der
Drapiersimulation in ein für die Injektionssimulation nutzbares Format um und
berücksichtigt deren spezielle Anforderungen an das Simulationsmodell.
Zur möglichst effizienten Durchführung der Harzinjektionssimulation wird das Modell
in einzelne Zonen mit gleichen Permeabilitätswerten und Faservolumengehalten
unterteilt. Um den Einfluss der Gewebescherung auf das Fließverhalten von Fluiden
zu ermitteln, werden Fließversuche mit gescherten Geweben durchgeführt und
verifiziert.
Die Funktionsweise der Schnittstelle und die Anwendbarkeit der gemessenen
Materialkennwerte werden an einer Kugelhalbschale demonstriert und durch
Versuche verifiziert. Anhand einer Armaturentafel wird der Nutzen der Schnittstelle
für die Fließsimulation komplexer Bauteile gezeigt.
Die Prozesskette wird mit der Simulation der Aushärtevorgänge abgeschlossen.
Dazu wird ein reaktionskinetisches Modell nach Kamal-Sourour für ein ausgewähltes
Epoxidharz erstellt. Anhand einer Rippenstruktur wird die Aushärtesimulation
verifiziert. Durch die Aushärtesimulationen kann der Einfluss des Faservolumengehalts
sowie der Bauteildicke auf die während des Aushärtevorgangs erreichbaren
Maximaltemperaturen ermittelt werden.
Im Stahlbetonbau werden die Eigenschaften von Beton und Bewehrungsstahl so vereint, dass ein Werkstoff entsteht, welcher wesentlich tragfähiger ist als die einzelnen Komponenten. In hoch bewehrten Konstruktionen kann es sinnvoll sein, große Bewehrungsstabdurchmesser (≥ 32mm) einzusetzen. Ein Bewehrungsstab Ø40mm (12,56cm²) kann im Vergleich der Querschnittsflächen die Kombinationen 2Ø28mm, 4Ø20mm, 8Ø14mm, 11Ø12mm, 16Ø10mm oder sogar 25Ø8mm ersetzen. Hierdurch können vielfältige Vorteile aber auch, insbesondere bei der Rissbreitenbeschränkung, Nachteile entstehen.
In der vorliegenden Arbeit wurde das grundsätzliche Rissverhalten von großen Stabdurchmessern untersucht. In experimentellen Untersuchungen an insgesamt 60 Versuchen mit über 30.000 Rissbreitenmessungen wurde das Verhalten an Zugstäben sowie an Zugplatten mit und ohne Oberflächenbewehrung betrachtet. Es wurden verschiedene Einflüsse auf die Rissbreiten, unter anderem der Bewehrungsstabdurchmesser, die Betondruckfestigkeit sowie die Belastungsart berücksichtigt. Der Hauptteil dieser Arbeit beschäftigt sich mit der nach DIN EN 1992-1-1 2011 und DIN EN 1992-1-1/NA 2013 geforderten Oberflächenbewehrung sowie deren Reduzierung. Auf Grundlage der hohen Anzahl an Messwerten sind belastbare Ergebnisse möglich. Es wurden Bemessungsvorschläge ausgearbeitet, welche abschließend in zwei Modellen zur Rissbreitenberechnung einfließen.
Bei Baumaßnahmen kommt es oft zu Auseinandersetzungen zwischen Bauherren und Planern, bei denen die zulässige Breite von Rissen in Stahlbetonbauteilen im Vordergrund steht. Die Rissgeometrie, der Rissbreitenverlauf von der Betonoberfläche zum Bewehrungsstab, wurde ebenfalls untersucht. Es wurden Risse unter Beanspruchung „eingefroren“ und die Rissbreite in der Betondeckung mit Hilfe eines optischen Messsystems erfasst. Mit Hilfe dieser Rissbreitenwerte wurde ein Ingenieurmodell aufgestellt, welches eine Umrechnung zwischen dem Rechenwert der Rissbreite und der Rissbreite an der Betonoberfläche erlaubt.
In der vorliegenden Arbeit wird das Querkrafttragverhalten vorgefertigter Wand-elemente aus haufwerksporigem Leichtbeton (LAC) untersucht.
Leichtbeton mit haufwerksporigem Gefüge gilt als gut wärmedämmend und ressourcenschonend, weshalb er bei Verwendung in Fassadenelementen weiter an Bedeutung gewinnt. Allerdings führen unzureichende Erkenntnisse zum Querkraft-tragverhalten freitragender Wandbauteile ohne und mit Querkraftbewehrung zu normativen Einschränkungen in der konstruktiven Durchbildung und Herstellung der Fertigteile.
Das Ziel dieser Arbeit ist die Entwicklung eines Bemessungsmodells für freitragende Wandelemente aus LAC, das mit geeigneten Bewehrungskonstruktionen sowohl die einwandfreie Herstellung im üblichen Walzverfahren ermöglicht als auch die Tragfähigkeit der Elemente sicherstellt.
Zunächst werden experimentelle Untersuchungen zur Verdichtung von Elementen aus haufwerksporigem Leichtbeton durchgeführt. Darauf aufbauend ermöglichen Auszug-versuche mit einem modifizierten BeamEndTest eine Aussage über das Verbund- und Verankerungsverhalten von Bewehrungsstäben in LAC.
Mit den Ergebnissen der Auszugversuche werden Großversuche an Wandbauteilen konzipiert und durchgeführt, welche die Beurteilung der Querkrafttragfähigkeit von Bauteilen ohne und mit Querkraftbewehrung erlauben. Aus den experimentellen Untersuchungen wird ein an den Eurocode 2 und DIN EN 1520:2011-06 angelehnter Bemessungsvorschlag entwickelt, der unter anderem auch die Schubschlankheit der Elemente und die Verankerung der Querkraftbewehrung als Einflussparameter berücksichtigt.
Teile dieser Arbeit wurden im Forschungsvorhaben „Innovative Konstruktions- und Bemessungsregeln zur Optimierung der Querkraft- und Torsionstragfähigkeit von freitragenden Wandplatten aus LAC“ erarbeitet. Dabei handelt es sich um ein Kooperationsprojekt zwischen der Technischen Universität Kaiserslautern (Prof. Dr.-Ing. Matthias Pahn, Prof. Dr.-Ing. Jürgen Schnell), der Hochschule Koblenz (Prof. Dr.-Ing. Ralf Zeitler) und dem Bundesverband Leichtbeton e.V. (Dieter Heller). Das Projekt wurde gefördert durch das Bundesministerium fürWirtschaft und Energie.
Zur Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen unter Zugbeanspruchung
(2023)
Zur Realisierung von schlanken, weit gespannten Deckensystemen im Hochbau werden zunehmend einachsig und zweiachsig gespannte Hohlkörperdecken eingesetzt. Bei dieser Bauweise sind die Deckenquerschnitte im Vergleich zu massiven Stahlbetondecken planmäßig geschwächt. Gleichermaßen gilt dies für Stahlbetondecken, die als Installationsebene für Leitungen der Gebäudetechnik genutzt werden. In beiden Fällen führen die integrierten Hohlräume zu einer Minderung der Querkrafttragfähigkeit von nicht querkraftbewehrten Stahlbetondecken. An der TU Kaiserslautern wurde in den vergangenen Jahren die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen eingehend erforscht. Die entwickelten Bemessungskonzepte stehen der Baupraxis mit den nationalen Erläuterungen in DAfStb Heft 600 zu DIN EN 1992-1-1 zur Verfügung. Der Einfluss von Längszug auf die Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Hohlräumen ist jedoch weitgehend unbekannt. In dieser Arbeit wird mit experimentellen Untersuchungen und numerischen Simulationen das Querkraftversagen von einachsig gespannten Stahlbetondecken mit integrierten Hohlräumen und Hohlkörpern unter Längszug erforscht. Die Arbeit gibt Aufschluss über das Tragverhalten geschwächter Stahlbetonbauteile unter Längszug infolge einer direkten Einwirkung. Die Versuchsergebnisse zeigen einen erwartungsgemäß ungünstigen Einfluss von Längszug auf die Querkrafttragfähigkeit massiver Stahlbetondecken. Im Gegensatz dazu zeigt sich bei Stahlbetondecken mit integrierten Hohlräumen und bei Stahlbetondecken mit integrierten Hohlkörpern ein deutlich geringerer, ungünstiger Einfluss von Längszug auf die Querkrafttragfähigkeit, der mit zunehmender Querschnittsschwächung deutlich zurückgeht. Auf Grundlage der Ergebnisse wird ein Vorschlag zur Erweiterung des bestehenden Bemessungskonzeptes nach Dafstb Heft 600 für die Bemessung der Querkrafttragfähigkeit von Stahlbetonbauteilen mit integrierten Hohlräumen unter Längszug erarbeitet. Gleichermaßen wird ein Vorschlag zur Erweiterung des Bemessungskonzeptes für die Querkrafttragfähigkeit von Hohlkörperdecken nach den allgemeinen bauaufsichtlichen Zulassungen für Hohlkörperdecken vom Typ Cobiax Eco-Line, Cobiax Slim-Line und Unidome XS unterbreitet.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
The work presented here supports the industrial use of natural fibre reinforced composite
materials under mass production circumstances. Potentials for optimising the
materials’ properties are offered and evaluated with regard to their effect on the
process chain material – coupling agent – processing. The possibility to use these
materials in mass production applications are improved by optimising each partial
stage.
Throughout the world there exists a great variety of suitable applications for this
group of composites affecting the raw materials choice. The Europe’s market is
stamped by the requirements of the automotive industry, the important markets of
Japan and the USA are dominated by civil engineering and landscaping applications.
A yearly increase of 18 % in Europe, 25 % in Japan and 14 % in the US is expected.
The US market offers the largest market volume of more than 480000 t exceeding
the European Market for nearly five times.
To enhance the fields of application for natural fibre reinforced thermoplastics the
common techniques of the film-stacking and the compression moulding process are
used to manufacture optimised composites based on polypropylene and bast (hemp,
flax) as well as leaf (sisal) and wood (spruce) fibres. Therefore new semi finished
parts for the compression moulding process had to be developed.
Within the manufacturing of natural fibre reinforced polypropylene using the filmstacking
process material and process parameters were identified to transfer the
gathered knowledge to the compression moulding process. It has been seen that
most problems are caused by the organic origin of the fibres. Especially the addiction
of the fibres to decompose when treated with higher temperatures under pressure
hampers their use in thermoplastic composites.
By investigating wood fibres as reinforcements, which differ from bast fibres in their
chemical composition the influence of the process parameters temperature and pressure
on the composite properties were evaluated and verified for hemp fibre reinforced
polypropylene. The minimum process time was observed and in order to enhance
the fibre-matrix-adhesion by using coupling agents the diffusion of the coupling
agent molecules was determined theoretically. Therefore a model was evaluated dealing with the maximum mass flow of coupling agent being transferred in the
fibre-matrix-interface because of mass transfer mechanisms.
In order to optimise the wetting of the fibres with the matrix different possibilities to
modify the fibres were investigated. Drying the fibres prior to the manufacturing of the
composite is an easy and effective way to improve the fibre-matrix-adhesion. The
tensile strength of all composites rose conspicuously. The removal of dust and water
soluble substances by washing led to a higher tensile strength only with the sisal fibre
reinforced composite. Washing the other fibres led to decreasing fibre wetting.
Fibre substances like lignin and pectin were removed using the mercerisation technique.
Composites made from these chemically retted fibres show the more disintegrated
fibre structure and a worse wet ability of the fibre surface with the polypropylene.
Hence the tensile and bending strength was not enhanced. The Charpy impact
strength of the composite raised distinctly.
The use of coupling agents based on maleic acid crafted polypropylene led to an increasing
tensile strength up to 58 % compared to the composite manufactured with
pre-dried fibres. The bending strength raised about 109 %. The Charpy decreased
about 60 to 80 %. Flax fibre reinforced composites showed the highest tensile
strength, sisal fibre reinforced composites offered the highest Charpy. No differences
between copolymeric and homopolymeric polypropylene when using PP-MAH as
coupling agents were determined.
The kind of application of the coupling agent in the compound has an major effect on
the amount of coupling agent to be added. The closer the coupling agent is brought
to the fibres surface at the beginning of the impregnation step the less amount has to
be used. If using an aqueous suspension the least amount had to be added as the
coupling agent remains directly on the fibre surface after drying. Mixing the coupling
agent with the polypropylene hinders the well dispersed PP-MAH to act in the fibrematrix-
interface effectively, so the amount of coupling agent has to be increased.
The comparison of coupling agent containing compounds which differ in the amount
of coupling agent and the molar mass distribution showed the amount of coupling
agent related to the mass of fibres to be the important parameter to dose the PPMAH.
The mean molar mass distribution had no effect on the compounds’ properties.Transferring the knowledge gained from the film-stacked composites to the compression
moulding process offered the possibility to use jute long fibre reinforced granules
(LFT) under optimised processing conditions. The composites gained from the molten
and pressed granules showed the highly dependency of the mechanical properties
to the fibre direction in the part. If the fibres are able to flow along the cavity and
direct themselves into parallelism the tensile and bending strength increases in the
main flow direction and decreases perpendicular to this direction. The impact
strength decreases with raising orientation of the fibres. The jute fibre surface presents
a better adhesion to the polypropylene as the surfaces of the hemp, flax and
sisal fibres, which could be improved by adding PP-MAH as coupling agent.
A newly developed pelletised semi finished part with sisal fibre reinforcement and the
development of a direct impregnation process using solely a horizontal plasticating
unit completes the work. Using an established plasticating extruder offers the possibility
for the compression moulding industry to process natural fibre reinforced polypropylene
with less investment. The compression moulded sisal fibre reinforced polypropylene showed varying fibre directions and disproportionate fibre-matrixadhesion.
As a result of the plasticating process in some parts bended fibres are still
visible after compression moulding. Hence the used single-screw plasticator is not
able to equalize the molten material. Increasing the compaction pressure was not
possible as some parts showed beginning fibre degradation. Adding PP-MAH improved
the fibre-matrix-adhesion but the positive effect of the materials’ strength was
not as clear as found for the film-stacked composites. Regarding the additional expenditures
for compounding and the coupling agent costs the use of PP-MAH in
compression moulded parts seems not to be useful.
Compared to the compression moulded glass fibre reinforced polypropylene from
GMT and LFT-materials the natural fibre reinforced composites cannot reach the
high level of material properties. Optimising the fibre-matrix-interface increases the
properties but they are still lower than the properties of the glass fibre reinforced composites. Therefore the natural fibre reinforced materials are not able to substitute
the traditional GMT and LFT, they rather should be used in new applications with
lower demands.
Zur nähtechnischen Konfektion von textilen Verstärkungsstrukturen für Faser-Kunststoff-Verbunde
(2002)
The further exploitation of Liquid-Composite-Moulding Technologies (LCM) for the
manufacture of Fiber-Reinforced-Plastics (FRP) relies on an eligible preforming
process. Preforming of fibrous reinforcements aspires the manufacture of dry
skeletons of the fiber assembly with the desired fiber orientation based on a predefined
fiber type. The LCM processing must be maintained by the preforming
technique. However, FRP part properties - given from fiber orientations - should not be
affected.
Sewing technologies, in all their varieties, can be applied as very flexible preforming
methods. Analogies between making-up dry reinforcement structures and the classical
field of sewing, e.g. garment manufacture, led to a substantial progress in technologies
available for preforimg as well as to increased economical benefits through the
application of sew-preforming.
A comprehensive understanding of the application of sewing technologies for FRP –
from the treatment of a semi-finished product to the infusion of a stitched preform – is
the basis for the design of an all new process chain.
The present work classifies this new preforming method within the existing
technologies. Furthermore, critical sewing machine elements are evaluated regarding
FRP compatibility. Stitching parameters and their impact on the reinforcement quality
as well as the FRP processing (LCM) are discussed.
Focusing on the economic efficiency of the sewing preforming technology, the critical
number of parts for selecting the right preform technology is discussed. The new
process chain enables the selection of the critical vertical range of preform
manufacture.
The large variety of preform design parameters, e. g. stitch density, needle thread
tension, seam type, sub-preform-structures etc., requires a “Preform-Engineering”,
covering an interface between preform manufacturing and FRP-part design. This
parallel engineering of part-, preform- and process-design leads to a global reflection
of the LCM technology. Thus, FRP part quality can be raised.
In der vorliegenden Arbeit wird die methodische Anwendung der Harzinjektionssimulation
beschrieben. Hierzu werden drei Hauptaspekte betrachtet.
Zunächst werden die im verwendeten Simulationsmodell getroffenen Vereinfachungen
auf ihre Auswirkung auf die Anwendung der Simulation untersucht. Für geringe
Fließgeschwindigkeiten bis zu 3 cm/s konnte das Gesetz von D’Arcy als grundlegendes
Fließmodell in kommerziell verfügbaren Simulationsprogrammen verifiziert werden.
Die Vereinfachung eines Punktangusses als ein Ein-Knoten-Modell ist hingegen
nicht zulässig, da dadurch eine Singularität im Modell entsteht. Durch ein vierknotiges
Angussmodell kann dieses Problem beseitigt werden.
Im zweiten Teil wird die Beschaffung der Eingabeparameter für die Simulation diskutiert.
Für die besonders schwierig zu messende ungesättigte Permeabilität in Dickenrichtung
wurde ein Modell entwickelt, um diese Permeabilität aus den gesättigten
Werten zu bestimmen, die in der Regel wesentlich einfacher zu ermitteln sind.
Der dritte Teil der Arbeit beschäftigt sich mit der methodischen Modellauswahl zur
Optimierung des Zeit- und Kostenaufwandes bei der Simulation. Es werden Kriterien
für die Modellauswahl entwickelt und diese anhand zweier sehr unterschiedlicher
Beispiele angewendet. Hierfür wird an einer PKW-Stirnwand für das RTM-Verfahren
und einem Hilfsspant eines Flugzeuges für das RFI-Verfahren die methodische Vorgehensweise
bei einer Harzinjektionssimulation demonstriert.
In this thesis the methodical application of liquid composite molding simulation is
discussed. The main focus is on three aspects: In the first part simplifications of the
simulation model and its influence on the application of the simulation will be shown.
The determination of the input parameters is the topic of the next part. The third section
deals with the methodical choice of simulation models to optimize cost and time
schedule. Using two quite different examples the proceeding in liquid composite
molding simulation is explained.
Basically the simulation could be verified. For both the unidirectional and the two
directional flow for lower and middle flow velocities a good correlation of simulation
and experiment was found. At velocities above 3 cm/s the fit of the simulation results
is significantly reduced. It can be assumed that increasing inertia and friction effects
influence the experimental results and therefore the creeping flow assumption in
D’Arcys law cannot be assumed to be valid. At higher flow velocities of the injected
fluid the simulation model has only a limited validity.
An interesting field was identified modeling an injection point in flow simulation. Using
the FEM it should not be described by a single node as one will obtain a singularity
and therefore unstable simulation results. To avoid this problem the injection port can
be modeled by using four nodes. This description of the injection gate provides sufficient
results.
A challenge in simulation technique is the determination of input parameters. Beside
some very easily obtained parameters such as injection pressure, viscosity of resin
or thermal properties of the used components the permeability of the reinforcement is
a key value. Especially in through thickness direction the for simulation very important
unsaturated permeability of the fiber preform is very difficult to measure due to
the short flow length and the complicated access to the flow front. However, the saturated permeability is comparatively easy to determine.
For unidirectional preforms a model was developed which is able to predict unsaturated
permeability derived by its saturated value. The model is based on an simple
parallel and serial set-up of single permeabilities of flow channel and fiber tows. The
different values of permeabilities in a saturated as well as an unsaturated case are resulting thereby from a compression of the fiber tow due to the surrounding liquid
pressure which leads to an expansion of the inter tow space. In order to describe this
effect a dimensionless compression factor κ is introduced which relates the volume of
the compressed tow to the initial state. When the flow occurs in fiber direction this
effect leads to a raising permeability due to the dominance of the flow channels in the
total permeability while in the case of flow in the perpendicular direction a reduction
can be observed because of the overall reduction of the permeability caused by the
reduction of the fiber tow permeability due to compression. This is due to the fact that
in this case the flow channels do not help the spread of the fluid in flow direction. The
model prediction for saturated and unsaturated flow could be verified in the experiment.
Under the assumption that for the flow in thickness direction we have a similar
flow mechanism as for the in-plane flow of the material perpendicular to the fiber
direction, the values for the unsaturated permeability can be calculated from the
values for the saturated permeability with this model.
A critical parameter of this model is the compression factor κ, which is a function of
the fiber volume fracture and the fluid pressure. For further developments of the
model this dependence has to be analyzed. The aim is here to find a model for the
compression of the fiber tow, so that the experimental determination can be replaced
by a calculation model.
In order to simplify the decision for the dimension of the Finite-Element-Model, an
analytic formula has been developed for the approximated error between the used
2D model and the 3D model. As parameters in this formula we have the relative flow
path (flow path related to the part thickness) and the ratio of the in-plane permeability
and the permeability in thickness direction. The formula is valid for an injection line
with impregnation in thickness direction of the perform.
In further works these results will have to be verified and adjusted for injection points.
A problematic aspect is the computation time as a complete three dimensional model
is required.
Finally the methodical optimization of two injection processes will be demonstrated
on two examples taken from practice. In the first one (front wall of a car) the aspect of
an error tolerant simulation will be discussed. While the simulation seemingly yields an optimal solution under the assumption of constant input values, significant short
comings can be shown for the necessary variation of the parameters due to measurement
errors or qualitative oscillations. Only when the range of all input parameters
is considered in simulation a reliable statement about the stability of the process can
be made. Furthermore, the possibilities of the injection system layout and of the
process optimization by adjustment of the process control will be discussed.
In the second example possibilities are shown to make statements about process
optimization via simulation despite unfavorable boundary conditions. The filling behavior
of a center fuselage side skin of a plane, which was produced with the RFItechnique,
was calculated with the use of a 2D calculation. For this a customized
algorithm was programmed which takes into account a simplified model of RFI. With
the help of this optimization the filling time could be reduced from 168 s to 5.3 s.
All in all the process simulation of resin injection techniques will be able to contribute
fundamentally to process optimization. The major shortcomings still exist in the determination
of parameters, especially in the determination of the permeability. In
order to establish the simulation in industry it will be necessary to do more research
on methods for determination of permeabilities without experiments in the preliminary
stages of the simulation. Only under these requirements the simulation will be attractive
for the user.
Faserkunststoffverbunde (FKV) haben durch die Substitution metallischer Strukturen
ein großes Leichtbaupotential. Die Integration von aktiven Materialien wie Formgedächtnislegierungen
(FGL) in Bauteile aus FKV ermöglicht die Herstellung aktiver
Hybridverbunde, wodurch eine zusätzliche Bauraum- und Gewichtsersparnis möglich
ist bzw. völlig neue Lösungsansätze denkbar werden.
Dabei hat die Kraftübertragung zwischen FGL und FKV einen entscheidenden Einfluss
auf die Performance solcher aktiver Hybridverbunde. Nur bei einer ausreichenden
Kraftübertragung kann das vollständige Aktorikpotential der FGL ausgenutzt
werden. Dabei sind zwei Bereiche zu unterscheiden, die sich durch unterschiedliche
Belastungsszenarien auszeichnen. Während im Randbereich Schubspannungen auftreten,
da dort die Kraft aus der FGL in den FKV eingeleitet wird, ist der mittlere Bereich
von Normalspannungen geprägt, die zu einem Ablösen der FGL vom FKV führen
können.
Im Rahmen dieser Arbeit wurden deshalb Methoden zur Charakterisierung der Kraftübertragung
in beiden Bereichen identifiziert. Zusätzlich wurden verschiedene Kraftübertragungsmechanismen
vergleichend untersucht. Durch eine modellhafte Betrachtung
wurde ein besseres Verständnis der Versagensmechanismen erreicht.
Dabei konnte gezeigt werden, dass mittels Pull-Out Versuchen ein Vergleich zwischen
verschiedenen Kraftübertragungsmechanismen möglich ist. Formschlüssige
Verbindungen ermöglichten eine Steigerung der Pull-Out Kraft um mehr als das 10-
fache im Vergleich zu unbehandelten Drähten. Allerdings wurde auch deutlich, dass
die Temperatur großen Einfluss auf die Matrixeigenschaften und damit auf das Interface
zwischen FGL und FKV hat. Durch die Verwendung einer Spannungsoptik
konnte die inhomogene Spannungsverteilung sowie der Versagensfortschritt visualisiert
werden. Mit Hilfe von 90°-Schälversuchen konnte gezeigt werden, dass durch
das Aufsticken der FGL-Drähte auf dem FKV ein Ablösen im mittleren Bereich verhindert
werden kann. Anhand von Verformungsversuchen an aktiven Hybridverbunden
konnten diese Ergebnisse bestätigt werden. Durch die in dieser Arbeit gewonnenen Ergebnisse ist zukünftig möglich, die Performance aktiver Hybridverbunde zu steigern, da die von den FGL generierte Kraft nahezu vollständig in den Hybridverbund eingeleitet werden kann, ohne dass es zu einem strukturellen Versagen kommt.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
In jüngerer Vergangenheit wurden Konzepte zur Bestimmung der erforderlichen
Bewehrung zur Begrenzung der Rissbreite in dicken Bauteilen erarbeitet und in den
aktuellen Bemessungsnormen des Stahlbeton- und Spannbetonbaus verankert. Mit
Hilfe dieser Konzepte ist es möglich, dicke Bauteile gegenüber den bislang
angewendeten Bemessungsverfahren sinnvoll zu bewehren.
Stahlbetonhochbaudecken zählen jedoch in der Regel zu den schlanken Bauteilen und
somit nicht zu der Kategorie von Bauteilen, für die die neuen Bemessungsansätze
entwickelt wurden. Dennoch sind sie es, die den Massenverbrauch in den Tragwerken
von Hochbauten dominieren. Die Auslegung von Stahlbetondecken spielt somit eine
entscheidende Rolle im Hinblick auf die Wirtschaftlichkeit und die Umweltfreundlichkeit
von Hochbauten.
Stahlbetonhochbaudecken sind im Regelfall einer kombinierten Beanspruchung aus
Last und Zwang unterworfen. Die hierbei für die Bemessung erforderliche Größe der
Zwangkraft kann angesichts ihrer direkten Verknüpfung mit der Steifigkeit nur mit Hilfe
von physikalisch nichtlinearen Finite-Elemente-Berechnungen mit ausreichender
Genauigkeit abgeschätzt werden. Für Tragwerksplaner wäre ein solches Vorgehen im
Rahmen von realen Bauprojekten jedoch mit einem unverhältnismäßig hohen Aufwand
verbunden. In der Praxis ist es daher derzeit üblich, an jeder Stelle eines Bauteils den
größeren Wert derjenigen Bewehrungsquerschnitte einzulegen, die sich aus Last oder
aus Zwang ergeben. Die zur Aufnahme der Zwangbeanspruchungen erforderliche
Bewehrung wird hierbei basierend auf der Risskraft des jeweiligen Bauteils gewählt.
Dieses Vorgehen ist aber in vielen Fällen unwirtschaftlich und kann auch auf der
unsicheren Seite liegen.
Im Rahmen der vorliegenden Arbeit wird daher die Frage nach einer geeigneten
Bewehrung für Hochbaudecken unter einer kombinierten Beanspruchung aus Last und
zentrischem Zwang experimentell und numerisch untersucht. Auf Basis der
gewonnenen Erkenntnisse aus den experimentellen und numerischen
Untersuchungen wird ein Näherungsverfahren ausgearbeitet, welches eine
wirklichkeitsnahe Abschätzung der Zwanglängskraft und somit eine wirtschaftliche und
sichere Wahl der Bewehrung zur Begrenzung der Rissbreite bei einachsig gespannten
Stahlbetonhochbaudecken erlaubt.
Die Nachrechnung bestehender Bauwerke muss grundsätzlich auf Basis der aktuellen, bauaufsichtlich eingeführten technischen Baubestimmungen geführt werden. Dazu werden charakteristische Materialkennwerte der verwendeten Baustoffe benötigt.
Im Rahmen einer Vordimensionierung kann die Betondruckfestigkeit durch Umrechnung von aus der Herstellzeit dokumentierten Werten abgeschätzt werden. Für eine abgesicherte Nachrechnung hingegen muss die charakteristische Betondruckfestigkeit durch Untersuchungen am Bauwerk ermittelt werden, um den Einfluss verschiedener last- oder zeitabhängiger Prozesse zu erfassen.
Zur statistischen Bewertung der experimentell ermittelten Werte der In-situ-Betondruckfestigkeit existieren verschiedene Verfahren. Besonders bei kleinem Stichprobenumfang führen die bisher gebräuchlichen Verfahren nach DIN EN 1990:2010-12 und DIN EN 13791:2008-05 jedoch teilweise zu ingenieurmäßig als kritisch einzustufenden Ergebnissen, welche die tatsächliche In-situ-Betondruckfestigkeit erheblich über- oder unterschätzen können.
Aufbauend auf Untersuchungen an realen, umfangreichen Datensätzen wurde in dieser Arbeit ein neues Verfahren mit den vom Stichprobenumfang und dem Variationskoeffizienten abhängigen modifizierten Ansätzen A und B zur Bestimmung der charakteristischen In-situ-Betondruckfestigkeit, basierend auf experimentell, mit direkten Prüfverfahren ermittelten Einzelwerten, entwickelt.
Zur Bestimmung des Nachrechnungswertes der Betondruckfestigkeit gilt es über den charakteristischen Wert der In-situ-Betondruckfestigkeit hinaus auch noch den Unterschied zwischen Bauwerks- und Normprobekörperdruckfestigkeit sowie den Einfluss von Dauerstandseffekten zu bewerten.
Die durchgeführten Untersuchungen zeigen, dass bei Bestandsbetonen, wie auch bereits im Neubaufall, das Verhältnis zwischen Bauwerks- und Normprobekörperfestigkeit ca. 0,85 beträgt. Auch bei der experimentellen Ermittlung der In-situ-Betondruckfestigkeit an aus dem Bauwerk entnommenen Proben ist der Unterschied zwischen Kurzzeit- und Dauerstandsfestigkeit mit dem im Neubaufall gebräuchlichen Faktor αcc = 0,85 zu berücksichtigen.
Neben der Druckfestigkeit, ist im Rahmen der Nachrechnung von Bestandsbauwerken auch teilweise die Zugfestigkeit oder der Elastizitätsmodul von Bestandsbetonen zu bewerten. Die in DIN EN 1992-1-1:2011-01 enthaltenen Beziehungen zwischen Druck- und Zugfestigkeit sowie zwischen Druckfestigkeit und Elastizitätsmodul sind jedoch ausschließlich für im Neubaufall verwendete Betone nach DIN EN 206-1:2001-07 ausgelegt.
Die Untersuchungen zeigen, dass die in DIN EN 1992-1-1:2011-01 enthaltene Korrelation zwischen Druck- und Zugfestigkeit auch zur groben Abschätzung der Zugfestigkeit von Bestandsbetonen verwendet werden kann. Im Einzelfall sind jedoch auch große Abweichungen nicht auzuschließen. Bedingt durch den großen Einfluss der Gesteinskörnung ist nur eine sehr grobe Abschätzung des Elastizitätsmoduls aus der In-situ-Betondruckfestigkeit möglich.
In der vorliegenden Arbeit wurde ein vereinfachtes Rechenmodell zur Berechnung von Verbundträgern, mit der Berücksichtigung des Verbundanschlusses mit einer bilinearen Anschlußfeder hergeleitet. Die Entwicklung des Rechenmodells basiert dabei auf der Auswertung von Versuchen, die im Labor für Konstruktiven Ingenieurbau an der Universität Kaiserlautern durchgeführt worden sind. Besonders das beobachtete Trag-und Verformungsverhalten der Großversuche lieferte einen sehr wichtigen Beitrag zur Entwicklung des Modells. Es wurde Wert auf die Entwicklung eines einfachen Verfahrens gelegt, das trotzdem einen guten Kompromiß zwischen den Anforderungen an die Wirtschaftlichkeit und die Sicherheit findet. Zur Bestimmung der verschiedenen, im Modell benötigten Rechengrößen, wurden insgesamt 56 Versuche mit Verbundanschlüssen ausgewertet. Die benötigten Rechengrößen sind folgende: Das vom Anschluß erreichbare, maximale Moment Die Auswertung der Versuche hat gezeigt, daß das rechnerische plastische Moment nicht von allen Anschlüssen erreicht wurde. Diesen Anschlüssen war gemeinsam, daß sie mit Matten bewehrt waren (oder mit Stabstahl d8mm), oder es wurde der Stützensteg für das Versagen des Anschlusses maßgebend. Auch die gelenkigen Fahnenblechanschlüsse (mit einem Spalt zwischen dem Trägeruntergurt und der Stütze) erreichten nicht immer das plastische Moment. Für diese Anschlüsse muß die Biegetragfähigkeit elastisch berechnet werden. Ausdrücklich zu betonen ist, daß die Bezeichnung plastischer Anschluß im Zusammenhang mit dem Rechenmodell nur etwas über die Größe des erreichbaren, rechnerischen Anschlußmomentes aussagt. Ein plastisch berechneter Anschluß kann sich, im Bezug auf die Duktilität, trotzdem spröde verhalten. Die Duktilität des Anschlusses wird gesondert ermittelt. Die Steifigkeit des Anschlusses Die im vereinfachten Rechenmodell zu ermittelnde Steifigkeit des Verbundanschlusses wird auf die Steifigkeit des angeschlossenen Trägers (im Zustand II) bezogen. Desweiteren hängt diese noch von der Geometrie des Anschlusses selbst ab. Die Zahlenwerte für die bezogenen Steifigkeiten der verschiedenen Anschlußtypen wurden mit Hilfe von 56 ausgewerteten Verbundanschluß-Versuche und mit Hilfe von wirklichkeitsnahen, physikalisch nichtlinearen Berechnungen kalibriert. Die rechnerische Grenzverdrehung des Anschlusses Für die Ermittlung der rechnerischen Grenzverdrehung wird, auf der sicheren Seite liegend, der Drehpunkt des Anschlusses in Höhe des Träger-Untergurtes festgelegt. Dann wird die rechnerische Grenzdehnung des Betongurtes berechnet und die Grenzverdrehung aus den Geometriewerten des Anschlusses und der Grenzdehnung des Betongurtes ermittelt. Die Kalibrierung des Verfahrens und die Justierung der Korrekturfaktoren wurden mit Hilfe der vorliegenden 56 Verbundversuche durchgeführt. Das reduzierte, plastische Feldmoment und die rechnerische Grenzverdrehung des Anschlusses Um noch eine zusätzliche Sicherheit gegen das Überschreiten der Maximallast des Trägers im Rechenmodell zu berücksichtigen, wird das größte Feldmoment auf das reduzierte, plastische Feldmoment begrenzt. Die Einführung dieser Reduzierung begründet sich in den nichtlinearen Berechnungen und insbesondere in der Auswertung der Großversuche. Um die letzten 10 % der Biegetragfähigkeit im Feld zu aktivieren, benötigt der Träger besonders große Verformungen. Dies bedeutet, daß die Duktilität des Verbundanschlusses dann benötigt wird, wenn der Verbundträger die 90%-Grenze seiner Biegebeanspruchbarkeit im Feld überschreitet. Im Rechenmodell wird diesem Verhalten dadurch Rechnung getragen, daß die Biegetragfähigkeit im Feld auf 90% des plastischen Feldmomentes begrenzt wird. Die restlichen 10% der Biegetragfähigkeit werden nur anteilmäßig in Abhängigkeit von der Größe der rechnerischen Grenzverdrehung des Verbundanschlusses dazu addiert. Die Rechenergebnisse des Modells wurden mit wirklichkeitsnahen, physikalisch nichtlinearen Gegenrechnungen überprüft. Die nichtlinearen Berechnungen wurden ihrerseits an den Großversuchen, die im Labor für Konstruktiven Ingenieurbau der Universität Kaiserslautern durchgeführt wurden, kalibriert. Für das Rechenmodell wurden getestet: Anschlüsse mit großer Steifigkeit, Anschlüsse mit geringer Steifigkeit, Anschlüsse mit sehr geringer Verdrehungsfähigkeit, Anschlüsse mit großer Verdrehungsfähigkeit, desweiteren die Grenzwerte nach [2.24] für die Einordnung eines Anschlusses in die Kategorie gelenkig , die Grenzwerte nach [2.24] für die Einordnung eines Anschlusses in die Kategorie starr , die Auswirkungen von Überfestigkeiten in den Anschlüssen, die Auswirkungen von veränderten Annahmen für die Festigkeiten beim gleichen System und beim gleichen Anschluß. Die Teilsicherheitsbeiwerte gegen ein Systemversagen bei den Berechnungen mit den Bemessungswerten (Berechnungs-Nr.: 12 und 22) liegen zwischen 1,18 und 1,59. Es wurden auch Vergleichsrechnungen mit hohen Werkstoffestigkeiten durchgeführt (Berechnungs-Nr.: 11 und 21), bei denen die angesetzten Bemessungswerte die wirklichen Festigkeiten z.T. sogar übersteigen. Hier liegen die Sicherheiten zwischen 1,01 und 1,49. Diese Werte stellen einen guten Kompromiß zwischen sicher und wirtschaftlich dar. Der Abstand zwischen den mit dem Rechenmodell ermittelten Verformungen und den nichtlinear ermittelten Verformungen wird i.a. erst kurz vor dem Erreichen der rechnerischen Grenzlast groß. Auf dem Gebrauchslastniveau werden die Verformungen vom vereinfachten Rechenmodell gut angenähert. Die Grenzen für die Einordnung der Anschlüsse in die Kategorien starr , verformbar und gelenkig , die in [2.24] angegeben sind, können durch die hier durchgeführten, vergleichenden Berechnungen bestätigt werden. Die Vergleichrechnungen zeigen, daß ein Anschluß im Zweifelsfall besser etwas steifer angenommen werden sollte. Dadurch wird er rechnerisch stärker beansprucht, und die Anschlußkonstruktion liegt auf der sicheren Seite. Die Auswirkungen auf das Feld sind gering. Auch verhält sich der Feldquerschnitt im allgemeinen gegenüber Abweichungen in den rechnerischen Annahmen gutmütiger . Durch die konzentrierte Verdrehung im Bereich des Verbundanschlusses und durch die Kerbe, die das Stützenprofil für den Betongurt darstellt werden direkt am Stützenprofil Risse im Betongurt hervorgerufen. Die erforderliche Betongurtdehnung aus der Anschlußverdrehung findet hier konzentriert in 2, bis maximal 3 Rissen statt. Dieses Rißgeschehen läßt sich bei großen Anschlußverdrehungen und mit einer normalen Bewehrung nur sehr schwer beherrschen, siehe Bild 4.13. Versuche mit unterschiedlichen Arten von Bewehrungen und Bewehrungsführungen sollten durchgeführt werden (z.B. stahlfaserbewehrter Beton im Anschlußbereich, Zulage von Stäben mit hochfestem Stahl, Zulage von Glasfiebermatten). Das Ziel muß es dabei sein, die Rißbreiten im Gebrauchszustand unter Kontrolle zu halten. Zu beachten ist dabei, daß der Gebrauchszustand des Anschlusses vom ganzen System -Träger mit Verbundanschluß - vorgegeben wird. Die Möglichkeit, die Bewehrung wirtschaftlich herstellen und einbringen zu können, sollte ein weiterer Gesichtspunkt bei der Planung der Versuche sein.
Zur Eigenspannungsausbildung bei der wickeltechnischen Verarbeitung thermoplastischer Bandhalbzeuge
(2005)
Filament winding is today a well established production technique for fiber reinforced
pressure vessels. Most of the parts are still made using thermosets as matrix material,
but parts with thermoplastic matrices are today on the edge to mass production.
Usually these parts are made from fully consolidated unidirectional fiber reinforced
thermoplastic tapes. During processing the matrix material is molten and the tapes
are placed on the substrate where they re-solidify. A wide range of material combinations
are available on the market. The materials used in the present investigation are
semi-crystalline thermoplastics and glass or carbon fiber i.e. carbon fiber reinforced
Polyetheretherketone, glass fiber reinforced Polyetheretherketone and glass fiber
reinforced Polypropylene.
Applications can be found in the field of medium and high pressure vessels like they
are used for natural gas and hydrogen storage or for tubes and pipes for their transport.
During the design of such parts mostly idealized properties as for example tensile
strength are used. Residual stresses which are inherent for composite materials
are only considered as part of the safety factor.
The present work investigates the generation of residual stresses for in-situ consolidation
during filament winding. Within this process consolidation of the tape material
and the substrate takes place immediately after the tapes are placed. This is contrary
to the normal curing of thermoset materials and has a large influence on the generation
of the residual stress. The impact of these stresses on the behavior of the produced
parts during service is one of the topics of this investigation. Therefore the
background of thermal residual stresses in semi-crystalline thermoplastic parts is discussed
and a closer look on the crystallization behavior of the matrix materials was
taken. As the beginning of the crystal growth is a major point in the generation of thermal residual stress.
The aim of the present work is to find process parameter combinations that allow to
compensate the thermal residual stresses and to generate a residual stress profile
that – unlike the thermal residual stresses - brings about structural benefit. Ring
samples with a defined geometry were made to measure the generated stresses.
The geometry of the samples was chosen in a way that prevents influences of the
boundary conditions of the free edges on the measuring point.
In the investigations the residual stresses were measured in circumferential direction
using a method where the ring samples were cut in radial direction and the deformation
was measured using strain gages. From the strain the local stress can be determined.
It was tried to minimize the number of experiments. Therefore the influence of filament
winding process parameters on the residual stress were investigated using a
Design of Experiments approach where the main influences on the residual stress
generation can be found from a relatively small number of experiments such as 8
instead of 128. As a result of these experiments it was found that the winding angle,
the mandrel temperature, the annealing, the wall thickness and the tape tension have
a significant influence on residual stresses. With increasing winding angles the influence
on the measured circumferential stresses increase regardless to kind of residual
stresses. The mandrel temperature has a large influence on the temperature difference
that causes the stress between fiber and matrix. They are caused by different
thermal expansion coefficients of fiber and matrix. Structural benefit through annealing
is only theoretically possible because the required outside temperatures
along with internal cooling of the parts can not be realized within an industrial processes.
Increasing wall thickness leads to also increasing residual stress but it can not
be the aim to build oversized parts for the sake of residual stresses. The applied tape
tension was identified as a parameter that can be used to achieve the desired residual
stress state with reasonable efforts.
Different ways of varying the tape tension with increasing wall thickness were investigated.
The tape tension was increased with every layer to a chosen maximum value or, after half of the layers were placed, in one step to the maximum value. Furthermore
a continuously high tape tension and a variant without tape tension was investigated.
The experiments led to the conclusion that increasing tape tension with increasing
wall thickness is a viable way to have structural benefit from residual stress.
The increasing in one step gave the best results.
The impact of the thermal history during production is discussed as well. Temperatures
must not exceed the softening point of the matrix. Otherwise a part of the tape
tension gets lost by relaxation. In a particular case the relaxation reached an amount
where the compensation of the thermal stresses failed. Thermodynamic calculations
led to the conclusion that the energy transfer into the material by mandrel heating
and melt energy caused a temperature above the softening point.
The impact of tape tension on material quality is documented. Very low tape tension
can not guarantee a proper consolidation. On the other hand excessive tape tension
can lead to matrix squeeze out and in particular cases to cracks due to too high residual
stresses. Therefore the tape tension profile should be well adapted to work
load, the composite and its properties.
Investigations on the relaxation behavior of the residual stresses showed that relaxation
occurs and that a part of the residual stress relaxes when the samples were exposed
to higher temperatures. Test at room temperature showed no significant sign
of relaxation. When the temperature was raised – in this case to 80 °C - the samples
clearly relaxed. The amount of induced residual stress sank to half of its initial value.
Investigations on the structural benefit showed that material savings of up to 23 % of
weight are possible for high pressure applications and fiber reinforcements with relatively
low fiber volume content. Higher fiber volume contents which also mean higher
strengths reduce the benefit. As the strength of the material increases the benefit
reduces in relation to it.
Nevertheless there is a potential in material saving and one should keep in mind that
the costs to establish the equipment to control the tape tension is cheap in comparison
to the achievable result.
In der vorliegenden Dissertation wurde das Korrosionssystem verzinkter Stahl in alkalischen, zementbasierten Feststoffelektrolyten untersucht. Dabei kamen drei Zementarten mit je vier Chloridgehalten zur Anwendung. Neben dem Korrosionssystem lag das Augenmerk ebenso auf einer adäquaten Beschreibung der Elektrolyteigenschaften. Hierzu wurde die Masseänderung, die Änderung des elektrischen Mörtelwiderstandes und des IR-Drop über die Zeit sowie die Porosität und die Porenwasserzusammensetzung, um nur einige Kenngrößen zu nennen, untersucht.
Das Hauptaugenmerk ruht jedoch auf der Beschreibung des Korrosionssystems verzinkter Stahl in Mörtel. Dazu wurden die gebildeten Deckschichten und deren Einfluss auf den Korrosionsfortschritt in Abhängigkeit von der Zementart und des Chloridgehaltes sowie die daraus resultierenden elektrochemischen Kennwerte bestimmt.
Die aus den Untersuchungen hervorgehenden Ergebnisse ermöglichen es, die Korrosionssysteme in Abhängigkeit vom Chloridgehalt oder von geometrischen Inhomogenitäten, im Phasengrenzbereich Mörtel/verzinkter Stahl zu differenzieren. Dabei konnte unabhängig von den verwendeten Zementen eine Klassifizierung der Korrosionssysteme über den Phasenwinkel bei 0,1 Hz erfolgen. Klassifiziert wurden durchtrittskontrollierte und diffusionskontrollierte Korrosionssysteme, Mischsysteme, Übergangssysteme und Korrosionssysteme mit Spaltgeometrie.
Für diese Korrosionssysteme konnte festgestellt werden, welche Deckschichten maßgebenden Einfluss auf die Ausbildung eines durchtrittskontrollierten Korrosionssystem haben. Dazu gehören das bereits bekannte Simonkolleit und eine Deckschichtvariante, die bisher noch nicht in der Literatur als Deckschicht an verzinktem Betonstahl in Mörtel oder Beton beschrieben wurde.
Für die Mischsysteme erfolgte eine Darstellung der anteiligen Bedeckung mit Simonkolleit, um den Übergang zu einem durchtrittskontrollierten Korrosionssystemen zu beschreiben.
Neben der Klassifizierung der Korrosionssysteme kann über die Bestimmung des Phasenwinkels bei 0,1 Hz jedem Korrosionssystem nun auch ein spezifischer B-Wert zugewiesen werden. In Kombination mit der für diese Korrosionssysteme angepassten LPR-Messungen zur Bestimmung des Polarisationswiderstandes können Korrosionsraten ohne signifikante Beeinflussung des Korrosionssystems bestimmt werden.
Die enorme Reaktivität des Tetrahedrans [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) konnte durch die Komplexierung eines der beiden Phosphoratome mit dem 16VE-Übergangsmetall-Fragment {W(CO)5}herabgesetzt werden. Die Oxidation von [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) mit Schwefel und Selen führt bereits bei Raumtemperatur zu den pseudo-Tripeldeckerkomplexen vom Typ [{Cp'''Fe}2(µ-eta4:4-P2X2)] (2,3) mit einem P2X2-Mitteldeck (X = S, Se). Die vier Hauptgruppenelemente liegen als trapezoid angeordnete Kette vor (RSA), ähnlich der P4-Kette in den Komplexen vom Typ [{CpRFe}2(µ-eta4:4-P4)] (4). Unter Photolyse-Bedingungen erhält man durch Abspaltung der verbrückenden CO-Gruppe aus 1 den bereits von Eichhorn [11,38] charakterisierten Bicyclus [{Cp'''Fe}2(µ-P)2] (5), der in situ mit Schwefel und Selen zu den selben Oxidationsprodukten 2 beziehungsweise 3 reagiert (vgl. voranstehend). Die Komplexierung beider Phosphoratome in den pseudo-Tripeldeckerkomplexen 2 und 3 mit [W(CO)6] ist möglich, wobei die einfach komplexierte Verbindung [{Cp'''Fe}2(µ3-eta4:4:1-P2X2){W(CO)5}] (6,7) (X = S, Se) die P2X2-Struktureinheit des Eduktes beibehält, wäh-rend bei der Zweifachkomplexierung ein stark verzerrtes trigonales Prisma entsteht. Die beiden {W(CO)5}-Fragmente sind in [Cp'''2Fe2P2X2{W(CO)5}2] (8,9) (X = S, Se) symmetrisch an dieses Polyedergerüst koordiniert. Im Fall des Selens entsteht noch eine dritte Verbindung, deren zentrales Strukturelement ein P2Se2Fe-Fünfring ist, in welchem das Fe-Atom etwas nach unten abknickt und neben einem η5-koordinierten Cp'''-Ring eine terminale CO-Bindung aufweist. In Verbindung [Cp'''Fe(µ4-eta4:2:1:1-P2Se2)Fe(CO) Cp'''{W(CO)5}2] (10) sind die beiden Phosphoratome zusätzlich komplexiert. Die Langzeitthermolyse des [{In''(OC)2Fe}2(µ-eta1:1-P4)]-Butterfly-Komplexes (11) mit dem zweikernigen [{Cp'''Fe(CO)2}2] (12) liefert drei pseudo-Tripeldeckerkomplexe [{Cp'''Fe}2(µ-eta4:4-P4)] (4a), [{In''Fe}2(µ-eta4:4-P4)] (4b) und [{Cp'''Fe}{In''Fe}(µ-eta4:4-P4)] (4c). Bei der Umsetzung des Cp'''-Derivates 4a mit [W(CO)6] können zwei strukturisomere Komplexierungsprodukte 31P-NMR-spektroskopisch nachgewiesen werden. Durch fraktionierende Kristallisation gelangt man zu einer analysenreinen Substanz, die röntgenstrukturanalytisch als der alternierend koordinierte Komplex [{Cp'''Fe}2(µ4-eta4:4:1:1-P4){W(CO)5}2] (13) charakterisiert werden kann. Bei dem Versuch, ein Ruthenium-Dimer vom Typ [{CpRRu(CO)2}2] (14) mit dem Tri-tert-butyl-Cyclopentadienylliganden zu synthetisieren, erhält man nur Verbindung [{Cp'''Ru}2(µ-CO)(µ-O)] (15), dessen thermische Umsetzung mit weißem Phosphor zu einem weiteren pseudo-Tripeldeckerkomplex [{Cp'''Ru}2(µ-eta4:4-P4)] (16) mit einem P4-Mitteldeck führt.
Zur Bestimmung des Feuerwiderstands von Injektionsankern mit variabler Verankerungstiefe in Beton
(2020)
Injektionsanker haben sich in den letzten Jahrzehnten zu einem üblichen Befesti-
gungsmittel entwickelt. Mit dem gestiegenen Einsatz sind auch die Anforderungen
an die Tragfähigkeit und die Einsatzfelder gestiegen. So wird inzwischen häufig auch
eine Qualifizierung von Injektionsankern für den Brandfall gefordert. Parallel ist das
Wissen über den Tragmechanismus unter Brandeinwirkung bisher gering und Richt-
linien zur Bewertung des Feuerwiderstands fehlen. Im Rahmen dieser Arbeit werden
die Einwirkungen, die durch ein Brandereignis verursacht werden, anhand von stati-
schen Berechnungen und thermisch-transienten Simulationen ermittelt. Des Weiteren
wird die Tragfähigkeit und das Tragverhalten von Injektionsankern im Temperaturbe-
reich von 20 °C und 400 °C experimentell untersucht. Die Einflussfaktoren auf die
Verbundspannungs-Temperaturbeziehung von Injektionsmörteln, wie der Durchmes-
ser der Ankerstange, die Betonfeuchte, innere und äußere Spannungen und die Art
der Versuchsdurchführung werden bewertet. Außerdem werden Feuerwiderstände ge-
genüber Stahlversagen von Gewindestangen nach 30 min, 60 min, 90 min und 120 min
angegeben, die durch die Auswertung zahlreicher experimenteller Untersuchungen
ermittelt wurden. Insgesamt zeigt die Forschungsarbeit auf, wie Komplex die Einwir-
kungen und die Einflussfaktoren auf die Tragfähigkeit von Injektionsankern im Brandfall
sind. Es können Feuerwiderstände bzw. Berechnungsansätze zur Bestimmung von
Feuerwiderständen von Injektionsankern gegeben werden, die auf der sicheren Seite
liegende Ergebnisse liefern. Eine Bestätigung der Ergebnisse durch Realbrandversu-
che kann nicht gänzlich ersetzt werden.
Die vorliegende Arbeit befasst sich mit der analytischen, integralen und nichtlinearen Bemessung von Sandwichwänden mit Stahlbetonschalen unter vertikaler und horizontaler Belastung nach Theorie II. Ordnung und führt zu der Entwicklung eines in der Programmiersprache VBA implementierten Bemessungsprogramms. Das zugrunde liegende Bemessungskonzept ermöglicht eine Bemessung der Sandwichwand bei Berücksichtigung des versteifenden Einflusses ihrer Vorsatzschale. Somit können besonders bei schlanken und knickgefährdeten Sandwichwänden ihre Querschnittsabmessungen optimiert werden.
Im Rahmen dieser Arbeit sollte ein Beitrag zu der Frage geleistet werden, welche Bedeutung etheno-DNA-Addukte in der Karzinogenese und bei chronisch degenerativen Erkrankungen haben könnten. Zu diesem Zweck wurden etheno-DNA-Addukte mittels 2-Chloracetaldehyd (CAA), einem von zwei Metaboliten von Vinylchlorid und dem Krebstherapeutikum Ifosfamid, in einem humanen B-lymphoiden Zellsystem (Raji Zellen) induziert. Der subtoxische Konzentrationsbereich von CAA wurde mittels Wachstumskurven auf unter 100 microM eingegrenzt. Weiterhin wurde gezeigt, daß CAA in den in dieser Arbeit verwendeten Konzentrationen einen relativ großen Einfluß auf das Wachstumsverhalten von Raji Zellen hatte. Dieser Einfluß beruhte unter anderem auf der Hemmung der DNA-Replikation und damit indirekt auch auf die DNA-Reparatur, der CAA-abhängigen Kondensation der zellulären DNA aufgrund von DNA-DNA-Quervernetzungen und einem geringen Einfluß auf die Atmungskette in Mitochondrien aufgrund einer Hemmung des NADH-Dehydrogenase-Komplexes. Die weitere Arbeit verteilte sich daraufhin auf drei Teilprojekte : - Die Detektion und Quantifizierung von etheno-Desoxyadenosin-Addukten (edA) wurde unter Anwendung einer einfachen, nicht-radioaktiven Alternative zu der IPPA-Postlabeling-Methode auf HPLC-Basis mit Fluoreszenzdetektion durchgeführt, die im Rahmen dieser Arbeit etabliert wurde. Dabei konnte gezeigt werden, daß CAA bei Konzentrationen zwischen 30 und 100 microM eine Erhöhung von edA um den Faktor 3-4 in Raji Zell-DNA zur Folge hatte. Ferner konnte mit Hilfe dieser HPLC-Methode zum ersten Mal die Induktion von edA als Folge von Zigarettenrauch in diesem Zellsystem gezeigt werden, wobei es offen bleibt, ob diese DNA-Addukte direkt oder durch Induktion von Lipidperoxidation gebildet wurden. - Der Nachweis der genspezifischen Induktion von etheno-DNA-Addukten in einer "Hot-Spot"-Region der mitochondrialen DNA wurde auf Basis einer in unserer Abteilung von Yang und Hergenhahn entwickelten Methode zum genspezifischen Nachweis von DNA-Schäden durchgeführt. Dazu wurde diese Methode auf die in dieser Arbeit gestellten Anforderungen hin weiterentwickelt. Es konnte unter Zuhilfenahme dieser Methode eine signifikante Zunahme von edA in der mitochondrialen Zielregion, bei CAA-behandelten Proben gegenüber den Kontrollen, nachgewiesen werden. - Der Einfluß von CAA auf die Mutationsraten in mitochondrialer DNA aus Raji Zellen wurde mit Hilfe des RSM- und DPD-Tests untersucht. Der DPD-Test wurde im Laufe dieser Arbeit zu einem Festphasen-DPD-Test weiterentwickelt um den Hintergrund an nicht mutierten Sequenzen und die Gefahr von Kreuzkontaminationen zu minimieren. Im Rahmen dieser Experimente konnte eine Zunahme von Mutationen zwischen 10,5 und 14,5 % der CAA-behandelten Proben gegenüber den unbehandelten Kontrollen gezeigt werden. Die Art der Mutationen wurde durch Sequenzierung ermittelt und waren in allen CAA-behandelten Proben A G und T C Transitionen. Weiterhin wurde überprüft, ob CAA, als bifunktionelles Agens, neben Punktmutationen auch Deletionen auslösen könnte. Dabei wurde eine nahezu signifikante Zunahme an Deletionen in den CAA-behandelten Proben gegenüber den unbehandelten Kontrollen festgestellt. Die in dieser Arbeit angewendeten und weiterentwickelten Methoden könnten durchaus weitere praktische Anwendungen finden. So könnte die Bestimmung von edA mittels HPLC aus Blut von Krebspatienten, bei Behandlung mit dem Krebstherapeutikum Ifosfamid, ein nützliches Hilfsmittel für die Expositionskontrolle werden. Hierbei könnte edA als Marker für die interne Belastung des Patienten mit, dem Metabolit von Ifosfamid, CAA dienen. Die in dieser Arbeit entwickelte Festphasen-DPD-Methode ebnet den Weg, unselektierte durch edA-ausgelöste Mutationen in nukleären Genen wie z.B. p53 zu bestimmen, die aufgrund von erhöhter Lipidperoxidation unter pathologischen, präkarzinogenen Bedingungen wie Wilsons Syndrom oder Hämochromatose gebildet werden könnten. Da bisher keine mitochondrialen etheno-DNA-Addukt-spezifischen Reparaturenzyme beschrieben wurden, muß man davon ausgehen, daß etheno-DNA-Addukte auch einen Beitrag zu Mutationen im mitochondrialen Genom leisten und damit eine Rolle im Prozeß des Alterns bzw. in der Entwicklung von degenerativen Erkrankungen spielen könnten.
Zur Auslegung von innovativen Betonkollektorelementen für solarthermische Parabolrinnenkraftwerke
(2016)
Kurzfassung
Parabolrinnen stellen die wirtschaftlichste Form der solarthermischen Kraftwerke mit
Solarstrahlenkonzentration dar. Die Kollektorelemente sind der entscheidende Faktor
für die Wirtschaftlichkeit des gesamten Parabolrinnenkraftwerks. Stand der Technik
ist es, die Kollektoren als räumliche Stahlfachwerke mit punktförmig gestützten Spiegeln
auszuführen. Zu diesem Konstruktionsprinzip sind Alternativen möglich.
Im Rahmen der vorliegenden Arbeit wurde die Machbarkeit einer wirtschaftlichen
Konstruktionsvariante für die Ausführung der Parabolrinnen unter Verwendung des
Werkstoffs Beton untersucht.
Die dabei erörterten Fragestellungen umfassen ein breites Spektrum. Ein Schwerpunkt
liegt auf der Konzeptionierung einer geeigneten Betonrezeptur und den damit
verbundenen betontechnologischen Herausforderungen. Diese waren stets unter
dem Gesichtspunkt einer schnellen Festigkeitsentwicklung zu betrachten. Des Weiteren
konnte ein Großdemonstrator konzeptionell und baulich realisiert werden, durch
welchen die Bauweise eines Parabolrinnenkollektorelements aus hochfestem Beton
vor Augen geführt wird. Diesem sind zwei Innovationen immanent: Zum einen die
Verwendung des Werkstoffs Beton, zum anderen sein neuartiges Auflagerungskonzept.
Der fertiggestellte Großdemonstrator wurde in einer Genauigkeitsanalyse mittels
optischer Messverfahren hinsichtlich seines Interceptfaktors, eine Kenngröße,
von welcher der Systemwirkungsgrad abhängt, beurteilt. Ein weiterer betrachteter
Aspekt ist die Maßhaltigkeit und Formstabilität von Beton, da durch Abweichungen
von ihrer Sollgeometrie der Interceptfaktor einer Parabolrinne reduziert wird. Anhand
von numerischen Untersuchungen wurden die unter realitätsnahen Bedingungen an
einem geeigneten Standort auftretenden Verformungen für den Großdemonstrator
analysiert und in Form einer rechnerischen Wirksamkeitsbeurteilung interpretiert.
Abstract
Parabolic troughs are the most economic type of solarthermal power plants working
by concentrating solar power. The collector elements are the most influencing factor
concerning the cost effectiveness of the whole power plant. State of the art is to construct
the collectors as spatial steel truss systems with point-wise supported mirrors.
Alternatives to this construction principle exist.
In the thesis at hand the feasibility of an economic way of constructing of an economic
execution of the parabolic troughs while using concrete as construction material
was analyzed.
The spectrum of the discussed questions is large. One focus was put on the conception
of a suitable concrete and the connected challenges concerning the concrete
technology. These were always to be considered under the aspect of a fast development
of the strength. Furthermore, a full-size demonstrator was planned and built,
which shows the construction method of a parabolic trough collector element using
high-strength concrete. Two innovations are immanent: On the one hand, the use of
the construction material concrete, on the other hand its novel supporting concept.
The completed full-size demonstrator was evaluated regarding its intercept factor (a
parameter by which the efficiency factor of the system is influenced) by using a precision
analysis using optical measurement methods. Another examined aspect is the
dimensional accuracy and stability of concrete because by deviations from the target
geometry the intercept factor of a parabolic trough is reduced. By means of numerical
methods the deflections, which result under realistic conditions at a suitable location,
were analyzed and in due form of a mathematical effectiveness assessment interpreted.
Aufgrund der Endlichkeit fossiler Energieträger gewinnen erneuerbare Energien wie Solarenergie zukünftig immer mehr an Bedeutung. Zum einen kann die solare Strah-lung mittels Photovoltaik direkt in elektrischen Strom ungewandelt werden, zum ande-ren kann die Wärme infolge der Sonnenstrahlung in solarthermischen Kraftwerken genutzt werden. Dabei wird die Strahlung punktförmig (Heliostatenkraftwerk) oder li-nienförmig (Parabolrinnenkraftwerk) auf einen Receiver reflektiert. Bei Rinnenkraft-werken ist dieser mit einem thermischen Öl gefüllt, welches erwärmt wird. Der dabei entstehende Dampf wird in einem angehängten industriellen Prozess zur Erzeugung von elektrischem Strom genutzt. Allerdings bestehen diese Rinnensysteme überwie-gend aus aufwendigen, kleinteiligen Stahlfachwerken, deren Montage kostenintensiv ist. Die Standorte solcher Rinnenkraftwerke liegen meist in Wüstenregionen, die korrosive Umgebungsbedingungen für den Stahl aufweisen können. Zudem müssen bei der Er-richtung einer Kraftwerksanlage alle notwendigen Fachwerkelemente über längere Distanzen zu den oftmals abgelegenen Standorten transportiert werden.
Für eine effizientere Auslegung solcher Parabolrinnensysteme entstand die Idee einer optimierten Systemstruktur aus Hochleistungsbeton. Das neuartige Konzept umfasst sowohl eine filigrane Tragstruktur für eine effektive Rinnenherstellung direkt am Aufstel-lungsort, als auch eine geometrische Optimierung, die eine effiziente Sonnennachver-folgung der dünnwandigen Betonschale sicherstellt. Hierfür wurden spezielle Verzah-nungen aus Hochleistungsbeton entwickelt, die in einem direkten Reibkontakt zueinan-der stehen. Dieser verursacht infolge der Sonnennachverfolgung Reibung und Ver-schleiß an den Verzahnungen.
Ziel dieser Arbeit ist sowohl die Auslegung als auch die Untersuchung des Abrieb- und Verschleißverhaltens von Verzahnungen aus Hochleistungsbeton für Parabolrinnen. Weitere Anwendungsgebiete bei denen hohe Kräfte bei kleinen Drehzahlen übertragen werden müssen sind denkbar (z. B. bei Zahnrädern für Schleusentore).
Zuerst werden die theoretischen Grundlagen im Bereich von Parabolrinnensystemen wiedergegeben sowie Erkentnisse über die Verschleißmechanismen bei direktem Reib-kontakt von Betonoberflächen erläutert. Mit der detaillierten Darstellung zur Konstrukti-on und Bemessung von gängigen Maschinenbauverzahnungen wird, für eine optimale Zahnradauslegung, eine interdisziplinäre Wissensverknüpfung geschaffen. In ausge-wählten experimentellen Reibversuchen an Betonplatten sollen genaue Aufschlüsse über das Abriebverhalten des verwendeten Hochleistungsbetons geschaffen werden, welche letztendlich zu einer Auslegung von Verzahnungen aus Hochleistungsbeton führen. Diese Auslegung wird durch FE-Simulationen ergänzt, die Informationen zu den Schwindverformungen der Verzahnung und den auftretenden Spannungen berücksich-tigen.
Abschließend wird anhand eines Großdemonstrators die generelle Umsetzbarkeit eines Parabolrinnensystems mit einer Verzahnung aus Hochleistungsbeton gezeigt.
Faser-Kunststoff-Verbunde sind aufgrund ihrer mechanischen Eigenschaften und
Formgebungsmöglichkeiten der Trendwerkstoff im Rahmenbau von Hochleistungs-
Sportfahrrädern. Hierbei ermöglicht die zunehmende Berücksichtigung von Leichtbau-
Technologien eine Erhöhung der Leistungs-Gewichts-Relation, um den stetig
wachsenden Anforderungen an die Fahreigenschaften, die Haltbarkeit und das Gewicht
gerecht zu werden.
Ein geschichtlicher Rückblick über die letzten Jahrzehnte im Fahrradrahmenbau
zeigt eine deutliche Gewichtsreduktion bei steigender Funktionalität. Besonders der
Einsatz neuartiger Werkstoffe ermöglichte immer wieder eine wesentliche Erhöhung
der Leichtbaugüte. In den Anfängen begannen die Rahmenhersteller mit Gusseisen,
anschließend wurde Stahl verwendet und schließlich Leichtmetalle, wie Aluminium.
Die derzeit leichtesten Rahmen werden aus kohlenstofffaserverstärktem Kunststoff
gefertigt.
Die Anwendung von Faser-Kunststoff-Verbunden ist deutlich komplexer und fordert
eine integrierte Betrachtungsweise von den Werkstoffen über die Bauweise, der
Fertigungstechnologie sowie der Bauteilprüfung. Die erzielbare Leistungsfähigkeit
eines Hochleistungs-Rahmens wird hierbei wesentlich in der Konstruktions- und
Dimensionierungsphase vorgegeben. Eine Übersicht über derzeitige Bauweisen und
Fertigungstechnologien zeigt deren spezifische Eigenschaften.
Um in der Entwicklung eine möglichst gute Lösung innerhalb eines vorgegebenen
Zeitfensters zu erreichen, können praktikable und effiziente Simulationswerkzeuge
einen erheblichen Beitrag leisten. Hierzu wurde ein Werkzeug entwickelt, welches
mit Hilfe eines Gradientenverfahrens an parametrischen Geometrie FE-Modellen zur
Gestaltoptimierung und Optimierung der Laminatkonfiguration angewendet werden
kann. Dieses ist auf in Differentialbauweise gefertigte Rahmen ausgerichtet und
berücksichtigt in besonderem Maße die werkstoff- und fertigungsspezifischen Anforderungen
von Faser-Kunststoff-Verbunden.
Zur Verbesserung der Festigkeitsvorhersage dient ein Modell zur vollständigen
schichtenweisen Bruchanalyse, welches aus den Bausteinen Spannungsermittlung
mit Berücksichtigung werkstofflicher Nichtlinearitäten, Festigkeitskriterium mit Unterscheidung
der Bruchtypen Zwischenfaserbruch und Faserbruch sowie Steifigkeitsdegradation
der Einzelschicht nach Eintritt von unkritischen Matrixbrüchen besteht. Das Modell erlaubt die Vorhersage des gesamten Schädigungsprozesses unter quasistatischer
Belastung vom Erstschichtversagen bis hin zum Laminatversagen. Weiterhin
wurde das Modell in ein kommerzielles FE-Programm implementiert und erlaubt
die Analyse von komplex geformten Strukturen.
Unter Anwendung der Simulationswerkzeuge konnten drei Hochleistungs-Rahmen in
Differentialbauweise entwickelt werden, die weltweit zu den leichtesten und steifsten
gehören. Hierbei lieferte das Optimierungswerkzeug die Ausgangsgestalt sowie die
in den Rohren notwendige Laminatkonfiguration zur Erreichung höchstmöglicher
Steifigkeits-zu-Gewichtsverhältnisse. Aufbauend auf den Erkenntnissen erfolgte die
detaillierte Rahmenkonstruktion. Kritische Bereiche am Rahmen konnten durch die
abschließende Anwendung des Festigkeitsanalysewerkzeugs aufgedeckt und beseitigt
werden. Es konnte eine gute Übereinstimmung der Ergebnisse des Festigkeitsanalysewerkzeugs
mit Prüfstandsversuchen gezeigt werden. Die erzielten herausragenden
Fahreigenschaften und die Haltbarkeit der entwickelten Rahmen konnten
sowohl auf Prüfständen als auch im Alltag bereits ausgiebig unter Beweis gestellt
werden.
Der Einfluss von transversalen Stoßeinwirkungen auf Fahrradrahmen wurde an
Sturzversuchen an kompletten Rennrädern sowie an repräsentativen Ober- und
Unterrohren aus Aluminium und kohlenstofffaserverstärktem Kunststoff untersucht
und die auftretenden Schädigungen ermittelt. Hierbei zeigte sich, dass insbesondere
an Rahmen aus kohlenstofffaserverstärktem Kunststoff nicht sichtbare Schäden
bereits bei geringsten Stoßeinwirkungen auftreten, unabhängig vom verwendeten
Fasertyp. Durchgeführte zyklische Prüfungen an vorgeschädigten Rennradrahmen
unter geringer Stoßeinwirkung zeigten keinen messbaren Verlust an Steifigkeit oder
Haltbarkeit der untersuchten Rahmen. Untersuchungen zum Einfluss des Fasertyps
auf die Impakteigenschaften zeigten deutliche Unterschiede bei den aufgetretenen
visuell erkennbaren Schäden.
Die Zusammenarbeit von Menschen in Projekten ist geprägt von ihren persönlichen Erfahrungen und
Interessen im jeweiligen Umfeld. Dieses Umfeld − nennen wir es hier „System“ − hat wiederum eigene
Interessen und befindet sich in einem erweiterten Umfeld. Dieses Systemumfeld kann bis zum Erreichen
des Universums ausgedehnt werden. Die Notwendigkeit in großen Bauvorhaben, mit der Komplexität
umgehen zu können, setzt die Kenntnisse der Zusammenhänge und den Willen zum systemorientierten
Handeln voraus.
In einem Bauprojekt ist eine endliche Menge von handelnden Personen mit ihren jeweiligen Rollen,
Aufgaben und Abhängigkeiten in den sie umgebenden Systemen (Organisationen) vorhanden. Im
Wesentlichen werden die Hauptfunktionen in Projekten durch Bauherr, Planer und der ausführenden
Firma dargestellt. Eine besondere Rolle kommt hier dem Bauherrn bzw. seinen Erfüllungsgehilfen im
Projektmanagement zu. Projektmanager haben als einzige die Chance, von Anfang bis Ende den gesamten
Projektlebenszyklus zu erleben. Als Teil ihrer Aufgaben kümmern sie sich um die Zieldefinitionen
für Organisation, Qualitäten und Quantitäten, Termine, Kosten und rechtliche Rahmenbedingungen
und steuern die durch die Bauherren beauftragten Planer und ausführenden Firmen.
Die heute bei großen Bauvorhaben vorkommenden „fungierenden Bauherren“ und die „öffentlichen
Bauherren“ bestehen aus Bauherrenorganisationen mit einer Vielzahl von Akteuren. Hieraus erwächst
die Notwendigkeit, die zahlreichen Beteiligten mit ihren verschiedenen Organisationen in Bezug auf die
verschieden gelagerte Interessenlage zu koordinieren und zielorientiert zu führen. Durch die notwendige
Integration der weiteren Systemkreise von Planern und ausführenden Firmen entstehen neue,
zusätzliche Steuerungsaufgaben, und die Komplexität des Projektes steigt in Dimensionen, die ohne
systemorientierten Ansatz nur schwer zu durchschauen und somit kaum noch zu bewältigen ist.
Zur Klärung der Fragen, welche Gestalt die Komplexität in großen Bauvorhaben annehmen und wie
ein Projektmanager mit diesen Herausforderungen umgehen kann, zielte die Arbeit auf die Erforschung
der Grundlagen von Komplexität und die Analyse ihrer Auswirkungen auf das Bauprojektmanagement.
Das entstandene Modell basiert auf zwölf charakterisierenden Eigenschaften komplexer adaptiver Systeme
und bildet hieraus fünf Merkmale für den systemischen Aufbau und Ablauf von Bauvorhaben.
Berücksichtigt wird, wie die Elemente und Teilsysteme zueinander stehen, und obwohl sie unterschiedliche
Charakteristika bzw. Zustände aufweisen können, dennoch ein gemeinsames Verhalten erzeugen
und eine Identität zum Umfeld herausbilden können. Hierzu sind neben Struktur und Veränderungen
in einem komplexen System auch die Wahrnehmungen und das Verhalten der Beteiligten sowie die
Umwelt eines Projektes maßgebend.
Im Rahmen einer Expertenbefragung mit vierzig standardisierten Interviews, die mit Vertretern der
drei Systemkreise Bauherr, Planer und ausführende Firma geführt wurden, konnte im ersten Schritt
das Wissen über Komplexität und die Zusammenhänge zum Baumanagement herausgearbeitet werden.
Diese Erkenntnisse wurden ergänzt um die Analyse verschiedener Bewertungsschemata und auf
dieser Basis zehn Indikatoren herausgebildet, die sich in fünf Subsystemen eines Bauvorhabens darstellen.
Jeder Indikator wurde in Bezug auf die fünf Merkmale der Komplexität in Bauvorhaben untersucht,
und Teilaspekte wurden zur Bewertung herangezogen. Es erfolgt eine relative Bewertung mit einer
Einstufung von 1 bis 5 (sehr geringe bis sehr hohe Komplexität). Das Modell liefert im Ergebnis Komplexitätsgrade
der einzelnen Indikatoren, der Merkmale und letztlich des gesamten Bauvorhabens.
Eine anwendungsorientierte Fallstudie mit anschließenden Optimierungsansätzen und darauf aufbauenden
Präventionsvorschlägen verifizieren den Modellansatz.
In der vorliegenden Arbeit konnte dargestellt werden, wie die unzureichende Wahrnehmung von Komplexität
im Bereich des Projektmanagements, gerade zu Beginn eines Projektes, die Steuerung eines
Projektes erschweren und Störungen im Projekt zur Folge haben. Das Ergebnis kann das Projektmanagement
bei der Erfüllung seiner komplexen Aufgaben unterstützen und Entscheidungshilfen zur
Prävention leisten. Die Modellierung erfolgt unter dem Bewusstsein, dass die getroffene Auswahl den
Stand der Forschung darstellt, ohne jedoch einen Anspruch auf Vollständigkeit oder Unveränderlichkeit
zu erheben.
Weiteren Forschungsvorhaben im Aufgabenfeld des Projektmanagements können die beschriebenen
Ansätze dienlich sein, um ergänzende Ansätze zu einem besseren Umgang mit Baumaßnahmen zu
finden.
Sandwichelemente aus Stahlbeton genügen zahlreichen Ansprüchen hinsichtlich
energetischer, wirtschaftlicher, architektonischer und gestalterischer Gesichtspunkte
sowie tragfähiger Konstruktionen. Neben Sandwichwänden können Sandwichelemente auch als biegebeanspruchte Bauteile wie Sandwichdecken oder Sandwichdächer eingesetzt werden. Das große Potential solcher Elemente kann jedoch aufgrund
fehlender Kenntnisse bezüglich des Last-Verformungs-Verhaltens bisher nicht ausgeschöpft werden.
Das Tragverhalten von Stahlbetonsandwichelementen wird maßgeblich durch die
Rissbildung in den Betonschichten beeinflusst. Während die Berücksichtigung der
Rissbildung beispielsweise bei der Verformungsberechnung von biegebeanspruchten
Stahlbetonbauteilen schon intensiv erforscht wurde und realitätsnah beschrieben werden kann, steht die Entwicklung einer abschnittsweisen Berücksichtigung der reduzierten Dehn- und Biegesteifigkeiten infolge der Rissbildung für biegebeanspruchte Sandwichelemente aufgrund der höheren Komplexität noch am Anfang. Bisher existieren
nur Modelle, die die Rissbildung im Beton von Sandwichelementen für die Berechnung
der Teilschnittgrößen und der Verformung näherungsweise berücksichtigen. Die Anwendung dieser Rissmodelle ist aber aufgrund verschiedener Annahmen und Vereinfachungen, die diesen Modellen zugrunde liegen, für die in dieser Arbeit untersuchten
Sandwichelemente mit Stahlbetontragschichten nicht geeignet.
Mithilfe eines realitätsnahen Ansatzes zur Bestimmung des Schubmoduls eines
Dämmstoffes, der Auswahl eines geeigneten Verfahrens zur Berechnung des Last-
Verformungs-Verhaltens eines Stahlbetonbauteils einschließlich der Berücksichtigung
der Rissbildung sowie eines Modellvorschlags zur Nachrechnung der Schubversuche
an Sandwichelementen wird ein eigenes Ingenieurmodell zur Nachrechnung des Last-
Verformungs-Verhaltens von biegebeanspruchten Sandwichelementen entwickelt.
Aufbauend auf diesem Ingenieurmodell erfolgt die Erstellung eines Berechnungswerkzeuges. Anhand der Nachrechnung zahlreicher Versuchsergebnisse kann gezeigt
werden, dass mit diesem Berechnungswerkzeug eine sehr gute Übereinstimmung der
rechnerisch ermittelten mit den im Versuch bestimmten Last-Verformungs-Kurven erzielt werden kann. Das neue Ingenieurmodell berücksichtigt sowohl die reduzierten
Dehn- und Biegesteifigkeiten infolge der Rissbildung als auch abschnittsweise unterschiedlich große Schubsteifigkeiten der Kernschicht, die sich aus der Anordnung von
stiftförmigen Verbundmitteln ergeben.
Basierend auf dem Ingenieurmodell sowie den umfangreichen experimentellen Untersuchungen zum Last-Verformungs-Verhalten von Sandwichelementen wird ein Berechnungswerkzeug sowie ein Bemessungskonzept für Stahlbetonsandwichelemente
mit stiftförmigen Verbundmitteln vorgestellt. Damit konnte ein Fortschritt erzielt und die
Grundlage für den Einsatz von Sandwichelementen mit Stahlbetontragschichten sowie
einer Kernschicht aus Dämmstoffplatten und stiftförmigen Verbundmitteln gelegt werden.
Zum Tragverhalten von Stahlbetonplatten ohne Querkraftbewehrung mit integrierten Leitungsführungen
(2010)
In der vorliegenden Arbeit wird das Querkrafttragverhalten von einachsig gespannten Stahlbetondecken mit integrierten Leitungsführungen untersucht. Anhand zahlreicher Traglastversuche an Deckenstreifen mit unterschiedlicher Öffnungsgeometrie, -lage und -gruppierung sowie variierender Deckendicken konnte die Reduzierung der Querkrafttragfähigkeit experimentell nachgewiesen werden. Die Versuche wurden mit einem zweidimensionalen FE-Modell, welches an Hand der experimentellen Ergebnisse kalibriert wurde, nachgebildet. Anschließend wurde mit Hilfe des Modells eine Parameteruntersuchung durchgeführt, worin die Parameter Plattendicke, Öffnungsdurchmesser und Lage der Öffnung im Querschnitt variiert wurden. Die Ergebnisse der experimentellen und rechnerischen Untersuchungen dienten zur Definition eines Abminderungsfaktors, der die Reduktion der Querkrafttragfähigkeit infolge der Öffnungen im Deckenquerschnitt beschreibt. Mit dem im Rahmen dieser Arbeit entwickelten Modell konnten die Grundlagen für eine ingenieurmäßige Querkraftbemessung von Stahlbetondecken mit integrierter Leitungsführung geschaffen werden.
Das Drilltragverhalten von Fertigteilplatten mit Ortbetonergänzung wird im Wesentlichen durch vertikale Elementfugen beeinflusst. Die DIN 1045-1 erlaubt die Berechnung der Schnittgrößen derartiger Platten unter Ansatz voller Drillsteifigkeit auch für den Fall, dass sich vertikale Elementfugen im Drillbereich \((0,3 *l_{min})\) der Platte befinden. Ein Aufklaffen der horizontalen Verbundfuge zwischen Fertigteilplatte und Ortbeton wird in diesem Fall beidseits der Fuge durch randparallele Gitterträger verhindert.
In der vorliegenden Arbeit wird das Tragverhalten von Fertigteilplatten mit Ortbetonergänzung physikalisch nichtlinear, unter Berücksichtigung wirklichkeitsnahen Werkstoffverhaltens, mit dreidimensionalen FEM-Ansätzen modelliert. Dazu wird zunächst ein Ansatz zur Berücksichtigung des Tension-Stiffening Effekts in dreidimensionalen FE-Berechnungen entwickelt. Damit gelingt die numerische 3D-Simulation des Tragverhaltens von Stahlbetonfertigteilplatten mit Ortbetonergänzung und insbesondere auch die Erfassung des Einflusses vertikaler Elementfugen auf die Schnittgrößen.
Eigene FE- Simulationen, in denen der Bewehrungsstahl als eindimensionales Stabelement diskretisiert worden ist, führten im Lasteinleitungsbereich der Bewehrung lokal zum vorzeitigen Versagen einiger Betonelemente. Abliegende Querschnittsbereiche konnten somit nicht zum Lastabtrag herangezogen werden. In einer aufwendigen dreidimensionalen Simulation in der auch die Bewehrung inklusive Rippen dreidimensional modelliert worden ist, konnte das experimentell ermittelte Tragverhalten unter Berücksichtigung des Tension-Softening Verhaltens im Beton nachgebildet werden.
Diese Art der Modellierung ist außerordentlich zeit- und rechenintensiv. Es wird daher zur näherungsweisen Beschreibung des Tension-Stiffening Effekts in dreidimensionalen FE- Modellen ein vereinfachter Ansatz entwickelt, der nach den genaueren Berechnungen und experimentellen Ergebnissen kalibriert wird und das Tragverhalten “verschmiert“ beschreibt. Dies erfolgt zunächst für das einachsige Tragverhalten eines Stahlbetonzugstabs und wird im Anschluss für das zweiachsige Tragverhalten von Stahlbetonplatten erweitert.
Mit dem entwickelten Modell sind zweiachsig gespannte Fertigteilplatten mit Ortbetonergänzung berechnet worden. Die Berechnungsergebnisse sind an drei Platten experimentell im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern abgesichert worden.
Die physikalisch nichtlinearen 3D-FEM Berechnungen haben gezeigt, dass die Tragfähigkeit einer zweiachsig gespannten Fertigteilplatte mit Ortbetonergänzung durch eine obere Eckbewehrung nur geringfügig gesteigert werden kann (ca. 6%). Dies bestätigt die Ergebnisse von Gersiek (1990) an quadratischen Stahlbetonplatten in Ortbetonbauweise.
Weiter konnte sowohl im Versuch als auch in nichtlinearen Berechnungen gezeigt werden, dass bei Anordnung vertikaler Elementfugen im Drillbereich \((0,3 *l_{min})\) gemäß DIN1045-1 die Tragwirkung der Platte sichergestellt ist. Der Rissverlauf unterscheidet sich nur geringfügig von einer Platte ohne Fugen in den Fertigteilplatten.
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
In der vorliegenden Arbeit wird das Tragverhalten von durchlaufenden stahlfaserbewehrten Stahlverbunddecken analysiert. Auf der Basis von experimentellen und rechnerischen Untersuchungen werden zwei Bemessungsmodelle entwickelt. Anhand der experimentellen Untersuchungen an einfeldrigen und durchlaufenden stahlfaserbewehrten Verbunddecken werden Aufschlüsse über das Trag- und Verformungsverhalten der Decken gewonnen. Dabei werden sowohl offene trapezförmige als auch hinterschnittene Profilbleche verwendet. Auf eine konventionelle Betonstahlbewehrung wird gänzlich verzichtet. Das Stützmoment wird vom Stahlfaserbeton alleine aufgenommen. In vier Versuchsserien mit insgesamt 18 Versuchen werden einzelne Parameter wie z. B. unterschiedliche Deckenstärken, unterschiedliche Profilblechgeometrien sowie unterschiedliche Stahlfaserbetonmischungen untersucht. Für die Berechnung und Bemessung werden die im Verbundbau üblichen Nachweisverfahren aufgegriffen und modifiziert. Die Traganteile des Stahlfaserbetons werden über den Ansatz von Spannungsblöcken implementiert. Bei der Nachrechnung der einzelnen Versuche zeigt sich die Eignung der Verfahren. Für die einzelnen Nachweise werden in Parameterstudien Bemessungsdiagramme und –tabellen erstellt, die dem anwendenden Ingenieur ein einfaches und sicheres Bemessen ermöglichen. Anhand der experimentellen Ergebnisse und der rechnerischen Untersuchungen werden zwei mögliche Bemessungsmodelle entwickelt, mit denen die Tragfähigkeit von stahlfaserbewehrten durchlaufenden Verbunddecken nachgewiesen werden kann. Dabei kann der Nachweis entweder nach den Verfahren Elastisch-Plastisch oder Plastisch-Plastisch erfolgen.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Durch die Kombination von Hohlkörpern mit einem Feinkorn-Hochleistungsbeton können sehr leistungsfähige und zugleich schlanke Tragstrukturen realisiert wer-den. Dies ermöglicht einen effizienten Materialeinsatz, wodurch Beton, Betonstahl und insbesondere der im Beton enthaltene Zement gegenüber herkömmlichen Strukturen verringert werden können. Die Herstellung dieser Materialien erfordert einen hohen Einsatz von Primärenergie, sodass sich in der Folge nicht nur der Verbrauch primärer Energieträger, sondern insbesondere die Emission von Treib-hausgasen reduziert.
Zur Sicherstellung einer praxisgerechten Handhabung gilt es, einen Hochleis-tungsbeton auszuwählen, der hinsichtlich seiner mechanischen Kennwerte hohen Anforderungen entspricht und zugleich gut zu verarbeiten ist. Der in der vorliegen-den Arbeit verwendete Nanodur®-Beton zeichnet sich sowohl durch seine Zug- und Druckfestigkeit als auch seinen hohen E-Modul gegenüber herkömmlichen Beto-nen aus. Er lässt sich einfach verarbeiten und kann ohne die Verwendung speziel-ler Mischanlagen hergestellt werden.
Bisher durchgeführte Untersuchungen haben gezeigt, dass die Verwendung von Hohlkörpern das Tragverhalten von Deckenplatten maßgeblich beeinflusst. Es wurde festgestellt, dass insbesondere die Querkrafttragfähigkeit ohne Querkraft-bewehrung sowie die lokale Durchstanztragfähigkeit deutlich verringert werden, sodass diese mittels experimenteller Untersuchungen für Hohlkörperdecken aus Feinkorn-Hochleistungsbeton neu zu bewerten sind. Das Biegetrag- und das Ver-formungsverhalten können anhand dieser Ergebnisse sowie weiterer theoretischer Betrachtungen bewertet werden, da diese durch die Verwendung von Hohlkörpern im Querschnitt nur untergeordnet verändert werden. Für weitergehende Untersu-chungen wurden ein FE-Berechnungsmodell an den ermittelten Daten kalibriert und die Eingaben an Versuchen validiert.
Die Untersuchungsergebnisse haben gezeigt, dass bereits bestehende Berech-nungs- bzw. Bemessungsansätze nur mit Einschränkungen auf Hohlkörperdecken aus Feinkorn-Hochleistungsbeton übertragen werden können. Die Bemessung der Biegetragfähigkeit und der lokalen Durchstanztragfähigkeit wurde anhand von bereits vorliegenden Konzepten modifiziert und durch Parameter zur Berücksichti-gung des feinkörnigen Nanodur®-Betons sowie der gegenüber von herkömmli-chen Betonen reduzierten Betondeckung von Bewehrung und Hohlkörpern ergänzt. Die Berechnung der Verformungen wurde auf Grundlage etablierter Ansätze so-wohl für Hohlkörperdecken als auch für massiv ausgeführte Querschnitte aus Na-nodur®-Beton an den durchgeführten Versuchen kalibriert. Zur Ermittlung der Querkrafttragfähigkeit ohne Querkraftbewehrung wurde ein Modell an den experi-mentellen Untersuchungen validiert, das auf der individuellen Ermittlung der drei Haupttraganteile der Querkrafttragfähigkeit (ungerissene Betondruckzone, Rissrei-bung sowie Dübelwirkung der Längsbewehrung) basiert. Aufgrund der Komplexität dieses Modells wurde weiterhin ein Konzept entwickelt, das die praxisgerechte Bemessung der Querkrafttragfähigkeit ohne Querkraftbewehrung von Hohlkörper-decken aus Feinkorn-Hochleistungsbeton ermöglicht.
Abschließend wird die Anwendung der in dieser Dissertation erarbeiteten Berech-nungs- und Bemessungsmodelle an einem Anwendungsbeispiel veranschaulicht.
Externe elektrische Gleichspannungsfelder können sowohl den physikalischen, als auch den reaktiven Stoffaustausch bei der Flüssig-Flüssig Extraktion signifikant beeinflussen, wodurch eine Steigerung des Stoffüberganges im elektrischen Feld erzielt werden kann. Die Gründe hierfür sind im elektrischen Feld gesteigerte Grenzflächenturbulenzen und feldinduzierte Konzentrationspolarisationen im Phasengrenzflächenbereich, welche durch Migrationswechselwirkungen verursacht werden. Das elektrische Feld hat bezüglich des reaktiven Stoffübergangs sowohl in Einzel- als auch im Mehrkomponentensystem keinen Einfluss auf das chemische Gleichgewicht. Jedoch wird durch das Feld die Kinetik beschleunigt und das Gleichgewicht schneller erreicht. Auch die maximale Trennselektivität im Mehrkomponentensystem, welche im Gleichgewicht erreicht wird, wird nicht durch das Feld verändert. Diese ist primär von der Konzentration und der Säurestärke abhängig. Lediglich im Falle sehr schwacher Säuren ist das Gleichgewicht über das natürliche hinaus verschiebbar. Diese Stoffaustauscherhöhung ist durch die im elektrischen Feld erhöhte Dissoziation der Übergangskomponente gemäß dem 2. Wien’schen Effekt erklärbar. Zudem ist die feldinduzierte Stoffaustauscherhöhung stark von der Feldwirkrichtung abhängig. Der Feldeinfluss ist dann maximal, wenn das Feld direkt in Stoffübergangs-richtung wirkt. Dies ist bei unbewegten (z. B. planaren) Grenzflächen erreichbar. So konnte in planaren Stoffübergangszellen und am hängenden Tropfen eine starke Stoffaus-tauschbeschleunigung in der Größenordnung von ca. 1000 % erzielt werden. Am bewegten Tropfen konnte zwar eine Stoffaustauscherhöhung durch die im Feld geänderten hydrodynamischen Betriebsgrößen (wie Tropfengröße und Verweilzeit) erzielt werden, jedoch konnte darüber hinaus keine weitere Stoffaustauschbeschleunigung erzielt werden. Dies kann damit erklärt werden, dass bei bewegter sphärischer Grenzflächengeometrie das Feld nicht nur in Stoffübergangsrichtung wirkt und feldinduzierte Polarisations-erscheinungen sich weitgehend kompensieren. Daher gelingt in klassischen Extraktionsapparaten, welche mit Dispergierung und Tropfen-bildung arbeiten, die Verfahrensumsetzung der kontinuierlich betriebenen Extraktion im Hochspannungsfeld nicht effizient. Diese gelingt in einem speziellen Zentrifugalextraktor, dem Taylor-Couette Elektroextraktor, in wessen Ringsspalt zwischen zwei als Elektroden fungierenden, konzentrischen Zylindern auf Grund der Rotationsbewegung sich eine planaranaloge, zylindrische Phasengrenzfläche ausbildet und das Feld somit direkt in Stoffübergangsrichtung wirken kann. Auch wird der stationäre Betriebszustand binnen weniger Minuten erreicht. Zudem entstehen im Phasengrenzbereich Taylorverwirblungen, welche ebenfalls den Stoffaustausch erhöhen. Zur theoretischen Beschreibung konnten Stoffübergangsmodelle entwickelt werden, welche die feldinduzierten Polarisationseffekte berücksichtigen. So gelingt die Berechnung des reaktiven Stoffaustauschs über ein elektrostatisch erweitertes Kinetikmodell, welches neben der chemischen Reaktion, der Grenzflächenadsorption des Ionenaustauschers und dem Reaktionsgleichgewicht, auch die Migration über die Nernst Planck Gleichung, sowie auch die Elektrodissoziation über einen Ansatz nach Onsager berücksichtigt. Die Berücksichtigung der im elektrischen gesteigerten Grenzflächenturbulenz gelingt über einen elektrostatisch erweiterten Ansatz nach Maroudas und Sawistowski. Auch wurde ein Modell zur Berechnung des Stoffübergangs im Taylor-Couette Extraktors vorgestellt. Die Berechnung der anliegenden elektrischen Felder gelingt über die Finite Elemente Methode basierend auf den Maxwell’schen Gleichungen oder vereinfacht über die Laplace Gleichung. Wesentlich ist, dass nicht die Elektrodenpotentialdifferenz, sondern das berechnete Potential an der Phasengrenzfläche den Stofftransfer im elektrischen Feld bestimmt, was durch die Simulationsrechnungen bestätigt wurde.
Innerhalb des Öffentlichen Personennahverkehrs kommen dem Busfahrer sowie seiner
auszuübenden Berufstätigkeit eine bedeutende Rolle zu. Ohne Busfahrer kann zum
aktuellen Zeitpunkt und auch in absehbarer Zeit das Funktionieren des Systems und damit
die Mobilität zahlreicher Nutzer nicht gewährleistet werden. Laut Literatur weisen Busfahrer
ein hohes Risiko für Burnout (Chen & Kao 2013) und zahlreiche körperliche
Gesundheitsprobleme auf (Tse et al., 2006). Im Rahmen unterschiedlicher Studien wurden
hierfür eine Reihe umfeld- und organisationsbezogene Einflussgrößen als mögliche
Ursachen konstatiert. Bezüglich des Images der Berufsgruppe der Busfahrer, welches
beträchtlich zum Gesundheitszustand beitragen kann, existiert bisher allerdings ein recht
limitiertes Wissen.
Dies veranlasste die zugrundeliegende Studie, welche das Ziel verfolgte, das Image der
Berufsgruppe der Busfahrer im Linienbetrieb systematisch zu erfassen und darzustellen.
Image wurde hierbei als die Gesamtheit aller Wahrnehmungen, Vorstellungen und
Bewertungen definiert. Im Fokus standen zum einen zentrale Tendenzen sowie allerdings
auch gruppenspezifische Unterschiede hinsichtlich des Bildes über Busfahrer.
Da sich anhand des aktuellen Forschungsstandes nur einzelne Facetten des Konstrukts
ableiten ließen, wurde bewusst eine stark explorierende Vorgehensweise gewählt.
Zunächst wurde mit einer qualitativen Studie begonnen. Als Datenerhebungsmethode
wurden insgesamt 126 Experteninterviews durchgeführt. Die Transkripte der Interviews
dienten als Basis für zwei verschiedene Auswertungsmethoden: (1) Mittels der
zusammenfassenden qualitativen Inhaltsanalyse nach Mayring (2010) wurden zunächst die
wichtigsten Inhalte anhand eines Kategoriensystems systematisch ermittelt und
quantifiziert. (2) Im Anschluss daran wurden die einzelnen Interviewteilnehmer in
Anlehnung an die Typenbildung nach Kluge (2000) mithilfe einer theoriebasierten
Merkmalsmatrix unterschiedlichen Gruppen zugeordnet und charakterisiert. Daraufhin
wurde im Sinne eines Mixed-Method-Ansatzes eine quantitative Studie nachgeschaltet.
Basierend auf den ersten Hypothesen und Theorien aus dem qualitativen Teil des
Forschungsprojektes und in Abgleich mit bereits bestehender Literatur wurde ein
Fragebogen konstruiert. Insgesamt wurden 574 vollständig ausgefüllte Fragebögen zur
Analyse hinzugezogen. Folgende Auswertungsmethoden standen bei der Analyse im
Vordergrund: (1) Mittels deskriptiver Methoden wurden zunächst zentrale Tendenzen zu
unterschiedlichen Fragebogendimensionen dargestellt und beschrieben. (2) Durch mehrere
explorative Faktorenanalysen wurden die Antworten der Untersuchungsteilnehmer
ausgewählter Fragebogendimension auf wenige Faktoren reduziert. Dies diente zum einen
als Basis für eine durchzuführende Clusteranalyse, welche das Ziel verfolgte, die
Ergebnisse der qualitativen Typisierung durch einen unterschiedlichen Zugang zum
Themenfeld besser einordnen und eingrenzen zu können. Zum anderen diente die
191
Fragebogenreduzierung der Durchführung unterschiedlicher Signifikanztests zur
Identifizierung von Unterschieden auf Basis demografischer Daten.
Die Ergebnisse der vorliegenden Studie offenbaren, dass die Berufsgruppe der Busfahrer
ein schlechtes Image besitzt. Die Wahrnehmungen sind deutlich starr und
vorurteilsbesetzt. Die Vorstellungen über die Berufsgruppe sind ähnlich wie die
Wahrnehmungen mehrheitlich negativ. Der Busfahrer wird insgesamt als schlechter
Dienstleister mit geringem Bildungsstand und unattraktivem Erscheinungsbild, welcher in
einem negativ behafteten (Busverkehrs-)System mit schlechten Arbeitsbedingungen tätig
ist, stigmatisiert. Das Bild über die Berufsgruppe unterscheidet sich allerdings aufgrund
von Reflexionen und Wahrnehmungen über die Berufsgruppe: Sobald Personen über das
Individuum Busfahrer reflektieren, sei es aufgrund einer erhöhten Hilfsbedürftigkeit, einer
Angewiesenheit auf das System oder eines Zugangs zur Berufsgruppe, so besitzen sie ein
deutlich positiveres Bild von der Berufsgruppe und damit in Verbindung stehenden
Dimensionen. Besteht hingegen kein oder kaum ein persönlicher Bezug zur Berufsgruppe
bzw. ist mehr das eigentliche Busverkehrssystem statt der Busfahrerperson von Bedeutung
(die selbst bei Nutzung nicht wahrgenommen wird), so ist das Bild entweder vage oder
deutlich vorurteilsbesetzter und insgesamt negativer. Die aktuelle Busnutzung ist laut
Ergebnissen der zugrundeliegenden Studie nicht als entscheidend zu werten. Es wird davon
ausgegangen, dass Erfahrungswerte, selbst wenn sie in der Vergangenheit liegen, und eine
bewusste Auseinandersetzung mit der Berufsgruppe entscheidend sind. Die Ergebnisse der
Studie zeigen allerdings ebenso, dass der deutlich stärkere Bezug zur Busfahrerperson zu
beträchtlich höheren Ansprüchen gegenüber der Berufsgruppe einhergeht, welche von den
Teilnehmern auch als wichtig bewertet werden: Busfahrer werden quasi als „persönlicher
Taxifahrer“ oder „personenbezogener Dienstleister“ angesehen, der eine Vielzahl an
Leistungen zu erfüllen habe, welche mehrheitlich den Service und nicht die eigentliche
Beförderungsleistung betreffen.
Zur Imageverbesserung müssen folglich mehrere Aspekte berücksichtigt werden. Zum
einen müssen vor allem Nutzer mit hoher Leistungserwartung über die eigentliche
Beförderungsaufgabe des Busfahrers aufgeklärt und darüber informiert werden, dass sie
keinen rechtlichen Anspruch auf Serviceleistungen besitzen. Zum anderen gilt es die
Aufmerksamkeit und Wahrnehmung derjenigen auf den Busfahrer zu richten, die mehr das
Busverkehrssystem und nicht die eigentliche Busfahrerperson anerkennen. Weiterhin gilt
es, die mediale Präsenz der Berufsgruppe authentischer zu gestalten und den
Aufmerksamkeitsfokus mehr auf die Beförderungsleistung und die gesellschaftliche
Bedeutung und Verantwortung der Busfahrer zu lenken.
Bei diskontinuierlich faserverstärkten Kunststoffen kann sowohl während des Compoundierens wie auch bei der Verarbeitung zum Fertigteil, durch Wechselwirkung zwischen den Fasern, der Fasern mit Maschinenkomponenten oder auch mit Zusatzstoffen (beispielsweise Farbpigmenten) eine Faserschädigung auftreten. Diese Interaktionen zeigen sich deutlich in der Abnahme der im Bauteil vorhandenen mittleren Faserlänge. Eine Überprüfung der Faserfestigkeit war bisher, auf Grund fehlender geeigneter Prüfmethoden bei den geringen Schlankheitsgraden bereits verarbeiteter Fasern, nicht oder nur eingeschränkt möglich. Mit einem am Lehrstuhl RPE entwickelten Mikrofaserbiegeversuch gelingt es, die Einzelfaserfestigkeit experimentell zu bestimmen. Dies bietet somit die Möglichkeit, das Schädigungsverhalten der meist spröden und kerbempfindlichen Fasermaterialien über die Verarbeitung hinweg zu untersuchen und zu quantifizieren. Da die (Rest-)Faserfestigkeit in diskontinuierlich verstärkten Bauteilen nun bestimmt werden kann, ist eine Lücke bei Berechnungen geschlossen, und das Wissen über Wirkzusammenhänge der Faserschädigung wird erweitert. Aufbau der Arbeit: In den Vorbetrachtungen zu dieser Arbeit werden zunächst kurz die Grundzusammenhänge zur Steifigkeits- und Festigkeitssteigerung der diskontinuierlich faserverstärkten Kunststoffe angesprochen und anschließend bestehende Modellvorstellungen zur Faserverstärkung bei Kunststoffen vorgestellt. Nachdem der Wissensstand zu bestehenden Messtechniken der mechanischen Fasercharakterisierung aufgezeigt ist, wird die entwickelte Messmethode des Dreipunktbiegeversuchs zur Faserfestigkeitsbestimmung ausführlich vorgestellt und deren Möglichkeiten und Einschränkungen diskutiert. Es folgt die Erläuterung der Notwendigkeit und der Vorgehensweise der statistischen Absicherung von Kennwerten spröder Verstärkungsfasern sowie die Vorgehensweise der Kennwertumrechnung auf reale Belastungen. Den Hauptteil bilden die einzelnen Untersuchungen mit jeweils anschließender Diskussion und Zusammenfassung. Abschließend werden die Ergebnisse der Arbeit in einer ausführlichen Zusammenfassung erläutert. Durchgeführte Untersuchungen: Ein Schwerpunkt der Arbeit bildet die Überprüfung des Einflusses von Farbpigmenten, welche zur Einfärbung technischer Kunststoffe verwendet werden, auf die Eigenschaften diskontinuierlich kurz- und langfaserverstärkter Thermoplaste und BMC. Die Literatur beschreibt diesen Sachverhalt der teilweise drastischen Festigkeits- und Zähigkeitsminderung bei Einfärbung von FKV nur phänomenologisch oder führt die Effekte alleinig auf Wechselwirkungen Pigment/Matrix zurück, wobei dies zu einem unvollständigen und zumindest teilweise auch falschen Bild der Wirkzusammenhänge führt. Der Schädigungsverlauf der Fasern bei Einfärbung mit Pigmenten, deren Härte über der des Faserwerkstoffs liegt, wird quantitativ über die Verarbeitungsschritte hinweg bis zum Prüfkörper dargestellt. Durch die Kenntnis der Faserschwächung in Verbindung mit dem verarbeitungsbedingt nun verstärkten Faserbruch kann der Verlust an Verbundeigenschaften erklärt werden. Über die Vielzahl der Untersuchungen gelingt es, die Wirkzusammenhänge empirisch zu beschreiben und Erklärungsansätze zu geben. Dabei wurden die Messreihen systematisch aufeinander aufbauend durchgeführt und Zusammenhänge herausgearbeitet. Zwar sind die Untersuchungen oft grundsätzlichen Charakters und dienen eher der Evaluierung einer Vorstellung zum Schädigungsverlauf, dennoch wurde auf die Anwendungsbezogenheit Wert gelegt. Die Kenntnis der grundlegenden Wirkzusammenhänge bietet die Möglichkeit, Regeln und Maßnahmen zur Vermeidung übermäßiger Faserschädigung bei der Kunststoffeinfärbung abzuleiten. Ergebnisse werden beispielhaft an Rechnungen, die sich an bestehenden Modellen zu Festigkeit und Energieaufnahme der diskontinuierlich faserverstärkten Kunststoffe orientieren, überprüft und diskutiert. Grundlage ist hierbei die Bruchfestigkeit der Faser bei Zugbelastung. Da die an Einzelfasern durchgeführten Biegeversuche „nur“ Biegebruchspannungen ergeben, wird ein Verfahren beschrieben, mit dem es gelingt, von gegebenen Biegefestigkeiten in entsprechende Zugfestigkeiten umzurechnen. Der Zusammenhang wird über die effektiv belastete Faseroberfläche im Mikrobiegeversuch gegenüber der entsprechenden Fläche bei Zugbelastung geliefert. Basis der statistischen Kennwertberechnung ist hierbei die Weibullverteilung. Sie liefert eine exponentielle Verteilungsfunktion der Festigkeiten spröder Werkstoffe und ist auch für die Betrachtung der überwiegend behandelten Glasfilamente gut geeignet. Nach dem Prinzip „des schwächsten Gliedes“ geht demnach das Versagen des beobachteten Volumens vom größten Defekt innerhalb desselben aus. Voraussetzung der Anwendbarkeit ist hierbei, dass der Bruch des Materials von statistisch homogen verteilten Defekten einer Art ausgeht und nur Zugversagen auftritt (die homogene Defektverteilung bietet die Grundlage der Übertragung auf das Bauteil und damit das größere Volumen). Weitere Untersuchungen liefern Beiträge zum Recycling faserverstärkter Kunststoffe. So wird der hydrolytische Faserfestigkeitsabbau bei Kühlerwasserkästen aus PA6-GF35 betrachtet und eine Untersuchung der Faserfestigkeit nach dem SMC-Recycling (Partikelrecyclingverfahren) vorgestellt.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Kunststoffe gewinnen aufgrund ihres vorteilhaften Eigenschaftsprofils in tribologischen
Anwendungen zunehmend an Bedeutung. Eine Herausforderung bei der Entwicklung tribologischer
Systeme mit Kunststoffgrundkörpern stellt die eingeschränkte Übertragbarkeit
experimentell ermittelter tribologischer Eigenschaften aus standardisierten Modellversuchen
dar. Diese stimmen oftmals nicht mit dem Verhalten überein, welches in anwendungsnäheren
Prüfkonfigurationen beobachtet wird. In der vorliegenden Arbeit
wurde die Temperaturverteilung innerhalb des tribologischen Systems als mögliche Ursache
für diese Diskrepanzen untersucht. Tribocompounds auf Basis von PEEK wurden
sowohl in Modellsystemen als auch in anwendungsnäheren Prüfkonfigurationen experimentell
charakterisiert. Für die Analyse des Wärmehaushaltes und der resultierenden
Temperaturverteilungen in den unterschiedlichen Prüfsystemen wurden FEM-Modelle
aufgebaut. Durch die Kopplung von Modellversuchen unter gezielter Temperaturführung
mit numerischen Parameterstudien konnten Reibungskoeffizienten in den anwendungsnahen
Prüfkonfigurationen in guter Näherung vorhergesagt werden. Darüber hinaus wurden
hilfreiche Erkenntnisse zur Modellierungsmethodik und zur Validität bekannter analytischer
Berechnungsansätze für die wärmetechnische Beschreibung tribologischer Systeme
gewonnen.
Die Bestimmung der Filtrierbarkeit von Suspensionen mit einer neuen Auswertemethode auf der Grundlage bekannter und erprobter Auswerteverfahren ergibt eindeutige Auswertekriterien insbesondere bei inkompressiblen Feststoffen und newtonschen Flüssigkeiten. Eine verbesserte Messtechnik erfasst den Filtratanfall bei beginnender Sättigung genau und vereinfacht die Zeitnahme. Methode und Technik erhöhen Genauigkeit und Reproduzierbarkeit bei der Bestimmung von Filtermittel- und Filterkuchenwiderstand und schaffen eine präzise Grundlage zur Auslegung von kontinuierlichen Fest-Flüssig-Filtern hoher Durchsatzleistung oder zur Entwicklung widerstandsarmer Filtermittel. Die Messungen zeigen einen hohen Anteil des Filtermittelwiderstandes am Gesamtwiderstand und erlauben die Berechnung eines Richtwertes für den Filtermittelwiderstand. Die industrielle Fest-Flüssig-Trennung wird in der chemischen, pharmazeutischen und Aufbereitungs-Industrie zu einem großen Teil auf kontinuierlich betriebenen Filtern durchgeführt, bei denen die Flüssigkeit vom Feststoff durch Kuchenfiltration sehr vollständig getrennt werden kann. Diese Filter sind durch Filtrationszykluszeiten zwischen 10 und 100 Sekunden charakterisierbar. Bei der Auslegung, Simulation oder Optimierung dieser Filter ist der Prozessingenieur auf genaue Daten zur Filtrierbarkeit der Suspensionen angewiesen. Die Theorie des durchströmten Filterkuchens ist sehr perfektioniert. Weniger Beachtung hatte dagegen der Einfluss des Filtermittels auf den Gesamtwiderstand bei der Filtration gefunden. Dies lag in der Vergangenheit teilweise daran, dass die genaue Bestimmung des Filtermittelwiderstandes RM – die zusammen mit der Bestimmung des Filterkuchenwiderstandes rK erfolgt – schwierig war. In den letzten Jahren wurden Filter für sehr hohe spezifische Durchsätze gebaut, bei denen dieser Wert von erheblichem Einfluss ist. Ziel der Arbeit war es, mehr Wissen und genaue Daten zum Filtermittelwiderstand zu erarbeiten. Es wurden umfangreiche Messungen des Filtermittelwiderstandes mit unterschiedlichen Filtermitteln und verschiedenen Produkten in wässrigen Suspensionen durchgeführt. Zur genauen Bestimmung des Filtermittelwiderstandes wurde ein gegenüber dem Stand der Technik verbesserter Versuchsaufbau mit rechnergestützter Datenerfassung entwickelt. Filtratanfall und Druckverlauf wurden bei den Versuchen festgehalten. Bei der Auswertung der Filterkurven wurden eindeutige Kriterien zur Bestimmung von Anfang und Ende der Filtration eingeführt. Dies erfolgte durch die Kombination von zwei bekannten und erprobten Auswerteverfahren zur Bestimmung der Filtrationseigenschaften. Diese Kombination ergab mit der verbesserten Versuchstechnik neben der Eindeutigkeit auch den Vorteil der exakten Erfassung des Filtratanfalls bei beginnender Sättigung, die ebenfalls zur erhöhten Genauigkeit bei der Bestimmung der Filterwiderstände beitrug. Der Filtermittelwiderstand kann bei kontinuierlich betriebenen Filtern am Ende des Filtrationszyklus 25 % des Gesamtwiderstandes und mehr erreichen. Bei leicht filtrierbaren Feststoffen werden trotz offener Filtergewebe auch höhere Anteile am Gesamtwiderstand gefunden. Der Filtermittelwiderstand ist bei kontinuierlichen Filtern ein wesentlicher Faktor bei der Filterauslegung. Durch Variation der Parameter der Filtergleichung wie Feststoffgehalt, Druck usf. wurden die Einflüsse wichtiger Betriebsparameter auf tendenzielle Änderungen der Widerstände untersucht. Bei diesen Messungen wurde festgestellt, dass der Durchflusswiderstand des Filtermittels bei höheren Durchflussgeschwindigkeiten nicht konstant ist. Die Einführung einer Reynoldszahl, die auf den nominellen Porendurchmesser bezogen ist, erlaubt es Strömungszustände zu definieren, ab denen der Durchflusswiderstand nicht mehr konstant ist. Mit den bekannten Gesetzten der Durchströmung poröser Haufwerke lassen sich Widerstandszahlen, analog zur Rohrreibungszahl, und daraus Druckverluste errechnen. Letztere sind mit den gemessenen Druckverlusten aus der Bestimmung der Filtermittelleerwiderstände gut korreliert. Mechanische Vorgänge bei der Partikelabscheidung an Filtermitteln werden anhand eines Kugel-Loch-Modells diskutiert. Experimentelle Ergebnisse stützen Schlussfolgerungen, die aufgrund dieses Modells gezogen wurden. Dazu wurden Überlegungen möglich, welche einige Tendenzen bei der Variation der Porengrößen bei unterschiedlichen Filtermedien erklären können.
Gradientenwerkstoffe sind Werkstoffe, deren Zusammensetzung und/oder Mikrostruktur sich in einer oder mehreren räumlichen Richtungen ändert. Daraus ergibt sich die Möglichkeit, funktionelle Bauteile mit unterschiedlichen Materialeigenschaften auf verschiedenen Oberflächen oder Seiten speziell an einzelne Anwendungsfälle anzupassen. Bei der Herstellung der Gradientenwerkstoffe mit einer durchgängigen Matrix ergeben sich weitere besonderen Eigenschaften wie eine kontinuierliche Änderung der Materialeigenschaften. Solche Werkstoffe besitzen gegenüber beschichteten oder sandwichartig aufgebauten Materialien außerdem die Vorteile niedriger innerer Spannungen und sie neigen nicht zu Abplatzeffekten. Im Rahmen des Projekts konnte gezeigt werden, dass die Zentrifugation eine geeignete Methode zur Herstellung Epoxidharz-basierender Gradientenwerkstoffe ist. Bei einer entsprechenden Wahl der Zentrifugationsparameter wie Drehzahl, Dauer der Zentrifugation und Viskosität des Harzes ließen sich kontrolliert unterschiedlichste Füllstoffverteilungen einstellen. Diese umfassten Varianten von der homogenen Verteilung über eine kontinuierliche gradierte Änderung des Füllstoffgehalts bis hin zu einer vollständigen Separation der Probe in einen Reinharzbereich und einen maximal gefüllten Bereich. Es wurde ein Softwaretool entwickelt, das die Füllstoffverteilung in Abhängigkeit aller Zentrifugationsparameter berechnete. Dabei ergab sich eine gute Übereinstimmung der Experimente mit der Simulation. Durch die Zentrifugation ließen sich in den äußeren Probenbereichen wesentlich höhere Füllgrade erzielen, als dies durch reine Vakuummischtechnik möglich gewesen wäre. Bei einigen Füllstoffen und Füllstoffkombinationen zeigten die maximal gefüllten Zonen der Gradientenwerkstoffe eine deutlich höhere Verschleißfestigkeit als die maximal isotrop gefüllten Proben. Diese Verbesserung durch Gradierung ließ sich auch für trockengeschmierte, Graphit-gefüllte Werkstoffe zeigen. Die Verschleißraten der trockengeschmierten Gradientenwerkstoffe verringerten sich gegenüber den ungeschmierten Werkstoffen deutlich. Bei einer geeigneten Wahl der Füllstoffverteilung ließ sich sowohl eine Verbesserung der Verschleißfestigkeit auf der äußeren, verschleißbelasteten Zone der Materialien erzielen, als auch gleichzeitig eine höhere Schlagzähigkeit im Inneren der Probe. Die Verbesserung der Verschleißfestigkeit durch die Gradierung konnte auf eine Bauteilgeometrie übertragen werden. Gleitlager-Innenringe mit einer, durch Zentrifugation hoch gefüllten äußeren Zone, zeigten in Gleitverschleißexperimenten eine höhere Verschleißfestigkeit als vergleichbare isotrope Werkstoffe. Als weiter Demonstrator-Bauteile wurden Laufrollen mit der gleichen Geometrie wie kommerziell erhältliche Rollen hergestellt. Diese Rollen wurden mit einem kontinuierlichen Aramid Gradienten in der polymeren Zone um den Stahlkern gefertigt.
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
In anderen Bereichen bereits seit längerer Zeit bekannt und erprobt, hat die Zertifizierung
mit den neusten Ansätzen der Auszeichnung von Stadtquartieren nun auch die Aufgabenfelder
der Stadtplanung erreicht. Mit zunehmender Abkehr von der imperativen Planung
hin zu kooperativen Handlungsweisen in der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen verändern sich die Austauschbeziehungen der beteiligten
privaten und öffentlichen Akteure. Dies geschieht in einer Form, in der das private gewinnorientierte Handeln und die Implementierung von Instrumenten, die der Effizienzsteigerung
der Transaktionen dienen, zunehmend an Bedeutung gewinnen. Der Wandel der
Organisationsformen in einzelnen Bereichen der Stadtentwicklung, speziell im Rahmen der
vorhabenbezogenen Planung und der städtebaulichen Projektentwicklung, führt zu einer
Vielzahl an Anlässen für den Einsatz von Zertifizierungssystemen und -verfahren.
Zielsetzung der Arbeit ist es, modellhaft instrumentelle und organisatorische Ausgestaltungsformen
der Zertifizierung im Rahmen der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen aufzuzeigen sowie Implementationsformen und -grenzen in
Bezug auf informelle und formelle Prozesse der Planung und Umsetzung zu bestimmen.
Um die Analyse sowie die Übertragung der Zertifizierung auf die spezifischen Bereiche der
Stadtplanung und Stadtentwicklung durchzuführen, erfolgt eine theoriegeleitete Untersuchung
über mehrere wissenschaftliche Disziplinen hinweg. In der Arbeit wird insbesondere
auf die Theorien der Neuen Institutionenökonomie zurückgegriffen. Die Theorie der
Verfügungsrechte, die Prinzipal-Agent-Theorie und die Transaktionskostentheorie dienen
als Grundlage zur Erklärung der Zielsetzungen, Interventionslogiken und Mechanismen von
Zertifizierung in ökonomischen Austauschbeziehungen. Die Steuerungstheorie dient der
Einordnung der Zertifizierung als Steuerungsinstrument und der Erklärung der steuerungsinstrumentellen Absichten einer Zertifizierung.
Die im Rahmen der Planung und Umsetzung städtebaulicher Projekte und Maßnahmen
relevanten Faktoren der Qualitätsunsicherheit, des opportunistischen Verhalten und der
Spezifität der Transaktionen wurden hinsichtlich ihrer zentralen Rolle dargelegt und
berücksichtigt. Zielkonflikte und Informationsasymmetrien in den Austauschbeziehungen
der vielfältigen an der Planung und Umsetzung der städtebaulichen Projekte und Maßnahmen
Beteiligten wurden analysiert und als Anlass der Zertifizierung identifiziert.
Im Ergebnis werden Empfehlungen und differenzierte Modellvariationen für die institutionelle
Ausgestaltung von Systemen und Verfahren der Zertifizierung im Rahmen der Planung
und Umsetzung städtebaulicher Projekte und Maßnahmen auf Stadtquartiersebene
abgeleitet und die Grenzen und Prämissen der Zertifizierung dargelegt.
Stadtzentren stehen vor vielfältigen Herausforderungen und Veränderungsprozessen. Beispielhaft lassen sich der Strukturwandel im Einzelhandel, fehlende Stadtteilidentität, vernachlässigte öffentliche Räume oder auch der Klimawandel nennen. Vor dem Hintergrund der gesamtstädtischen Bedeutung der Zentren gilt es, diesen Herausforderungen umfassend zu begegnen.
Bei der Weiterentwicklung von Zentren kommt dem Engagement der lokalen Akteur*innen eine besondere Bedeutung zu. Diese umfasst nicht ausschließlich die Teilnahme an formellen Planungsprozessen, sondern z.B. auch die Mitwirkung an Leitbildprozessen, Gestaltungsvorhaben und die Umsetzung eigener Projekte. Ein Mehrwert wird dabei nicht allein durch übereinstimmende Entscheidungen der verschiedenen Akteur*innen erzielt, viel wichtiger ist es, dass die Menschen miteinander ins Gespräch kommen.
Im Rahmen der Städtebauförderung werden u.a. Finanzhilfen für Kommunen bereitgestellt, um baulichen, funktionalen sowie sozialen Missständen in den Zentren zu begegnen. Die Wichtigkeit des privaten Engagements in der Städtebauförderung wurde bereits erkannt, dies spiegelt sich z.B. in bestehenden Beteiligungsmöglichkeiten sowie den Instrumenten der Städtebauförderung (integriertes städtebauliches Entwicklungskonzept, Quartier- bzw. Zentrenmanagement und Verfügungsfonds) wider. Dennoch konnte im Rahmen der Städtebauförderung in der Vergangenheit oftmals nicht im gewünschten Umfang Engagement aktiviert werden. Insbesondere in schrumpfenden Kommunen häufen sich oftmals Engagement hemmende Faktoren.
Daher wird in der folgenden Arbeit untersucht, wie lokales Engagement in schrumpfenden Mittelstädten im Rahmen der Städtebauförderung weiter gestärkt bzw. eingefordert werden kann. Im Fokus liegen schrumpfende Mittelstädte in NRW, deren Zentren im Rahmen der Städtebauförderung weiterentwickelt wurden bzw. sich aktuell noch in der Förderung befinden.
Die These dieser Arbeit ist, dass die Herausforderungen in Stadtzentren schrumpfender Mittelstädte in NRW nur gelöst werden können, wenn dies gemeinsam mit den Menschen vor Ort geschieht und deren Engagement im Rahmen der Städtebauförderung weiter gestärkt und gefordert wird.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Zeitaufgelöste FTIR- und Lumineszenzspektroskopie an Organometallkomplexen und deren Reaktionen
(2023)
In dieser Arbeit wurden mittels Lumineszenzspektroskopie und Step-scan-FTIR-Spektroskopie die Leuchteigenschaften sowie die elektronisch angeregten Zustände von Organometallkomplexen im Temperaturbereich von 5 - 290 K untersucht, welche für die Eignung als organische Leuchtdioden (OLEDs) und Photokatalysatoren bzw. -sensibilisatoren relevant sind. Für ein besseres Verständnis der Reaktivität verschiedener Organometallkomplexe wurden die Reaktionen mittels zeitaufgelöster FTIR-Spektroskopie verfolgt. Der Vergleich mit quantenchemischen Rechnungen unterstützt die Charakterisierung der elektronisch angeregten Zustände, Reaktionsprodukte oder Intermediate. Die untersuchten Komplexe erreichen die gewünschten Eigenschaften ohne Seltenerdmetalle und enthalten stattdessen häufiger vorkommende Metalle wie Kupfer. Daher wurde der Einfluss von Metall-, Halogenid- und Ligandvariationen auf die Leuchteigenschaften und die dafür verantwortlichen elektronisch angeregten Zustände zweikerniger und vierkerniger Kupfer- und Silberkomplexe, die sich potentiell für die Anwendung als OLEDs eignen, untersucht. Auch der elektronisch angeregte Zustand eines weiteren Kupferkomplexes mit interessanten Lumineszenzeigenschaften wurde charakterisiert. Ebenfalls wurden die photophysikalischen Eigenschaften eines Kupfer-Photosensibilisators sowie seine Fähigkeit zum Energieübertrag untersucht. Im Bereich der Reaktivitäten wurden die photochemische Reaktion und ihre ungewöhnliche, dunkle Rückreaktion von Carbonyl-haltigen Chrom-, Molybdän- und Wolframkomplexen verfolgt und der Reaktionsmechanismus aufgeklärt. Auch die thermische Reaktion eines Kupferkomplexes, die sich je nach Lösungsmittel unterscheidet wurde untersucht und mögliche Produkte identifiziert. Die erlangten Erkenntnisse über den Einfluss verschiedener Ligandmodifikationen, Halogenid- oder Metallzentren auf die gewünschten Eigenschaften der Organometallkomplexe und das Verständnis für die Reaktivität tragen zu der Entwicklung verbesserter Systeme bei, welche ohne Seltenerdelemente gute Eigenschaften für die Verwendung als Leuchtdioden, Katalysatoren oder Photosensibilisatoren aufweisen.
Yield Curves and Chance-Risk Classification: Modeling, Forecasting, and Pension Product Portfolios
(2021)
This dissertation consists of three independent parts: The yield curve shapes generated by interest rate models, the yield curve forecasting, and the application of the chance-risk classification to a portfolio of pension products. As a component of the capital market model, the yield curve influences the chance-risk classification which was introduced to improve the comparability of pension products and strengthen consumer protection. Consequently, all three topics have a major impact on this essential safeguard.
Firstly, we focus on the obtained yield curve shapes of the Vasicek interest rate models. We extend the existing studies on the attainable yield curve shapes in the one-factor Vasicek model by analysis of the curvature. Further, we show that the two-factor Vasicek model can explain significantly more effects that are observed at the market than its one-factor variant. Among them is the occurrence of dipped yield curves.
We further introduce a general change of measure framework for the Monte Carlo simulation of the Vasicek model under a subjective measure. This can be used to avoid the occurrence of a far too high frequency of inverse yield curves with growing time.
Secondly, we examine different time series models including machine learning algorithms forecasting the yield curve. For this, we consider statistical time series models such as autoregression and vector autoregression. Their performances are compared with the performance of a multilayer perceptron, a fully connected feed-forward neural network. For this purpose, we develop an extended approach for the hyperparameter optimization of the perceptron which is based on standard procedures like Grid and Random Search but allows to search a larger hyperparameter space. Our investigation shows that multilayer perceptrons outperform statistical models for long forecast horizons.
The third part deals with the chance-risk classification of state-subsidized pension products in Germany as well as its relevance for customer consulting. To optimize the use of the chance-risk classes assigned by Produktinformationsstelle Altersvorsorge gGmbH, we develop a procedure for determining the chance-risk class of different portfolios of state-subsidized pension products under the constraint that the portfolio chance-risk class does not exceed the customer's risk preference. For this, we consider a portfolio consisting of two new pension products as well as a second one containing a product already owned by the customer as well as the offer of a new one. This is of particular interest for customer consulting and can include other assets of the customer. We examine the properties of various chance and risk parameters as well as their corresponding mappings and show that a diversification effect exists. Based on the properties, we conclude that the average final contract values have to be used to obtain the upper bound of the portfolio chance-risk class. Furthermore, we develop an approach for determining the chance-risk class over the contract term since the chance-risk class is only assigned at the beginning of the accumulation phase. On the one hand, we apply the current legal situation, but on the other hand, we suggest an approach that requires further simulations. Finally, we translate our results into recommendations for customer consultation.
Basierend auf den Erkenntnissen und Erfahrungen zum Klimawandel ergaben sich in den letzten Jahren weltweit enorme energie- und klimapolitische Veränderungen. Dies führt zu einem immer stärken Wandel der Erzeugungs-, Verbrauchs- und Versorgungsstrukturen unserer Energiesysteme. Der Fokus der Energieerzeugung auf fluktuierenden erneuerbaren Energieträgern erfordert einen weitreichenderen Einsatz von Flexibilitäten als dies bisher der Fall war.
Diese Arbeit diskutiert den Einsatz von Wärmepumpen und Speichersystemen als Flexibilitäten im Kontext des Zellularen Ansatzes der Energieversorgung. Dazu werden die Flexibilitätspotentiale von Wärmepumpen -Speichersystemen auf drei Betrachtungsebenen untersucht und validiert. Erstere berücksichtigt die Wärmepumpe, den thermischen Speicher und thermische Lasten in einer generellen Potentialbetrachtung. Darauf aufbauend folgt die Betrachtung der Wärmepumpen-Speichersysteme im Rahmen einer Haushalts-Zelle als energetische Einheit, gefolgt von Untersuchungen im Niederspannungs-Zellkontext. Zur Abbildung des Flexibilitätsverhaltens werden detaillierte Modelle der Wandler und Speicher sowie deren Steuerungen entwickelt und anhand von Zeitreihensimulationen analysiert und evaluiert.
Die zentrale Frage ob Wärmepumpen mit Speichersystemen einen Beitrag als Flexibilität zum Gelingen der Energiewende leisten können kann mit einem klaren Ja beantwortet werden. Dennoch sind die beim Einsatz von Wärmepumpen-Speichersystemen als Flexibilität zu beachtenden Randbedingungen vielfältig und bedürfen, je nach Anwendungszweck der Flexibilität, einer genauen Betrachtung. Die entscheidenden Faktoren sind dabei die Außentemperatur, der zeitliche Kontext, das Netz und die Wirtschaftlichkeit.
Wreath product groups \(C_\ell \wr \mathfrak{S}_n\) have a rich combinatorial representation theory coming from the symmetric group case and involving partitions, Young tableaux, and Specht modules. To such a wreath product group \(W\), one can associate various algebras and geometric objects: Hecke algebras, quantum groups, Hilbert schemes, Calogero--Moser spaces, and (restricted) rational Cherednik algebras. Over the years, surprising connections have been made between a lot of these objects, with many of these connections having been traced back to combinatorial constructions and properties of the group \(W\) itself.
In this thesis, we have studied one of the algebras, namely the restricted rational Cherednik algebra \(\overline{\mathsf{H}}_\mathbf{c}(W)\), in order to find combinatorial models which describe certain representation theoretical phenomena around \(\overline{\mathsf{H}}_\mathbf{c}(W)\). In particular, we generalize a result by Gordon and describe the graded \(W\)-characters of the simple modules of \(\overline{\mathsf{H}}_\mathbf{c}(W)\) for generic parameter \(\mathbf{c}\) using Haiman's wreath Macdonald polynomials. These graded \(W\)-characters turn out to be specializations of Haiman's wreath Macdonald polynomials. In the non-generic parameter case, we use recent results by Maksimau to combinatorially express an inductive rule of \(\overline{\mathsf{H}}_\mathbf{c}(W)\)-modules first described by Bellamy. We use our results in type \(B\) to describe the (ungraded) \(B_n\)-character of simple \(\overline{\mathsf{H}}_\mathbf{c}(B_n)\)-modules associated to bipartitions with one empty part. Afterwards, we relate this combinatorial induction to various other algebras and families of \(W\)-characters found in the literature such as Lusztig's constructible characters, as well as detail some connections between generic and non-generic parameter using wreath Macdonald polynomials.
In this thesis we extend the worst-case modeling approach as first introduced by Hua and Wilmott (1997) (option pricing in discrete time) and Korn and Wilmott (2002) (portfolio optimization in continuous time) in various directions.
In the continuous-time worst-case portfolio optimization model (as first introduced by Korn and Wilmott (2002)), the financial market is assumed to be under the threat of a crash in the sense that the stock price may crash by an unknown fraction at an unknown time. It is assumed that only an upper bound on the size of the crash is known and that the investor prepares for the worst-possible crash scenario. That is, the investor aims to find the strategy maximizing her objective function in the worst-case crash scenario.
In the first part of this thesis, we consider the model of Korn and Wilmott (2002) in the presence of proportional transaction costs. First, we treat the problem without crashes and show that the value function is the unique viscosity solution of a dynamic programming equation (DPE) and then construct the optimal strategies. We then consider the problem in the presence of crash threats, derive the corresponding DPE and characterize the value function as the unique viscosity solution of this DPE.
In the last part, we consider the worst-case problem with a random number of crashes by proposing a regime switching model in which each state corresponds to a different crash regime. We interpret each of the crash-threatened regimes of the market as states in which a financial bubble has formed which may lead to a crash. In this model, we prove that the value function is a classical solution of a system of DPEs and derive the optimal strategies.
In 2002, Korn and Wilmott introduced the worst-case scenario optimal portfolio approach.
They extend a Black-Scholes type security market, to include the possibility of a
crash. For the modeling of the possible stock price crash they use a Knightian uncertainty
approach and thus make no probabilistic assumption on the crash size or the crash time distribution.
Based on an indifference argument they determine the optimal portfolio process
for an investor who wants to maximize the expected utility from final wealth. In this thesis,
the worst-case scenario approach is extended in various directions to enable the consideration
of stress scenarios, to include the possibility of asset defaults and to allow for parameter
uncertainty.
Insurance companies and banks regularly have to face stress tests performed by regulatory
instances. In the first part we model their investment decision problem that includes stress
scenarios. This leads to optimal portfolios that are already stress test prone by construction.
The solution to this portfolio problem uses the newly introduced concept of minimum constant
portfolio processes.
In the second part we formulate an extended worst-case portfolio approach, where asset
defaults can occur in addition to asset crashes. In our model, the strictly risk-averse investor
does not know which asset is affected by the worst-case scenario. We solve this problem by
introducing the so-called worst-case crash/default loss.
In the third part we set up a continuous time portfolio optimization problem that includes
the possibility of a crash scenario as well as parameter uncertainty. To do this, we combine
the worst-case scenario approach with a model ambiguity approach that is also based on
Knightian uncertainty. We solve this portfolio problem and consider two concrete examples
with box uncertainty and ellipsoidal drift ambiguity.
Distributed systems are omnipresent nowadays and networking them is fundamental for the continuous dissemination and thus availability of data. Provision of data in real-time is one of the most important non-functional aspects that safety-critical networks must guarantee. Formal verification of data communication against worst-case deadline requirements is key to certification of emerging x-by-wire systems. Verification allows aircraft to take off, cars to steer by wire, and safety-critical industrial facilities to operate. Therefore, different methodologies for worst-case modeling and analysis of real-time systems have been established. Among them is deterministic Network Calculus (NC), a versatile technique that is applicable across multiple domains such as packet switching, task scheduling, system on chip, software-defined networking, data center networking and network virtualization. NC is a methodology to derive deterministic bounds on two crucial performance metrics of communication systems:
(a) the end-to-end delay data flows experience and
(b) the buffer space required by a server to queue all incoming data.
NC has already seen application in the industry, for instance, basic results have been used to certify the backbone network of the Airbus A380 aircraft.
The NC methodology for worst-case performance analysis of distributed real-time systems consists of two branches. Both share the NC network model but diverge regarding their respective derivation of performance bounds, i.e., their analysis principle. NC was created as a deterministic system theory for queueing analysis and its operations were later cast in a (min,+)-algebraic framework. This branch is known as algebraic Network Calculus (algNC). While algNC can efficiently compute bounds on delay and backlog, the algebraic manipulations do not allow NC to attain the most accurate bounds achievable for the given network model. These tight performance bounds can only be attained with the other, newly established branch of NC, the optimization-based analysis (optNC). However, the only optNC analysis that can currently derive tight bounds was proven to be computationally infeasible even for the analysis of moderately sized networks other than simple sequences of servers.
This thesis makes various contributions in the area of algNC: accuracy within the existing framework is improved, distributivity of the sensor network calculus analysis is established, and most significantly the algNC is extended with optimization principles. They allow algNC to derive performance bounds that are competitive with optNC. Moreover, the computational efficiency of the new NC approach is improved such that this thesis presents the first NC analysis that is both accurate and computationally feasible at the same time. It allows NC to scale to larger, more complex systems that require formal verification of their real-time capabilities.
In der 2. Hälfte des 20. Jahrhunderts fand in der Bundesrepublik Deutschland ein weiträumiger Suburbanisierungsprozess statt. Junge Familien wanderten u. a. in den 1970er und 1980er Jahren in der Familiengründungsphase in das Umland der Städte und präferierten die Wohnform des Einfamilienhauses in einem familienfreundlichen Wohnumfeld. Infolgedessen entstanden weitgehend altershomogene Siedlungen. Diese Bevölkerungsgruppe erreicht nun das Alter 60plus mit der Folge, dass Umlandgebiete von Städten aufgrund der genannten altersselektiven Stadt-Umland-Wanderungen von der demographischen Alterung in überdurchschnittlichem Maße betroffen sind.
Heute ergibt sich ein Problemkomplex aus einer fehlenden Kongruenz zwischen gealterter Bevölkerung einerseits und räumlicher Umwelt andererseits, der sowohl die Kommunen als Wohnstandort als auch die betroffenen Haushalte vor neuartige Herausforderungen stellt.
Demnach kommt es im Zuge der Erhöhung des Anteils älterer Menschen in der Bevölkerung in suburbanen Räumen zu einer Verstärkung und Modifikation der Nachfrage nach altenspezifischen, dezentralen Versorgungsstrukturen in bestimmten Bereichen der Daseinsvorsorge (wie der medizinischen Versorgung, der Versorgung mit Gütern des täglichen Bedarfs und des öffentlichen Personennahverkehrs (öPNV)) sowie im Bereich altengerechter Wohnraumangebote. Neben diesen quantitativen Aspekten weist die Bevölkerungsgruppe 60plus aufgrund von gesellschaftlichen Veränderungsprozessen, wie dem Wertewandel, im Vergleich zur Vorkriegsgeneration neuartige Bedürfnisse und Anforderungen an ihren Wohnstandort auf.
Gleichzeitig sind sowohl altenspezifische Versorgungsstrukturnetze in suburbanen Räumen aufgrund einer flächenintensiven und monofunktionalen Siedlungsentwicklung mit räumlich konzentrierten Einrichtungen der Daseinsvorsorge, einer starken Abhängigkeit vom motorisierten Individualverkehr (MIV) bei abnehmender altersbedingter individueller Mobilität und damit einhergehenden ungünstigen Erreichbarkeiten als auch altengerechte Wohnraumangebote oftmals nur eingeschränkt vorhanden.
Die geschilderten raumbezogenen Divergenzen zwischen sich wandelnden quantitativen und qualitativen Nutzungsmustern hinsichtlich Versorgungsstrukturen, Mobilität und Wohnraum einerseits und siedlungsstrukturellen Rahmenbedingungen andererseits führen dazu, dass Wohnstandortentscheidungen früherer Lebensphasen dahingehend überprüft werden, ob eine altersgerechte Lebensführung in den suburbanen Siedlungsgebieten möglich ist.
Vor dem Hintergrund der dargelegten raumstrukturellen Problemlagen in suburbanen Kommunen im Zuge des Prozesses der demographischen Alterung liegt das zentrale Anliegen der vorliegenden Arbeit darin, Wohnstandortentscheidungen suburbaner Haushalte der Bevölkerungsgruppe 60plus anhand einer beispielhaften Betrachtung in ausgewählten suburbanen Kommunen im Landkreis Mainz-Bingen zu untersuchen.
Folgende Forschungsziele werden im Rahmen der Arbeit verfolgt:
In einem ersten Schritt sollen die Standortgegebenheiten in Bezug auf die Ausstattung mit Versorgungsstrukturen, die die Untersuchungskommunen älteren Menschen der Generation 60plus bieten, zukünftig im höheren Alter ein selbstständiges Leben führen zu können, analysiert werden.
Des Weiteren werden das derzeitige aktionsräumliche Versorgungsverhalten der Untersuchungsgruppe sowie daraus entstehende potentielle Versorgungsdefizite im höheren Alter untersucht.
In einem weiteren Analyseschritt liegt der Fokus auf der subjektiven Wohnstandortbewertung aus Bürgerperspektive. Im Speziellen wird dargestellt, inwiefern die Bevölkerungsgruppe 60plus ihren Wohnstandort in einzelnen Bereichen der Versorgungsstrukturen beurteilt und klassifiziert.
Darüber hinaus ist die prospektive Wohnmobilität (Umzugsbereitschaft) der Generation 60plus, insbesondere in Abhängigkeit von den gegebenen Versorgungsstrukturen, Gegenstand der Untersuchung. Es wird erforscht, ob eine erhöhte Wohnmobilität innerhalb dieser Altengeneration, beispielweise mit Wanderungen in innerstädtische Quartiere mit seniorengerechten Versorgungsstrukturen und Wohnungsangeboten, nachzuweisen ist.
Für von dem demographischen Alterungsprozess betroffene suburbane Siedlungsräume sind zumeist noch keine, auf eine ganzheitliche Strategie ausgerichtete kommunale Entwicklungskonzepte entworfen worden, welche öffentlichen und privatwirtschaftlichen Akteuren Optionen aufzeigen, wie eine bedarfs- und seniorengerechte Planung in den Bereichen Nahversorgung, medizinische Versorgung, Mobilität und Wohnen in Zukunft gestaltet werden kann. Die Konzeption geeigneter Entwicklungsstrategien soll die Qualität suburbaner Wohnstandorte für ältere Menschen erhöhen, eine selbstständige und selbstbestimmte Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune ermöglichen und potentiell auftretende Abwanderungstendenzen der Bevölkerungsgruppe 60plus entgegenwirken.
Die aus den Zielsetzungen abgeleiteten Forschungsfragen werden einerseits mittels einer sekundärstatistischen und andererseits durch eine empirische Untersuchung in 16 Kommunen im Landkreis Mainz-Bingen im Umland der rheinland-pfälzischen Landeshauptstadt Mainz beant-wortet. Die Untersuchungseinheit im Rahmen der empirischen Arbeiten bilden Haushalte der Jahrgänge 1945-1953, so dass im Erhebungsjahr 2014 dies die Gruppe der 60- bis 69-Jährigen einschließt. Die empirische Untersuchung in den 16 Kommunen wurde anhand einer teilstandardisierten postalischen Befragung vorgenommen. Insgesamt sind im Rahmen der Erhebung 3.942 Fragebögen an Haushalte versendet worden (Vollerhebung). Die Rücklaufquote beträgt mit insgesamt 2.002 ausgefüllten Fragebögen 51 %.
Aufbauend auf den empirischen Ergebnissen der sekundärstatistischen und empirischen Untersuchung der Auswirkungen von suburbanen Raumstrukturen auf Wohnstandortentscheidungen der Bevölkerungsgruppe 60plus und der Beantwortung der Forschungsfragen werden zunächst zentrale Forschungserkenntnisse zusammengefasst und Schlussfolgerungen für den ausgewählten Untersuchungsraum gezogen. Das Ziel liegt in einer induktiven Herausarbeitung von allgemeinen Handlungsbedarfen für die Planungspraxis, die generell in suburbanen Siedlungs-gebieten vor dem Hintergrund der Auswirkungen der demographischen Alterung virulent sind und in der Konsequenz zu einer Erhöhung der Wohnmobilität älterer Bevölkerungsgruppen führen können.
Anschließend werden, auf der Ableitung von allgemeinen Handlungsbedarfen für die Raumplanung aufbauend, übergeordnete Strategien zur Gestaltung und Anpassung eines seniorengerechten Versorgungs- und Wohnraumangebotes in suburbanen Siedlungsgebieten in Deutschland aufgezeigt. Das Ziel liegt in der Ermöglichung einer selbstständigen und selbstbestimmten Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune, in der Erhöhung der Qualität suburbaner Wohnstandorte für ältere Menschen und in dem Entgegenwirken potentiell auftretenden Abwanderungstendenzen der Bevölkerungsgruppe 60plus.
Die räumliche Planung begegnet häufig Herausforderungen, zu deren Bewältigung nicht auf existierendes Wissen zurückgegriffen werden kann. Um neuartiges Wissen zu erzielen, werden insbesondere Modellvorhaben – kleinmaßstäbliche, befristete reale Feldexperimente – als Instrument eingesetzt. Diese zielen darauf ab, wiederverwendbares Wissen reproduzierbar zu erzeugen. Im Rahmen eines Modellvorhabens werden in verschiedenen Modellräumen vielfältige innovative Projekte initiiert, über einen festen Zeitraum umgesetzt sowie bewertet. Akademische oder private Institutionen begleiten Modellvorhaben wissenschaftlich, um allgemeingültige und übertragbare Erkenntnisse zu identifizieren. Die Ergebnisse dieser umfassenden Evaluation werden in einem Abschlussbericht dokumentiert. Erfahrungen zeigen allerdings, dass dies zur Verteilung der Ergebnisse nicht ausreicht, um die Nutzung und Wiederverwendung der in Modellvorhaben generierten Erkenntnisse sicherzustellen. Dies liegt insbesondere daran, dass die Abschlussberichte zu wenig anwendungsorientiert und zu umfangreich sind. So ist der Vergleich zwischen vorhandenen Berichten und einem laufenden Modellvorhaben mit einem zu hohen Aufwand verbunden, wodurch sich ein unausgeglichenes Aufwand-Ertrag-Verhältnis ergibt. Somit wird das Lernen aus Modellvorhaben erschwert.
Um eine effektive und effiziente Dissemination und Verstetigung sowie Wiederverwendbarkeit von Wissen generiert in Modellvorhaben zu erzielen, wurde im Rahmen der vorliegenden Forschungsarbeit ein Modell entwickelt. In einem ersten Schritt wurde für die Analyse von Modellvorhaben eine allgemeingültige Struktur geschaffen, die mit dem generellen Ablauf eines Projekts im Rahmen des Projektmanagements vergleichbar ist. Diese Struktur reduziert den Aufwand Erkenntnisse und Wissen jeweils für die folgenden hier definierten Phasen zu nutzen: Identifikation einer neuen Herausforderung; Projektaufruf; Bewerbungen der möglichen Teilnehmer; Bewertungen der Bewerbungen durch den Initiator; Durchführung; Auswertung; Dissemination, Transfer und Verstetigung.
Im nächsten Schritt wurde in die einzelnen Phasen eines Modellvorhabens ein Wissensmanagementprozess – die Bausteine Wissensziele, -identifikation, -erwerb, - entwicklung, -bewertung, -bewahrung, -(ver)teilung und -nutzung – integriert, um die gemeinsame Nutzungseinheit vom umfassenden Abschlussbericht auf kleinere, in sich abgeschlossene Informationseinheiten zu reduzieren. Auf diese Weise wird der Aufwand für die Identifikation, den Erwerb und die Nutzung von Wissen verringert. Am Ende jeder Phase wird eine Bewertung durchgeführt sowie das erzielte Wissen effizient geteilt. Dafür ist eine systematische Interaktion zwischen Akteuren von Modellvorhaben und eine zentrale Sammlung des Wissens notwendig. Ein wesentliches Ergebnis dieser Arbeit ist die Entwicklung einer neuartigen Austauschinfrastruktur, die das generierte Wissen einerseits bewahrt und andererseits systematisch verteilt. Dadurch kann bereits im Verlauf eines Modellvorhabens gewonnenes Wissen ausgetauscht und wiederverwendet werden, sodass
die Phase der Dissemination, Transfer und Verstetigung in den Prozess verschoben wird. Die Infrastruktur soll frei zugänglich sein und nutzerfreundlich gestaltet werden.
Durch das entwickelte Modell wird eine effektive und effiziente Wiederverwendung von Wissen generiert in Modellvorhaben ermöglicht sowie eine belastbare Grundlage für neue Projekte in der räumlichen Planung geschaffen.
Der „Irrelevant Sound Effect“ besteht in einer Beeinträchtigung der seriellen Wiedergabeleistung für visuell präsentierte Folgen sprachlicher Items durch aufgabenirrelevante Hintergrundgeräusche. Unklar ist jedoch, ob der Irrelevant Sound Effect bei Kindern entwicklungsbedingten Veränderungen unterliegt und welches Arbeitsgedächtnismodell das kindliche Befundmuster am besten abzubilden vermag. Um einen Beitrag zur Klärung dieser Fragestellungen zu leisten, wurden zwei altersvergleichende Experimente zur quantitativen und qualitativen Beschaffenheit des Irrelevant Sound Effect durchgeführt. Experiment 1 prüfte, ob beim Irrelevant Sound Effect Alterseffekte zu verzeichnen sind und ob diese gegebenenfalls durch die Art des Hintergrundschalls (Changing-State- vs. Steady-State-Schall), die Modalität der Aufgabenstellung (auditiv vs. visuell) und/oder die Anforderungen der zu bearbeitenden Aufgabe (serielle Behaltensaufgabe vs. lautanalytische Odd-One-Out-Aufgabe) moderiert werden. Experiment 2 untersuchte etwaige Alterseffekte hinsichtlich des Einflusses der Lautstärke und/oder der Verständlichkeit des Hintergrundschalls. Hervorzuheben ist, dass erstmals Vorschüler berücksichtigt wurden, womit in beiden Studien ein breiter Altersbereich vom Vorschul- bis zum Erwachsenenalter abgedeckt wird.
Wesentliche Erkenntnis ist, dass der Irrelevant Sound Effect entwicklungsbedingten Veränderungen unterliegt, welche zeitlich im Vorschulalter anzusiedeln sind. Vorschüler werden deutlich stärker und umfassender durch Hintergrundschall beeinträchtigt als die übrigen Altersgruppen, die diesbezüglich nicht differieren. Die Effekte irrelevanten Hintergrundschalls scheinen bei Kindern demnach auf zwei qualitativ unterschiedlichen Wirkmechanismen zu fußen: Zunächst erhält irrelevanter Hintergrundschall – entwicklungsunabhängig – obligatorischen, automatischen Zugang zum Arbeitsgedächtnis, wodurch eine Interferenz mit den zu memorierenden Items auftritt. Darüber hinaus ist bei Vorschülern ein zusätzlicher, globalerer, dem Arbeitsgedächtnis vorgelagerter Mechanismus anzunehmen (z.B. gestörte Encodierung der Zielitems) – der Ansatz einer vermehrten Aufmerksamkeitsdistraktion kann stattdessen nicht gestützt werden.
Diese Experimente haben zudem ein Resultat erbracht, dessen nähere Analyse unabhängig vom Entwicklungsaspekt einen wertvollen Beitrag zum modelltheoretischen Diskurs verspricht: Ein irrelevantes Hintergrundsprechen bewirkte nicht nur bei der seriellen Behaltensaufgabe, sondern auch bei einer lautanalytischen Aufgabe eine signifikante Leistungsverschlechterung. Da die gängigen Arbeitsgedächtnismodelle zur Erklärung des Irrelevant Sound Effect hinsichtlich ihrer Annahmen potentiell lärmsensitiver Aufgaben differieren, wurde eine zweite, auf Erwachsene beschränkte Experimentalserie angeschlossen, deren Ergebnisse wie folgt zusammengefasst werden können: Die Leistungsminderung in der lautanalytischen Aufgabe ist vermutlich auf die phonologische Anforderung per se zurückzuführen, da der Effekt aufgehoben wird, wenn anstelle der phonologischen Analyse eine semantische gefordert wird (Experiment 3). Der phonologische Charakter ist jedoch nicht nur bei der Aufgabenstellung eine kritische Größe, sondern auch beim Hintergrundschall: Während Hintergrundsprechen einen Irrelevant Sound Effect provoziert, vermag Nichtsprache vergleichbarer Komplexität (spektral rotierte Sprache) dies nicht zu leisten (Experiment 5). Dies ist als Indiz dafür zu werten, dass über den temporal-spektralen Verlauf hinausgehende Parameter existieren müssen, die den Irrelevant Sound Effect modellieren. Die phonologische Ähnlichkeit zwischen den Stimuli der Primäraufgabe und der Distraktoren (Between-Stream Phonological Similarity Effect) scheint hingegen keinen Einfluss zu nehmen (Experiment 4). Zusammenfassend bevorzugt das Befundmuster Modelle, die zur Erklärung des Phänomens auf modalitätsspezifische Interferenzen mit phonologischen Repräsentationen im Arbeitsgedächtnis rekurrieren.
„Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“, schrieb der österreichisch-englische Philosoph Ludwig Wittgenstein (1922). Das Beherrschen der Schriftsprache wurde in der neuhumanistischen Bildungstheorie nach Wilhelm von Humboldt (Humboldt & Menze, 1997) in den Mittelpunkt der Bildungsprozesse gestellt.
Bildung kann daher nur dann gelingen, wenn die Schriftsprache beherrscht wird. Dabei wird Bildung als eine Art lebenslanges Lernen verstanden, in dem es darum geht, die Funktionsweisen der Gesellschaft und der Welt in der wir leben, zu verstehen und dahingegen zu handeln (Otto, 2007). Mit dem erfolgreichen Schriftspracherwerb und dem sicheren Umgang mit der Schriftsprache ist eine Art Teilhabe am „kulturellen Gedächtnis“ so Assmann (2007) sowie an gegenwärtigen Prozessen. Nicht für alle Kinder verläuft der Erwerb der Schriftsprache ohne Schwierigkeiten. In der ersten PISA-Studie aus dem Jahr 2000 lag der Prozentsatz leseschwacher Kinder in Deutschland bei ca. 24 Prozent (OECD, 2001). Dieser verringerte sich zwar in der PISA-Studie im Jahr 2015 auf rund 16 Prozent (PISA 2015 Results (Volume V), 2017). Die Ergebnisse der aktuellen PISA-Studie sind jedoch ernüchternd. In Bezug auf die Lesekompetenz ist der Anteil der leseschwachen Kinder auf 21 Prozent gestiegen, an Gymnasien sogar auf 29 Prozent (OECD, 2019). Auch Fischbach und Kollegen (Fischbach et al., 2013) fanden bei ihrer Studie im deutschsprachigen Raum heraus, dass 18 Prozent aller Grundschüler1 erhebliche Schwierigkeiten im Lesen und Schreiben aufweisen. Stellen sich erste Schwierigkeiten beim Erlernen des Lesens und Schreibens ein, muss eine zeitige Förderung der betroffenen Kinder an erster Stelle stehen. An diesem Punkt setzt das computerbasierte Trainingsprogramm Lautarium (Klatte, Steinbrink,
Bergström, & Lachmann, 2017) an, indem es Lehrern, Eltern, Therapeuten und den betroffenen Kindern ein Werkzeug an die Hand gibt, welches sich bereits in mehreren Studien als wirksam erwiesen hat (einen Überblick bietet Klatte et al., 2017).
Entwickelt wurde dieses Programm im Zuge eines Drittmittelprojekts mit dem Schwerpunkt „Entwicklungsstörungen schulischer Fertigkeiten“ des Bundesministeriums für Bildung und Forschung. Die hier durchgeführte Studie befasst sich mit den Effekten des Trainings mit dem computerbasierten Förderprogramms Lautarium auf die phonologischen und schriftsprachlichen Leistungen von Zweitklässlern mit Lese-Rechtschreibschwierigkeiten. Lautarium basiert auf aktuellen Forschungserkenntnissen zur Bedeutung der phonologischen Verarbeitung für den Schriftspracherwerb und umfasst aufeinander aufbauende Übungen zur Phonemwahrnehmung, phonologischen Bewusstheit und Graphem-Phonem-Zuordnung, zum Lesen und Schreiben lautgetreuer Wörter und zur schnellen Worterkennung. Zwar hat sich das Trainingsprogramm bereits in mehreren Studien als wirksam erwiesen, in der jetzigen Studie wird die Wirksamkeit jedoch erstmals im Rahmen eines randomisierten kontrollierten Designs (randomized controlled trial, RCT, „Goldstandard“ der klinischen Forschung) geprüft (Borah, Moriarty, Crown, & Doshi, 2014; Kaptchuk, 2001). Es wurde zunächst ein klassisches Prätest-Posttest-Follow-up–Design realisiert, um kurz- und langfristige Effekte des Lautarium-Trainings zu erfassen (Studienteil 1: Vortest bis Nachtest 2). Eine Gruppe von Kindern (n= 24) bearbeitete das Lautarium-Training, die andere Gruppe (n= 31) ein computerbasiertes Denktraining (Lenhard, Lenhard & Klauer, 2011). Das Training erfolgte täglich etwa 20 Minuten über mehrere Wochen im Rahmen des differenzierenden Unterrichts. Im Anschluss an den Follow-upTest arbeiteten die Gruppen mit dem jeweils anderen Programm, danach folgte ein weiterer, abschließender Nachtest 3 (Studienteil 2: bis Nachtest 3, n= 44). Studienteil 1 bestätigte signifikante und teilweise anhaltende Effekte des LautariumTrainings auf Untertests zur phonologischen Bewusstheit, zum Lesen und zur Rechtschreibung. Die in früheren Studien gezeigten Effekte ließen sich somit auch im Rahmen eines RCT-Designs replizieren. In Studienteil 2 zeigten sich signifikante Effekte auf die phonologische Bewusstheit. Abschließend werden Potentiale und Grenzen des Einsatzes von Lautarium im differenzierenden Unterricht diskutiert.
Die vorliegende Arbeit befasst sich mit der wirkmechanistischen Untersuchung substituierter Pteridine im Hinblick auf die Beeinflussung zentraler Regulationswege der Proliferation, der Apoptose und des Zytoskeletts. Im Besonderen sollte die Interaktion mit dem mitogen-aktivierten Protein Kinase (MAPK)- bzw. dem Phosphatidylinositol 3-Kinase (PI3K)-Signalweg erforscht werden, nachdem bereits gezeigt werden konnte, dass die cAMP-erhöhende und Protein Kinase A (PKA)-aktivierende Eigenschaft der Pteridine nicht alleine für die wachstumshemmende Wirkung verantwortlich sein kann. Als zentrales Element der Proliferationskontrolle reguliert der MAPK-Signalweg die Phosphorylierung des Transkriptionsfaktors ELK1. Anhand eines Reportergen-Assays sollte die Beeinflussung der ELK1-Phosphorylierung durch in Position 6 substituierte Derivate der Stammverbindung E481 (7-Benzylamino-6-chloro-2-piperazino-4-pyrrolidino-pteridin) untersucht werden. Alle Substanzen sind hinsichtlich einer Hemmung der ELK1-Phosphorylierung weniger wirksam als die Leitsubstanz E481. Zusätzlich erfolgt nur bei E481 die Hemmung der ELK1-Phosphorylierung und die des Zellwachstums in einem vergleichbaren Konzentrationsbereich. Ferner sollte die Relevanz des PI3K-Signalweges für morphologische und wachstumsregulierende Wirkungen substituierter Pteridine bestimmt werden, nachdem für E481 bereits in der Vulvakarzinomzelllinie A431 eine Hemmung der PI3K und Zytoskelettveränderungen nachgewiesen werden konnte. Die Untersuchungen ergaben, dass die PI3K als genereller Vermittler der wachstumshemmenden Eigenschaft substituierter Pteridine ausgeschlossen werden kann. Auch die morphologischen Effekte durch E481 scheinen nicht PI3K-vermittelt zu sein. Ein wesentlicher Schwerpunkt der Arbeit beschäftigte sich mit der Frage, ob die Hemmung der PI3K in A431 Zellen durch E481 eine Rolle spielt für die Arretierung im Zellzyklus und die Apoptoseinduktion. Diese Wirkungen können über den PI3K-Effektor PKB an das nachgeschaltete Signalelement Glycogen Synthase Kinase 3beta (GSK3b) und über das proapoptotisch wirkende BAD vermittelt werden, die allerdings zusätzlich mit dem PKA-Signalweg interagieren. Für die GSK3beta kann trotz einer verminderten PKB-Phosphorylierung keine verminderte Phosphorylierung festgestellt werden, was möglicherweise durch die gleichzeitig aktivierte PKA verursacht wird, die ebenfalls die GSK3beta phosphorylieren kann. Die Untersuchungen der BAD-Phosphorylierung deuten ab einer 18-stündigen E481-Inkubation eine verminderte PKA-abhängige Phosphorylierung an und lassen zudem eine verminderte PKB-abhängige Phosphorylierung vermuten. Möglicherweise trägt dies zu der E481-vermittelten Apoptoseinduktion in A431 Zellen bei. Ferner zeichnet sich nach 24-stündiger Inkubation mit E481 konzentrationsabhängig eine verringerte Phosphorylierung des Tumorsuppressorproteins pRb (Retinoblastoma) ab, was vermutlich wesentlich zum G1-Arrest beiträgt. Fluoreszenzmikroskopische Untersuchungen der E481-vermittelten Paxillinlokalisation sollten mögliche Wechselwirkungen zwischen dem cAMP-Signalweg und den morphologischen Veränderungen aufdecken. Es zeigt sich, dass eine E481 bedingte Abrundung der Zellen mit einer Paxillinabwanderung von der Plasmamembran einhergeht. Dieser Prozess findet unter Beteiligung einer Phosphatase statt- und ist nicht PKA-, vielleicht aber cAMP-vermittelt. Die Untersuchungen haben gezeigt, dass der Wirkmechanismus substituierter Pteridine, insbesondere von E481, wesentlich komplexer ist als bislang vermutet. Zusätzlich zu der potenten Hemmung der Phosphodiesterase 4 greift E481 in eine Reihe zentraler Signalübertragungswege (MAPK-, PI3K/PKB-Signalweg) ein. Darüber hinaus interagiert E481 wirkungsvoll mit Signalelementen, welche die Integrität des Zytoskeletts gewährleisten. Hierbei scheinen PKA-unabhängige, möglicherweise aber cAMP-vermittelte Phosphataseinduktionen eine bedeutende Rolle zu spielen.
Ziel der vorliegenden Arbeit war die Etablierung eines Enzyme linked immuno sorbant Assay zur Untersuchung der Protein-Tyrosinkinase-Aktivität des Epidermalen Wachstumsfaktor-Rezeptor (EGFR). Um die Beeinflussung der Signaltransduktionskaskade downstream des EGFRs durch antineoplastische Substanzen weiter in intakten Zellen untersuchen zu können, wurde ein Mitogen-aktivierte-Proteinkinase (MAPK)-Reportergen-Assay entwickelt. Tyrphostin AG 1478, ein bekannter EGFR-Inhibitor, erwies sich im neu etablierten Test-system als potenter Hemmstoff der Protein-Tyrosinkinase (PTK) des EGFRs mit einem IC50-Wert von 2,4 microM. Das Wachstum von A 431-Zellen wird durch Tyrphostin AG 1478 signifikant stärker inhibiert, als das Wachstum von LXFL529L-Zellen. Die Behandlung von A 431- Zellen mit Tyrphostin AG 1478 induziert eine Arretierung der Zellen in G0/G1-Phase des Zellzyklus, bei gleichzeitiger Abnahme der Zellzahl in der Synthesephase. Neuartige Bisindolylmaleimide und Indolocarbazole zeigten in tumorzellwachstumshemmenden Konzentrationen keine bzw. nur eine geringe Hemmung der PTK-Aktivität des EGFRs. Aus der Gruppe der substituierten Pteridine hemmte die Leitsubstanz 7a (DC-TA-46) die PTK-Aktivität des EGFRs mit einem IC50-Wert von 48 +- 3,5 microM. Modifikationen in Position 2 spielen eine wesentliche Rolle bei der Hemmung der EGFR assoziierten PTK. Modifikationen der Leitsubstanz in Position 6, wie z.B. Austausch des Chlors gegen Wasserstoff oder eine Methylgruppe, führten zum Verlust der Hemmwirkung auf die PTK-Aktivität. Die untersuchten Substanzen 7a, 7k, 7o, E272, E273 und E276 hemmten das Wachstum der A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Im MAPK-Reportergen- Assay zeigten 7a und das Glycin-Derivat E272 als einzige dieser Substanzen in Konzentrationen, in denen Wachstumshemmung und PTK-Hemmung vorliegt, eine fast vollständige Inhibierung der Elk1-Phosphorylierung. Hingegen zeigte das Lysin-Derivat E273, das die höchste Hemmwirkung der Pteridinderivate im PTK-Assay aufwies, in wachstumshemmenden Konzentrationen im MAPK-Reportergen-Assay keine Hemmung der Luciferase-Aktivität. Ferner wurden unterschiedliche Klassen von Flavonoiden untersucht. Aus den Gruppen der untersuchten Chalcone und Isoflavone erwies sich keine Substanz als potenter PTK-Hemmstoff. Die untersuchten Flavone aus Scutellaria baicalensis hemmten das Wachstum von A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Aus dieser Gruppe hemmte Baicalein als einzige die PTK-Aktivität des EGFRs in wachstumshemmenden Konzentrationen mit einem IC50-Wert von 1,1 microM. Neben Baicalein zeigte Wogonin eine Hemmung der Elk1-Phosphorylierung, wobei nur Baicalein in wachstumshemmenden Konzentrationen die Luciferase-Aktivität inhibierte. Des weiteren erwiesen sich die Anthocyanidine Delphinidin und Cyanidin in wachstumshemmenden Konzentrationen als Hemmstoffe der EGFR assoziierten Tyrosinkinase und Elk1-Phosphorylierung. Beide Substanzen hemmten das Wachstum von A 431-Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Abschließend ist festzuhalten, daß neue molekulare Untersuchungsmethoden erfolgreich etabliert wurden, die Einblick in Mechanismen ermöglichen, die für eine tumorzellwachstumsinhibierende Wirkung relevant sind. Hierbei stand im Vordergrund die Aufklärung von Interaktionen in zellulären Signalketten, die wesentliche Bedeutung für die Zellproliferation besitzen. Mittelpunkt der vorliegenden Arbeit war vor allem der Wachstumsfaktor getriggerte Signalweg Rezeptor-Tyrosinkinase/Ras/Raf/MAPK. Die so etablierten Testmethoden können dazu beitragen, neue Wirkprinzipien zur Tumorwachstumshemmung aufzufinden bzw. zu charakterisieren.
Anthocyane, eine Untergruppe der Flavonoide, sind als natürliche Farbpigmente weit verbreitet in Lebensmitteln pflanzlicher Herkunft. Ihnen werden eine Reihe von gesundheitlich positiven Wirkungen zugeschrieben, was dazu geführt hat, dass auf dem Markt für Nahrungsergänzungsmittel immer mehr Produkte auf Anthocyanbasis auftauchen. Als ein möglicher nachteiliger Faktor für eine potentielle genotoxische Wirkung von Flavonoiden wird die Interaktion mit humanen Topoisomerasen diskutiert. Bezüglich einer möglichen Risiko/Nutzen-Evaluierung ist es nicht nur von Bedeutung, ob Flavonoide/Anthocyane mit diesen Enzymen interagieren, sondern auch die Art dieser Interaktion und sich möglicherweise daraus ergebende Konsequenzen, besonders im Hinblick auf die Integrität der DNA. Ziel der vorliegenden Arbeit war es, die Anthocyanidine Delphinidin (Del), Cyanidin (Cy), Pelargonidin (Pg), Paeonidin (Pn) und Malvidin (Mv) hinsichtlich ihrer Beeinflussung humaner Topoisomerase I und II zu untersuchen. Ein Schwerpunkt lag bei der Aufklärung des Wirkmechanismus dieser Verbindungen bezüglich einer Stabilisierung des Cleavable Complex, möglichen Interaktionen mit der DNA und die Relevanz dieser Effekte für die Integrität zellulärer DNA. Es konnte gezeigt werden, dass nur die Verbindungen mit vicinalen Hydroxygruppen im B-Ring des Anthocyangrundgerüstes, Del und Cy, effektiv die katalytische Aktivität isolierter humaner Topoisomerase I und Topoisomerase IIalpha + IIbeta hemmen. Sie wirken jedoch nicht wie die klassischen Topoisomerasegifte Camptothecin oder Etoposid über die Stabilisierung des kovalenten Topoisomerase-DNA-Komplexes, sondern stellen rein katalytische Inhibitoren dar. Del und Cy könnten sogar die DNA vor Topoisomerase I-Giften schützen, da sie zumindest am isolierten Enzym die Stabilisierung des Cleavable Complex der Topoisomerase I durch Camptothecin effektiv verhindern. Für alle getesteten Anthocyanidine konnte gezeigt werden, dass sie im niedrigen mikromolaren Bereich, zwischen 15 µM und 50 µM, sowohl an die kleine Furche der DNA binden, als auch in die DNA interkalieren können und das diese DNA-interagierenden Eigenschaften keinen wesentlichen Beitrag zur Hemmung der Topoisomerasen liefern. Auch wenn im Falle der Anthocyanidine die direkte DNA-Interaktion im Hinblick auf die Topoisomerasehemmung nur von geringer Bedeutung ist, so scheint sie jedoch relevant bezüglich der Integrität zellulärer DNA zu sein. Die einstündige Inkubation von HT29 Kolonkarzinomzellen zeigte, dass bei Inkubation mit den Anthocyanidinen in Konzentrationen >50 µM, signifikant DNA-Schäden induziert werden. Im Hinblick auf die Integrität der DNA lebender Zellen scheint der jeweilige Konzentrationsbereich von entscheidender Bedeutung zu sein. Ein weiterer Schwerpunkt der vorliegenden Arbeit war es, den Einfluss der Überexpression der Tyrosyl-DNA-Phosphodiesterase 1 (TDP1) nach Inkubation mit Topoisomerasegiften zu untersuchen. Im Rahmen einer Kooperation mit Prof. Boege, Universitätsklinikum Düsseldorf, wurden uns verschiedene Zellklone zur Verfügung gestellt, die ein Fusionsprotein aus TDP1 und GFP überexprimierten, sowie eine katalytisch inaktive Variante des Enzymes (TDP1-H263A). Im Rahmen dieser Arbeit wurden Untersuchungen an diesen Zelllinien zur Zytotoxizität von Topoisomerasegiften durchgeführt, sowie Untersuchungen zum Einfluss der TDP1 auf die Induktion von DNA-Schäden durch Topoisomerasegifte. Untersuchungen zum Zellwachstum der verschiedenen Zelllinien mittels MTT-Zytotoxiziätsassay zeigten nach 72 stündiger Inkubation mit den Topoisomerasegiften Camptothecin (Topo I) und Etoposid (Topo II) keinen signifikanten Wachstumsvorteil bei Überexpression der TDP1. Betrachtet man jedoch die Induktion von DNA-Schäden bei Kurzzeitinkubationen (1h) von Camptothecin im Comet-Assay, so erkennt man eine signifikante Reduktion der DNA-Schäden bei Überexpression der TDP1. Ist bei der TDP1 das katalytische Histidin 263 gegen Alanin ausgetauscht, steigen die DNA-Schäden auf das gleiche Niveau wie bei nicht TDP1-überexprimierenden Zellen, d.h. es findet keine Reparatur statt. Erstaunlicherweise zeigte sich auch bei der Inkubation mit dem Topoisomerase II-Gift Etoposid, welches ursprünglich als Negativkontrolle gedacht war, der gleiche Reparatureffekt. Eine Hochregulation DNA-reparierender Enzyme ist unwahrscheinlich, da bei Inkubation mit dem DNA-methylierenden Agens N-methyl-N'-nitro-N-nitrosoguanidin (MNNG) alle Zelllinien eine vergleichbare Menge an DNA-Schäden aufwiesen. Die nunmehr erzielten Ergebnisse eröffnen erstmals die Möglichkeit den Comet-Assay, unter Verwendung der unterschiedlichen TDP1-Klone, zum Auffinden von TDP1-Hemmstoffen einzusetzen.
Methyleugenol ist ein sekundärer Pflanzeninhaltsstoff, der in verschiedenen Kräutern und
Gewürzen vorkommt. In Form von natürlichen ätherischen Ölen findet Methyleugenol als
Aromastoff in Lebensmitteln und als Duftstoff in Kosmetika Verwendung. Methyleugenol
wurde als natürliches gentoxisches Kanzerogen eingestuft. Ein Fokus der vorliegenden
Dissertation lag auf wirkmechanistischen Untersuchungen zur Gentoxizität von
Methyleugenol und ausgewählten oxidativen Phase-I-Metaboliten. So wurden direkt
gentoxische Wirkmechanismen, wie die Induktion von DNA-Strangbrüchen oder Mikrokernen
in der humanen Kolonkarzinomzelllinie HT29 detektiert. Auf Grund der fehlenden in vitro
Mutagenität der Verbindungen sollten weitere Wirkmechanismen zum DNA-strangbrechenden
Potential sowie potentielle Effekte auf DNA-Reparaturprozesse charakterisiert werden.
Die Metaboliten Methyleugenol-2',3'-epoxid und 3'-Oxomethylisoeugenol hemmen die HDAC- und Topoisomerase-I-Aktivität und tragen somit möglicherweise zum DNA-strangbrechenden
Potential der Metaboliten bei. 3'-Oxomethylisoeugenol wurde dabei als
katalytischer Hemmstoff humaner Topoisomerase I identifiziert, welcher signifikant die DNA-strangbrechende
Wirkung und die Enzym/DNA-stabilisierenden Effekte des Topoisomerase-I-Giftes Camptothecin hemmt. In Folge der Induktion von DNA-Doppelstrangbrüchen durch
die Testsubstanzen wird die DNA-Reparatur-assoziierte ATM/ATR-Signalkaskade und das
nachgeschaltete Tumorsuppressorprotein p53 aktiviert. Diese Ergebnisse weisen darauf hin,
dass die zelluläre DNA-Schadensantwort in Verbindung mit DNA-Reparaturmechanismen
oder einer Apoptoseinduktion dazu beitragen, dass die initialen gentoxischen Wirkungen der
Substanzen zu keiner direkten Mutagenität in vitro führen. Insgesamt konnte die Arbeit
zeigen, dass reaktive oxidative Metaboliten von Methyleugenol eine Vielzahl zellulärer
Zielstrukturen beeinflussen und eine potentielle in vitro Gentoxizität aufweisen, weshalb sie
in ihrer Gesamtheit in der Risikobewertung der Ausganssubstanz berücksichtigt werden
sollten.
Ein weiterer Schwerpunkt dieser Arbeit lag auf der Untersuchung der posttranslationalen
Histondeacetylase (HDAC)-Modifikation durch Polyphenole. Es wurde gezeigt, dass
Polyphenole die Expression des Regulatorproteins SUMO E1 beeinflussen. Des Weiteren
hemmen die Polyphenole (-)-Epigallocatechin-3-gallat und Genistein die HDAC-Aktivität und
vermindern den HDAC 1 Proteinstatus in HT29-Kolonkarzinomzellen. HDAC gehört zu den
SUMO-Substratproteinen. Im Rahmen der Arbeit wurde erstmals eine Modulation der posttranslationalen
HDAC 1-Sumoylierung nach Inkubation mit den Polyphenolen nachgewiesen,
welche im direkten Zusammenhang mit der HDAC-Aktivitätshemmung stehen könnte. EGCG
und Genistein beeinflussen somit epigenetische Signalwege in Tumorzellen. Inwieweit eine
Beeinflussung der DNA-Integrität durch HDAC-Hemmstoffe ein Risiko für primäre Zellen
darstellt, muss in weiterführenden Studien noch geklärt werden.
Crowd condition monitoring concerns the crowd safety and concerns business performance metrics. The research problem to be solved is a crowd condition estimation approach to enable and support the supervision of mass events by first-responders and marketing experts, but is also targeted towards supporting social scientists, journalists, historians, public relations experts, community leaders, and political researchers. Real-time insights of the crowd condition is desired for quick reactions and historic crowd conditions measurements are desired for profound post-event crowd condition analysis.
This thesis aims to provide a systematic understanding of different approaches for crowd condition estimation by relying on 2.4 GHz signals and its variation in crowds of people, proposes and categorizes possible sensing approaches, applies supervised machine learning algorithms, and demonstrates experimental evaluation results. I categorize four sensing approaches. Firstly, stationary sensors which are sensing crowd centric signals sources. Secondly, stationary sensors which are sensing other stationary signals sources (either opportunistic or special purpose signal sources). Thirdly, a few volunteers within the crowd equipped with sensors which are sensing other surrounding crowd centric device signals (either individually, in a single group or collaboratively) within a small region. Fourthly, a small subset of participants within the crowd equipped with sensors and roaming throughout a whole city to sense wireless crowd centric signals.
I present and evaluate an approach with meshed stationary sensors which were sensing crowd centric devices. This was demonstrated and empirically evaluated within an industrial project during three of the world-wide largest automotive exhibitions. With over 30 meshed stationary sensors in an optimized setup across 6400m2 I achieved a mean absolute error of the crowd density of just 0.0115
people per square meter which equals to an average of below 6% mean relative error from the ground truth. I validate the contextual crowd condition anomaly detection method during the visit of chancellor Mrs. Merkel and during a large press conference during the exhibition. I present the approach of opportunistically sensing stationary based wireless signal variations and validate this during the Hannover CeBIT exhibition with 80 opportunistic sources with a crowd condition estimation relative error of below 12% relying only on surrounding signals in influenced by humans. Pursuing this approach I present an approach with dedicated signal sources and sensors to estimate the condition of shared office environments. I demonstrate methods being viable to even detect low density static crowds, such as people sitting at their desks, and evaluate this on an eight person office scenario. I present the approach of mobile crowd density estimation by a group of sensors detecting other crowd centric devices in the proximity with a classification accuracy of the crowd density of 66 % (improvement of over 22% over a individual sensor) during the crowded Oktoberfest event. I propose a collaborative mobile sensing approach which makes the system more robust against variations that may result from the background of the people rather than the crowd condition with differential features taking information about the link structure between actively scanning devices, the ratio between values observed by different devices, ratio of discovered crowd devices over time, team-wise diversity of discovered devices, number of semi- continuous device visibility periods, and device visibility durations into account. I validate the approach on multiple experiments including the Kaiserslautern European soccer championship public viewing event and evaluated the collaborative mobile sensing approach with a crowd condition estimation accuracy of 77 % while outperforming previous methods by 21%. I present the feasibility of deploying the wireless crowd condition sensing approach to a citywide scale during an event in Zurich with 971 actively sensing participants and outperformed the reference method by 24% in average.
Reading as a cultural skill is acquired over a long period of training. This thesis supports the idea that reading is based on specific strategies that result from modification and coordination of earlier developed object recognition strategies. The reading-specific processing strategies are considered to be more analytic compared to object recognition strategies, which are described as holistic. To enable proper reading skills these strategies have to become automatized. Study 1 (Chapter 4) examined the temporal and visual constrains of letter recognition strategies. In the first experiment two successively presented stimuli (letters or non-letters) had to be classified as same or different. The second stimulus could either be presented in isolation or surrounded by a shape, which was either similar (congruent) or different (incongruent) in its geometrical properties to the stimulus itself. The non-letter pairs were presented twice as often as the letter pairs. The results demonstrated a preference for the holistic strategy also in letters, even if the non- letter set was presented twice as often as the letter set, showing that the analytic strategy does not replace the holistic one completely, but that the usage of both strategies is task-sensitive. In Experiment 2, we compared the Global Precedence Effect (GPE) for letters and non-letters in central viewing, with the global stimulus size close to the functional visual field in whole word reading (6.5◦ of visual angle) and local stimuli close to the critical size for fluent reading of individual letters (0.5◦ of visual angle). Under these conditions, the GPE remained robust for non-letters. For letters, however, it disappeared: letters showed no overall response time advantage for the global level and symmetric congruence effects (local-to-global as well as global-to-local interference). These results indicate that reading is based on resident analytic visual processing strategies for letters. In Study 2 (Chapter 5) we replicated the latter result with a large group of participants as part of a study in which pairwise associations of non-letters and phonological or non-phonological sounds were systematically trained. We investigated whether training would eliminate the GPE also for non-letters. We observed, however, that the differentiation between letters and non-letter shapes persists after training. This result implies that pairwise association learning is not sufficient to overrule the process differentiation in adults. In addition, subtle effects arising in the letter condition (due to enhanced power) enable us to further specify the differentiation in processing between letters and non-letter shapes. The influence of reading ability on the GPE was examined in Study 3 (Chapter 6). Children with normal reading skills and children with poor reading skills were instructed to detect a target in Latin or Hebrew Navon letters. Children with normal reading skills showed a GPE for Latin letters, but not for Hebrew letters. In contrast, the dyslexia group did not show GPE for either kind of stimuli. These results suggest that dyslexic children are not able to apply the same automatized letter processing strategy as children with normal reading skills do. The difference between the analytic letter processing and the holistic non-letter processing was transferred to the context of whole word reading in Study 4 (Chapter 7). When participants were instructed to detect either a letter or a non-letter in a mixed character string, for letters the reaction times and error rates increased linearly from the left to the right terminal position in the string, whereas for non-letters a symmetrical U-shaped function was observed. These results suggest, that the letter-specific processing strategies are triggered automatically also for more word-like material. Thus, this thesis supports and expands prior results of letter-specific processing and gives new evidences for letter-specific processing strategies.
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Wetting of a solid surface with liquids is an important parameter in the chemical engineering process such as distillation, absorption and desorption. The degree of wetting in packed columns mainly contributes in the generating of the effective interfacial area and then enhancing of the heat and mass transfer process. In this work the wetting of solid surfaces was studied in real experimental work and virtually through three dimensional CFD simulations using the multiphase flow VOF model implemented in the commercial software FLUENT. That can be used to simulate the stratified flows [1]. The liquid rivulet flow which is a special case of the film flow and mostly found in packed columns has been discussed. Wetting of a solid flat and wavy metal plate with rivulet liquid flow was simulated and experimentally validated. The local rivulet thickness was measured using an optically assisted mechanical sensor using a needle which is moved perpendicular to the plate surface with a step motor and in the other two directions using two micrometers. The measured and simulated rivulet profiles were compared to some selected theoretical models founded in the literature such as Duffy & Muffatt [2], Towell & Rothfeld [3] and Al-Khalil et al. [4]. The velocity field in a cross section of a rivulet flow and the non-dimensional maximum and mean velocity values for the vertical flat plate was also compared with models from Al-Khalil et al. [4] and Allen & Biggin [5]. Few CFD simulations for the wavy plate case were compared to the experimental findings, and the Towel model for a flat plate [3]. In the second stage of this work 3-D CFD simulations and experimental study has been performed for wetting of a structured packing element and packing sheet consisting of three elements from the type Rombopak 4M, which is a product of the company Kuhni, Switzerland. The hydrodynamics parameters of a packed column, e. i. the degree of wetting, the interfacial area and liquid hold-up have been depicted from the CFD simulations for different liquid systems and liquid loads. Flow patterns on the degree of wetting have been compared to that of the experiments, where the experimental values for the degree of wetting were estimated from the snap shooting of the flow on the packing sheet in a test rig. A new model to describe the hydrodynamics of packed columns equipped with Rombopak 4M was derived with help of the CFD–simulation results. The model predicts the degree of wetting, the specific or interfacial area and liquid hold-up at different flow conditions. This model was compared to Billet & Schultes [6], the SRP model Rocha et al. [7-9], to Shi & Mersmann [10] and others. Since the pressure drop is one of the most important parameter in packed columns especially for vacuum operating columns, few CFD simulations were performed to estimate the dry pressure drop in a structured and flat packing element and were compared to the experimental results. It was found a good agreement from one side, between the experimental and the CFD simulation results, and from the other side between the simulations and theoretical models for the rivulet flow on an inclined plate. The flow patterns and liquid spreading behaviour on the packing element agrees well with the experimental results. The VOF (Volume of Fluid) was found very sensitive to different liquid properties and can be used in optimization of the packing geometries and revealing critical details of wetting and film flow. An extension of this work to perform CFD simulations for the flow inside a block of the packing to get a detailed picture about the interaction between the liquid and packing surfaces is recommended as further perspective.
Elastische Klebverbindungen werden heute in der Praxis immer häufiger lastabtragend eingesetzt. Daher steigt auch die Nachfrage nach zuverlässigen Berechnungsmethoden und Beurteilungskriterien für diese Klebstoffe. Ziel dieser Arbeit ist es, anhand von geeigneten Prüfmethoden, Werkstoffkennwerte für Werkstoffgesetze, die für FE-Berechnungen geeignet sind, zu bestimmen und diese zu überprüfen. Außerdem soll der Grenzzustand der Beanspruchbarkeit untersucht werden um einerseits bewerten zu können, bis zu welchem Beanspruchungszustand die verwendeten Werkstoffgesetze einsetzbar sind und andererseits um die Grenzbelastungen für diese Klebstoffe beurteilen zu können. In dieser Arbeit wurden zwei elastische Klebstoffe untersucht, einer auf Silikon und einer auf Polyurethanbasis. Die Ermittlung der Werkstoffkennwerte erfolgt an Normproben, die den Vorteil einer weiten Verbreitung und Reproduzierbarkeit bieten. Das Werkstoffverhalten wurde unter Zug-, Schub- und Druckbelastung untersucht. Dabei wurde die Belastungsgeschwindigkeit in allen Belastungsarten so gewählt, dass der Energieeintrag pro Volumen und Zeiteinheit für alle Belastungsarten gleich ist. Dies bietet den Vorteil, dass für alle Belastungsarten der gleiche energetische Zustand des Klebstoffes untersucht wird. Diese Untersuchungen bilden die Grundlage für die Bestimmung der Werkstoffkonstanten für Green’sche Werkstoffgesetzte. Diese haben sich für die Berechnung von elastomeren Werkstoffen bewährt. Die Kennwerte für diese Werkstoffgesetze wurden durch Methoden der Ausgleichsrechnung (Methode der kleinsten Quadrate) iterativ so bestimmt. Die Überprüfung der Kennwerte erfolgt anhand von Kopfzugproben. Diese geklebten Proben mit mehrachsigen Spannungszuständen zeigen eine Vielzahl von in der Praxis relevanten Spannungszuständen und damit besonders für die Überprüfung der Werkstoffgesetze geeignet. Der Vergleich zwischen Simulation und Experiment zeigt eine sehr gute Übereinstimmung. Anhand dieser Probengeometrie werden auch der Grenzzustand der Beanspruchung und die hierfür maßgeblichen mechanischen Größen untersucht. Die Untersuchungen zeigen, dass die Formänderungsenergiedichte als Bewertungsgröße für den Grenzzustand und das Eintreten von Schädigungen im Werkstoff geeignet ist.
Endless fibre reinforced thermoplastic sheets (organic sheets) are significantly gaining
in importance due to their outstanding characteristics. In comparison to common
thermoplastic press moulding composites with random reinforcement like GMT and
LFRT they offer remarkably better specific mechanical properties (stiffness, strength).
And different from endless fibre reinforced thermosets, they also possess high
toughness and show good impact behaviour. Furthermore, they enable welding and
have an appreciable recycling potential.
The manufacturing steps, beginning from impregnation and consolidation of the
semi-finished sheets up to thermoforming and welding to obtain the final part, represent
a closed processing chain. This results in short cycle times and the potential for
mass production.
However, this material class is rarely used because of its cost and surface quality
problems. Therefore, only a few applications exist as demanding functional or structural
parts.
High costs emerge in consequence of either expensive raw materials (carbon fibres,
technical thermoplastics) or the sophisticated processing technique concerning the
impregnation and consolidation step (double belt press). The surface quality problem
is mainly caused by the print-through of reinforcing fibres, which therefore precludes
applications in visible regions, especially in the field of automotive exterior panels.
The aim of the thesis was to enhance the chances of application by improving the
surface quality of endless fibre reinforced thermoplastics. Thus the surface characteristics
and possibilities for reproducible quantitative measuring were identified. Surface
roughness, gloss rate, profile amplitude and wavelength as well as short (sw)
and long term (lw) waviness were chosen as appropriate values. By varying the type of fibre, matrix, fabric and coating the influence of material parameters on the surface
appearance could then be investigated.
It became obvious that the fibre print-through is a result of the significantly higher
volume shrinkage of the thermoplastic resin (higher coefficient of linear thermal expansion)
in comparison to that of the reinforcement during the cooling process, combined
with an uneven distribution of resin and fibres. Thus, amorphous matrices that
have no shrinkage due to crystallisation and a preferably small thermal induced density
growth lead to significantly better surface qualities (from lw = 60 to lw = 20). Qualitatively the texture is dominated by the reinforcing architecture. The kind of textile
weaving and fineness of the fibre bundles determine the wavelength of the profile
deflection.
It was found that the coating has the largest influence on the surface appearance. A
common varnish layer with a thickness of only 40 μm enhances the gloss of the substrate
which makes the surface waviness even more clearly visible. However, optimising
the varnish system with additional base coat or filling layers drastically reduced
the waviness but did not raze it completely (lw = 10). Only the application of a
thermoplastic varnish layer could diminish the waviness to the desired range below
10 (lw = 4).
Besides the experimental work a theoretical analysis of the consolidation and solidification
step was carried out. A finite element model has been created representing a
semi-finished sheet with four layers of a 2/2 twill textile reinforcement. Based on this
geometry various matrix characteristics as well as alterations of the global reinforcement
structure (more or less horizontal ply off-set) have been analysed.
The simulations supported the experimental results. They indicated the strong influence
of the matrix and showed that the off-set of the reinforcing layers plays an important
role concerning the resulting surface profile. Because the off-set of the plies
can not be controlled in the real material and therefore is at random, the profile
depths show a remarkable standard deviation (30 %). In the example considering a
2/2-twill reinforcement the optimum off-set could reduce the profile depth up to 40 %.
Furthermore, the influence of the process parameters (pressure and cooling rate)during the consolidation process was experimentally and theoretically investigated. In
addition to the non-isotropic characteristics of the textile, the time and temperature
dependent mechanical behaviour of the thermoplastic matrix had to be ascertained
and transferred into the model.
A rapid cooling rate was identified to reduce the surface profile of the substrate. The
profile depth of the simulated GF-PC could be decreased from 5 - 3 μm. However,
experimental tests concerning temperature changes and weathering showed that this
advantageous effect decreases with time due to the viscoelastic behaviour of the
polymer and resetting forces of the reinforcement.
The pressure can influence the texture phenomenon only by affecting the fibre volume
content of the sample. In case of static isobaric press processing a certain matrix
flow across the margins of the tool can not be totally averted. With a rising pressure the outflow becomes stronger and leads to a growing fibre volume content and
stronger surface waviness.
By carrying out several simulations with systematically varying material data a nomogram
could be created that represents a tool to predict the surface profile of comparable
composites (2/2 twill reinforcement, FVC around 50 %) just in dependence of
the matrix. It takes into account the specific matrix volume shrinkage and the pitch
from its solidification to usage temperature. Thus, the possibilities but also limitations
of a certain material combination concerning surface waviness can easily be estimated.
In order to reduce the heterogeneity of the fibre matrix distribution common textile
fabrics were substituted by unidirectional (UD) non-crimped structures and UD fabrics.
A newly established processing method was used to manufacture a noncrimped
and non-sewed endless fibre reinforced thermoplastic sheet by direct combination
of a multiaxial weft insertion machine and a continuous rotocure press. The
resulting product proved the potential for an improved surface quality. Despite the
use of relatively heavy rovings and not yet optimised fibre placement the surface profile
of this new kind of organic sheets is comparable with the one of those samples
having the fine 8-H-satin fabric reinforcement (lw = 20).
Finally it could be shown that the method of thermoplastic varnish layer lamination
which has successfully been used for semi-finished parts can also be integrated in a
thermoforming step to create three-dimensional components. The best results of this trial (lw = 10, sw = 14) do not reach the level of the flat sheets but almost meet the
requirements of the automotive “Class A” standard. With regard to economical and
weight saving aspects this material option can be considered a competitive alternative
to common car body panels.
In conclusion the investigations showed a notable feasibility to improve the surface
quality of endless fibre reinforced thermoplastic sheets. Therefore, this thesis represents
a contribution to amplify the application potential of this material class, particularly
in the fields of leisure and sports goods, and in the range of commercial vehicles.
Im Verlauf dieser Dissertation konnte gezeigt werden, dass eine erhöhte Expression des tonoplastidären Dicarboxylat Transporters zu einem erhöhten Gehalt an Malat bei gleichzeitig vermindertem Citratgehalt in den Überexpressions-Pflanzen führt. Somit konnte, ähnlich wie in den k.o.-Pflanzen, ein reziprokes Verhalten von Citrat und Malat aufgezeigt werden.
Elektrophysiologische Analysen an Oozyten von X. laevis in Zusammenhang mit Aufnahmeversuchen an Proteoliposomen zeigten weiterhin, dass der Transport von Citrat ebenfalls durch den TDT katalysiert wird. Anhand eines negativen Einwärts-Strom an Oozyten konnte gezeigt werden, dass dieser Citrat-Transport elektrogen ist. Weiterhin konnte gezeigt werden, dass Citrat2-H die transportierte Form von Citrat darstellt. Dieses wird vermutlich zusammen mit drei Protonen transportiert.
Die Dianionen Malat und Succinat, sowie höchstwahrscheinlich auch Fumarat, werden ebenfalls über den TDT transportiert. Unter Standardbedingungen werden diese in die Vakuole importiert. Im Gegenzug wird Citrat aus der Vakuole exportiert. Die trans-stimulierende Wechselwirkung von Malat, Succinat und Fumarat auf den Citrat Transport und vice versa bestärkt den in dieser Arbeit postulierten Antiport der jeweiligen Carboxylate über den Tonoplasten. Dieser ist jedoch nicht obligat, was an dem verringerten Transport von Citrat ohne Gegensubstrat über die Membran gezeigt werden konnte.
Unter Trockenstress und osmotischen Stress konnte ebenfalls gezeigt werden, dass die erhöhte Expression des TDT maßgeblich an der Akkumulation von Malat und der Mobilisierung von Citrat unter den genannten Stressbedingungen beteiligt ist.
Letztlich konnte mittels Säurestressexperimenten nachgewiesen werden, dass die Malatakkumulation, bei gleichzeitigem Citrat Abbau nicht zwingend miteinander gekoppelt sind, unter Säurestress müssen daher weitere regulatorische Effekte auf den Malat-Import bzw. den Citrat-Export vorherrschen.
This research explores the development of web based reference software for
characterisation of surface roughness for two-dimensional surface data. The reference software used for verification of surface characteristics makes the evaluation methods easier for clients. The algorithms used in this software
are based on International ISO standards. Most software used in industrial measuring
instruments may give variations in the parameters calculated due to numerical changes in
calculation. Such variations can be verified using the proposed reference software.
The evaluation of surface roughness is carried out in four major steps: data capture, data
align, data filtering and parameter calculation. This work walks through each of these steps
explaining how surface profiles are evaluated by pre-processing steps called fitting and
filtering. The analysis process is then followed by parameter evaluation according to DIN EN
ISO 4287 and DIN EN ISO 13565-2 standards to extract important information from the
profile to characterise surface roughness.
Wearable activity recognition aims to identify and assess human activities with the help
of computer systems by evaluating signals of sensors which can be attached to the human
body. This provides us with valuable information in several areas: in health care, e.g. fluid
and food intake monitoring; in sports, e.g. training support and monitoring; in entertainment,
e.g. human-computer interface using body movements; in industrial scenarios, e.g.
computer support for detected work tasks. Several challenges exist for wearable activity
recognition: a large number of nonrelevant activities (null class), the evaluation of large
numbers of sensor signals (curse of dimensionality), ambiguity of sensor signals compared
to the activities and finally the high variability of human activity in general.
This thesis develops a new activity recognition strategy, called invariants classification,
which addresses these challenges, especially the variability in human activities. The
core idea is that often even highly variable actions include short, more or less invariant
sub-actions which are due to hard physical constraints. If someone opens a door, the
movement of the hand to the door handle is not fixed. However the door handle has to
be pushed to open the door. The invariants classification algorithm is structured in four
phases: segmentation, invariant identification, classification, and spotting. The segmentation
divides the continuous sensor data stream into meaningful parts, which are related
to sub-activities. Our segmentation strategy uses the zero crossings of the central difference
quotient of the sensor signals, as segment borders. The invariant identification finds
the invariant sub-activities by means of clustering and a selection strategy dependent on
certain features. The classification identifies the segments of a specific activity class, using
models generated from the invariant sub-activities. The models include the invariant
sub-activity signal and features calculated on sensor signals related to the sub-activity. In
the spotting, the classified segments are used to find the entire activity class instances in
the continuous sensor data stream. For this purpose, we use the position of the invariant
sub-activity in the related activity class instance for the estimation of the borders of the
activity instances.
In this thesis, we show that our new activity recognition strategy, built on invariant
sub-activities, is beneficial. We tested it on three human activity datasets with wearable
inertial measurement units (IMU). Compared to previous publications on the same
datasets we got improvement in the activity recognition in several classes, some with a
large margin. Our segmentation achieves a sensible method to separate the sensor data in
relation to the underlying activities. Relying on sub-activities makes us independent from
imprecise labels on the training data. After the identification of invariant sub-activities,
we calculate a value called cluster precision for each sensor signal and each class activity.
This tells us which classes can be easily classified and which sensor channels support
the classification best. Finally, in the training for each activity class, our algorithm selects
suitable signal channels with invariant sub-activities on different points in time and
with different length. This makes our strategy a multi-dimensional asynchronous motif
detection with variable motif length.
Wärmedämm-Verbundsysteme (WDVS) zählen gegenwärtig zu den am meisten eingesetzten Fassadenkonstruktionen, dennoch oder gerade deswegen stoßen die Systeme in der Architektur auf Ablehnung. Auf der technischen Seite wird mit der Anfälligkeit für Algen-/Pilzwuchs, Spechtlöchern oder dem Brandschutz argumentiert. Die architektonische Seite wettert gegen das unwahrhaftige Erscheinungsbild einer massiven Putzwand und äußert Bedenken beim Einsatz im Bestand. Auch im Feuilleton regt sich Widerstand und Angst gewohnte Stadtbilder zu verlieren. Trotz der Probleme können sich Architekten unter den gegebenen politischen Rahmenbedingungen und Kostenzwängen nicht mehr dem WDV-System entziehen. Die Moraldiskussion, die sich unmittelbar an der Fassade abarbeitet und ebenso problematische Verbundbauweisen ausblendet, verdeutlicht, dass es sich vorwiegend um ein Wahrnehmungsproblem handelt. WDV-Systeme gelten als unecht, billig und gestaltungsarm. Damit sich diese architektonische Wahrnehmung von WDV-Systemen nachhaltig verändert, werden systematisch Möglichkeiten und Potenziale vorgestellt, um WDVS zur Bedingung der Gestaltung werden zu lassen. In diesem Sinne interpretiert die Arbeit WDV-Systeme als architektonisches Mittel, das einer gestalterischen Logik folgt, welche sich unmittelbar aus den Gegebenheiten des Systems heraus entwickelt.
The thesis is concerned with the modelling of ionospheric current systems and induced magnetic fields in a multiscale framework. Scaling functions and wavelets are used to realize a multiscale analysis of the function spaces under consideration and to establish a multiscale regularization procedure for the inversion of the considered operator equation. First of all a general multiscale concept for vectorial operator equations between two separable Hilbert spaces is developed in terms of vector kernel functions. The equivalence to the canonical tensorial ansatz is proven and the theory is transferred to the case of multiscale regularization of vectorial inverse problems. As a first application, a special multiresolution analysis of the space of square-integrable vector fields on the sphere, e.g. the Earth’s magnetic field measured on a spherical satellite’s orbit, is presented. By this, a multiscale separation of spherical vector-valued functions with respect to their sources can be established. The vector field is split up into a part induced by sources inside the sphere, a part which is due to sources outside the sphere and a part which is generated by sources on the sphere, i.e. currents crossing the sphere. The multiscale technqiue is tested on a magnetic field data set of the satellite CHAMP and it is shown that crustal field determination can be improved by previously applying our method. In order to reconstruct ionspheric current systems from magnetic field data, an inversion of the Biot-Savart’s law in terms of multiscale regularization is defined. The corresponding operator is formulated and the singular values are calculated. Based on the konwledge of the singular system a regularzation technique in terms of certain product kernels and correponding convolutions can be formed. The method is tested on different simulations and on real magnetic field data of the satellite CHAMP and the proposed satellite mission SWARM.
Nanotechnology is now recognized as one of the most promising areas for technological
development in the 21st century. In materials research, the development of
polymer nanocomposites is rapidly emerging as a multidisciplinary research activity
whose results could widen the applications of polymers to the benefit of many different
industries. Nanocomposites are a new class of composites that are particle-filled
polymers for which at least one dimension of the dispersed particle is in the nanometer
range. In the related area polymer/clay nanocomposites have attracted considerable
interest because they often exhibit remarkable property improvements when
compared to virgin polymer or conventional micro- and macro- composites.
The present work addresses the toughening and reinforcement of thermoplastics via
a novel method which allows us to achieve micro- and nanocomposites. In this work
two matrices are used: amorphous polystyrene (PS) and semi-crystalline polyoxymethylene
(POM). Polyurethane (PU) was selected as the toughening agent for POM
and used in its latex form. It is noteworthy that the mean size of rubber latices is
closely matched with that of conventional toughening agents, impact modifiers.
Boehmite alumina and sodium fluorohectorite (FH) were used as reinforcements.
One of the criteria for selecting these fillers was that they are water swellable/
dispersible and thus their nanoscale dispersion can be achieved also in aqueous
polymer latex. A systematic study was performed on how to adapt discontinuousand
continuous manufacturing techniques for the related nanocomposites.
The dispersion of nanofillers was characterized by transmission, scanning electron
and atomic force microcopy (TEM, SEM and AFM respectively), X-ray diffraction
(XRD) techniques, and discussed. The crystallization of POM was studied by means
of differential scanning calorimetry and polarized light optical microscopy (DSC and
PLM, respectively). The mechanical and thermomechanical properties of the composites
were determined in uniaxial tensile, dynamic-mechanical thermal analysis
(DMTA), short-time creep tests, and thermogravimetric analysis (TGA).
PS composites were produced first by a discontinuous manufacturing technique,
whereby FH or alumina was incorporated in the PS matrix by melt blending with and
without latex precompounding of PS latex with the nanofiller. It was found that direct melt mixing (DM) of the nanofillers with PS resulted in micro-, whereas the latex mediated
pre-compounding (masterbatch technique, MB) in nanocomposites. FH was
not intercalated by PS when prepared by DM. On the other hand, FH was well dispersed
(mostly intercalated) in PS via the PS latex-mediated predispersion of FH following
the MB route. The nanocomposites produced by MB outperformed the DM
compounded microcomposites in respect to properties like stiffness, strength and
ductility based on dynamic-mechanical and static tensile tests. It was found that the
resistance to creep (summarized in master curves) of the nanocomposites were improved
compared to those of the microcomposites. Master curves (creep compliance
vs. time), constructed based on isothermal creep tests performed at different temperatures,
showed that the nanofiller reinforcement affects mostly the initial creep
compliance.
Next, ternary composites composed of POM, PU and boehmite alumina were produced
by melt blending with and without latex precompounding. Latex precompounding
served for the predispersion of the alumina particles. The related MB was produced
by mixing the PU latex with water dispersible boehmite alumina. The composites
produced by the MB technique outperformed the DM compounded composites in
respect to most of the thermal and mechanical characteristics.
Toughened and/or reinforced PS- and POM-based composites have been successfully
produced by a continuous extrusion technique, too. This technique resulted in
good dispersion of both nanofillers (boehmite) and impact modifier (PU). Compared
to the microcomposites obtained by conventional DM, the nanofiller dispersion became
finer and uniform when using the water-mediated predispersion. The resulting
structure markedly affected the mechanical properties (stiffness and creep resistance)
of the corresponding composites. The impact resistance of POM was highly
enhanced by the addition of PU rubber when manufactured by the continuous extrusion
manufacturing technique. This was traced to the dispersed PU particle size being
in the range required from conventional, impact modifiers.
Eine große Untergruppe der Soft Robotik sind die mehrkammerigen pneumatischen Biegeaktuatoren.Diese Arbeit beschäftigt sich mit der Modellierung dieser Art Aktuatoren mittels eines Balkenmodells und arbeitet speziell die Vorteile heraus, die sich aus einer Berücksichtigung der wechselseitigen Abhängigkeiten von Design und Modellierung ergeben. Die Verwendung eines Balkenmodells ist numerisch deutlich effizienter als die Simulation eines dreidimensionalen Körpers, trotzdem werden die Freiheitsgrade axiale Dehnung, Biegung, Scherung und Torsion vom verwendeten Cosserat-Balken berücksichtigt. Zunächst wird ein sinnvolles Design für mehrkammerige
Biegeaktuatoren durch systematische Untersuchung von Designaspekten und unter Berücksichtigung von Aspekten der Modellierung hergeleitet. Zur Modellierung der einzelnen Kammern des Biegeaktuators wird ein Ansatz mittels des Prinzips der virtuellen Arbeit gewählt. Das resultierende Modell erlaubt insbesondere Rückschlüsse auf die Sensitivität der Kammern gegenüber externen axialen Kräften. Dies ist ein wichtiger Aspekt, der bei der Modellierung des mehrkammerigen Biegeaktuators mittels Cosserat-Balken aufgegriffen wird. Dieses Modell wiederum nutzt das besonders gut zu modellierende Design des Aktuators, um einen Zusammenhang zwischen Dehn- und Biegesteifigkeit herzustellen, der, im Gegensatz zu bisherigen Modellen, auch Rücksicht auf die axiale Dehnung des Aktuators nimmt. So lassen sich dreidimensionale Simulationen einzig auf Grundlage axialer Parameteridentifikation durchführen. Die in dieser Arbeit hergeleiteten Zusammenhänge zwischen Design und Modellierung und die daraus entwickelten Methoden sind eine wichtige Grundlage für komplexere Anwendungen in der Zukunft.
Seit Beginn der 90er Jahre werden vermehrt Kreisverkehre gebaut. Insbesondere beim Umbau vorhandener LSA-Kreuzungen zu Kreisverkehren werden Vorteile für den Individualverkehr gesehen. Diese Vorteile werden allerdings mit Nachteilen für den öffentlichen Personennahverkehr erkauft. Die erstmals untersuchten Auswirkungen dieser Knotenpunktform auf Fahrzeuge des öffentlichen Personennahverkehr (ÖPNV) sind teilweise erheblich: - Wartezeiten für ÖV-Fahrzeuge an Kreisverkehren schwanken und sind schlecht in den Fahrplan zu integrieren, - Fahrtrichtungswechsel bei der Befahrung der Kreisfahrbahn reduzieren den Fahrkomfort, - ÖPNV-Beschleunigungen werden an Kreisver-kehren selten angewandt, - ÖPNV-Priorisierungmöglichkeiten durch Eingriffe in Lichtsignalanlagensteuerungen entfallen. Dass Beschleunigungen auf dem Linienweg in vielen Fällen möglich sind, wurde sowohl durch empirische Auswertungen bestehender Kreisverkehre als auch durch Simulationen gezeigt. Bei geringen Verkehrsstärken sind Beschleunigungen im Allgemeinen nicht notwendig. Zudem steht die Wirkung häufig in ungünstiger Relation zum erforderlichen Aufwand. Bei hohen Verkehrsstärken in den Zufahrten ermöglicht dagegen z.B. die ÖV-Spur hervorragende Beschleunigungen für den ÖV. Allerdings wurden bei zweistreifiger, pa-ralleler Führung von MIV- und ÖV-Strömen zu einstreifigen Kreisverkehren häufig Irritationen zwischen MIV- und ÖV-Fahrzeugen beobachtet. Kei-ne Irritationen wurden beobachtet, wenn MIV- und ÖV- Spur in der Zufahrt zum Kreisverkehr zweistreifig parallel geführt werden und die MIV-Fahrspur unmittelbar vor dem Kreisverkehr in einer Fahrstreifenreduktion endet und die ebenfalls endende ÖV-Spur als normaler Fahrstreifen fortgeführt wird. Bei dieser als „KREIFAS“ (KReisverkehr mit EIngezogenem FAhrstreifen) bezeichneten Verkehrsführung wechseln die MIV-Fahrzeuge den Fahrstreifen, während der ÖV geradeaus weiterfahren kann. Eine Beschleunigungsmöglichkeit bei der Einfahrt in die Kreisfahrbahn bietet die „schlafende LSA“. Der Vorrang der Fahrzeuge auf der Kreisfahrbahn wird durch eine schlafende Lichtsignalanlage (Dunkelampel) aufgehoben, wenn ÖV-Fahrzeuge in der Zufahrt auf den Kreisverkehr zufahren. Fahrzeuge aus dieser Zufahrt erhalten solange Vorrang, bis dass das ÖV-Fahrzeug die Kreisfahrbahn erreicht hat. Durch diese und andere Maßnahmen wird eine Reduzierung von Wartezeiten für Busse bei der Einfahrt in die Kreisfahrbahn erreicht, ebenso wie eine Verstetigung des Fahrtverlaufes in der Zufahrt und somit eine Steigerung von Fahrplantreue und Fahrkomfort erreicht. Insgesamt ist eine ausgewogene Berücksichtigung aller Verkehrsteilnehmer auch bei Planungen an Kreisverkehren erforderlich. Wenn ÖV-Linien beschleunigt über Kreisverkehre geführt werden sollen, sind deren Anforderungen besonders sorgfältig zu berücksichtigen. Somit ergeben sich auch für das Element Kreisverkehr Beschleunigungsmöglichkeiten, um den Wegfall von LSA-Beschleunigungsmaßnahmen in weiten Teilen zu kompensieren.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
Carbonbeton ist ein neuartiger Verbundwerkstoff, der seit ca. 20 Jahren in den Sonderforschungsbereichen (SFB) 528 und 532 erforscht wird. Abgesehen von vereinzelten Unikaten im Neubaubereich sind Einsatzgebiete bisher vornehmlich die Bereiche Sanieren, Verstärken und Ertüchtigen in Verbindung mit engmaschigen Bewehrungsstrukturen und hochfesten Feinbetonen.
In Ergänzung hierzu wird in dieser Arbeit ein Versuchskonzept für die industriell gefertigte Deckenplatte des Parkhaussystems GOBACAR® als Neubauteil vorgestellt, bei welcher eine Bewehrungsstruktur mit großer Maschenweite und Normalbeton (Großkorn 16 mm) Anwendung findet.
Aus einem umfassenden Versuchsprogramm beginnend mit der Ermittlung von Festigkeitswerten für die Bewehrung, über die Ermittlung einer Dauerfestigkeit, Verbundeigenschaften und Auswirkungen aus dynamischer Beanspruchung bis hin zu Einflüssen aus Temperaturwirkung auf die Bewehrung und deren Verbundfestigkeit werden Teilsicherheitsbeiwerte abgeleitet und daraus ein Bemessungsmodell für die Biegetragfähigkeit beschrieben. Es wird aufgezeigt, wie die aus den Versuchen ermittelten Kennwerte in die Bemessung einfließen. Aus dem Versuchsprogramm werden weiterhin Bauteilversuche mit Originalspannweite im Maßstab 1:1 vorgestellt, aus denen Bauteilwiderstände für die Biege und Querkrafttragfähigkeit sowie Durchstanzen aus simulierter Radlast für die Deckenplatte als Systembauteil abgeleitet werden.
Für die Biegetragfähigkeit wird der Widerstand aus dem Bemessungsmodell und der versuchsgestützte Bauteilwiderstand gegenübergestellt.
Für die Entwicklung der Parkhausdeckenplatte mit Carbonbeton hat das Unternehmen GOLDBECK unter der Gesamtleitung des Autors in der Summe mehr als 400 Versuche durchgeführt, von denen etwas mehr als 100 die Grundlage dieser Arbeit sind und aus denen eine wirtschaftliche Biegebemessung mit der ermittelten Dauerfestigkeit der Carbonbewehrung abgeleitet wird.
Von der Bauplanung zur Gebäudebewirtschaftung: Ein integrales Bewertungs- und Transformationsmodell
(2009)
Gegenstand der vorliegenden Arbeit ist der Entwurf eines integralen Bewertungs- und Transformationsmodells zur Integration der Gebäudebewirtschaftung in die Bauplanungsphase. Das Ziel der Untersuchung ist die Bildung eines Modells zur Identifizierung einer Bauplanungsvariante, die hinsichtlich ihrer späteren Nutzung bezüglich des Ressourcenverbrauchs, der Belastung für Mensch und Umwelt, der Durchführung von Bewirtschaftungsprozessen und bezüglich der Umgebungsressourcen eine optimierte Variante darstellt. Im ersten Teil der Arbeit werden nach einer kurzen Einführung zunächst die Motivation zur vorliegenden Arbeit, ihre Zielsetzung und die Grundlagen des Facility Management, der Bauplanung und Baukosten erläutert. Die ganzheitliche Betrachtung von Facility Management über den gesamten Lebenszyklus unter Berücksichtigung auch nicht monetärer Ziele wie Belastungsvermeidung oder Optimierung der Umgebungsressourcen macht eine eigene Neudefinition von Facility Management notwendig. Basis der weiteren Untersuchungen sind die entwickelten Übergeordneten Ziele des Facility Management. Zur Befriedigung der Übergeordneten Ziele des Facility Management muss Facility Management schon in der frühen Phase der Rahmen- und Nutzungsplanung und auf der funktional organisatorischen Bauplanungsebene integriert werden und muss die Interessen aller an Bau und Nutzung beteiligten integrieren. Der zweite Teil der Arbeit befasst sich mit der Integration von Facility Management in den Bauplanungsprozess. Dazu werden in einem ersten Schritt planungsabhängige Kosten und Leistungen des Facility Management identifiziert. Durch eine Analyse der Planungsabhängigkeiten der Übergeordneten Ziele des Facility Management wird aufgezeigt, wie Planungsobjekte identifiziert werden. Das entwickelte Transformationsmodell erlaubt die Transformation von Planungsobjekten zu Bewirtschaftungsobjekten, deren Variation in der Planungsphase die Bewirtschaftungsphase maßgeblich beeinflussen. Das erarbeitete Objektmodell zeigt im Sinne der Objektorientierung die Beziehungen der Bewirtschaftungsobjekte untereinander auf. Das Transformationsmodell bildet die Grundlage zur abschließenden Planungsbewertung anhand derer verschiedene Bauplanungsalternativen untereinander vergleichbar gemacht werden und hinsichtlich ihres Nutzwertes bezüglich der Bewirtschaftungsphase bewertet werden können.
Diese Arbeit beschreibt einen in der Praxis bereits vielfach erprobten, besonders leistungsfähigen Ansatz zur Verifikation digitaler Schaltungsentwürfe. Der Ansatz ist im Hinblick auf die Schaltungsqualität nach der Verifikation, als auch in Bezug auf den Verifikationsaufwand der simulationsbasierten Schaltungsverifikation deutlich überlegen. Die Arbeit überträgt zunächst das Paradigma der transaktionsbasierten Verifikation aus der Simulation in die formale Verifikation. Ein Ergebnis dieser Übertragung ist eine bestimmte Form von formalen Eigenschaften, die Operationseigenschaften genannt werden. Schaltungen werden mit Operationseigenschaften untersucht durch Interval Property Checking, einer be-sonders leistungsfähigen SAT-basierten funktionalen Verifikation. Dadurch können Schaltungen untersucht werden, die sonst als zu komplex für formale Verifikation gelten. Ferner beschreibt diese Arbeit ein für Mengen von Operationseigenschaften geeignetes Werkzeug, das alle Verifikationslücken aufdeckt, komplexitätsmäßig mit den Fähigkeiten der IPC-basierten Schaltungsuntersuchung Schritt hält und als Vollständigkeitprüfer bezeichnet wird. Die Methodik der Operationseigenschaften und die Technologie des IPC-basierten Eigenschaftsprüfers und des Vollständigkeitsprüfers gehen eine vorteilhafte Symbiose zum Vorteil der funktionalen Verifikation digitaler Schaltungen ein. Darauf aufbauend wird ein Verfahren zur lückenlosen Überprüfung der Verschaltung derartig verifizierter Module entwickelt, das aus den Theorien zur Modellierung digitaler Systeme abgeleitet ist. Der in dieser Arbeit vorgestellte Ansatz hat in vielen kommerziellen Anwendungsprojekten unter Beweis gestellt, dass er den Namen "vollständige funktionale Verifikation" zu Recht trägt, weil in diesen Anwendungsprojekten nach dem Erreichen eines durch die Vollständigkeitsprüfung wohldefinierten Abschlusses keine Fehler mehr gefunden wurden. Der Ansatz wird von OneSpin Solutions GmbH unter dem Namen "Operation Based Verification" und "Gap Free Verification" vermarktet.
Die Klimaveränderung und die damit einhergehende verstärkte Fäulnisdynamik auf Trauben stellt eine Herausforderung für die nördlichen Weinbauregionen Europas dar. Daher wurde die vollautomatisch-optische Traubensortierung, eine innovative Verfahrenstechnik bei der Traubenverarbeitung, im zugrundeliegenden Projekt erstmals zur maschinellen Selektion fauler Beeren aus Hand- und Maschinenlesegut unter Praxisbedingungen in den Jahrgängen 2010 und 2011 eingesetzt. Hierzu wurden 15 Sortierversuche mit durchschnittlich zwei Tonnen Lesegut unterschiedlicher Rebsorten des Weinanbaugebietes Mosel mit unterschiedlichen Fäulnisarten und intensitäten durchgeführt, wobei Selektionsquoten bis zu 99 % erreicht wurden. Durch die Sortierung erfolgte eine Fraktionierung des Lesegutes in Saftvorlauf (aus geöffneten Beeren austretender Saft), Positivfraktion (gesunde Beeren) und Negativfraktion (faule Beeren), die im Vergleich zur unsortierten Kontrolle repräsentative Aussagen über den Fäulniseinfluss von Beeren auf die standardisiert verarbeiteten Moste und Weine lieferten.
Ziel dieser Arbeit war es, mittels vielseitiger analytischer und sensorischer Untersuchungen der einzelnen Fraktionen die vollautomatisch-optische Traubensortierung als Maßnahme zur Qualitätssicherung, -steigerung und -sicherheit der Moste und korrelierenden Weine zu bewerten. Im Rahmen der analytischen Untersuchungen wurden die Gehalte an Mykotoxinen, biogenen Aminen, Phenolen, Gluconsäure, Glycerin, organischen Säuren, Kationen, Schwefelbindungspartnern und Off-flavour-Verbindungen sowie das Mostgewicht bestimmt. Die notwendigen Methoden zur Bestimmung der Mykotoxine mittels HPLC-MS/MS sowie der phenolischen Verbindungen mittels HPLC-UV wurden entwickelt und validiert. Sensorisch wurden deskriptive sowie diskriminative Untersuchungen durchgeführt.
Die Ergebnisse der analytischen und sensorischen Untersuchungen aller Versuche zeigten, dass die Art und Entwicklung der auf Trauben auftretenden Fäulnis überwiegend zu qualitativ negativen Beeinflussungen der rebsortentypischen Weinstilistik führte. Die effiziente Selektion fäulnisbelasteter Beeren mittels vollautomatisch-optischer Traubensortierung und die hierdurch ermöglichte, individuelle Handhabung der einzelnen Sortierfraktionen tragen zur Sicherung, Steigerung und Sicherheit der Qualität von Weinen bei.
Es muss jedoch berücksichtigt werden, dass diese Ergebnisse nur den Zustand zweier Jahrgänge widerspiegeln. Zukünftige Untersuchungen über mehrere Jahre sollten daher angestrebt werden, um die beobachteten Trends zu bestätigen.
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
In urban planning, sophisticated simulation models are key tools to estimate future population growth for measuring the impact of planning decisions on urban developments and the environment. Simulated population projections usually result in large, macro-scale, multivariate geospatial data sets. Millions of records have to be processed, stored, and visualized to help planners explore and analyze complex population patterns. We introduce a database driven framework for visualizing geospatial multidimensional simulation data based on the output from UrbanSim, a software for the analysis and planning of urban developments. The designed framework is extendable and aims at integrating empirical-stochastic methods and urban simulation models with techniques developed for information visualization and cartography. First, we develop an empirical model for the estimation of residential building types based on demographic household characteristics. The predicted dwelling type information is important for the analysis of future material use, carbon footprint calculations, and for visualizing simultaneously the results of land usage, density, and other significant parameters in 3D space. Our model uses multinomial logistic regression to derive building types at different scales. The estimated regression coefficients are applied to UrbanSim output in order to predict residential building types. The simulation results and the estimated building types are managed in an object-relational geodatabase. From the database, density, building types, and significant demographic variables are visually encoded as scalable, georeferenced 3D geometries and displayed on top of aerial photographs in a Google Earth visual synthesis. The geodatabase can be accessed and the visualization parameters can be chosen through a web-based user interface. The geometries are encoded in KML, Google's markup language, as ready-to-visualize data sets. The goal is to enhance human cognition by displaying abstract representations of multidimensional data sets in a realistic context and thus to support decision making in planning processes.