Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
- Mehrskalenanalyse (3)
- Mobilfunk (3)
- Robotik (3)
- mathematical education (3)
- AKLEON (2)
- Alterungsbeständigkeit (2)
- Ambient Intelligence (2)
- CAD (2)
- CDMA (2)
- CHAMP (2)
- Elektrotechnik (2)
- Gravitationsfeld (2)
- Implementierung (2)
- Inverses Problem (2)
- Kleben (2)
- Lineare Optimierung (2)
- Mensch-Maschine-Kommunikation (2)
- Mensch-Roboter-Koexistenz (2)
- Mensch-Roboter-Kooperation (2)
- Navier-Stokes-Gleichung (2)
- Optimierung (2)
- RODEO (2)
- RONAF (2)
- Regelung (2)
- SIMERO (2)
- Simplex (2)
- Stücklisten (2)
- Szenario (2)
- Up Functions (2)
- Zeolith (2)
- linear optimization (2)
- mobile radio (2)
- numerical simulation (2)
- praxis orientated (2)
- simplex (2)
- time series (2)
- wavelets (2)
- 5-> (1)
- : Navier-Stokes equations (1)
- : Two-phase flow in porous media (1)
- : multiple criteria optimization (1)
- : multiple objective programming (1)
- Ab-initio-Rechnung (1)
- Abel integral equations (1)
- Adsorption (1)
- Akute myeloische Leukämie (1)
- Algebraische Geometrie (1)
- Alkin (1)
- Alterung (1)
- Aluminium (1)
- Aminosäuren (1)
- Anfrageverarbeitung (1)
- Anorganisches Pigment (1)
- Anthropotechnik (1)
- Antimon (1)
- Anämiebehandlung (1)
- Aperiodic Crystal (1)
- Aperiodischer Kristall (1)
- Apoptosis (1)
- Approximation (1)
- Arabidopsis thaliana (1)
- Archimedische Kopula (1)
- Aromastoffe (1)
- Arsen (1)
- Asiatische Option (1)
- Assembly (1)
- Automatische Indexierung (1)
- Bahnplanung (1)
- Basel (1)
- Basket Option (1)
- Batteriemanagement (1)
- Batterien (1)
- Bessel functions (1)
- Bicyclus (1)
- Bildverarbeitung (1)
- Biomarker (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Bismut (1)
- Bitvektor (1)
- Blocked Neural Networks (1)
- Brinkman (1)
- Brownian motion (1)
- Brownsche Bewegung (1)
- Butterflykomplex (1)
- Bändchenhalbzeuge (1)
- CGH (1)
- CNS (1)
- Calcium (1)
- Castor (1)
- Cauchy-Navier-Equation (1)
- Cauchy-Navier-Gleichung (1)
- Chalkogen (1)
- Chemische Bindung / Theorie (1)
- Chi-Quadrat-Test (1)
- Cholesky-Verfahren (1)
- Clusterion (1)
- Clusterverbindungen (1)
- Code Inspection (1)
- Comet Assay (1)
- Comparative Genomische Hybridisierung (1)
- Continuum Damage (1)
- Cyclisches Nucleotid Phosphodiesterase <3 (1)
- Cyclo-AMP (1)
- Cyclo-GMP (1)
- Cytogenetik (1)
- DHFR (1)
- DNS (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Decane (1)
- Decomposition and Reconstruction Schemes (1)
- Deformationstheorie (1)
- Dialysemembran (1)
- Dichtefunktionalformalismus (1)
- Dihydrofolatreduktase (1)
- Discrete linear systems (1)
- Dislocations (1)
- Disproportionierung (1)
- Double Minutes (1)
- Dreidimensionale Bildverarbeitung (1)
- Druckkorrektur (1)
- Dynamic cut (1)
- Dynamik / Baumechanik (1)
- Earliest arrival augmenting path (1)
- Eisen-Phosphor-Cluster (1)
- Elastische Deformation (1)
- Elastoplasticity (1)
- Elliptische Verteilung (1)
- Empfangssignalverarbeitung (1)
- Entwurfsautomation (1)
- Epidermaler Wachstumsfaktor-Rezeptor (1)
- Epoxidharz (1)
- Epoxidharzklebstoff (1)
- Epoxy Adhesive (1)
- Erdmagnetismus (1)
- Erfüllbarke (1)
- Ergonomie (1)
- Ethylbenzol (1)
- Ethylen (1)
- Euler's equation of motion (1)
- Expected shortfall (1)
- Experiment (1)
- Extreme value theory (1)
- Faserfestigkeit (1)
- Faserkunststoffverbunde (1)
- Faserschädigung (1)
- Faserverbundwerkstoff (1)
- Festkörperchemie (1)
- Filtergesetz (1)
- Finite Elements (1)
- Finite-Elemente-Methode (1)
- Finite-Volumen-Methode (1)
- Fitts Law (1)
- Flachwasser (1)
- Flachwassergleichungen (1)
- Floatglas (1)
- Flüssig-Flüssig-Extraktion (1)
- Folgar-Tucker equation (1)
- Force-Torque (1)
- Fourier-Transformation (1)
- Fräsen (1)
- Garbentheorie (1)
- Genamplifikation (1)
- Genexpression (1)
- Gewichtung (1)
- Glasfaser (1)
- Glioblastom (1)
- Glutathion (1)
- Glättung (1)
- Glättungsparameterwahl (1)
- Gruppenoperation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Hand (1)
- Hand-Arm-System (1)
- Hankel matrix (1)
- Harmonische Spline-Funktion (1)
- HeLa-Zelle (1)
- Heavy-tailed Verteilung (1)
- Heston model (1)
- Heterogene Katalyse (1)
- High-Spin-Komplexe (1)
- Hochdrucktechnik (1)
- Hochschild homology (1)
- Hochschild-Homologie (1)
- Homologietheorie (1)
- Hub-and-Spoke-System (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- Humangenetik (1)
- Hybridregler (1)
- Hydratation (1)
- Hydrogen Bonding (1)
- Hydrokracken (1)
- Hydrostatischer Druck (1)
- Hämodialyse (1)
- Hörgerät (1)
- Immobilienaktie (1)
- Immunofluoreszenzmikroskopie (1)
- Implantation (1)
- Incommensurate Structure (1)
- Indexierung <Inhaltserschließung> (1)
- Informatik (1)
- Infrared Multiphoton Dissociation Spectroscopy (IR-MPD) (1)
- Infrarotspek (1)
- Instrumente (1)
- Integer programming (1)
- Interaktion (1)
- Interaktionsgerät (1)
- Interaktionsmodell (1)
- Interferenz (1)
- Inverse problems in Banach spaces (1)
- Ionensolvatation (1)
- Joint Transmission (1)
- Katalytische Iso (1)
- Kernschätzer (1)
- Klebstoff (1)
- Knowledge Extraction (1)
- Koexpression (1)
- Kohlenstofffaser (1)
- Komplexchemie (1)
- Kooperation (1)
- Koordinatengeber (1)
- Kopula <Mathematik> (1)
- Kraftregelung (1)
- Kreditrisiko (1)
- Kristallographie (1)
- Kunststoffeinfärbung (1)
- Kühlturm (1)
- L-curve Methode (1)
- Label correcting algorithm (1)
- Label setting algorithm (1)
- Lagrangian relaxation (1)
- Lavrentiev regularization for equations with monotone operators (1)
- Layout (1)
- Leukämie (1)
- Lineare Elastizitätstheorie (1)
- Lipidperoxidation (1)
- Locally Supported Radial Basis Functions (1)
- Logiksynthese (1)
- Luftfahrtindustrie (1)
- MFC-Knochennagel-Implantat (1)
- MO-Theorie (1)
- MS-Klebstoff (1)
- MS-Polymers (1)
- MYC (1)
- Malondialdehyd (1)
- Manipulation skills (1)
- Mapping (1)
- Marktrisiko (1)
- Martingaloptimalitätsprinzip (1)
- Mastoid (1)
- Mastoidektomie (1)
- Material-Force-Method (1)
- Maus <Datentechnik> (1)
- Mehrkriterielle Optimierung (1)
- Mensch (1)
- Metallocene (1)
- Methotrexat (1)
- Mikrobiegeversuch (1)
- Model checking (1)
- Modellbildung (1)
- Modulraum (1)
- Molekularsieb (1)
- Molekülorbital (1)
- Mostkonzentrierung (1)
- Multicriteria decision making (1)
- Multidrug-Resistenz (1)
- Multiple criteria analysis (1)
- Multiresolution Analysis (1)
- Multisresolution Analysis (1)
- Multivariate Wahrscheinlichkeitsverteilung (1)
- Naturstoffverteilung (1)
- Navier-Stokes (1)
- Network flows (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Nichtparametrische Regression (1)
- Nierenversagen (1)
- Nonlinear Regression (1)
- Nonlinear multigrid (1)
- Nonparametric time series (1)
- Numerische Strömungssimulation (1)
- Oberflächenmaße (1)
- Oberflächenproteine (1)
- Oberflächenvorbehandlung (1)
- Ohrenchirurgie (1)
- Onkogen (1)
- Option pricing (1)
- Optionsbewertung (1)
- Optionspreistheorie (1)
- Organisches Pigment (1)
- Organometallcluster (1)
- Oxidativer Stress (1)
- Ozon (1)
- P-Glykoprotein (1)
- PI-Regler (1)
- Paramecium primaurelia (1)
- Parser (1)
- Peng-Robinson-EoS (1)
- Permutationsäquivalenz (1)
- Phase Transition (1)
- Phasengleichgewicht (1)
- Phasenumwandlung (1)
- Phenylalanin (1)
- Phosphaalkin (1)
- Phosphatasen (1)
- Phosphor (1)
- Phosphor-Phosphor-Bindung (1)
- Photochemischer Smog (1)
- Pigment (1)
- Plastizitätstheorie (1)
- Polyhedron (1)
- Polymere (1)
- Polymorphismus (1)
- Polyphosphol (1)
- Portfolio-Optimierung (1)
- Poröser Stoff (1)
- Prepregtechnologie (1)
- Produktion (1)
- Propanole (1)
- Protonentransfer (1)
- Quantile autoregression (1)
- Quasi-identities (1)
- RTL (1)
- Reflection (1)
- Regler (1)
- Reglerentwurf (1)
- Regularisierung (1)
- Regularität (1)
- Relationales Datenbanksystem (1)
- Rhodium (1)
- Riemannian manifolds (1)
- Riemannsche Mannigfaltigkeiten (1)
- Risiko (1)
- Risikomanagement (1)
- Roboter (1)
- Robotics (1)
- Ruß / Anorganisches Pigment (1)
- Röntgenstrukturanalyse (1)
- SAX2 (1)
- SIMPLE (1)
- SWARM (1)
- Sandwichverbindung (1)
- Satellitengeodäsie (1)
- Scale function (1)
- Schadensmechanik (1)
- Schalenringelement (1)
- Schaltwerk (1)
- Schädelchirurgie (1)
- Sendesignalverarbeitung (1)
- Sendesignalvorverarbeitung (1)
- Sepsis (1)
- Serotyp (1)
- Serotyptrandformation (1)
- Shallow Water Equations (1)
- Sicherheit (1)
- Signaltransduktion (1)
- Silicones (1)
- Silikonklebstoff (1)
- Singly Occupied Molecular Orbital (SOMO) (1)
- Softwareergonomie (1)
- Sommersmog (1)
- Spherical (1)
- Spherical Wavelets (1)
- Spline-Approximation (1)
- Stahlbeton (1)
- Stein equation (1)
- Stochastische Processe (1)
- Stratifaltigkeiten (1)
- Support-Vektor-Maschine (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- System-on-Chip (1)
- T-Lymphozyt (1)
- Tail Dependence Koeffizient (1)
- Tetrahedran (1)
- Tripeldeckerkomplexe (1)
- Triphosphol (1)
- Tumor (1)
- Umkehrosmose (1)
- Vakuumverdampfung (1)
- Value at Risk (1)
- Vektorkugelfunktionen (1)
- Vektorwavelets (1)
- Verifikation (1)
- Vorverarbeitung (1)
- Wasserstoffbrückenbindung (1)
- Wavelet-Theorie (1)
- Wavelet-Theory (1)
- Wein (1)
- Wirbelabtrennung (1)
- Wirbelströmung (1)
- Wässrige Lösung (1)
- XML (1)
- Zeitreihen (1)
- Zellulares Mobilfunksystem (1)
- Zentralnervensystem (1)
- Zeolith M41S (1)
- Zeolith Y (1)
- Zeolith ZSM12 (1)
- Zuckertransporter (1)
- Zugesicherte Eigenschaft (1)
- Zyklische Homologie (1)
- abgeleitete Kategorie (1)
- adaptive Antennen (1)
- adaptive antennas (1)
- adaptive local refinement (1)
- adaptive refinement (1)
- adaptive triangulation (1)
- adhesive bonding (1)
- algebraic geometry (1)
- aluminium (1)
- archimedean copula (1)
- asian option (1)
- associated Legendre functions (1)
- asymptotic homogenization (1)
- automated analog circuit design (1)
- basel (1)
- basket option (1)
- batch presorting problem (1)
- batteries (1)
- battery management (1)
- behavioral modeling (1)
- bills of material (1)
- bills of materials (1)
- bitvector (1)
- bounded model checking (1)
- circuit sizing (1)
- cliquet options (1)
- clustering and disaggregation techniques (1)
- competetive analysis (1)
- computer algebra (1)
- concentration of musts (1)
- conditional quantiles (1)
- consecutive ones property (1)
- controllership (1)
- controlling (1)
- cooling tower (1)
- coupled flow in plain and porous media (1)
- cyclic homology (1)
- cyclic nucleotide phosphodiesterase (1)
- decision support systems (1)
- deformable objects (1)
- derived category (1)
- design automation (1)
- dif (1)
- discrete facility location (1)
- discrete location (1)
- durability (1)
- efficient set (1)
- elasticity problem (1)
- elliptical distribution (1)
- epoxy (1)
- estimate (1)
- estimator (1)
- evolutionary algorithms (1)
- experiment (1)
- expert system (1)
- fatigue (1)
- fiber orientation (1)
- fibre damage (1)
- fibre strength (1)
- flavour (1)
- flood risk (1)
- force control (1)
- force following (1)
- forward starting options (1)
- fuzzy logic (1)
- genetic algorithms (1)
- geomagnetism (1)
- glioblastoma (1)
- global pressure (1)
- gravimetry (1)
- gravitational field recovery (1)
- group action (1)
- harmonic density (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hybrid control (1)
- hyper-quasi-identities (1)
- hypergeometric functions (1)
- hyperquasivarieties (1)
- incident wave (1)
- incompressible flow (1)
- injection molding (1)
- integer programming (1)
- interactive navigation (1)
- kernel estimate (1)
- knowledge management (1)
- knowledge representation (1)
- kraftbasiertes Führen (1)
- langfaserverstärkte Polymere (1)
- layout (1)
- lid-driven flow in a (1)
- liquid-liquid-extraction of natural products (1)
- logic synthesis (1)
- logistics (1)
- macro modeling (1)
- martingale optimality principle (1)
- mastoid (1)
- mastoidectomy (1)
- mathematica education (1)
- mechanische Eigenschaften (1)
- micro-bending test (1)
- mobile radio systems (1)
- model (1)
- model reduction (1)
- moduli space (1)
- multi-user detection (1)
- multigrid methods (1)
- multileaf collimator (1)
- multiphase mixture model (1)
- multiscale modeling (1)
- multiscale structures (1)
- multivariate chi-square-test (1)
- nahekritischer Zustandsbereich (1)
- near-critical ethene+water+propanol (1)
- nichtparametrisch (1)
- non-Newtonian flow in porous media (1)
- non-commutative geometry (1)
- non-local conditions (1)
- non-parametric regression (1)
- nonlinear term structure dependence (1)
- nonparametric (1)
- oil filters (1)
- online optimization (1)
- option pricing (1)
- otorhinolaryngological surgery (1)
- parameter choice (1)
- pigments (1)
- polynomial algorithms (1)
- portfolio-optimization (1)
- preprocessing (1)
- pressure correction (1)
- project management and scheduling (1)
- projection-type splitting (1)
- property cheking (1)
- quantile autoregression (1)
- quasi-P (1)
- quasi-SH (1)
- quasi-SV (1)
- quasivarieties (1)
- radiation therapy (1)
- real-life applications. (1)
- received signal processing (1)
- refraction (1)
- regularity (1)
- reinforced concrete (1)
- reinforced plastics (1)
- representative systems of Pareto solutions (1)
- reverse osmosis (1)
- ring element (1)
- risikohandling (1)
- risk (1)
- safe human robot coexistence (1)
- safe human robot cooperation (1)
- satisfiability (1)
- scaling functions (1)
- sequential circuit (1)
- set covering (1)
- sheaf theory (1)
- singular spaces (1)
- singularity (1)
- singuläre Räume (1)
- software development (1)
- spherical splines (1)
- stability (1)
- stochastic processes (1)
- stochastic volatility (1)
- stop location (1)
- strategic (1)
- strength (1)
- structural dynamics (1)
- subgradient (1)
- sugar transporter (1)
- summer smog (1)
- supply chain management (1)
- surface measures (1)
- surface pre-treatment (1)
- symbolic analysis (1)
- symmetry (1)
- system simulation (1)
- tail dependence coefficient (1)
- taktile und haptische Wahrnehmung (1)
- technology mapping (1)
- thermoplastische Halbzeuge (1)
- toric geometry (1)
- torische Geometrie (1)
- trasmit signal processing (1)
- triclinic medium (1)
- uniform consistency (1)
- vacuum distillation (1)
- value-at-risk (1)
- variable neighborhood search (1)
- various formulations (1)
- vector spherical harmonics (1)
- vectorial wavelets (1)
- verification (1)
- vertical velocity (1)
- vertikale Geschwindigkeiten (1)
- visual (1)
- visual interfaces (1)
- vortex seperation (1)
- wine (1)
- Überflutung (1)
- Überflutungsrisiko (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (1)
- Universität (1)
- Universitätsbibliothek (1)
Die effektive Nutzung der attraktiven Materialeigenschaften von Verbundwerkstoffen,
insbesondere die der langfaserverstärkten Polymere in Großserienbauteilen, macht
nicht nur die Entwicklung entsprechender Fertigungsverfahren sondern einhergehend
prognosefähige Berechnungsmethoden für Werkstoff und Bauweise notwendig.
Praxistaugliche Berechnungsmodelle beschränken sich in der Regel auf bewusst einfach
gehaltene analytische Modelle zur Grobdimensionierung oder auf Finite-Elemente-
Analysen. Letztere erlauben, lokale Konstruktionsaspekte darzustellen und
detaillierte Einsicht in das Strukturverhalten zu nehmen.
Am Beispiel von mit der Wickeltechnik hergestellter zylindrischer Vollkunststoff-
Druckbehälter wurden Auslegungsmethoden für unidirektional verstärkte FKV-Strukturen
erörtert, experimentell validiert und zusammen mit analytisch formulierten
Randbedingungen bzw. Modellen zu Geometrie, Werkstoff und Fertigung in ein vollparamtrisches,
dreidimensionales FE-Auslegungsmodul implementiert. Durch die
Auflösung der tragenden Tankstruktur in die einzelnen Wickellagen und der parametrischen
Variation von Lagenaufbau und Domgeometrie gestattet dieses eine effektive
Bauweisenoptimierung hinsichtlich Gewicht und Werkstoffausnutzung. Insbesondere
die neuartige, experimentell verifizierte Beschreibung der einzelnen Wickellagendicken
im Behälterdom erlaubt eine der Fertigung entsprechende, im jeweiligen
Wicklungslagenende wulstfreie Behältermodellgenerierung.
Gewebeverstärkte thermoplastische Halbzeuge können oberhalb ihrer Verformungstemperatur
wiederholt mittels Stempelumformprozess in aufeinander abgestimmten
Werkzeughälften umgeformt werden. Für eine effektivere Auslegung solcher Bauweisen
durch Verbesserung der Werkstoffmodellierung wird erstmalig die Prozesssimulation
mit der Strukturanalyse gekoppelt. Die hierfür entwickelte Schnittstelle vollzieht neben der Datenübersetzung die automatisierte Aufbereitung des Simulationsschalennetzes
zum voluminösen Strukturmodell nebst Modellbeschneidung und beinhaltet
erste Ansätze zur Abschätzung der Werkstoffkennwerte des infolge der Drapierung
nicht mehr orthogonal gewebeverstärkten FKV. Die Berücksichtigung von
Fadenorientierung, Dickenverteilung und auftretenden Falten durch Übertragung des
Simulationsnetzes erlaubt eine im Vergleich zum Stand der Technik realitätsnähere,
durch Bauteilprüfungen validierte Abbildung des mechanischen Strukturverhaltens.
The effective use of the attractive material properties of fiber reinforced plastics
(FRP), especially of long fiber reinforced polymers in mass production, requires an
advanced development of suitable manufacturing processes and prognostic design
and analysis methods for the material and structural behavior. This paper resulted
out of two research projects, accompanied by industrial, close to series development
tasks. The objective was to increase the efficiency of the material, structure and
manufacturing aspects of the prototype development through improved modeling
methods in analysis and simulation in close relationship with the design, material
development and testing facilities.
Mass production capability of thermoforming processing in combination with weight
saving potentials on the one hand and thermal and electrical insulation advantages of
thermoplastics in comparison to steel on the other hand was the motivation for the
development of a safety toe cap for safety shoes made of canvas reinforced thermoplastics.
An innovative analysis method for structures made of canvas reinforced
plastics which was initiated by this development program focus on a realistic
reproduction of the non-orthogonal fiber reinforcement of the woven fabric after the
thermoforming process. Canvas reinforced thermoplastics can be simplified as an
alignment of small unidirectional fiber reinforced sections in weft and warp direction.
The underlying design theories for unidirectional FRP were rehashed and advanced
in the framework of a full plastic high pressure vessel development program. To
improve the effectiveness of the pressure vessel design work, the mentioned design
theories and further specific manufacturing models were implemented in an innovative,
full-parametric design module validated by burst pressure vessel tests.
Of importance for the dimensioning and wide application of FRP-structures is the
ability to forecast the material behavior, particularly with regard to the frequent lack of measured material properties in practical design work. The conceptual formulation
was augmented for the quality assessment of the accomplished design work with a
systematic evaluation of the most well known estimations in regards to stiffness and
strength properties of unidirectional and canvas reinforced plastics. For non-orthogonal
canvas reinforced FRP, as in case of thermoformed components, no appropriate material model is available. A relative easy handling material model for orthogonal
canvas reinforced FRP known in literature was augmented to non-orthogonal.
This paper is not dealing with lightweight construction methods but in fact with the
objective to improve the praxis relevant design methods of unidirectional and bidirectional
fiber reinforced plastics; i.e. including estimations for material properties
and manufacturing influences.
The fundamentals of the presented analyses are the consideration of fiber orientation
and ply thickness close to reality by analytical models implemented in the FEA like
the description of the fiber deposition in a filament winding process.
A significant improvement of the design and analyses methods for unidirectional FRP
exemplarity in the case of high pressure vessels made of full plastic has been done
by the comprehension of relevant manufacturing parameters, especially through the
improved description of the ply thickness in the vessel domes. This was achieved by
combining two models, each separately known in literature, to level the bulges at the
end of each ply due to increasing fiber coverage and their mathematical description.
This leveling meets the practical corrections that also have to be done in a filament
winding program in the manufacturing process. Validating measurements on pressure
vessel prototypes were performed and showed excellent accordance.
Beyond it, the developed parametric FE analysis tool for cylindrical pressure vessels
produced with the filament winding technique enables a time efficient design optimization vessels in the analysis tool were set back to future work due to the unsufficient amount of vessel tests and for the benefit of a challenging design
analysis concept for canvas reinforced FRP.
For thermoformed canvas reinforced FRP the fiber orientation and play thickness can
be determined by process simulation. Interfaces to the structural analysis that particularly
include the theoretical estimation of material properties and the material
modeling are not available in the commercial market. Hence, even the structural
analysis of such constructions can not be assumed to be state of the art. Previous
analyses of thermoformed constructions depend on material isotropy or neglect the
canvas shearing during draping; i.e. the thermoformed woven fabric material is
modeled with orthogonal fiber orientation and constant ply thickness. The objective of
this paper is to combine forming simulation and structural analysis in a way, that
beside the pure data translation, the interface performs an automated transformation
of the shell based process simulation FE net to a volumetric structure model including
the model trimming and the estimation of the non-orthogonal material properties.
The consideration of fiber orientation, thickness distribution and eventually occurring
crinkles transferred with the FE net of the process simulation into the structural
analysis allows a much more reliable reproduction of the mechanical structure behavior
as in comparison to the traditional state of the art analysis which has been
validated by extensive prototype tests.
The static, non-linear analysis of the toe cap made of canvas reinforced thermoplastic
is accompanied by very successful prototype tests, which in turn pushed this
toe cap design ahead. This series are closely linked to material development, as well
as new manufacturing technology.
and analysis because of it's automated model generation. The analysis or
evaluation of variants of the load bearing FRP lay-up, the influence of different valve
geometry and dome contours necessitates now solely the modification of the input
parameters.
For a specific forecast of the achievable burst pressure of a pressure vessel design
additional work has to be done. A degradation model has to be implemented in the
analysis tool to evaluate the increasing local ply failures until the vessel burst. The
main objective for the unidirectional FRP essay of the paper was to improve the
model generation and to increase the time effectiveness of the design analysis,
which has been achieved. The originally planed implementation of a strength evaluation
of pressure
Die enorme Reaktivität des Tetrahedrans [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) konnte durch die Komplexierung eines der beiden Phosphoratome mit dem 16VE-Übergangsmetall-Fragment {W(CO)5}herabgesetzt werden. Die Oxidation von [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) mit Schwefel und Selen führt bereits bei Raumtemperatur zu den pseudo-Tripeldeckerkomplexen vom Typ [{Cp'''Fe}2(µ-eta4:4-P2X2)] (2,3) mit einem P2X2-Mitteldeck (X = S, Se). Die vier Hauptgruppenelemente liegen als trapezoid angeordnete Kette vor (RSA), ähnlich der P4-Kette in den Komplexen vom Typ [{CpRFe}2(µ-eta4:4-P4)] (4). Unter Photolyse-Bedingungen erhält man durch Abspaltung der verbrückenden CO-Gruppe aus 1 den bereits von Eichhorn [11,38] charakterisierten Bicyclus [{Cp'''Fe}2(µ-P)2] (5), der in situ mit Schwefel und Selen zu den selben Oxidationsprodukten 2 beziehungsweise 3 reagiert (vgl. voranstehend). Die Komplexierung beider Phosphoratome in den pseudo-Tripeldeckerkomplexen 2 und 3 mit [W(CO)6] ist möglich, wobei die einfach komplexierte Verbindung [{Cp'''Fe}2(µ3-eta4:4:1-P2X2){W(CO)5}] (6,7) (X = S, Se) die P2X2-Struktureinheit des Eduktes beibehält, wäh-rend bei der Zweifachkomplexierung ein stark verzerrtes trigonales Prisma entsteht. Die beiden {W(CO)5}-Fragmente sind in [Cp'''2Fe2P2X2{W(CO)5}2] (8,9) (X = S, Se) symmetrisch an dieses Polyedergerüst koordiniert. Im Fall des Selens entsteht noch eine dritte Verbindung, deren zentrales Strukturelement ein P2Se2Fe-Fünfring ist, in welchem das Fe-Atom etwas nach unten abknickt und neben einem η5-koordinierten Cp'''-Ring eine terminale CO-Bindung aufweist. In Verbindung [Cp'''Fe(µ4-eta4:2:1:1-P2Se2)Fe(CO) Cp'''{W(CO)5}2] (10) sind die beiden Phosphoratome zusätzlich komplexiert. Die Langzeitthermolyse des [{In''(OC)2Fe}2(µ-eta1:1-P4)]-Butterfly-Komplexes (11) mit dem zweikernigen [{Cp'''Fe(CO)2}2] (12) liefert drei pseudo-Tripeldeckerkomplexe [{Cp'''Fe}2(µ-eta4:4-P4)] (4a), [{In''Fe}2(µ-eta4:4-P4)] (4b) und [{Cp'''Fe}{In''Fe}(µ-eta4:4-P4)] (4c). Bei der Umsetzung des Cp'''-Derivates 4a mit [W(CO)6] können zwei strukturisomere Komplexierungsprodukte 31P-NMR-spektroskopisch nachgewiesen werden. Durch fraktionierende Kristallisation gelangt man zu einer analysenreinen Substanz, die röntgenstrukturanalytisch als der alternierend koordinierte Komplex [{Cp'''Fe}2(µ4-eta4:4:1:1-P4){W(CO)5}2] (13) charakterisiert werden kann. Bei dem Versuch, ein Ruthenium-Dimer vom Typ [{CpRRu(CO)2}2] (14) mit dem Tri-tert-butyl-Cyclopentadienylliganden zu synthetisieren, erhält man nur Verbindung [{Cp'''Ru}2(µ-CO)(µ-O)] (15), dessen thermische Umsetzung mit weißem Phosphor zu einem weiteren pseudo-Tripeldeckerkomplex [{Cp'''Ru}2(µ-eta4:4-P4)] (16) mit einem P4-Mitteldeck führt.
Bei diskontinuierlich faserverstärkten Kunststoffen kann sowohl während des Compoundierens wie auch bei der Verarbeitung zum Fertigteil, durch Wechselwirkung zwischen den Fasern, der Fasern mit Maschinenkomponenten oder auch mit Zusatzstoffen (beispielsweise Farbpigmenten) eine Faserschädigung auftreten. Diese Interaktionen zeigen sich deutlich in der Abnahme der im Bauteil vorhandenen mittleren Faserlänge. Eine Überprüfung der Faserfestigkeit war bisher, auf Grund fehlender geeigneter Prüfmethoden bei den geringen Schlankheitsgraden bereits verarbeiteter Fasern, nicht oder nur eingeschränkt möglich. Mit einem am Lehrstuhl RPE entwickelten Mikrofaserbiegeversuch gelingt es, die Einzelfaserfestigkeit experimentell zu bestimmen. Dies bietet somit die Möglichkeit, das Schädigungsverhalten der meist spröden und kerbempfindlichen Fasermaterialien über die Verarbeitung hinweg zu untersuchen und zu quantifizieren. Da die (Rest-)Faserfestigkeit in diskontinuierlich verstärkten Bauteilen nun bestimmt werden kann, ist eine Lücke bei Berechnungen geschlossen, und das Wissen über Wirkzusammenhänge der Faserschädigung wird erweitert. Aufbau der Arbeit: In den Vorbetrachtungen zu dieser Arbeit werden zunächst kurz die Grundzusammenhänge zur Steifigkeits- und Festigkeitssteigerung der diskontinuierlich faserverstärkten Kunststoffe angesprochen und anschließend bestehende Modellvorstellungen zur Faserverstärkung bei Kunststoffen vorgestellt. Nachdem der Wissensstand zu bestehenden Messtechniken der mechanischen Fasercharakterisierung aufgezeigt ist, wird die entwickelte Messmethode des Dreipunktbiegeversuchs zur Faserfestigkeitsbestimmung ausführlich vorgestellt und deren Möglichkeiten und Einschränkungen diskutiert. Es folgt die Erläuterung der Notwendigkeit und der Vorgehensweise der statistischen Absicherung von Kennwerten spröder Verstärkungsfasern sowie die Vorgehensweise der Kennwertumrechnung auf reale Belastungen. Den Hauptteil bilden die einzelnen Untersuchungen mit jeweils anschließender Diskussion und Zusammenfassung. Abschließend werden die Ergebnisse der Arbeit in einer ausführlichen Zusammenfassung erläutert. Durchgeführte Untersuchungen: Ein Schwerpunkt der Arbeit bildet die Überprüfung des Einflusses von Farbpigmenten, welche zur Einfärbung technischer Kunststoffe verwendet werden, auf die Eigenschaften diskontinuierlich kurz- und langfaserverstärkter Thermoplaste und BMC. Die Literatur beschreibt diesen Sachverhalt der teilweise drastischen Festigkeits- und Zähigkeitsminderung bei Einfärbung von FKV nur phänomenologisch oder führt die Effekte alleinig auf Wechselwirkungen Pigment/Matrix zurück, wobei dies zu einem unvollständigen und zumindest teilweise auch falschen Bild der Wirkzusammenhänge führt. Der Schädigungsverlauf der Fasern bei Einfärbung mit Pigmenten, deren Härte über der des Faserwerkstoffs liegt, wird quantitativ über die Verarbeitungsschritte hinweg bis zum Prüfkörper dargestellt. Durch die Kenntnis der Faserschwächung in Verbindung mit dem verarbeitungsbedingt nun verstärkten Faserbruch kann der Verlust an Verbundeigenschaften erklärt werden. Über die Vielzahl der Untersuchungen gelingt es, die Wirkzusammenhänge empirisch zu beschreiben und Erklärungsansätze zu geben. Dabei wurden die Messreihen systematisch aufeinander aufbauend durchgeführt und Zusammenhänge herausgearbeitet. Zwar sind die Untersuchungen oft grundsätzlichen Charakters und dienen eher der Evaluierung einer Vorstellung zum Schädigungsverlauf, dennoch wurde auf die Anwendungsbezogenheit Wert gelegt. Die Kenntnis der grundlegenden Wirkzusammenhänge bietet die Möglichkeit, Regeln und Maßnahmen zur Vermeidung übermäßiger Faserschädigung bei der Kunststoffeinfärbung abzuleiten. Ergebnisse werden beispielhaft an Rechnungen, die sich an bestehenden Modellen zu Festigkeit und Energieaufnahme der diskontinuierlich faserverstärkten Kunststoffe orientieren, überprüft und diskutiert. Grundlage ist hierbei die Bruchfestigkeit der Faser bei Zugbelastung. Da die an Einzelfasern durchgeführten Biegeversuche „nur“ Biegebruchspannungen ergeben, wird ein Verfahren beschrieben, mit dem es gelingt, von gegebenen Biegefestigkeiten in entsprechende Zugfestigkeiten umzurechnen. Der Zusammenhang wird über die effektiv belastete Faseroberfläche im Mikrobiegeversuch gegenüber der entsprechenden Fläche bei Zugbelastung geliefert. Basis der statistischen Kennwertberechnung ist hierbei die Weibullverteilung. Sie liefert eine exponentielle Verteilungsfunktion der Festigkeiten spröder Werkstoffe und ist auch für die Betrachtung der überwiegend behandelten Glasfilamente gut geeignet. Nach dem Prinzip „des schwächsten Gliedes“ geht demnach das Versagen des beobachteten Volumens vom größten Defekt innerhalb desselben aus. Voraussetzung der Anwendbarkeit ist hierbei, dass der Bruch des Materials von statistisch homogen verteilten Defekten einer Art ausgeht und nur Zugversagen auftritt (die homogene Defektverteilung bietet die Grundlage der Übertragung auf das Bauteil und damit das größere Volumen). Weitere Untersuchungen liefern Beiträge zum Recycling faserverstärkter Kunststoffe. So wird der hydrolytische Faserfestigkeitsabbau bei Kühlerwasserkästen aus PA6-GF35 betrachtet und eine Untersuchung der Faserfestigkeit nach dem SMC-Recycling (Partikelrecyclingverfahren) vorgestellt.
The thesis is concerned with the modelling of ionospheric current systems and induced magnetic fields in a multiscale framework. Scaling functions and wavelets are used to realize a multiscale analysis of the function spaces under consideration and to establish a multiscale regularization procedure for the inversion of the considered operator equation. First of all a general multiscale concept for vectorial operator equations between two separable Hilbert spaces is developed in terms of vector kernel functions. The equivalence to the canonical tensorial ansatz is proven and the theory is transferred to the case of multiscale regularization of vectorial inverse problems. As a first application, a special multiresolution analysis of the space of square-integrable vector fields on the sphere, e.g. the Earth’s magnetic field measured on a spherical satellite’s orbit, is presented. By this, a multiscale separation of spherical vector-valued functions with respect to their sources can be established. The vector field is split up into a part induced by sources inside the sphere, a part which is due to sources outside the sphere and a part which is generated by sources on the sphere, i.e. currents crossing the sphere. The multiscale technqiue is tested on a magnetic field data set of the satellite CHAMP and it is shown that crustal field determination can be improved by previously applying our method. In order to reconstruct ionspheric current systems from magnetic field data, an inversion of the Biot-Savart’s law in terms of multiscale regularization is defined. The corresponding operator is formulated and the singular values are calculated. Based on the konwledge of the singular system a regularzation technique in terms of certain product kernels and correponding convolutions can be formed. The method is tested on different simulations and on real magnetic field data of the satellite CHAMP and the proposed satellite mission SWARM.
In this paper, the reflection and refraction of a plane wave at an interface between .two half-spaces composed of triclinic crystalline material is considered. It is shown that due to incidence of a plane wave three types of waves namely quasi-P (qP), quasi-SV (qSV) and quasi-SH (qSH) will be generated governed by the propagation condition involving the acoustic tensor. A simple procedure has been presented for the calculation of all the three phase velocities of the quasi waves. It has been considered that the direction of particle motion is neither parallel nor perpendicular to the direction of propagation. Relations are established between directions of motion and propagation, respectively. The expressions for reflection and refraction coefficients of qP, qSV and qSH waves are obtained. Numerical results of reflection and refraction coefficients are presented for different types of anisotropic media and for different types of incident waves. Graphical representation have been made for incident qP waves and for incident qSV and qSH waves numerical data are presented in two tables.
Die Tyrosinphosphorylierung von Proteinen ist ein wichtiges Schlüsselelement bei der Regulation zellulärer Signalwege und wird durch antagonistisch wirkende Proteintyrosin-kinasen und Proteintyrosinphosphatasen in einem dynamischen Gleichgewicht gehalten. Trotz der Erkenntnis, dass Phosphatasen an der Regulation essentieller zellulärer Vorgänge beteiligt sind, ist über die Funktion und Regulation individueller Phosphatasen nur wenig bekannt. In der vorliegenden Arbeit sollte die physiologische Rolle der Proteintyrosinphosphatase BDP1 untersucht werden. Einen Schwerpunkt bildete hierbei die Negativregulation der Rezeptortyrosinkinase HER2 sowie der HER2-vermittelten Signaltransduktion durch BDP1. Es konnte gezeigt werden, dass die Überexpression von BDP1 die Liganden-induzierte Tyrosinphosphorylierung von HER2 und des Adaptorproteins Gab1 inhibierte und die Aktivierung von MAP-Kinasen reduzierte. Dagegen erhöhte die Unterdrückung der endogenen BDP1-Expression den Phosphorylierungsstatus von HER2. Die Koexpression von BDP1 und HER2 in Brustkrebszelllinien sowie die Assoziation von HER2 mit einer Substrat-bindenden Mutante von BDP1 deuten zusätzlich darauf hin, dass BDP1 ein Regulator der Aktivität von HER2 ist und damit die erste Phosphatase, die mit der Kontrolle des HER-Signals in Verbindung gebracht wird. Weiterhin wurde die BDP1-Expression während der schwangerschaftsinduzierten Differenzierung der murinen Brustdrüse analysiert. Die Untersuchungen zeigten, dass BDP1 in duktalen und alveolaren Brustepithelzellen exprimiert wird. Die Expression der Phosphatase konnte während der Differenzierung der Brustepithelzelllinie HC11 durch Prolaktin und Dexamethason induziert werden. Zusammen mit der Existenz von Stat5- und Glukokortikoidrezeptor-Bindestellen in der Promotorregion von bdp1 sowie der verminderten Expression der Phosphatase im Brustgewebe Stat5-defizienter Mäuse weist dies auf eine Expressionskontrolle des BDP1-Gens durch Schwangerschaftshormone hin und suggeriert eine Rolle der Phosphatase im Differenzierungsprozess der Brustdrüse. Im letzten Teil der Arbeit wurde die Bindung von BDP1 an das Adaptorprotein Grb2 untersucht. Es konnte gezeigt werden, dass die Interaktion zur Hyperphosphorylierung der Phosphatase führte. Dies konnte zumindest teilweise auf eine Grb2-vermittelte Wechselwirkung von BDP1 mit der Tyrosinkinase c-Abl zurückgeführt werden. Zusammengenommen liefern die vorgestellten Ergebnisse neue Daten zur Funktion, Expression und Regulation von BDP1 und tragen entscheidend zur Charakterisierung der biologischen Funktion dieser Phosphatase bei.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
Ziel dieser Arbeit war es, die Rolle der PDE1C-Isoform in ZNS-Zellen zu untersuchen. Es sollte vor allem die Bedeutung der PDE1C als mögliches Target für die anti-neoplastische Therapie von ZNS-Tumoren näher beleuchtet werden. Die humanen Glioblastomzellinien SNB75, SF295, SF539 und SF268 wurden bezüglich ihrer PDE1- und PDE4-Isoenzymausstattung näher charakterisiert. Es zeigte sich, daß die Zellinien SNB75 und SF295 in ihrem PDE-Expressionsmuster sehr unterschiedlich sind: In der Zellinie SNB75 liegt die cAMP-hydrolytische Aktivität deutlich über jener in SF295-Zellen. Darüber hinaus weisen die SNB75-Zellen einen hohen Anteil Ca2+/CaM-stimulierbarer PDE1-Aktivität bei niedriger PDE4-Aktivität auf. Im Gegensatz dazu zeigt die Zellinie SF295, welche keine Ca2+/CaM-stimulierbare PDE-Aktivität besitzt, einen hohen prozentualen Anteil an Rolipram-hemmbarer PDE4-Aktivität. Darüber hinaus verhalten sich die beiden Zellinien auch bezüglich ihrer Gehalte an den „second messengern“ cAMP und cGMP komplementär. In den SNB75-Zellen ist der cAMP-Spiegel etwa um 2/3 niedriger als in den SF295-Zellen; der cGMP-Spiegel ist etwa doppelt so hoch wie der cAMP-Gehalt. In SF295-Zellen hingegen liegt der Gehalt an cGMP um etwa die Hälfte niedriger als der cAMP-Spiegel und ist somit vergleichbar mit dem cGMP-Gehalt der SNB75-Zellen. Auch die intrazelluläre Konzentration von Ca2+ ist in der Zellinie SNB75 höher als in SF295-Zellen. Die Untersuchung ausgelöster Ca2+-Transienten – mit besonderem Augenmerk auf den capacitativen Ca2+-Einstrom (CCE) – ergab, daß in SNB75-Zellen die Kapazität der intrazellulären Ca2+-Speicher und die Geschwindigkeit der Speicherentleerung größer sind als in SF295-Zellen. Auch der CCE ist in SNB75-Zellen größer als in der Zellinie SF295. An den beiden humanen Glioblastomzellinien SNB75 und SF295 wurden mittels Cytotoxizitätstests verschiedene PDE-Hemmstoffe auf ihr wachstumshemmendes Potential untersucht. Für den PDE4-Inhibitor DC-TA-46 konnte ein IC50-Bereich von 3-4.5 µM für die Hemmung des Zellwachstums ermittelt werden. Der als PDE1-Hemmstoff eingesetzte CaM-Antagonist Calmidazoliumchlorid wies einen IC50-Wert für die Wachstumshemmung von 2-3 µM auf. Ein Zusammenhang zwischen PDE1 bzw. PDE4-Expression der Zellinien und dem wachstumshemmenden Potential der eingesetzten Substanzen war nicht erkennbar. Zur weiteren Charakterisierung der Zellinie SNB75 wurden der Karyotyp und die Verdopplungszeit der Zellinie bestimmt. Weiterhin wurde die cDNA der PDE1C aus der humanen Biopsieprobe TB1365 (anaplastisches Astrocytom) kloniert und das rekombinante Protein transient überexprimiert. An der rekombinanten PDE1C wurden – neben der Stimulierbarkeit des Proteins durch Ca2+/CaM (+ 130 %) – die beiden PDE-Hemmstoffe DC-TA-46 und Vinpocetin getestet. Diese beiden Substanzen hemmten die Aktivität der rekombinanten PDE1C um durchschnittlich 42 % (DC-TA-46) bzw. 28 % (Vinpocetin). Ein in vitro-Tiermodell zur näheren Untersuchung der PDE-Ausstattung und cAMP-Homöostase von nicht-malignen ZNS-Zellen und Glioblastomzellen sollte aus subkultivierten Ratten-Astrocyten und der Ratten-Glioblastomzellinie C6 entwickelt werden. Die Untersuchungen der vorliegenden Arbeit zeigen, entgegen Daten für Keratinocyten (Marko et al., 1998), daß die PDE-Aktivität in nicht-malignen Ratten-Astrocyten deutlich höher liegt als in der Glioblastomzellinie C6. Die Ratten-Astrocyten zeigen eine höhere Ca2+/CaM-stimulierbare PDE1-Aktivität. In der Zellinie C6 hingegen ist der PDE4-Anteil im Vergleich zu Ratten-Astrocyten höher. Diese Ergebnisse werden durch RT-PCR-Versuche gestützt. Die Gehalte der „second messenger“ cAMP, cGMP und Ca2+ sind in nicht-malignen Ratten-Astrocyten und malignen C6-Zellen vergleichbar. Allerdings weisen die C6-Zellen einen größeren CCE auf. Der Einsatz von DC-TA-46 in Cytotoxizitätstests weist sowohl in Ratten-Astrocyten als auch in C6-Tumorzellen vergleichbare Hemmwirkungen (IC50-Wert ~ 1.5 µM) auf. Der CaM-Antagonist Calmidazoliumchlorid wirkt in subkultivierten Ratten-Astrocyten bereits in geringsten Konzentrationen wachstumshemmend; der IC50-Wert der Wachstumshemmung von C6-Zellen liegt bei 2.3 µM. Ergebnisse dieser Arbeit zeigen allerdings, daß das untersuchte Ratten-Zellmodell – auch aufgrund der unterschiedlichen Kulturbedingungen, welche die PDE-Expression beeinflussen – nur mit Einschränkungen einsetzbar ist. Aufgrund der aktuellen Daten scheint die PDE1C als Target für eine anti-neoplastischen Therapie von ZNS-Tumoren kaum geeignet. Der Vergleich von nicht-malignen und malignen ZNS-Zellen deutet eher auf eine „down“-Regulation der PDE1C und eine „up“-Regulation der PDE4 hin. Dies konnte sowohl in humanen als auch in Rattenzellen gezeigt werden und müßte in weiteren Untersuchungen vertiefend untersucht werden.
Der oxidative Stress wurde in Patienten mit unterschiedlichen Erkrankungen / Therapien nachgewiesen, bei denen ein erhöhter oxidativer Stress aus der Literatur zum Teil bereits bekannt ist,. Patienten mit chronischem Nierenversagen, die mit der Nierenersatztherapie Hämodialyse (HD) behandelt wurden, wurden sowohl vor als auch während der Behandlung untersucht und mit gesunden Probanden verglichen: Hierzu wurden die Konzentrationen von Harnsäure (photometrisch) und MDA im Plasma (HPLC / Fluoreszenz, Thiobarbitursäurederivat), sowie das Ausmaß des MDA-dG-Adduktes M1dG (Immunoslotblot) und (oxidativer) DNA-Schäden mit dem Comet Assay in Leukozyten untersucht. Der Gehalt an Glutathion wurde im Vollblut mit einem kinetischen, photometrischen Test bestimmt. Der Einfluss verschiedener Dialysemembranen und der Anämiebehandlung mit einem Eisen-Präparat auf den oxidativen Stress wurde mit den Markern oxidative DNA-Schädigung und MDA-Bildung im Plasma geprüft. Ein Faktor für die Biokompatibilität der speziell modifizierten MARS-Membran zur Therapie von Patienten mit akutem Leberversagen wurde mit der herkömmlicher Dialysemembranen mit Hilfe des Comet Assay verglichen. Das Ausmaß (oxidativer) DNA-Schäden durch das Nierenersatzverfahren Transplantation wurde dem der HD gegenübergestellt. In einer Pilotstudie wurde die antioxidative Wirksamkeit eines Mischfruchtsaftes an gesunden Probanden anhand der Endpunkte DNA-Schädigung und MDA-Bildung geprüft. Vor HD zeigte sich im Vergleich zu den gesunden Kontrollen ein starker oxidativer Stress in den Blutzellen, hauptsächlich auf DNA-Ebene. Während der HD wurde in den Blutzellen eine Belastung der antioxidativen Abwehr beobachtet, die sich aber weder auf DNA-Ebene noch in einer verstärkten LPO im Plasma äußerte. Die starke Elimination der Harnsäure wirkte sich ebenfalls nicht auf die anderen Marker im Plasma oder den Blutzellen aus. Somit hatte der Verlust der Harnsäure im Plasma keinen messbaren oxidativen Effekt. Die Untersuchung der oxidativen DNA-Schäden mit dem Comet Assay war der empfindlichste Marker zum Nachweis des oxidativen Stress. Die Untersuchung des Einflusses der Dialysemembran zeigte eine geringere Induktion von oxidativem Stress und damit eine höhere Biokompatibilität der synthetischen Polysulfonmembran (Fresenius F8) und der halbsynthetischen, Vitamin E-beschichteten Cellulosemembran (Terumo E15) im Vergleich zur halbsynthetischen, diacetylierten Cellulosemembran (Baxter DICEA170). Die Infusion eines Eisen-Präparates beeinflusste das Ausmaß der Plasma-MDA-Bildung und der oxidativen DNA-Schädigung stärker als die HD-Membran. Der oxidative Stress wurde bei diesen dialyseassoziierten Einflussfaktoren über unterschiedliche Wege ausgelöst: Die Eisen-Infusion kann über die Fentonreaktion die Generierung von ROS induzieren, die dann weitere Zellbestandteile – zuerst im Plasma, dann in den Leukozyten – schädigen. Die Dialysemembranen stimulieren die Leukozyten in unterschiedlichem Maße zur ROS-Produktion, die sich hauptsächlich auf Ebene der DNA auswirkt. Diese Ergebnisse bestätigten sowohl den in der Literatur beschriebenen erhöhten oxidativen Stress in HD-Patienten im Vergleich zu gesunden Probanden, als auch die modulierenden Eigenschaften der Dialysemembran und der Anämiebehandlung. Um die langfristige Konsequenz dieser dialysebedingten Einflüsse für die Folgeerkrankungen besser verstehen zu können, sollten sie in prospektiven Studien weiter untersucht und mit der Morbidität für Atherosklerose und Krebs korreliert werden. Die Membran der MARS-Therapie löste keine zusätzlichen oxidativen DNA-Schäden aus. Hier könnte der Comet Assay klinische prognostische / diagnostische Parameter ergänzen, was in weiteren Untersuchungen noch abgeklärt werden muss. Die Nierentransplantation verstärkte den oxidativen Stress im Vergleich zur Ersatztherapie HD. Die ersten Ergebnisse zeigten nach Intervention mit dem Mischfruchtsaft leicht verringerte oxidative DNA-Schäden. Diese Wirkung sollte an einem größeren Kollektiv mit verschiedenen Dosierungen überprüft werden. Zusammenfassend sind HD-Patienten eine Population, deren erhöhter oxidativer Stress mit unterschiedlichen Markern verfolgt werden kann. Erstmals wurde die besondere Eignung des Comet Assays zur Erfassung oxidativer DNA-Schäden in HD-Patienten nachgewiesen. Zwei Arten von oxidativen Ereignissen scheinen bei diesen Patienten eine Rolle zu spielen: ein latenter dialysemembranabhängiger, leukozytenvermittelter oxidativer Stress und eine aus den Eiseninfusionen resultierende Überlastung der antioxidativen Abwehr.
In der vorliegenden Arbeit wurde zunächst der potentielle Einfluss makroskopischer Oberflächentopographieunterschiede auf die Langzeitbeständigkeit geklebter Aluminiumverbunde untersucht. Fokussiert wurde hierbei auf die durch Vorbehandlungsverfahren induzierte Veränderung technischer Rauhigkeitsgrade sowie die damit einhergehende Vergrößerung der adhäsiv wirksamen Oberfläche. Die Trennung der sich infolge der eingesetzten Vorbehandlungsverfahren überlagernden Einflussfaktoren Oberflächentopographie und Oberflächenchemie konnte durch die Generierung unterschiedlicher Rauheitsgrade bei gleichzeitiger Nivellierung der chemischen Oberflächenzustände sichergestellt werden. Erreicht wurde dies durch einen chemisch einheitlichen, die Haftgrundvorbereitung abschließenden Nachbehandlungsprozess. Ein signifikanter Einfluss der im µm-Bereich detektierten, makroskopischen Topographieunterschiede auf die technischen Eigenschaften adhäsiv gefügter Aluminium-Epoxidharzverbunde kann ausgeschlossen werden. Die Resultate der Untersuchungen zur Wirkungsweise der durch Alterungssimulationen induzierten Schädigungsmechanismen zeigten, dass für eine sinnvolle Beurteilung der Langzeitbeständigkeit unterschiedlich vorbehandelter Aluminium-Epoxidharz-Klebungen die Anwendung einzelner, standardisierter Alterungstests oftmals nicht ausreicht. Die Auswirkungen der simulierten Alterungsprozesse auf die technischen Eigenschaften der geklebten Aluminiumverbunde sind sowohl abhängig von der Art, Dauer und Intensität der dominierenden Schädigungsmechanismen, als auch von den durch die jeweilige Vorbehandlung generierten Zuständen der Substratoberflächen. Die jeweilige Haftgrundvorbereitung hat somit einen erheblichen Einfluss auf die Sensitivität der Klebung gegenüber unterschiedlichen Alterungsprozessen. Die phänomenologischen Betrachtungen in Form der durchgeführten Festigkeitsuntersuchungen deuten an, dass die Kinetik der korrosiven Klebschichtunterwanderung weder von der Art des Epoxidharzsystems, noch von den Spezifikationen der im Rahmen dieser Untersuchungen verwendeten Aluminiumlegierungen maßgeblich abhängt. Die Sensitivität dieser Klebungen, insbesondere gegenüber korrosiven Schädigungsmechanismen, wird von den durch die Haftgrundvorbereitung generierten Oberflächenzuständen dominiert. Die Ergebnisse der parallel durchgeführten oberflächenanalytischen Untersuchungen lieferten zur Erklärung der phänomenologischen Resultate ein weitgehend uneinheitliches Bild. Lediglich anhand der Analysen zur submikroskopischen Morphologie unterschiedlich vorbehandelter Fügeteiloberflächen konnte eine Korrelation mit den phänomenologischen Untersuchungen zur Langzeitbeständigkeit geklebter Aluminium-Epoxidharz-Verbunde in korrosiven Medien hergestellt werden. Die daraus abgeleitete Hypothese hinsichtlich eines signifikanten Einflusses der "Nanomorphologie" von Fügeteiloberflächen auf die Kinetik der korrosiven Klebschichtunterwanderung wurde durch zusätzliche Untersuchungen überprüft und bekräftigt. Hierbei erwies sich der entwickelte beschleunigte Korrosionstest als durchaus nützlich, da die unterschiedlich vorbehandelten Klebungen im Vergleich zu dem wesentlich zeitintensiveren Salzsprühtest innerhalb relativ kurzer Zeit phänomenologisch vergleichbare Schadensbilder aufweisen. Das aus den vorliegenden Untersuchungen abgeleitete Erkärungsmodell baut auf der Theorie der oberflächengesteuerten, grenzschichtnahen Polymerbeeinflussung auf. Dieses Postulat der sich in Abhängigkeit des chemischen Oberflächenzustandes verändernden Polymerisationsgrade in der Interphase zwischen Festkörperoberfläche und Klebstoff wird erweitert um den Einfluss sogenannter Nanomorphologien, also einer in submikroskopischen Dimensionen vorliegenden Feinstrukturierung der Fügeteiloberfläche. Eine durch Festkörperoberflächen induzierte selektive Adsorption von Klebstoffbestandteilen, die Entstehung schwacher Polymerzonen (weak boundary layers) oder andere potentielle Heterogenitäten innerhalb der Adhäsionszone werden somit in Richtung Substratbulk verschoben. Anstatt einer scharf ausgeprägten Phasengrenze zwischen Polymer und Substratoberfläche entsteht somit eine Grenzzone, die aufgrund ihrer fein verteilten Zusammensetzung aus Oxid und Klebstoff zusätzlich Verbundwerkstoffeigenschaften aufweisen kann. Die Frage nach dem aus ingenieurwissenschaftlicher Sicht höchsten Effizienz von Wirkmechanismen bei der Oberflächenvorbehandlung zur Erzielung langzeitbeständiger Aluminiumklebungen wird hier - im Rahmen der in der vorliegenden Arbeit betrachteten Parameter und unter der Prämisse chemisch reaktiver Festkörperoberflächen - mit der Generierung dünner, nanoskopisch strukturierter Oberflächenmorphologien beantwortet.
Marker für oxidativen Streß in unterschiedlichen Testsystemen wurden etabliert bzw. entwickelt, um eine Schädigung durch Ozon in vitro und in vivo zu untersuchen. Durch den Plasmid-Relaxations-Assay wurde an isolierter Plasmid-DNA eine zeitabhängige Schädigung durch Ozon nachgewiesen. Das durch zusätzliche Inkubation mit Reparaturenzymen erhaltene Schadensprofil unterscheidet sich von bisher beschriebenen Profilen dahingehend, daß es überwiegend zur Induktion von FPG- und Endonuklease III sensitiven Läsionen kommt. Dies deutet auf eine Reaktion von Ozon per se in diesem Testsystem hin. An isolierten HL-60 Zellen, die gegenüber 8 mg/m³ Ozon für 30 min exponiert waren, wurde die Induktion von Strangbrüchen und FPG-sensitiven Läsionen mittels eines mit Reparaturenzymen modifizierten Comet-Assays nachgewiesen. Das Verhältnis zwischen Strangbrüchen und FPG-sensitven Läsionen betrug 1 : 2, was auch in diesem Testsystem auf die Reaktion von Ozon per se hindeutet. Zur Messung von 8-oxodG im Urin wurde eine Methode mit hoher Präzision (VK 3,5 % für Wiederholanalysen) entwickelt, welche auf Immunoaffinitätschromatographie am bisher für diesen Einsatz nicht beschriebenen Antikörper 1F7 kombiniert mit HPLC-ECD (Gradientenelution) basiert. Zur Validierung der Methode wurden Vergleichsmessungen im Rahmen eines internationalen Ringversuchs durchgeführt. Die Ergebnisse belegen die prinzipielle Vergleichbarkeit des hier beschriebenen Verfahrens mit LC-MS-MS, Carbon Column HPLC-ECD und ELISA, wobei es mit ELISA zu einer bis zu fünffachen Überschätzung der Meßwerte kam, die jedoch gut mit den anderen Methoden korrelierten. Zum Nachweis von 8-oxodG in DNA wurde eine Methode entwickelt, welche die Artefakt-bildung während der DNA-Isolierung mittels Isopropanolfraktionierung in Anwesenheit von NaI sowie während der DNA-Hydrolyse minimiert und die Quantifizierung mittels HPLC-ECD erlaubt. Die für humane Kontrollproben (Blut) erhaltenen Werte lagen in einer Größenordnung, welche auf Basis eines Vergleichs mit Daten aus einem internationalen Ringversuch die Richtigkeit der Werte belegt. Die Richtigkeit der chromatographischen Analysenergebnisse für 8-oxodG wurde durch Teil-nahme an einem internationalen Ringversuch mit Vergleichsmessungen von Standards gezeigt. Zum Nachweis von Malondialdehyd im Blutplasma wurde ein spezifisches Verfahren entwic-kelt, welches die Messung durch HPLC-FlD nach Derivatisierung mit Thiobarbitur-säure erlaubt. Um die Induktion von oxidativem Streß durch Ozon in vivo zu untersuchen, wurde ein Tierexperiment an Ratten durchgeführt, welche gegenüber unterschiedlichen Ozonkonzentrationen für max. 12 Wochen exponiert wurden. Für die Ausscheidung von 8-oxodG im wöchentlich gewonnen 24-Stundenurin konnte kein Unterschied zwischen den verschiedenen Expositionsgruppen nachgewiesen werden. Dies ist möglicherweise auch auf die hohe Streuung der Einzelwerte zurückzuführen, die nicht methodisch begründet ist. Der Nachweis von 8-oxodG in lymphozytärer DNA schlug fehl, was auf die schlechte Qualität der Blutproben zurückzuführen ist. Im terminal gewonnen Lungengewebe wurde ein dosisabhängiger Anstieg der 8-oxodG Konzentration ab einer Ozonkonzentration von 500 µg/m³ beobachtet, der für eine Expositionskonzentration von 1000 µg/m³ gegenüber Raumluft und 200 µg/m³ statistisch signifikant war (p < 0,05). Für Malondialdehyd im Blutplasma konnte keine dosisabhängige Zunahme durch Ozonexposition nachgewiesen werden. Die gegenüber 1000 µg/m³ Ozon exponierten Tiere zeigten jedoch eine gegenüber den anderen Gruppen signifikant niedrigere Malondialdehydkonzentration im Plasma (p < 0,05). Dies ist vermutlich auf die Induktion der antioxidativen Abwehr zurückzuführen, wie sie für ozonexponierte Ratten bereits beschrieben wurde. Die Induktion von Nitrotyrosin im Lungengewebe ozonexponierter Tier konnte nicht nachgewiesen werden. Dies ist auf die Abwesenheit der Entzündungsreaktion, die für akute Ozon-exposition beschrieben ist, zurückzuführen. Der nicht- oder minimal-invasive Nachweis dieser Effekte in vivo in Körperflüs-sigkeiten war mit den untersuchten Biomarkern nicht möglich.
Aus der Literatur war bekannt, daß Kieselgel im allgemeinen eine höhere Affinität zu Wasser als zu Aminosäuren zeigt und es sich daher nicht zur Isolierung von Aminosäuren eignet. Obwohl sich Kieselgel und MCM-41 in bezug auf ihre lokale chemische Oberflächen-beschaffenheit einander sehr ähnlich sind, ließen sich Aminosäuren aus wäßrigen Lösungen durch Adsorption am mesoporösen Molekularsieb hingegen abtrennen. Die Charakterisierung einer aluminiumfreien MCM-41-Probe vor und nach der Adsorption von Phenylalanin zeigte, daß sich die aromatische Aminosäure in den Mesoporen des Molekularsiebs anreichert. Sowohl aus IR-spektroskopischen Untersuchungen des Adsorbats, als auch aus dem Adsorptionsverhalten des Materials gegenüber einer sauren, basischen bzw. neutralen Aminosäure bei unterschiedlichen pH-Werten konnte geschlossen werden, daß elektrostatische Wechselwirkungen zwischen den positiv geladenen Ammoniumgruppen der Aminosäuren und negativ geladenen Silanolatgrupppen (dissoziierte Silanolgruppen) auf der Oberfläche des Adsorbens bestehen. Die Adsorptionskapazität von MCM-41 gegenüber Aminosäuren mit unpolaren Seitenketten nahm mit steigender Länge der Seitenkette zu. Daraus folgte, daß für die Adsorption auch hydrophobe Wechselwirkungen eine Rolle spielen. Vergleicht man die Ergebnisse der Adsorption von Phenylalanin an MCM-41 (Poren-durch-messer = 3,1 nm), SBA-15 (Poren-durch-messer = 9,8 nm) und Kieselgel miteinander, so fällt auf, daß die Adsorptionskapazität der Materialen mit zunehmendem Porendurchmesser bis hin zur praktisch flachen Kieselgel-oberfläche abnimmt. Mit zunehmender Porenkrümmung verringert sich offenbar der Abstand zwischen den Seitenketten benachbarter adsorbierter Aminosäuremoleküle, so daß sich zwischen diesen in stärkerem Maße hydrophobe Wechselwirkungen ausbilden können, die zur Adsorption beitragen. Im zweiten Teil dieser Arbeit konnte anhand von Stickstoff-Physisorptionsmessungen gezeigt werden, daß die Adsorption von Aminosäuren innerhalb der Mikroporen von Zeolithen erfolgt. Die Ergebnisse für die systematische Variation der Aminosäure-Seitenkette, der Struktur und des Aluminiumgehalts der als Adsorbentien eingesetzten Zeolithe sowie des pH-Wertes der Adsorptionslösung können wie folgt zusammengefaßt werden: Lag der pH-Wert der Adsorptionslösung unterhalb bzw. in der Nähe des isoelektrischen Punktes der Aminosäure, so waren elektrostatische Wechselwirkungen zwischen der positiv geladenen Ammoniumgruppe der Aminosäure und dem negativ geladenen Zeolithgitter von entscheidender Bedeutung für die Adsorption. Dieser Ionenaustausch wurde durch Adsorpt-Adsorpt-Wechselwirkungen ergänzt, die sich zwischen den hydrophoben Seitenketten von einander benachbarten adsorbierten Aminosäuremolekülen ausbildeten. Die Stärke dieser hydrophoben Wechselwirkungen stieg mit der Länge der Aminosäure-Seitenkette an und hing darüber hinaus von der Porengeometrie des Zeoliths ab. Das Ausmaß der diskutierten ionischen Wechselwirkungen nahm mit dem Aluminiumgehalt des Zeoliths zu. Am Beispiel einer Lösung von Leucin und Phenylalanin konnte gezeigt werden, daß sich selbst einander chemisch sehr ähnliche Aminosäuren an Zeolithen im Prinzip trennen lassen. Bei einem pH-Wert von 6 wurde für dieses Aminosäurepaar unter Verwendung von Zeolithen mit einem nSi/nAl-Verhältnis von etwa 30 eine deutliche Abhängigkeit des Trenneffektes von der Porengröße der Zeolithe beobachtet. Während für mittelporige Zeolithe die adsorbierte Leucinmenge deutlich über der adsorbierten Phenylalaninmenge lag, adsorbierten weitporige Zeolithe bevorzugt Phenylalanin. Dieses Verhalten läßt sich mit den oben beschriebenen grundlegenden Wechselwirkungen zwischen Aminosäuren und Zeolithen erklären. Der Anteil der adsorbierten Phenylalaninmenge an der gesamten adsorbierten Aminosäuremenge sowie der Trennfaktor K zeigten daher eine lineare Abhängigkeit vom Spaciousness Index SI der untersuchten Zeolithe. Das Ausmaß der Trennung stieg jeweils mit den Stoffmengenanteilen der beiden Aminosäuren in der Lösung an. Für Leucin und Phenylalanin ließen die Messungen der jeweiligen Adsorptionsisothermen an den unter-suchten Zeolithen Aussagen über die Trennung eines Gemischs der beiden Aminosäuren zu. Dazu wurden aus den ermittelten Adsorptionskonstanten die Trennfaktoren für die jeweiligen Adsorbentien berechnet. Schließlich konnte im Rahmen der vorliegenden Arbeit demonstriert werden, daß die Abtrennung von Aminosäuren aus wäßrigen Lösungen an mikro- und mesoporösen Molekularsieben auch im kontinuierlich betriebenen Festbettadsorber durchgeführt werden kann.
UML and SDL are languages for the development of software systems that have different origins, and have evolved separately for many years. Recently, it can be observed that OMG and ITU, the standardisation bodies responsible for UML and SDL, respectively, are making efforts to harmonise these languages. So far, harmonisation takes place mainly on a conceptual level, by extending and aligning the set of language concepts. In this paper, we argue that harmonisation of languages can be approached both from a syntactic and semantic perspective. We show how a common syntactical basis can be derived from the analysis of the UML meta-model
and the SDL abstract grammar. For this purpose, conceptually sound and well-founded mappings from meta-models to abstract grammars and vice versa are defined and applied. On the semantic level, a comparison between corresponding language constructs is performed.
The goal of this thesis is a physically motivated and thermodynamically consistent formulation of higher gradient inelastic material behavior. Thereby, the influence of the material microstructure is incorporated. Next to theoretical aspects, the thesis is complemented with the algorithmic treatment and numerical implementation of the derived model. Hereby, two major inelastic effects will be addressed: on the one hand elasto-plastic processes and on the other hand damage mechanisms, which will both be modeled within a continuum mechanics framework.
In first part of this work, summaries of traditional Multiphase Flow Model and more recent Multiphase Mixture Model are presented. Attention is being paid to attempts include various heterogeneous aspects into models. In second part, MMM based differential model for two-phase immiscible flow in porous media is considered. A numerical scheme based on the sequential solution procedure and control volume based finite difference schemes for the pressure and saturation-conservation equations is developed. A computer simulator is built, which exploits object-oriented programming techniques. Numerical result for several test problems are reported.
In dieser Arbeit wurde die modulierte Kristallstruktur der komplexionischen Verbindung trans-Tetraamminaquahydroxorhodium(III)-diperchlorat (1) eingehend mit Hilfe der Röntgenbeugung untersucht. Verbindung 1 bildet eine modulierte Kristallstruktur aus, in der sich die periodische Abweichung von der Grundstruktur kontinuierlich mit der Temperatur ändert. Die Periode der Modulationswelle kann kommensurabel oder inkommensurabel zu den Perioden des Translationengitters der Grundstruktur sein. Durch mehrere Röntgenbeugungsexperimente bei verschiedenen Temperaturen konnte der durch die Modulationswelle hervorgerufene Symmetrieabbau im Translationengitter der Kristallstruktur von 1 verfolgt werden. Der zur Lösung und Verfeinerung modulierter Strukturen von de Wolff, Janssen und Janner entwickelte (3+d)-dimensionale Überraumformalismus wurde anhand der Strukturen der eindimensional kommensurabel modulierten Tieftemperaturphase und der inkommensurabel modulierten Raumtemperaturphase von 1 exemplarisch diskutiert. Die Diskussion der Ergebnisse aus den temperaturabhängigen Beugungsexperimenten liefert einen Erklärungsansatz für die Entstehung der modulierten Struktur von 1. In der Kristallstruktur der Raum- und Tieftemperaturphase von 1 sind die Komplexkationen über [H3O2]--Gruppen zu eindimensionalen Ketten verknüpft. Die sehr starken Wasserstoffbrückenbindungen in den [H3O2]--Brücken scheinen bei dem Passungsproblem, das der modulierten Kristallstruktur von 1 zu Grunde liegt, eine Schlüsselrolle zu spielen. Diese Arbeit stellt einen Beitrag zu dem aktuellen Forschungsgebiet der aperiodischen Kristalle dar.
Unter Ambient Intelligence (AmI) wird die Integration verschiedener Technologien zu einer den Menschen umgebenden, (nahezu) unsichtbaren Gesamtheit verstanden. Diese Intelligente Umgebung wird möglich durch die Miniaturisierung hochintegrierter Bauteile (Sensoren, Aktuatoren und Rechnern), deren zunehmende Intelligenz und vor allem deren lokale und globale zunehmend drahtlose Vernetzung. Unter dem Titel Man-u-Faktur 2012 (man and factoring in 2012) wurde an der Technischen Universität Kaiserslautern im Rahmen des Forschungsschwerpunkts Ambient Intelligence ein Szenario entwickelt, das ein beeindruckendes Gesamtbild einer Technik, die den Menschen in den Mittelpunkt rückt, beschreibt. Man-u-Faktur 2012 steht dabei für ein Weiterdrehen des Rads der Industrialisierung von der heute üblichen variantenreichen, technologiezentrierten Massenfertigung hin zu einer kundenindividuellen, mitarbeiterzentrierten Maßfertigung. Im Speziellen wird hierunter der Aufbau massiv verteiler kunden- aber auch mitarbeiterfreundlicher Produktionsanlagen verstanden, die sich im hochdynamischen Umfeld entsprechend der jeweiligen Gegebenheiten anzupassen wissen. Der Mensch ist überall dort präsent, wo flexibles Arbeiten oder flexible Entscheidungen im Vordergrund stehen. In diesem Bericht wird der Einfluss von Ambient Intelligence beispielhaft auf die Vision einer Fahrradproduktion in der Man-u-Faktur 2012 angewandt. Aus diesem Szenario werden anschließend sowohl die zu entwickelnden Schlüsseltechnologien als auch die Einflüsse auf Wirtschaft und Gesellschaft abgeleitet.
Im Rahmen der vorliegenden Arbeit wurden ausgewählte weit- bis superweitporige Molekularsiebe mit unbekannter bzw. ungewöhnlicher Porenarchitektur hergestellt, chemisch-physikalisch charakterisiert und in sauer sowie bifunktionell katalysierten Testreaktionen erprobt. Untersucht wurde Zeolith ZSM-25, der zu den 12-Ring-Molekularsieben gezählt wird, dessen genaue Struktur aber bis heute unbekannt ist. Es konnte gezeigt werden, dass dieses Molekularsieb nur eine sehr kleine innere spezifische Oberfläche besitzt. Weiterhin wurden die Synthese und die Eigenschaften von Zeolith NU-87, der aus einem Porensystem von sich kreuzenden 10- und 12-Ring-Kanälen aufgebaut ist, untersucht. Sowohl im Produktspektrum der Ethylbenzol-Disproportionierung als auch bei der bifunktionell katalysierten n-Decan-Isomerisierung konnten Bestätigungen für die ungewöhnliche Porenarchitektur gefunden werden. Für Zeolith ZSM-12 wurde der Aluminiumgehalt variiert und die erhaltenen Katalysatoren in der Ethylbenzol-Disproportionierung getestet. Dabei konnte anhand der Veränderungen in den Selektivitäten für die drei Diethylbenzol-Isomere gezeigt werden, dass das eindimensionale Porensystem dieses Zeoliths mit zunehmender Katalysators-Laufzeit immer stärker verkokt. Zeolith SSZ-24 ist isostrukturell zum Alumophosphat AlPO4-5 und wurde in der vorliegenden Arbeit erstmals direkt (d.h. über Hydrothermalsynthese) hergestellt. Der Zeolith zeigt in der Disproportionierung von Ethylbenzol nur eine geringe katalytische Aktivität. Einen Schwerpunkt der vorliegenden Arbeit stellte die Synthese und Charakterisierung von Molekularsieben mit IFR-Topologie (Silikat-Polymorph ITQ-4, Alumosilikat MCM-58, Gallosilikat [Ga] MCM-58, Borosilikat SSZ 42) dar. In der Disproportionierung von Ethylbenzol erwiesen sich HMCM-58 und [Ga] HMCM-58 als hochaktive Katalysatoren mit Umsätzen nahe dem berechneten thermodynamischen Gleichgewicht. Bifunktionelle Katalysatoren mit IFR-Struktur wurden in der Isomerisierung von n-Decan untersucht. Der superweitporige Zeolith UTD-1 (DON-Topologie) konnte mit einer selbst modifizierten Literaturvorschrift als Borosilikat hergestellt werden. Dieses wurde anschließend in das entsprechende Alumo- bzw. Gallosilikat überführt. In der Disproportionierung von Ethylbenzol und der Isomerisierung von n-Decan zeigten die Alumo- und das Gallosilikat-Katalysatoren nur eine sehr geringe katalytische Aktivität.
We construct and study two surface measures on the space C([0,1],M) of paths in a compact Riemannian manifold M embedded into the Euclidean space R^n. The first one is induced by conditioning the usual Wiener measure on C([0,T],R^n) to the event that the Brownian particle does not leave the tubular epsilon-neighborhood of M up to time T, and passing to the limit. The second one is defined as the limit of the laws of reflected Brownian motions with reflection on the boundaries of the tubular epsilon-neighborhoods of M. We prove that the both surface measures exist and compare them with the Wiener measure W_M on C([0,T],M). We show that the first one is equivalent to W_M and compute the corresponding density explicitly in terms of the scalar curvature and the mean curvature vector of M. Further, we show that the second surface measure coincides with W_M. Finally, we study the limit behavior of the both surface measures as T tends to infinity.
The thesis deals with the subgradient optimization methods which are serving to solve nonsmooth optimization problems. We are particularly concerned with solving large-scale integer programming problems using the methodology of Lagrangian relaxation and dualization. The goal is to employ the subgradient optimization techniques to solve large-scale optimization problems that originated from radiation therapy planning problem. In the thesis, different kinds of zigzagging phenomena which hamper the speed of the subgradient procedures have been investigated and identified. Moreover, we have established a new procedure which can completely eliminate the zigzagging phenomena of subgradient methods. Procedures used to construct both primal and dual solutions within the subgradient schemes have been also described. We applied the subgradient optimization methods to solve the problem of minimizing total treatment time of radiation therapy. The problem is NP-hard and thus far there exists no method for solving the problem to optimality. We present a new, efficient, and fast algorithm which combines exact and heuristic procedures to solve the problem.
The main two problems of continuous-time financial mathematics are option pricing and portfolio optimization. In this thesis, various new aspects of these major topics of financial mathematics will be discussed. In all our considerations we will assume the standard diffusion type setting for securitiy prices which is today well-know under the term "Black-Scholes model". This setting and the basic results of option pricing and portfolio optimization are surveyed in the first chapter. The next three chapters deal with generalizations of the standard portfolio problem, also know as "Merton's problem". Here, we will always use the stochastic control approach as introduced in the seminal papers by Merton (1969, 1971, 1990). One such problem is the very realistic setting of an investor who is faced with fixed monetary streams. More precisely, in addition to maximizing the utility from final wealth via choosing an investment strategy, the investor also has to fulfill certain consumption needs. Also the opposite situation, an additional income stream can now be taken into account in our portfolio optimization problem. We consider various examples and solve them on one hand via classical stochastic control methods and on the other hand by our new separation theorem. This together with some numerical examples forms Chapter 2. Chapter 3 is mainly concerned with the portfolio problem if the investor has different lending and borrowing rates. We give explicit solutions (where possible) and numerical methods to calculate the optimal strategy in the cases of log utility and HARA utility for three different modelling approaches of the dependence of the borrowing rate on the fraction of wealth financed by a credit. The further generalization of the standard Merton problem in Chapter 4 consists in considering simultaneously the possibilities for continuous and discrete consumption. In our general approach there is a possibility for assigning the different consumption times different weights which is a generalization of the usual way of making them comparable via discounting. Chapter 5 deals with the special case of pricing basket options. Here, the main problem is not path-dependence but the multi-dimensionality which makes it impossible to give usuefull analytical representations of the option price. We review the literature and compare six different numerical methods in a systematic way. Thereby we also look at the influence of various parameters such as strike, correlation, forwards or volatilities on the erformance of the different numerical methods. The problem of pricing Asian options on average spot with average strike is the topic of Chapter 6. We here apply the bivariate normal distribution to obtain an approximate option price. This method proves to be very reliable and e±cient for the valuation of different variants of Asian options on average spot with average strike.
SST (satellite-to-satellite tracking) and SGG (satellite gravity gradiometry) provide data that allows the determination of the first and second order radial derivative of the earth's gravitational potential on the satellite orbit, respectively. The modeling of the gravitational potential from such data is an exponentially ill-posed problem that demands regularization. In this paper, we present the numerical studies of an approach, investigated in [24] and [25], that reconstructs the potential with spline smoothing. In this case, spline smoothing is not just an approximation procedure but it solves the underlying compact operator equation of the SST-problem and the SGG-problem. The numerical studies in this paper are performed for a simplified geometrical scenario with simulated data, but the approach is designed to handle first or second order radial derivative data on a real satellite orbit.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Den in der industriellen Produktion eingesetzten Manipulatoren fehlt in der Regel die Möglichkeit, ihre Umwelt wahrzunehmen. Damit Mensch und Roboter in einem gemeinsamen Arbeitsraum arbeiten können, wird im SIMERO-System die Transferbewegung des Roboters durch Kameras abgesichert. Dieses Kamerasystem wird auf Ausfall überprüft. Dabei werden Fehler in der Bildübertragung und Positionierungsfehler der Kameras betrachtet.
In this paper we consider set covering problems with a coefficient matrix almost having the consecutive ones property, i.e., in many rows of the coefficient matrix, the ones appear consecutively. If this property holds for all rows it is well known that the set covering problem can be solved efficiently. For our case of almost consecutive ones we present a reformulation exploiting the consecutive ones structure to develop bounds and a branching scheme. Our approach has been tested on real-world data as well as on theoretical problem instances.
Semiparametric estimation of conditional quantiles for time series, with applications in finance
(2003)
The estimation of conditional quantiles has become an increasingly important issue in insurance and financial risk management. The stylized facts of financial time series data has rendered direct applications of extreme value theory methodologies, in the estimation of extreme conditional quantiles, inappropriate. On the other hand, quantile regression based procedures work well in nonextreme parts of a given data but breaks down in extreme probability levels. In order to solve this problem, we combine nonparametric regressions for time series and extreme value theory approaches in the estimation of extreme conditional quantiles for financial time series. To do so, a class of time series models that is similar to nonparametric AR-(G)ARCH models but which does not depend on distributional and moments assumptions, is introduced. We discuss estimation procedures for the nonextreme levels using the models and consider the estimates obtained by inverting conditional distribution estimators and by direct estimation using Koenker-Basset (1978) version for kernels. Under some regularity conditions, the asymptotic normality and uniform convergence, with rates, of the conditional quantile estimator for strong mixing time series, are established. We study the estimation of scale function in the introduced models using similar procedures and show that under some regularity conditions, the scale estimate is weakly consistent and asymptotically normal. The application of introduced models in the estimation of extreme conditional quantiles is achieved by augmenting them with methods in extreme value theory. It is shown that the overal extreme conditional quantiles estimator is consistent. A Monte Carlo study is carried out to illustrate the good performance of the estimates and real data are used to demonstrate the estimation of Value-at-Risk and conditional expected shortfall in financial risk management and their multiperiod predictions discussed.
In this thesis the combinatorial framework of toric geometry is extended to equivariant sheaves over toric varieties. The central questions are how to extract combinatorial information from the so developed description and whether equivariant sheaves can, like toric varieties, be considered as purely combinatorial objects. The thesis consists of three main parts. In the first part, by systematically extending the framework of toric geometry, a formalism is developed for describing equivariant sheaves by certain configurations of vector spaces. In the second part, homological properties of a certain class of equivariant sheaves are investigated, namely that of reflexive equivariant sheaves. Several kinds of resolutions for these sheaves are constructed which depend only on the configuration of their associated vector spaces. Thus a partially positive answer to the question of combinatorial representability is given. As a particular result, a new way for computing minimal resolutions for Z^n - graded modules over polynomial rings is obtained. In the third part a complete classification of the simplest nontrivial sheaves, equivariant vector bundles of rank two over smooth toric surfaces, is given. A combinatorial characterization is given and parameter spaces (moduli spaces) are constructed which depend only on this characterization. In appendices a outlook on equivariant sheaves and the relation of Chern classes to their combinatorial classification is given, particularly focussing on the case of the projective plane. A classification of equivariant vector bundles of rank three over the projective plane is given.
The inverse problem of recovering the Earth's density distribution from satellite data of the first or second derivative of the gravitational potential at orbit height is discussed. This problem is exponentially ill-posed. In this paper a multiscale regularization technique using scaling functions and wavelets constructed for the corresponding integro-differential equations is introduced and its numerical applications are discussed. In the numerical part the second radial derivative of the gravitational potential at 200 km orbit height is calculated on a point grid out of the NASA/GSFC/NIMA Earth Geopotential Model (EGM96). Those simulated derived data out of SGG satellite measurements are taken for convolutions with the introduced scaling functions yielding a multiresolution analysis of harmonic density variations in the Earth's crust.
Diese Arbeit ist ein Bestandteil des Projekts META-AKAD. Ziel dieser Arbeit ist die Entwicklung einer Softwarekomponente, die in der Lage ist, automatisiert Klassifikationen nach der Regensburger Verbundklassifikation (RVK) und Schlagworte aus der deutschen Schlagwortnormdatei (SWD) für Dokumente, die als Lehr- oder Lernmaterial eingestuft wurden, zu vergeben. Die automatische Indexierung wird auf Basis einer Support-Vektor-Maschine durchgeführt. Die Implementierung erfolgte in der Programmiersprache Java.
Mit dem sterisch anspruchsvollen Di-tert-butyl-Indenylliganden kann alternativ zu den bisher verwendeten alkyl-und silylsubstituierten Cyclopentadienylen der komplette Syntheseweg für die P4-Butterflykomplexe vom Typ [{CpR(OC)2Fe}2(µ-eta1:1-P4)] (2) durchgeführt werden. Die Langzeitthermolyse von [{In''(OC)2Fe}2(µ-eta1:1-P4)] (2b) liefert neben den seit langem bekannten Decarbonylierungsprodukten [{In''Fe}2(µ-eta4:4-P4)] (10b) und [In''Fe(eta5-P5)] (1b) auch den erst seit kurzem bekannten tetrahedranähnlichen Komplex 9b als äußerst instabile Verbindung. Die photolytisch induzierte Decarbonylierung von 9a führt zu einer strukturell außergewöhnlichen Verbindung mit zwei gewinkelten µ-P-Liganden im nahezu planaren Fe2P2-Vierring und einem Signal für beide Phosphoratome im extremen Tieffeld bei delta = 1406.9 ppm. Thermische Umsetzungen des Tetraphosphabicyclobutan-Komplexes 2b mit einem vierfachen Überschuß an Alkin oder Phosphaalkin liefern in Abhängigkeit vom Substituentenmuster interessante Polyphospholyl-Verbindungen. Symmetrisch substituierte Alkine führen nahezu ausschließlich zur Bildung der Sandwichkomplexe [In''Fe(eta5-{P3(CR)2})] (14b,15b) mit einem eta5-koordinierten 1,2,3-Triphospholylliganden in sehr guten Ausbeuten. Bei unsymmetrisch substituierten Alkinen tritt im Fall von elektronenziehenden Substituenten am Kohlenstoff-Atom die Synthese von Sandwichkomplexen mit einem Monophospholylliganden 17 dazu in Konkurrenz. Desweiteren entsteht das phosphorfreie, verzerrte Tetrahedran [{In''Fe}2(µ-CO)(µ-C2PhH)] (19). Donor-Substituenten am Kohlenstoff-Atom wie tert-Butyl- oder Trimethylsilylgruppen dagegen verhindern die Bildung der Monophosphaferrocene 17 vollständig. Die Reaktion von 2b mit einem Phosphaalkin beruht auf dem gleichen Prinzip und führt ebenfalls zu Sandwichkomplexen mit einem Polyphospholylliganden. Neben dem 1,2,4-Triphospha- 28 und dem 1,2,3,4-Tetraphosphaferrocen 29 wird die Bildung des Komplexes 27 mit einem 1,3-Diphosphet als eta^4-koordiniertem Ligand beobachtet. Dieser ist auf die Cycloaddition zweier Phosphaalkin-Einheiten zurückzuführen, während [In''Fe(eta5-{P3(C2{(C6H10)CH3}2)})] (28) und [In''Fe(eta5-{P4(C{C6H10}CH3)})] (29) durch den Einbau von P=C-R in das Tetraphosphabicyclobutan-Gerüst entstehen. Die Komplexierung eines oder mehrerer Phosphoratome im Mono- oder 1,2,3-Triphosphaferrocen mit ÜM-Fragmenten vom Typ {M(CO)5} (M = W, Cr) gelingt problemlos bei Raumtemperatur. Versuche zur Oxidation von 14b oder 17b mit Schwefel und Reduktion mit Kalium führten ausnahmslos zur unspezifischen Zersetzung des Eduktes. Das Aufstockungsverfahren nach Rybinskaya zur Bildung von 30 VE-Tripeldeckerkomplexen hat Hilt schon 1999 am 1,2,3-Triphosphaferrocen erfolgreich durchgeführt. Diese Reaktion konnte ebenso auf den Monophospholyl-Eisen(II)-Komplex 17b übertragen werden.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
Die Luftfahrtindustrie und die meeresgestützte ölfördernde Industrie, die so genannte
Off-Shore Industrie, streben die Einführung bzw. Weiterverbreitung von faserverstärkten
Kunststoffen mit thermoplastischer Matrix an. Sowohl Leistungsverbesserung
aber auch Kosten- und Gewichtsreduktion sind die Treiber für diese Entwicklung.
Der sehr hohe Anspruch an die Qualität der Bauteile bedingt die Verfügbarkeit
geeigneter Herstellungsverfahren. Beispiele hierfür sind das Tapelege- und das Wickelverfahren.
Beide Prozesse sind allerdings bis heute nur in den Varianten für die
Verarbeitung duroplastischer Matrizes industriell umgesetzt und etabliert. Die Bauteilherstellung
geschieht bei Anwendung von Duroplasten für Hochtemperatur- oder
Primärstrukturanwendungen durch eine, dem formgebenden Prozess nachgeschaltete
Aushärtung im Ofen oder Autoklav. Thermoplaste bieten jedoch die Möglichkeit
zur Einsparung dieses Prozessschrittes durch die in-situ Konsolidierung, d.h. endkonturnahes,
formgebendes Ablegen und Verschweißen in einem Schritt. Die Komplexität
der Thermoplastprozesse ist jedoch durch die simultane Durchführung zweier
Aufgaben erhöht. Deshalb besteht ein großer Bedarf, die theoretischen Hintergründe,
das physikalische, thermodynamische und chemische Prozessverständnis stetig
grundlegend zu erarbeiten bzw. zu verbessern. Die rein experimentelle Prozessentwicklung
an Anlagen industriellen Maßstabs ist aus Kostengründen und dem Problem
der mangelhaften Auflösung einzelner Prozessphänomene dafür ungeeignet.
Daher wird seit vielen Jahren am Verständnis, der Abstraktion und der Simulation
dieser Prozesse gearbeitet. Die dabei entstandenen theoretischen Modellierungen
können allerdings nur selten einen Bezug zum realen Prozess nachweisen.Die vorliegende Arbeit schließt deshalb die Lücke zwischen Simulation und experimenteller
Prozessentwicklung. Auf Basis einer vielfach verwendeten mathematischen
Beschreibung der thermodynamischen Verhältnisse im Prozess, einer Energiebilanzgleichung,
die erstmals in diesem Zusammenhang um die Möglichkeit zur
Berechnung von Strahlungsrandbedingungen erweitert wird, beschreibt die Arbeit die
Entwicklung eines Prozesssimulationssystems. Das dazu neu entwickelte Finite-
Elemente-Methode Programm ProSimFRT, das auf der nicht-linearen Diskretisierung
der Energiebilanzgleichung basiert, bildet der Kern eines modularen Prozesssimulationspaketes, welches die ganzheitliche parametrische Berechnung der Temperatur
während des gesamten Prozesses und für alle Prozessteilnehmer erlaubt. Thermodynamische
Teilaspekte der Verfahren und somit auf rein theoretischem Weg unzugängliche
Prozessparameter, wie z.B. konvektive Randbedingungen oder durch eine
Wasserstoff-Sauerstoffflamme erzeugte Wärmeströme können mit ProSimFRT semiempirisch
ermittelt werden. Die hierfür angewandte Methodik der Simulationskalibrierung
bedarf jedoch einer experimentellen Verifikationsmöglichkeit. Daher wird eine
neu entwickelte Experimentalplattform vorgestellt. Ein spezieller Thermodynamikprüfstand
erlaubt die Ermittlung der Prozessparameter und eine flexible Möglichkeit
zum Nachweis der Funktionsfähigkeit der Simulation. Die Integration dieser Parameter
zu einem ganzheitlichen Prozessmodell am Beispiel des Thermoplasttapelegens
mit kohlenstofffaserverstärktem Polyetheretherketon und die ableitbaren Hinweise für
die Prozessentwicklung bilden abschließend die Grundlage für die zukünftige Integration
der Simulation in die Gesamtprozesskette.
The aerospace industry and the off-shore oil industry are facing the introduction and
evolution of fiber reinforced thermoplastics. Performance enhancements as well as
cost and weight savings are the drivers behind this development. The high level of
requirements concerning the quality of components leads to a need for applicable
manufacturing technologies. Filament winding and tape placement are examples for
such processes. Both have been successfully industrialized for thermoset materials.
Thermoset components for high temperature or primary structure applications are
typically manufactured in a multi-step approach. After a geometry determining step
consolidation and curing are introduced as further processing steps towards the final
component, often using ovens or autoclaves. Being weldable, thermoplastics give the
possibility to integrate this multi-step thermoset processes. Hence the complexity of
thermoplastic processing is increased, but the potential of saving manufacturing time
is obvious. This leads to the need of theoretic background know how about the
physical, thermodynamical and chemical phenomena behind the thermoplastic
manufacturing technologies. Due to that, since many years worldwide efforts are carried
out concerning the understanding, abstraction and simulation of this processes.
But, the developed models hardly have a direct relation to real processes.
The present work overcomes the gap between simulation and experimental process
development. Based on a widely used mathematical description of the thermodynamics
within the processes, an energy balance equation, which is enhanced with radiative
boundary conditions for the first time in this context, the present work describes
the development of a process simulation tool. The newly developed finite-element
program ProSimFRT, which is based on a non-linear discretization of the energy balance
equation, serves as kernel of a modular process simulation environment. This
package allows the parametric calculation of the temperature fields throughout the whole process and for all process participants. Thermodynamic aspects, hardly
available by analytical theory as convective boundary conditions or heat fluxes generated
by oxygen-hydrogen flames can be determined semi-empirically with
ProSimFRT. The method used for that needs a possibility for experimental investigations.
Hence, a thermodynamic test rig is introduced.This test rig allows the determination of process parameters and delivers a flexible
possibility for the validation and verification of the simulation. The integration of this
parameters into an overall process model for the thermoplastic tape placement process
using carbon fiber reinforced polyetheretherketone and derivable hints for the
process development conclude the present work. They are a baseline for the future
integration of the simulation into the manufacturing process.
As the sustained trend towards integrating more and more functionality into systems on a chip can be observed in all fields, their economic realization is a challenge for the chip making industry. This is, however, barely possible today, as the ability to design and verify such complex systems could not keep up with the rapid technological development. Owing to this productivity gap, a design methodology, mainly using pre designed and pre verifying blocks, is mandatory. The availability of such blocks, meeting the highest possible quality standards, is decisive for its success. Cost-effective, this can only be achieved by formal verification on the block-level, namely by checking properties, ranging over finite intervals of time. As this verification approach is based on constructing and solving Boolean equivalence problems, it allows for using backtrack search procedures, such as SAT. Recent improvements of the latter are responsible for its high capacity. Still, the verification of some classes of hardware designs, enjoying regular substructures or complex arithmetic data paths, is difficult and often intractable. For regular designs, this is mainly due to individual treatment of symmetrical parts of the search space by backtrack search procedures used. One approach to tackle these deficiencies, is to exploit the regular structure for problem reduction on the register transfer level (RTL). This work describes a new approach for property checking on the RTL, preserving the problem inherent structure for subsequent reduction. The reduction is based on eliminating symmetrical parts from bitvector functions, and hence, from the search space. Several approaches for symmetry reduction in search problems, based on invariance of a function under permutation of variables, have been previously proposed. Unfortunately, our investigations did not reveal this kind of symmetry in relevant cases. Instead, we propose a reduction based on symmetrical values, as we encounter them much more frequently in our industrial examples. Let \(f\) be a Boolean function. The values \(0\) and \(1\) are symmetrical values for a variable \(x\) in \(f\) iff there is a variable permutation \(\pi\) of the variables of \(f\), fixing \(x\), such that \(f|_{x=0} = \pi(f|_{x=1})\). Then the question whether \(f=1\) holds is independent from this variable, and it can be removed. By iterative application of this approach to all variables of \(f\), they are either all removed, leaving \(f=1\) or \(f=0\) trivially, or there is a variable \(x'\) with no such \(\pi\). The latter leads to the conclusion that \(f=1\) does not hold, as we found a counter-example either with \(x'=0\), or \(x'=1\). Extending this basic idea to vectors of variables, allows to elevate it to the RTL. There, self similarities in the function representation, resulting from the regular structure preserved, can be exploited, and as a consequence, symmetrical bitvector values can be found syntactically. In particular, bitvector term-rewriting techniques, isomorphism procedures for specially manipulated term graphs, and combinations thereof, are proposed. This approach dramatically reduces the computational effort needed for functional verification on the block-level and, in particular, for the important problem class of regular designs. It allows the verification of industrial designs previously intractable. The main contributions of this work are in providing a framework for dealing with bitvector functions algebraically, a concise description of bounded model checking on the register transfer level, as well as new reduction techniques and new approaches for finding and exploiting symmetrical values in bitvector functions.
Sepsis ist eine lebensbedrohliche Infektion, welche eine der häufigsten Todesursachen bei Patienten der Intensivstation ist. Die Mortalität des septischen Schocks hat sich während der letzten 25 Jahre trotz Verbesserung lebenserhaltender Maßnahmen nicht wesentlich verringert. Bei der Sepsis lösen externe Faktoren (die invadierenden Mikroorganismen) die Erkrankung aus, körpereigene Reaktionskaskaden jedoch entscheiden letztlich über den Verlauf, der in der Sepsis ein sehr heterogenes Erscheinungsbild zeigen kann. Darum führt eine allein gegen den Mikroorganismus gerichtete Therapie bei der Sepsis häufig nicht zum Erfolg. Eine therapeutische Intervention in körpereigene Abläufe setzt jedoch voraus, dass diese Vorgänge, die involvierten Proteine sowie die molekularen Mechanismen bekannt sind. Da klinische Studien darauf hinweisen, dass während der Pathogenese der Sepsis eine aktivierungsabhängige, exzessive Verminderung der T-Lymphozyten im Blutbild (Lymphopenie) infolge verstärkter Apoptose auftritt und damit die Abwehr der Pathogene negativ beeinträchtigt wird, bildeten Untersuchungen an aktivierten T-Zellen den Schwerpunkt der vorliegenden Arbeit. Aktivierte T-Lymphozyten sind wichtige Zellen der natürlichen Immunantwort und spielen eine entscheidende Rolle im Verlauf von Infektionserkrankungen. Eine therapeutische Modulation ihrer Apoptose könnte die Ereigniskaskade früh unterbrechen und möglicherweise den dramatischen klinischen Verlauf der Sepsis dämpfen. Der Befund der Lymphopenie in Sepsis führte mich zu der Hypothese dieser Arbeit, dass PPARg hierfür verantwortlich sein könnte, da eine Aktivierung von PPARg nicht nur antiinflammatorisch, sondern auch proapoptotisch wirken kann. Eine diesbezügliche Verbindung zwischen Lymphopenie bei Sepsis und PPARg-Expression wurde noch nicht untersucht. Deshalb habe ich im Rahmen dieser Arbeit analysiert, inwieweit PPARg zur Lymphopenie von T-Zellen septischer Patienten beiträgt. Den Ausgangspunkt bildeten dabei Untersuchungen an aktivierten T-Zellen. Sowohl an der T-Zelllinie Jurkat, als auch an primären CD3+ T-Zellen konnte ich Folgendes zeigen: 1. Die Aktivierung von humanen T-Zellen mit dem T-Zell-Mitogen PHA induziert die Expression des Liganden-abhängigen Transkriptionsfaktors PPARg, führt jedoch nicht autokrin zu dessen Aktivierung. 2. Physiologische Mediatoren wie Stickstoffmonoxid oder synthetische PPARg-Liganden wie Ciglitazon bewirken eine Aktivierung von PPARg in den PHA-aktivierten T- Zellen. 3. Der durch spezifische Agonisten aktivierte Transkriptionsfaktor PPARg ruft in aktivierten T-Zellen Apoptose hervor. 4. SR-202 greift in die PPARg-vermittelte Apoptose ein. Die Vorinkubation mit diesem spezifischen PPARg-Antagonist führt zu einer verminderten Apoptose der aktivierten T-Zellen. 5. Fas-vermittelte Apoptose ist der am besten untersuchte Apoptose-auslösende Reaktionsweg in T-Zellen. Vorliegende Untersuchungen mit einem anti-Fas-neutralisierenden Antikörper zur näheren Charakterisierung der PPARg-vermittelten Apoptose verweisen jedoch auf Fas-unabhängige Mechanismen. Um die klinische Relevanz der Daten zu prüfen, versuchte ich, die Ergebnisse auf das Modell der Sepsis zu übertragen. Folgende Zusammenhänge ließen sich dabei erkennen: 1. Es ist bekannt, dass die T-Lymphozyten im septischen Geschehen im Vergleich zum gesunden Spender deutlich vermindert sind. Dies ist in Übereinstimmung mit meinen Befunden. Zusätzlich bestätigte sich die Annahme, dass der Zelltod apoptotisch, also gerichtet, verläuft. 2. In den T-Zellen der septischen Patienten ist im Gegensatz zu den T-Zellen gesunder Probanden die Expression von PPARg erhöht, so dass, aufbauend auf die Vorversuche an aktivierten T-Zellen, eine PPARg-vermittelte Apoptose postuliert werden konnte. 3. Die Zugabe von PPARg-Agonisten zu den septischen T-Zellen erhöht die Apoptose, während die Vorinkubation mit dem Antagonisten SR-202 vor der Agonisten-Behandlung die Apoptose hemmt. 4. Basierend auf Untersuchungen mit einem Fas-neutralisierenden Antikörper, ist davon auszugehen, dass die zugrundeliegenden Mechanismen der PPARg-vermittelten Apoptose in septischen T-Zellen ebenfalls Fas-unabhängig sind. In Erkrankungen, deren Verlauf wie bei der Sepsis durch Lymphopenie gekennzeichnet ist, könnte der hier aufgezeigte Mechanismen der PPARg-vermittelten Apoptose von pathophysiologischer Signifikanz sein. Das bessere Verstehen der Signaltransduktionswege, die zu der PPARg-Expression sowie der PPARg-abhängigen Apoptose in aktivierten T-Zellen führen, könnten eine Basis für neue therapeutische Strategien im Kampf gegen die Sepsis bilden. Erste Anhaltspunkte dafür liefert der Nachweis der Modulation der T-Zell-Apoptose durch den spezifischen PPARg-Antagonist SR-202.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Dieses Szenario ist eine Erweiterung eines Teilszenarios von Human Centered Manufacturing. Dabei geht es um die Montage der Energieelektrik für industrielle Anlagen. Im Jahr 2015 enthält die Ausrüstung eines Elektromonteurs bei der Verdrahtung von Schaltschränken u.a. einen Schutzhelm mit integrierter Farbkamera, integriertem Mikrofon und einem Lautsprecher im Ohrbereich sowie einen automatisch gesteuerten Laserpointer. Auf der Baustelle sind keine Pläne mehr erforderlich. Der Monteur benötigt keinen Plan während der Montage.
A new stability preserving model reduction algorithm for discrete linear SISO-systems based on their impulse response is proposed. Similar to the Padé approximation, an equation system for the Markov parameters involving the Hankel matrix is considered, that here however is chosen to be of very high dimension. Although this equation system therefore in general cannot be solved exactly, it is proved that the approximate solution, computed via the Moore-Penrose inverse, gives rise to a stability preserving reduction scheme, a property that cannot be guaranteed for the Padé approach. Furthermore, the proposed algorithm is compared to another stability preserving reduction approach, namely the balanced truncation method, showing comparable performance of the reduced systems. The balanced truncation method however starts from a state space description of the systems and in general is expected to be more computational demanding.
Industrial analog circuits are usually designed using numerical simulation tools. To obtain a deeper circuit understanding, symbolic analysis techniques can additionally be applied. Approximation methods which reduce the complexity of symbolic expressions are needed in order to handle industrial-sized problems. This paper will give an overview to the field of symbolic analog circuit analysis. Starting with a motivation, the state-of-the-art simplification algorithms for linear as well as for nonlinear circuits are presented. The basic ideas behind the different techniques are described, whereas the technical details can be found in the cited references. Finally, the application of linear and nonlinear symbolic analysis will be shown on two example circuits.
Las matemáticas son atribuidas en general a algo no claro y sólo para matemáticos. La imagen de las matemáticas para los escolares, es la de una ciencia, la cual se sirve sólo de si misma. Es importante hacer frente al prejuicio de que las matemáticas distan lejos de toda utilidad práctica. La matemática es una ciencia al servicio de todas las dem´as ciencias, de cuya ayuda se necesita en casi todos los campos de la vida. La matemática de la escuela debería despertar en cualquier ámbito de la vida de los escolares el interés sobre ...
We consider the problem of pricing European forward starting options in the presence of stochastic volatility. By performing a change of measure using the asset price at the time of strike determination as a numeraire, we derive a closed-form solution based on Heston’s model of stochastic volatility.
We study a possiblity to use the structure of the regularization error for a posteriori choice of the regularization parameter. As a result, a rather general form of a selection criterion is proposed, and its relation to the heuristical quasi-optimality principle of Tikhonov and Glasko (1964), and to an adaptation scheme proposed in a statistical context by Lepskii (1990), is discussed. The advantages of the proposed criterion are illustrated by using such examples as self-regularization of the trapezoidal rule for noisy Abel-type integral equations, Lavrentiev regularization for non-linear ill-posed problems and an inverse problem of the two-dimensional profile reconstruction.
This paper concerns numerical simulation of flow through oil filters. Oil filters consist of filter housing (filter box), and a porous filtering medium, which completely separates the inlet from the outlet. We discuss mathematical models, describing coupled flows in the pure liquid subregions and in the porous filter media, as well as interface conditions between them. Further, we reformulate the problem in fictitious regions method manner, and discuss peculiarities of the numerical algorithm in solving the coupled system. Next, we show numerical results, validating the model and the algorithm. Finally, we present results from simulation of 3-D oil flow through a real car filter.
On a Multigrid Adaptive Refinement Solver for Saturated Non-Newtonian Flow in Porous Media A multigrid adaptive refinement algorithm for non-Newtonian flow in porous media is presented. The saturated flow of a non-Newtonian fluid is described by the continuity equation and the generalized Darcy law. The resulting second order nonlinear elliptic equation is discretized by a finite volume method on a cell-centered grid. A nonlinear full-multigrid, full-approximation-storage algorithm is implemented. As a smoother, a single grid solver based on Picard linearization and Gauss-Seidel relaxation is used. Further, a local refinement multigrid algorithm on a composite grid is developed. A residual based error indicator is used in the adaptive refinement criterion. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Several results from numerical experiments are presented in order to examine the performance of the solver.
The present thesis deals with coupled steady state laminar flows of isothermal incompressible viscous Newtonian fluids in plain and in porous media. The flow in the pure fluid region is usually described by the (Navier-)Stokes system of equations. The most popular models for the flow in the porous media are those suggested by Darcy and by Brinkman. Interface conditions, proposed in the mathematical literature for coupling Darcy and Navier-Stokes equations, are shortly reviewed in the thesis. The coupling of Navier-Stokes and Brinkman equations in the literature is based on the so called continuous stress tensor interface conditions. One of the main tasks of this thesis is to investigate another type of interface conditions, namely, the recently suggested stress tensor jump interface conditions. The mathematical models based on these interface conditions were not carefully investigated from the mathematical point of view, and also their validity was a subject of discussions. The considerations within this thesis are a step toward better understanding of these interface conditions. Several aspects of the numerical simulations of such coupled flows are considered: -the choice of proper interface conditions between the plain and porous media -analysis of the well-posedness of the arising systems of partial differential equations; -developing numerical algorithm for the stress tensor jump interface conditions, coupling Navier-Stokes equations in the pure liquid media with the Navier-Stokes-Brinkman equations in the porous media; -validation of the macroscale mathematical models on the base of a comparison with the results from a direct numerical simulation of model representative problems, allowing for grid resolution of the pore level geometry; -developing software and performing numerical simulation of 3-D industrial flows, namely of oil flows through car filters.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
Das Internet ist kein statisches Objekt, das keinen Veränderungen ausgesetzt ist. Ständig werden neue Informationsmaterialien hinzugefügt, bestehende Inhalte verändert oder ganz entfernt. Das Verändern und Entfernen von Materialien ist ein Problem, das von META-AKAD nicht außer Acht gelassen werden darf. Es ist notwendig die erschlossenen Lehr- und Lernmaterialien ständig auf Veränderung und auf ihre Verfügbarkeit hin zu prüfen. Im Rahmen dieser Projektarbeit soll eine Aktualisierungskomponente entwickelt werden, die es ermöglicht die gesammelten und bereits erschlossenen Lehr- und Lernmaterialien in festgelegten Zyklen automatisch auf ihre Aktualität und Verfügbarkeit hin zu überprüfen. Dies erleichtert es, die gesammelten Materialien zu kontrollieren und zu verwalten. Weiterhin soll die Aktualisierungskomponente dabei helfen nicht mehr verfügbare oder veraltete Dokumente aus der Menge der erfassten Materialien ausfindig zu machen, um diese eventuell entfernen zu können.
The following three papers present recent developments in multiscale gravitational field modeling by the use of CHAMP or CHAMP-related data. Part A - The Model SWITCH-03: Observed orbit perturbations of the near-Earth orbiting satellite CHAMP are analyzed to recover the long-wavelength features of the Earth's gravitational potential. More precisely, by tracking the low-flying satellite CHAMP by the high-flying satellites of the Global Positioning System (GPS) a kinematic orbit of CHAMP is obtainable from GPS tracking observations, i.e. the ephemeris in cartesian coordinates in an Earth-fixed coordinate frame (WGS84) becomes available. In this study we are concerned with two tasks: First we present new methods for preprocessing, modelling and analyzing the emerging tracking data. Then, in a first step we demonstrate the strength of our approach by applying it to simulated CHAMP orbit data. In a second step we present results obtained by operating on a data set derived from real CHAMP data. The modelling is mainly based on a connection between non-bandlimited spherical splines and least square adjustment techniques to take into account the non-sphericity of the trajectory. Furthermore, harmonic regularization wavelets for solving the underlying Satellite-to-Satellite Tracking (SST) problem are used within the framework of multiscale recovery of the Earth's gravitational potential leading to SWITCH-03 (Spline and Wavelet Inverse Tikhonov regularized CHamp data). Further it is shown how regularization parameters can be adapted adequately to a specific region improving a globally resolved model. Finally we give a comparison of the developed model to the EGM96 model, the model UCPH2002_02_0.5 from the University of Copenhagen and the GFZ models EIGEN-1s and EIGEN-2. Part B - Multiscale Solutions from CHAMP: CHAMP orbits and accelerometer data are used to recover the long- to medium- wavelength features of the Earth's gravitational potential. In this study we are concerned with analyzing preprocessed data in a framework of multiscale recovery of the Earth's gravitational potential, allowing both global and regional solutions. The energy conservation approach has been used to convert orbits and accelerometer data into in-situ potential. Our modelling is spacewise, based on (1) non-bandlimited least square adjustment splines to take into account the true (non-spherical) shape of the trajectory (2) harmonic regularization wavelets for solving the underlying inverse problem of downward continuation. Furthermore we can show that by adapting regularization parameters to specific regions local solutions can improve considerably on global ones. We apply this concept to kinematic CHAMP orbits, and, for test purposes, to dynamic orbits. Finally we compare our recovered model to the EGM96 model, and the GFZ models EIGEN-2 and EIGEN-GRACE01s. Part C - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, EGM96: Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise and these shall be made available to other interested groups. These wavelet coefficients allow the reconstruction of the wavelet approximations. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.