Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
- Mehrskalenanalyse (3)
- Mobilfunk (3)
- Robotik (3)
- mathematical education (3)
- AKLEON (2)
- Alterungsbeständigkeit (2)
- Ambient Intelligence (2)
- CAD (2)
- CDMA (2)
- CHAMP (2)
- Elektrotechnik (2)
- Gravitationsfeld (2)
- Implementierung (2)
- Inverses Problem (2)
- Kleben (2)
- Lineare Optimierung (2)
- Mensch-Maschine-Kommunikation (2)
- Mensch-Roboter-Koexistenz (2)
- Mensch-Roboter-Kooperation (2)
- Navier-Stokes-Gleichung (2)
- Optimierung (2)
- RODEO (2)
- RONAF (2)
- Regelung (2)
- SIMERO (2)
- Simplex (2)
- Stücklisten (2)
- Szenario (2)
- Up Functions (2)
- Zeolith (2)
- linear optimization (2)
- mobile radio (2)
- numerical simulation (2)
- praxis orientated (2)
- simplex (2)
- time series (2)
- wavelets (2)
- 5-> (1)
- : Navier-Stokes equations (1)
- : Two-phase flow in porous media (1)
- : multiple criteria optimization (1)
- : multiple objective programming (1)
- Ab-initio-Rechnung (1)
- Abel integral equations (1)
- Adsorption (1)
- Akute myeloische Leukämie (1)
- Algebraische Geometrie (1)
- Alkin (1)
- Alterung (1)
- Aluminium (1)
- Aminosäuren (1)
- Anfrageverarbeitung (1)
- Anorganisches Pigment (1)
- Anthropotechnik (1)
- Antimon (1)
- Anämiebehandlung (1)
- Aperiodic Crystal (1)
- Aperiodischer Kristall (1)
- Apoptosis (1)
- Approximation (1)
- Arabidopsis thaliana (1)
- Archimedische Kopula (1)
- Aromastoffe (1)
- Arsen (1)
- Asiatische Option (1)
- Assembly (1)
- Automatische Indexierung (1)
- Bahnplanung (1)
- Basel (1)
- Basket Option (1)
- Batteriemanagement (1)
- Batterien (1)
- Bessel functions (1)
- Bicyclus (1)
- Bildverarbeitung (1)
- Biomarker (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Bismut (1)
- Bitvektor (1)
- Blocked Neural Networks (1)
- Brinkman (1)
- Brownian motion (1)
- Brownsche Bewegung (1)
- Butterflykomplex (1)
- Bändchenhalbzeuge (1)
- CGH (1)
- CNS (1)
- Calcium (1)
- Castor (1)
- Cauchy-Navier-Equation (1)
- Cauchy-Navier-Gleichung (1)
- Chalkogen (1)
- Chemische Bindung / Theorie (1)
- Chi-Quadrat-Test (1)
- Cholesky-Verfahren (1)
- Clusterion (1)
- Clusterverbindungen (1)
- Code Inspection (1)
- Comet Assay (1)
- Comparative Genomische Hybridisierung (1)
- Continuum Damage (1)
- Cyclisches Nucleotid Phosphodiesterase <3 (1)
- Cyclo-AMP (1)
- Cyclo-GMP (1)
- Cytogenetik (1)
- DHFR (1)
- DNS (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Decane (1)
- Decomposition and Reconstruction Schemes (1)
- Deformationstheorie (1)
- Dialysemembran (1)
- Dichtefunktionalformalismus (1)
- Dihydrofolatreduktase (1)
- Discrete linear systems (1)
- Dislocations (1)
- Disproportionierung (1)
- Double Minutes (1)
- Dreidimensionale Bildverarbeitung (1)
- Druckkorrektur (1)
- Dynamic cut (1)
- Dynamik / Baumechanik (1)
- Earliest arrival augmenting path (1)
- Eisen-Phosphor-Cluster (1)
- Elastische Deformation (1)
- Elastoplasticity (1)
- Elliptische Verteilung (1)
- Empfangssignalverarbeitung (1)
- Entwurfsautomation (1)
- Epidermaler Wachstumsfaktor-Rezeptor (1)
- Epoxidharz (1)
- Epoxidharzklebstoff (1)
- Epoxy Adhesive (1)
- Erdmagnetismus (1)
- Erfüllbarke (1)
- Ergonomie (1)
- Ethylbenzol (1)
- Ethylen (1)
- Euler's equation of motion (1)
- Expected shortfall (1)
- Experiment (1)
- Extreme value theory (1)
- Faserfestigkeit (1)
- Faserkunststoffverbunde (1)
- Faserschädigung (1)
- Faserverbundwerkstoff (1)
- Festkörperchemie (1)
- Filtergesetz (1)
- Finite Elements (1)
- Finite-Elemente-Methode (1)
- Finite-Volumen-Methode (1)
- Fitts Law (1)
- Flachwasser (1)
- Flachwassergleichungen (1)
- Floatglas (1)
- Flüssig-Flüssig-Extraktion (1)
- Folgar-Tucker equation (1)
- Force-Torque (1)
- Fourier-Transformation (1)
- Fräsen (1)
- Garbentheorie (1)
- Genamplifikation (1)
- Genexpression (1)
- Gewichtung (1)
- Glasfaser (1)
- Glioblastom (1)
- Glutathion (1)
- Glättung (1)
- Glättungsparameterwahl (1)
- Gruppenoperation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Hand (1)
- Hand-Arm-System (1)
- Hankel matrix (1)
- Harmonische Spline-Funktion (1)
- HeLa-Zelle (1)
- Heavy-tailed Verteilung (1)
- Heston model (1)
- Heterogene Katalyse (1)
- High-Spin-Komplexe (1)
- Hochdrucktechnik (1)
- Hochschild homology (1)
- Hochschild-Homologie (1)
- Homologietheorie (1)
- Hub-and-Spoke-System (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- Humangenetik (1)
- Hybridregler (1)
- Hydratation (1)
- Hydrogen Bonding (1)
- Hydrokracken (1)
- Hydrostatischer Druck (1)
- Hämodialyse (1)
- Hörgerät (1)
- Immobilienaktie (1)
- Immunofluoreszenzmikroskopie (1)
- Implantation (1)
- Incommensurate Structure (1)
- Indexierung <Inhaltserschließung> (1)
- Informatik (1)
- Infrared Multiphoton Dissociation Spectroscopy (IR-MPD) (1)
- Infrarotspek (1)
- Instrumente (1)
- Integer programming (1)
- Interaktion (1)
- Interaktionsgerät (1)
- Interaktionsmodell (1)
- Interferenz (1)
- Inverse problems in Banach spaces (1)
- Ionensolvatation (1)
- Joint Transmission (1)
- Katalytische Iso (1)
- Kernschätzer (1)
- Klebstoff (1)
- Knowledge Extraction (1)
- Koexpression (1)
- Kohlenstofffaser (1)
- Komplexchemie (1)
- Kooperation (1)
- Koordinatengeber (1)
- Kopula <Mathematik> (1)
- Kraftregelung (1)
- Kreditrisiko (1)
- Kristallographie (1)
- Kunststoffeinfärbung (1)
- Kühlturm (1)
- L-curve Methode (1)
- Label correcting algorithm (1)
- Label setting algorithm (1)
- Lagrangian relaxation (1)
- Lavrentiev regularization for equations with monotone operators (1)
- Layout (1)
- Leukämie (1)
- Lineare Elastizitätstheorie (1)
- Lipidperoxidation (1)
- Locally Supported Radial Basis Functions (1)
- Logiksynthese (1)
- Luftfahrtindustrie (1)
- MFC-Knochennagel-Implantat (1)
- MO-Theorie (1)
- MS-Klebstoff (1)
- MS-Polymers (1)
- MYC (1)
- Malondialdehyd (1)
- Manipulation skills (1)
- Mapping (1)
- Marktrisiko (1)
- Martingaloptimalitätsprinzip (1)
- Mastoid (1)
- Mastoidektomie (1)
- Material-Force-Method (1)
- Maus <Datentechnik> (1)
- Mehrkriterielle Optimierung (1)
- Mensch (1)
- Metallocene (1)
- Methotrexat (1)
- Mikrobiegeversuch (1)
- Model checking (1)
- Modellbildung (1)
- Modulraum (1)
- Molekularsieb (1)
- Molekülorbital (1)
- Mostkonzentrierung (1)
- Multicriteria decision making (1)
- Multidrug-Resistenz (1)
- Multiple criteria analysis (1)
- Multiresolution Analysis (1)
- Multisresolution Analysis (1)
- Multivariate Wahrscheinlichkeitsverteilung (1)
- Naturstoffverteilung (1)
- Navier-Stokes (1)
- Network flows (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Nichtparametrische Regression (1)
- Nierenversagen (1)
- Nonlinear Regression (1)
- Nonlinear multigrid (1)
- Nonparametric time series (1)
- Numerische Strömungssimulation (1)
- Oberflächenmaße (1)
- Oberflächenproteine (1)
- Oberflächenvorbehandlung (1)
- Ohrenchirurgie (1)
- Onkogen (1)
- Option pricing (1)
- Optionsbewertung (1)
- Optionspreistheorie (1)
- Organisches Pigment (1)
- Organometallcluster (1)
- Oxidativer Stress (1)
- Ozon (1)
- P-Glykoprotein (1)
- PI-Regler (1)
- Paramecium primaurelia (1)
- Parser (1)
- Peng-Robinson-EoS (1)
- Permutationsäquivalenz (1)
- Phase Transition (1)
- Phasengleichgewicht (1)
- Phasenumwandlung (1)
- Phenylalanin (1)
- Phosphaalkin (1)
- Phosphatasen (1)
- Phosphor (1)
- Phosphor-Phosphor-Bindung (1)
- Photochemischer Smog (1)
- Pigment (1)
- Plastizitätstheorie (1)
- Polyhedron (1)
- Polymere (1)
- Polymorphismus (1)
- Polyphosphol (1)
- Portfolio-Optimierung (1)
- Poröser Stoff (1)
- Prepregtechnologie (1)
- Produktion (1)
- Propanole (1)
- Protonentransfer (1)
- Quantile autoregression (1)
- Quasi-identities (1)
- RTL (1)
- Reflection (1)
- Regler (1)
- Reglerentwurf (1)
- Regularisierung (1)
- Regularität (1)
- Relationales Datenbanksystem (1)
- Rhodium (1)
- Riemannian manifolds (1)
- Riemannsche Mannigfaltigkeiten (1)
- Risiko (1)
- Risikomanagement (1)
- Roboter (1)
- Robotics (1)
- Ruß / Anorganisches Pigment (1)
- Röntgenstrukturanalyse (1)
- SAX2 (1)
- SIMPLE (1)
- SWARM (1)
- Sandwichverbindung (1)
- Satellitengeodäsie (1)
- Scale function (1)
- Schadensmechanik (1)
- Schalenringelement (1)
- Schaltwerk (1)
- Schädelchirurgie (1)
- Sendesignalverarbeitung (1)
- Sendesignalvorverarbeitung (1)
- Sepsis (1)
- Serotyp (1)
- Serotyptrandformation (1)
- Shallow Water Equations (1)
- Sicherheit (1)
- Signaltransduktion (1)
- Silicones (1)
- Silikonklebstoff (1)
- Singly Occupied Molecular Orbital (SOMO) (1)
- Softwareergonomie (1)
- Sommersmog (1)
- Spherical (1)
- Spherical Wavelets (1)
- Spline-Approximation (1)
- Stahlbeton (1)
- Stein equation (1)
- Stochastische Processe (1)
- Stratifaltigkeiten (1)
- Support-Vektor-Maschine (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- System-on-Chip (1)
- T-Lymphozyt (1)
- Tail Dependence Koeffizient (1)
- Tetrahedran (1)
- Tripeldeckerkomplexe (1)
- Triphosphol (1)
- Tumor (1)
- Umkehrosmose (1)
- Vakuumverdampfung (1)
- Value at Risk (1)
- Vektorkugelfunktionen (1)
- Vektorwavelets (1)
- Verifikation (1)
- Vorverarbeitung (1)
- Wasserstoffbrückenbindung (1)
- Wavelet-Theorie (1)
- Wavelet-Theory (1)
- Wein (1)
- Wirbelabtrennung (1)
- Wirbelströmung (1)
- Wässrige Lösung (1)
- XML (1)
- Zeitreihen (1)
- Zellulares Mobilfunksystem (1)
- Zentralnervensystem (1)
- Zeolith M41S (1)
- Zeolith Y (1)
- Zeolith ZSM12 (1)
- Zuckertransporter (1)
- Zugesicherte Eigenschaft (1)
- Zyklische Homologie (1)
- abgeleitete Kategorie (1)
- adaptive Antennen (1)
- adaptive antennas (1)
- adaptive local refinement (1)
- adaptive refinement (1)
- adaptive triangulation (1)
- adhesive bonding (1)
- algebraic geometry (1)
- aluminium (1)
- archimedean copula (1)
- asian option (1)
- associated Legendre functions (1)
- asymptotic homogenization (1)
- automated analog circuit design (1)
- basel (1)
- basket option (1)
- batch presorting problem (1)
- batteries (1)
- battery management (1)
- behavioral modeling (1)
- bills of material (1)
- bills of materials (1)
- bitvector (1)
- bounded model checking (1)
- circuit sizing (1)
- cliquet options (1)
- clustering and disaggregation techniques (1)
- competetive analysis (1)
- computer algebra (1)
- concentration of musts (1)
- conditional quantiles (1)
- consecutive ones property (1)
- controllership (1)
- controlling (1)
- cooling tower (1)
- coupled flow in plain and porous media (1)
- cyclic homology (1)
- cyclic nucleotide phosphodiesterase (1)
- decision support systems (1)
- deformable objects (1)
- derived category (1)
- design automation (1)
- dif (1)
- discrete facility location (1)
- discrete location (1)
- durability (1)
- efficient set (1)
- elasticity problem (1)
- elliptical distribution (1)
- epoxy (1)
- estimate (1)
- estimator (1)
- evolutionary algorithms (1)
- experiment (1)
- expert system (1)
- fatigue (1)
- fiber orientation (1)
- fibre damage (1)
- fibre strength (1)
- flavour (1)
- flood risk (1)
- force control (1)
- force following (1)
- forward starting options (1)
- fuzzy logic (1)
- genetic algorithms (1)
- geomagnetism (1)
- glioblastoma (1)
- global pressure (1)
- gravimetry (1)
- gravitational field recovery (1)
- group action (1)
- harmonic density (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hybrid control (1)
- hyper-quasi-identities (1)
- hypergeometric functions (1)
- hyperquasivarieties (1)
- incident wave (1)
- incompressible flow (1)
- injection molding (1)
- integer programming (1)
- interactive navigation (1)
- kernel estimate (1)
- knowledge management (1)
- knowledge representation (1)
- kraftbasiertes Führen (1)
- langfaserverstärkte Polymere (1)
- layout (1)
- lid-driven flow in a (1)
- liquid-liquid-extraction of natural products (1)
- logic synthesis (1)
- logistics (1)
- macro modeling (1)
- martingale optimality principle (1)
- mastoid (1)
- mastoidectomy (1)
- mathematica education (1)
- mechanische Eigenschaften (1)
- micro-bending test (1)
- mobile radio systems (1)
- model (1)
- model reduction (1)
- moduli space (1)
- multi-user detection (1)
- multigrid methods (1)
- multileaf collimator (1)
- multiphase mixture model (1)
- multiscale modeling (1)
- multiscale structures (1)
- multivariate chi-square-test (1)
- nahekritischer Zustandsbereich (1)
- near-critical ethene+water+propanol (1)
- nichtparametrisch (1)
- non-Newtonian flow in porous media (1)
- non-commutative geometry (1)
- non-local conditions (1)
- non-parametric regression (1)
- nonlinear term structure dependence (1)
- nonparametric (1)
- oil filters (1)
- online optimization (1)
- option pricing (1)
- otorhinolaryngological surgery (1)
- parameter choice (1)
- pigments (1)
- polynomial algorithms (1)
- portfolio-optimization (1)
- preprocessing (1)
- pressure correction (1)
- project management and scheduling (1)
- projection-type splitting (1)
- property cheking (1)
- quantile autoregression (1)
- quasi-P (1)
- quasi-SH (1)
- quasi-SV (1)
- quasivarieties (1)
- radiation therapy (1)
- real-life applications. (1)
- received signal processing (1)
- refraction (1)
- regularity (1)
- reinforced concrete (1)
- reinforced plastics (1)
- representative systems of Pareto solutions (1)
- reverse osmosis (1)
- ring element (1)
- risikohandling (1)
- risk (1)
- safe human robot coexistence (1)
- safe human robot cooperation (1)
- satisfiability (1)
- scaling functions (1)
- sequential circuit (1)
- set covering (1)
- sheaf theory (1)
- singular spaces (1)
- singularity (1)
- singuläre Räume (1)
- software development (1)
- spherical splines (1)
- stability (1)
- stochastic processes (1)
- stochastic volatility (1)
- stop location (1)
- strategic (1)
- strength (1)
- structural dynamics (1)
- subgradient (1)
- sugar transporter (1)
- summer smog (1)
- supply chain management (1)
- surface measures (1)
- surface pre-treatment (1)
- symbolic analysis (1)
- symmetry (1)
- system simulation (1)
- tail dependence coefficient (1)
- taktile und haptische Wahrnehmung (1)
- technology mapping (1)
- thermoplastische Halbzeuge (1)
- toric geometry (1)
- torische Geometrie (1)
- trasmit signal processing (1)
- triclinic medium (1)
- uniform consistency (1)
- vacuum distillation (1)
- value-at-risk (1)
- variable neighborhood search (1)
- various formulations (1)
- vector spherical harmonics (1)
- vectorial wavelets (1)
- verification (1)
- vertical velocity (1)
- vertikale Geschwindigkeiten (1)
- visual (1)
- visual interfaces (1)
- vortex seperation (1)
- wine (1)
- Überflutung (1)
- Überflutungsrisiko (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (1)
- Universität (1)
- Universitätsbibliothek (1)
Extensions of Shallow Water Equations The subject of the thesis of Michael Hilden is the simulation of floods in urban areas. In case of strong rain events, water can flow out of the overloaded sewer system onto the street and damage the connected houses. The dependable simulation of water flow out of a manhole ("manhole") and over a curb ("curb") is crucial for the assessment of the flood risks. The incompressible 3D-Navier-Stokes Equations (3D-NSE) describe the free surface flow of water accurately, but require expensive computations. Therefore, the less CPU-intensive (factor ca.1/100) Shallow Water Equations (SWE) are usually applied in hydrology. They can be derived from 3D-NSE under the assumption of a hydrostatic pressure distribution via depth-integration and are applied successfully in particular to simulations of river flow processes. The SWE-computations of the flow problems "manhole" and "curb" differ to the 3D-NSE results. Thus, SWE need to be extended appropriately to give reliable forecasts for flood risks in urban areas within reduced computational efforts. These extensions are developed based on physical considerations not considered in the classical SWE. In one extension, a vortex layer on the ground is separated from the main flow representing its new bottom. In a further extension, the hydrostatic pressure distribution is corrected by additional terms due to approximations of vertical velocities and their interaction with the flow. These extensions increase the quality of the SWE results for these flow problems up to the quality level of the NSE results within a moderate increase of the CPU efforts.
Bei diskontinuierlich faserverstärkten Kunststoffen kann sowohl während des Compoundierens wie auch bei der Verarbeitung zum Fertigteil, durch Wechselwirkung zwischen den Fasern, der Fasern mit Maschinenkomponenten oder auch mit Zusatzstoffen (beispielsweise Farbpigmenten) eine Faserschädigung auftreten. Diese Interaktionen zeigen sich deutlich in der Abnahme der im Bauteil vorhandenen mittleren Faserlänge. Eine Überprüfung der Faserfestigkeit war bisher, auf Grund fehlender geeigneter Prüfmethoden bei den geringen Schlankheitsgraden bereits verarbeiteter Fasern, nicht oder nur eingeschränkt möglich. Mit einem am Lehrstuhl RPE entwickelten Mikrofaserbiegeversuch gelingt es, die Einzelfaserfestigkeit experimentell zu bestimmen. Dies bietet somit die Möglichkeit, das Schädigungsverhalten der meist spröden und kerbempfindlichen Fasermaterialien über die Verarbeitung hinweg zu untersuchen und zu quantifizieren. Da die (Rest-)Faserfestigkeit in diskontinuierlich verstärkten Bauteilen nun bestimmt werden kann, ist eine Lücke bei Berechnungen geschlossen, und das Wissen über Wirkzusammenhänge der Faserschädigung wird erweitert. Aufbau der Arbeit: In den Vorbetrachtungen zu dieser Arbeit werden zunächst kurz die Grundzusammenhänge zur Steifigkeits- und Festigkeitssteigerung der diskontinuierlich faserverstärkten Kunststoffe angesprochen und anschließend bestehende Modellvorstellungen zur Faserverstärkung bei Kunststoffen vorgestellt. Nachdem der Wissensstand zu bestehenden Messtechniken der mechanischen Fasercharakterisierung aufgezeigt ist, wird die entwickelte Messmethode des Dreipunktbiegeversuchs zur Faserfestigkeitsbestimmung ausführlich vorgestellt und deren Möglichkeiten und Einschränkungen diskutiert. Es folgt die Erläuterung der Notwendigkeit und der Vorgehensweise der statistischen Absicherung von Kennwerten spröder Verstärkungsfasern sowie die Vorgehensweise der Kennwertumrechnung auf reale Belastungen. Den Hauptteil bilden die einzelnen Untersuchungen mit jeweils anschließender Diskussion und Zusammenfassung. Abschließend werden die Ergebnisse der Arbeit in einer ausführlichen Zusammenfassung erläutert. Durchgeführte Untersuchungen: Ein Schwerpunkt der Arbeit bildet die Überprüfung des Einflusses von Farbpigmenten, welche zur Einfärbung technischer Kunststoffe verwendet werden, auf die Eigenschaften diskontinuierlich kurz- und langfaserverstärkter Thermoplaste und BMC. Die Literatur beschreibt diesen Sachverhalt der teilweise drastischen Festigkeits- und Zähigkeitsminderung bei Einfärbung von FKV nur phänomenologisch oder führt die Effekte alleinig auf Wechselwirkungen Pigment/Matrix zurück, wobei dies zu einem unvollständigen und zumindest teilweise auch falschen Bild der Wirkzusammenhänge führt. Der Schädigungsverlauf der Fasern bei Einfärbung mit Pigmenten, deren Härte über der des Faserwerkstoffs liegt, wird quantitativ über die Verarbeitungsschritte hinweg bis zum Prüfkörper dargestellt. Durch die Kenntnis der Faserschwächung in Verbindung mit dem verarbeitungsbedingt nun verstärkten Faserbruch kann der Verlust an Verbundeigenschaften erklärt werden. Über die Vielzahl der Untersuchungen gelingt es, die Wirkzusammenhänge empirisch zu beschreiben und Erklärungsansätze zu geben. Dabei wurden die Messreihen systematisch aufeinander aufbauend durchgeführt und Zusammenhänge herausgearbeitet. Zwar sind die Untersuchungen oft grundsätzlichen Charakters und dienen eher der Evaluierung einer Vorstellung zum Schädigungsverlauf, dennoch wurde auf die Anwendungsbezogenheit Wert gelegt. Die Kenntnis der grundlegenden Wirkzusammenhänge bietet die Möglichkeit, Regeln und Maßnahmen zur Vermeidung übermäßiger Faserschädigung bei der Kunststoffeinfärbung abzuleiten. Ergebnisse werden beispielhaft an Rechnungen, die sich an bestehenden Modellen zu Festigkeit und Energieaufnahme der diskontinuierlich faserverstärkten Kunststoffe orientieren, überprüft und diskutiert. Grundlage ist hierbei die Bruchfestigkeit der Faser bei Zugbelastung. Da die an Einzelfasern durchgeführten Biegeversuche „nur“ Biegebruchspannungen ergeben, wird ein Verfahren beschrieben, mit dem es gelingt, von gegebenen Biegefestigkeiten in entsprechende Zugfestigkeiten umzurechnen. Der Zusammenhang wird über die effektiv belastete Faseroberfläche im Mikrobiegeversuch gegenüber der entsprechenden Fläche bei Zugbelastung geliefert. Basis der statistischen Kennwertberechnung ist hierbei die Weibullverteilung. Sie liefert eine exponentielle Verteilungsfunktion der Festigkeiten spröder Werkstoffe und ist auch für die Betrachtung der überwiegend behandelten Glasfilamente gut geeignet. Nach dem Prinzip „des schwächsten Gliedes“ geht demnach das Versagen des beobachteten Volumens vom größten Defekt innerhalb desselben aus. Voraussetzung der Anwendbarkeit ist hierbei, dass der Bruch des Materials von statistisch homogen verteilten Defekten einer Art ausgeht und nur Zugversagen auftritt (die homogene Defektverteilung bietet die Grundlage der Übertragung auf das Bauteil und damit das größere Volumen). Weitere Untersuchungen liefern Beiträge zum Recycling faserverstärkter Kunststoffe. So wird der hydrolytische Faserfestigkeitsabbau bei Kühlerwasserkästen aus PA6-GF35 betrachtet und eine Untersuchung der Faserfestigkeit nach dem SMC-Recycling (Partikelrecyclingverfahren) vorgestellt.
In dieser Arbeit wurde die modulierte Kristallstruktur der komplexionischen Verbindung trans-Tetraamminaquahydroxorhodium(III)-diperchlorat (1) eingehend mit Hilfe der Röntgenbeugung untersucht. Verbindung 1 bildet eine modulierte Kristallstruktur aus, in der sich die periodische Abweichung von der Grundstruktur kontinuierlich mit der Temperatur ändert. Die Periode der Modulationswelle kann kommensurabel oder inkommensurabel zu den Perioden des Translationengitters der Grundstruktur sein. Durch mehrere Röntgenbeugungsexperimente bei verschiedenen Temperaturen konnte der durch die Modulationswelle hervorgerufene Symmetrieabbau im Translationengitter der Kristallstruktur von 1 verfolgt werden. Der zur Lösung und Verfeinerung modulierter Strukturen von de Wolff, Janssen und Janner entwickelte (3+d)-dimensionale Überraumformalismus wurde anhand der Strukturen der eindimensional kommensurabel modulierten Tieftemperaturphase und der inkommensurabel modulierten Raumtemperaturphase von 1 exemplarisch diskutiert. Die Diskussion der Ergebnisse aus den temperaturabhängigen Beugungsexperimenten liefert einen Erklärungsansatz für die Entstehung der modulierten Struktur von 1. In der Kristallstruktur der Raum- und Tieftemperaturphase von 1 sind die Komplexkationen über [H3O2]--Gruppen zu eindimensionalen Ketten verknüpft. Die sehr starken Wasserstoffbrückenbindungen in den [H3O2]--Brücken scheinen bei dem Passungsproblem, das der modulierten Kristallstruktur von 1 zu Grunde liegt, eine Schlüsselrolle zu spielen. Diese Arbeit stellt einen Beitrag zu dem aktuellen Forschungsgebiet der aperiodischen Kristalle dar.
Die vorliegende Arbeit behandelt Algorithmen zur nichtlinearen statischen und dynamischen Analyse von rotationssymmetrischen Schalenstrukturen aus Stahlbeton. Hierzu werden die Grundlagen eines zweiaxialen Stahlbetonmodells beschrieben, das die Erfassung von Vorschädigungen erlaubt. Dieses Modell findet Berücksichtigung innerhalb einer geometrisch und physikalisch nichtlinearen Flächentragwerkstheorie, die im Rahmen einer inkrementell iterativen FE-Formulierung für ein doppelt gekrümmtes Schalenringelement unter Herleitung sämtlicher Elementbeiträge umgesetzt wird. Somit wird ein wichtiger Beitrag zur allgemeinen Theorie und Numerik von Ringelementen geleistet. Ferner wird zur Lösung des nichtlinearen Bewegungsdifferentialgleichungssystems die Anpassung von bekannten Zeitintegrationsverfahren an das Ringelementkonzept vorgeführt; ein weiterer wesentlicher neuartiger Aspekt besteht darüber hinaus in der Verwendung modaler Lösungsverfahren mit Berücksichtigung von Nichtlinearitäten bei inkrementell iterativer Bestimmung der Beteiligungsfaktoren. Im Mittelpunkt der baupraktischen Anwendung der vorgestellten Elemente und Algorithmen steht die Auslegung von Rotationsschalen gegen Erdbebeneinwirkungen. Hierbei werden insbesondere an ausgewählten Beispielen des konstruktiven Ingenieurbaus wie am Spezialfall eines Naturzugkühlturms nichtlineare dynamische Effekte aufgezeigt und erläutert sowie deren Konsequenzen auf die Tragwerksauslegung erörtert.
The thesis discusses discrete-time dynamic flows over a finite time horizon T. These flows take time, called travel time, to pass an arc of the network. Travel times, as well as other network attributes, such as, costs, arc and node capacities, and supply at the source node, can be constant or time-dependent. Here we review results on discrete-time dynamic flow problems (DTDNFP) with constant attributes and develop new algorithms to solve several DTDNFPs with time-dependent attributes. Several dynamic network flow problems are discussed: maximum dynamic flow, earliest arrival flow, and quickest flow problems. We generalize the hybrid capacity scaling and shortest augmenting path algorithmic of the static network flow problem to consider the time dependency of the network attributes. The result is used to solve the maximum dynamic flow problem with time-dependent travel times and capacities. We also develop a new algorithm to solve earliest arrival flow problems with the same assumptions on the network attributes. The possibility to wait (or park) at a node before departing on outgoing arc is also taken into account. We prove that the complexity of new algorithm is reduced when infinite waiting is considered. We also report the computational analysis of this algorithm. The results are then used to solve quickest flow problems. Additionally, we discuss time-dependent bicriteria shortest path problems. Here we generalize the classical shortest path problems in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a travel time on each arc. These problems have several interesting practical applications, but have not attained much attention in the literature. Here we develop two new algorithms in which one of them requires weaker assumptions as in previous research on the subject. Numerical tests show the superiority of the new algorithms. We then apply dynamic network flow models and their associated solution algorithms to determine lower bounds of the evacuation time, evacuation routes, and maximum capacities of inhabited areas with respect to safety requirements. As a macroscopic approach, our dynamic network flow models are mainly used to produce good lower bounds for the evacuation time and do not consider any individual behavior during the emergency situation. These bounds can be used to analyze existing buildings or help in the design phase of planning a building.
Den in der industriellen Produktion eingesetzten Manipulatoren fehlt in der Regel die Möglichkeit, ihre Umwelt wahrzunehmen. Damit Mensch und Roboter in einem gemeinsamen Arbeitsraum arbeiten können, wird im SIMERO-System die Transferbewegung des Roboters durch Kameras abgesichert. Dieses Kamerasystem wird auf Ausfall überprüft. Dabei werden Fehler in der Bildübertragung und Positionierungsfehler der Kameras betrachtet.
The main two problems of continuous-time financial mathematics are option pricing and portfolio optimization. In this thesis, various new aspects of these major topics of financial mathematics will be discussed. In all our considerations we will assume the standard diffusion type setting for securitiy prices which is today well-know under the term "Black-Scholes model". This setting and the basic results of option pricing and portfolio optimization are surveyed in the first chapter. The next three chapters deal with generalizations of the standard portfolio problem, also know as "Merton's problem". Here, we will always use the stochastic control approach as introduced in the seminal papers by Merton (1969, 1971, 1990). One such problem is the very realistic setting of an investor who is faced with fixed monetary streams. More precisely, in addition to maximizing the utility from final wealth via choosing an investment strategy, the investor also has to fulfill certain consumption needs. Also the opposite situation, an additional income stream can now be taken into account in our portfolio optimization problem. We consider various examples and solve them on one hand via classical stochastic control methods and on the other hand by our new separation theorem. This together with some numerical examples forms Chapter 2. Chapter 3 is mainly concerned with the portfolio problem if the investor has different lending and borrowing rates. We give explicit solutions (where possible) and numerical methods to calculate the optimal strategy in the cases of log utility and HARA utility for three different modelling approaches of the dependence of the borrowing rate on the fraction of wealth financed by a credit. The further generalization of the standard Merton problem in Chapter 4 consists in considering simultaneously the possibilities for continuous and discrete consumption. In our general approach there is a possibility for assigning the different consumption times different weights which is a generalization of the usual way of making them comparable via discounting. Chapter 5 deals with the special case of pricing basket options. Here, the main problem is not path-dependence but the multi-dimensionality which makes it impossible to give usuefull analytical representations of the option price. We review the literature and compare six different numerical methods in a systematic way. Thereby we also look at the influence of various parameters such as strike, correlation, forwards or volatilities on the erformance of the different numerical methods. The problem of pricing Asian options on average spot with average strike is the topic of Chapter 6. We here apply the bivariate normal distribution to obtain an approximate option price. This method proves to be very reliable and e±cient for the valuation of different variants of Asian options on average spot with average strike.
Las matemáticas son atribuidas en general a algo no claro y sólo para matemáticos. La imagen de las matemáticas para los escolares, es la de una ciencia, la cual se sirve sólo de si misma. Es importante hacer frente al prejuicio de que las matemáticas distan lejos de toda utilidad práctica. La matemática es una ciencia al servicio de todas las dem´as ciencias, de cuya ayuda se necesita en casi todos los campos de la vida. La matemática de la escuela debería despertar en cualquier ámbito de la vida de los escolares el interés sobre ...
The focus of this work has been to develop two families of wavelet solvers for the inner displacement boundary-value problem of elastostatics. Our methods are particularly suitable for the deformation analysis corresponding to geoscientifically relevant (regular) boundaries like sphere, ellipsoid or the actual Earth's surface. The first method, a spatial approach to wavelets on a regular (boundary) surface, is established for the classical (inner) displacement problem. Starting from the limit and jump relations of elastostatics we formulate scaling functions and wavelets within the framework of the Cauchy-Navier equation. Based on numerical integration rules a tree algorithm is constructed for fast wavelet computation. This method can be viewed as a first attempt to "short-wavelength modelling", i.e. high resolution of the fine structure of displacement fields. The second technique aims at a suitable wavelet approximation associated to Green's integral representation for the displacement boundary-value problem of elastostatics. The starting points are tensor product kernels defined on Cauchy-Navier vector fields. We come to scaling functions and a spectral approach to wavelets for the boundary-value problems of elastostatics associated to spherical boundaries. Again a tree algorithm which uses a numerical integration rule on bandlimited functions is established to reduce the computational effort. For numerical realization for both methods, multiscale deformation analysis is investigated for the geoscientifically relevant case of a spherical boundary using test examples. Finally, the applicability of our wavelet concepts is shown by considering the deformation analysis of a particular region of the Earth, viz. Nevada, using surface displacements provided by satellite observations. This represents the first step towards practical applications.
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
The central theme in this thesis concerns the development of enhanced methods and algorithms for appraising market and credit risks and their application within the context of standard and more advanced market models. Generally, methods and algorithms for analysing market risk of complex portfolios involve detailed knowledge of option sensitivities, the so-called "Greeks". Based on an analysis of symmetries in financial market models, relations between option sensitivities are obtained, which can be used for the efficient valuation of the Greeks. Mainly, the relations are derived within the Black Scholes model, however, some relations are also valid for more general models, for instance the Heston model. Portfolios are usually influenced by lots of underlyings, so it is necessary to characterise the dependencies of these basic instruments. It is usual to describe such dependencies by correlation matrices. However, estimations of correlation matrices in practice are disturbed by statistical noise and usually have the problem of rank deficiency due to missing data. A fast algorithm is presented which performs a generalized Cholesky decomposition of a perturbed correlation matrix. In contrast to the standard Cholesky algorithm, an advantage of the generalized method is that it works for semi-positive, rank deficient matrices as well. Moreover, it gives an approximative decomposition when the input matrix is indefinite. A comparison with known algorithms with similar features is performed and it turns out, that the new algorithm can be recommended in situations where computation time is the critical issue. The determination of a profit and loss distribution by Fourier inversion of its characteristic function is a powerful tool, but it can break down when the characteristic function is not integrable. In this thesis, methods for Fourier inversion of non-integrable characteristic functions are studied. In this respect, two theorems are obtained which are based on a suitable approximation of the unknown distribution with known density and characteristic function. Further it will be shown, that straightforward Fast Fourier inversion works, when the according density lives on a bounded interval. The above techniques are of crucial importance to determine the profit and loss distribution (P&L) of large portfolios efficiently. The so-called Delta Gamma normal approach has become industrial standard for the estimation of market risk. It is shown, that the performance of the Delta Gamma normal approach can be improved substantially by application of the developed methods. The same optimization procedure also applies to the Delta Gamma Student model. A standard tool for computing the P&L distribution of a loan portfolio is the CreditRisk+ model. Basically, the CreditRisk+ distribution is a discrete distribution which can be computed from its probability generating function. For this a numerically stable method is presented and as an alternative, a new algorithm based on Fourier inversion is proposed. Finally, an extension of the CreditRisk+ model to market risk is developed, which distribution can be obtained efficiently by the presented Fourier inversion methods as well.
The thesis deals with the subgradient optimization methods which are serving to solve nonsmooth optimization problems. We are particularly concerned with solving large-scale integer programming problems using the methodology of Lagrangian relaxation and dualization. The goal is to employ the subgradient optimization techniques to solve large-scale optimization problems that originated from radiation therapy planning problem. In the thesis, different kinds of zigzagging phenomena which hamper the speed of the subgradient procedures have been investigated and identified. Moreover, we have established a new procedure which can completely eliminate the zigzagging phenomena of subgradient methods. Procedures used to construct both primal and dual solutions within the subgradient schemes have been also described. We applied the subgradient optimization methods to solve the problem of minimizing total treatment time of radiation therapy. The problem is NP-hard and thus far there exists no method for solving the problem to optimality. We present a new, efficient, and fast algorithm which combines exact and heuristic procedures to solve the problem.
The thesis is concerned with the modelling of ionospheric current systems and induced magnetic fields in a multiscale framework. Scaling functions and wavelets are used to realize a multiscale analysis of the function spaces under consideration and to establish a multiscale regularization procedure for the inversion of the considered operator equation. First of all a general multiscale concept for vectorial operator equations between two separable Hilbert spaces is developed in terms of vector kernel functions. The equivalence to the canonical tensorial ansatz is proven and the theory is transferred to the case of multiscale regularization of vectorial inverse problems. As a first application, a special multiresolution analysis of the space of square-integrable vector fields on the sphere, e.g. the Earth’s magnetic field measured on a spherical satellite’s orbit, is presented. By this, a multiscale separation of spherical vector-valued functions with respect to their sources can be established. The vector field is split up into a part induced by sources inside the sphere, a part which is due to sources outside the sphere and a part which is generated by sources on the sphere, i.e. currents crossing the sphere. The multiscale technqiue is tested on a magnetic field data set of the satellite CHAMP and it is shown that crustal field determination can be improved by previously applying our method. In order to reconstruct ionspheric current systems from magnetic field data, an inversion of the Biot-Savart’s law in terms of multiscale regularization is defined. The corresponding operator is formulated and the singular values are calculated. Based on the konwledge of the singular system a regularzation technique in terms of certain product kernels and correponding convolutions can be formed. The method is tested on different simulations and on real magnetic field data of the satellite CHAMP and the proposed satellite mission SWARM.
Empfängerorientierte Übertragungsverfahren sind dadurch gekennzeichnet, daß der im Sender zu verwendende Signalverarbeitungsalgorithmus an den im Empfänger verwendeten Signalverarbeitungsalgorithmus angepaßt ist. Dies geschieht meist mit zusätzlicher Kanalinformation, die nur am Sender und nicht am Empfänger verfügbar ist. In empfängerorientierten Systemen kann man besonders einfache Algorithmen in den Empfängern realisieren, die im Falle einer Abwärtsstreckenübertragung eines Mobilfunksystems, in den Mobilstationen sind. Dies ist mit geringen Produktionskosten und geringem Energieverbrauch der Mobilstationen verbunden. Um dennoch eine gewisse Güte der Datenübertragung zu gewährleisten, wird bei der Empfängerorientierung mehr Aufwand in der Feststation des Mobilfunksystems betrieben. Die derzeit verwendeten und für die dritte Mobilfunkgeneration (UMTS) vorgesehenen Übertragungsverfahren sind senderorientiert. Das bedeutet, daß der Signalverarbeitungsalgorithmus im Empfänger an den Signalverarbeitungsalgorithmus des Senders angepaßt ist. Auch bei der Senderorientierung wird meist die Kanalinformation in den Anpassungsprozeß im Empfänger einbezogen. Zum Gewinnen der Kanalinformation sind Testsignale notwendig, anhand der die Kanalinformation geschätzt werden kann. Solche Testsignale können in der Abwärtsstrecke eines empfängerorientierten Mobilfunksystems entfallen. Anstelle der Testsignale kann man Daten übertragen und somit die Datenrate im Vergleich zu senderorientierten Systemen erhöhen. Um die Performanz von Übertragungsverfahren beurteilen zu können, sind geeignete Kriterien notwendig. Meist werden zur Beurteilung Bitfehlerwahrscheinlichkeiten oder Signal-Stör-Verhältnisse verwendet. Da die Höhe der aufzuwendenden Sendeenergie nicht nur technisch, sondern auch gesellschaftlich ein wichtiger Aspekt zukünftiger Mobilfunksysteme ist, wird vom Verfasser das Kriterium der Energieeffizienz vorgeschlagen. Die Energieeffizienz beurteilt das Zusammenspiel von Signalverarbeitungsalgorithmen des Senders und des Empfängers unter Berücksichtigung der Kanaleigenschaften. Dabei wird die nutzbare Empfangsenergie auf die investierte Sendeenergie bezogen. Anhand der ermittelten energieeffizienzen und analytischen Betrachtungen in der vorliegenden Arbeit kann man den Schluß ziehen, daß empfängerorientierte Übertragungsverfahren für die Abwärtsstreckenübertragung in Mobilfunksystemen den senderorientierten vorzuziehen sind, wenn an der Feststation relativ viele und an den Mobilstationen relativ wenige Antennen zur Verfügung stehen. Dies ist bereits heute der Fall und auch in zukünftigen Mobilfunksystemen zu erwarten. Ferner eröffnet das am Rande untersuchte kanalorientierte Übertragungsverfahren, bei dem die Signalverarbeitungsalgorithmen des Sender und des Empfängers an die Kanalinformation angepaßt werden, ein weites Feld für zukünftige Forschungsvorhaben.
We construct and study two surface measures on the space C([0,1],M) of paths in a compact Riemannian manifold M embedded into the Euclidean space R^n. The first one is induced by conditioning the usual Wiener measure on C([0,T],R^n) to the event that the Brownian particle does not leave the tubular epsilon-neighborhood of M up to time T, and passing to the limit. The second one is defined as the limit of the laws of reflected Brownian motions with reflection on the boundaries of the tubular epsilon-neighborhoods of M. We prove that the both surface measures exist and compare them with the Wiener measure W_M on C([0,T],M). We show that the first one is equivalent to W_M and compute the corresponding density explicitly in terms of the scalar curvature and the mean curvature vector of M. Further, we show that the second surface measure coincides with W_M. Finally, we study the limit behavior of the both surface measures as T tends to infinity.
In this thesis the combinatorial framework of toric geometry is extended to equivariant sheaves over toric varieties. The central questions are how to extract combinatorial information from the so developed description and whether equivariant sheaves can, like toric varieties, be considered as purely combinatorial objects. The thesis consists of three main parts. In the first part, by systematically extending the framework of toric geometry, a formalism is developed for describing equivariant sheaves by certain configurations of vector spaces. In the second part, homological properties of a certain class of equivariant sheaves are investigated, namely that of reflexive equivariant sheaves. Several kinds of resolutions for these sheaves are constructed which depend only on the configuration of their associated vector spaces. Thus a partially positive answer to the question of combinatorial representability is given. As a particular result, a new way for computing minimal resolutions for Z^n - graded modules over polynomial rings is obtained. In the third part a complete classification of the simplest nontrivial sheaves, equivariant vector bundles of rank two over smooth toric surfaces, is given. A combinatorial characterization is given and parameter spaces (moduli spaces) are constructed which depend only on this characterization. In appendices a outlook on equivariant sheaves and the relation of Chern classes to their combinatorial classification is given, particularly focussing on the case of the projective plane. A classification of equivariant vector bundles of rank three over the projective plane is given.
Semiparametric estimation of conditional quantiles for time series, with applications in finance
(2003)
The estimation of conditional quantiles has become an increasingly important issue in insurance and financial risk management. The stylized facts of financial time series data has rendered direct applications of extreme value theory methodologies, in the estimation of extreme conditional quantiles, inappropriate. On the other hand, quantile regression based procedures work well in nonextreme parts of a given data but breaks down in extreme probability levels. In order to solve this problem, we combine nonparametric regressions for time series and extreme value theory approaches in the estimation of extreme conditional quantiles for financial time series. To do so, a class of time series models that is similar to nonparametric AR-(G)ARCH models but which does not depend on distributional and moments assumptions, is introduced. We discuss estimation procedures for the nonextreme levels using the models and consider the estimates obtained by inverting conditional distribution estimators and by direct estimation using Koenker-Basset (1978) version for kernels. Under some regularity conditions, the asymptotic normality and uniform convergence, with rates, of the conditional quantile estimator for strong mixing time series, are established. We study the estimation of scale function in the introduced models using similar procedures and show that under some regularity conditions, the scale estimate is weakly consistent and asymptotically normal. The application of introduced models in the estimation of extreme conditional quantiles is achieved by augmenting them with methods in extreme value theory. It is shown that the overal extreme conditional quantiles estimator is consistent. A Monte Carlo study is carried out to illustrate the good performance of the estimates and real data are used to demonstrate the estimation of Value-at-Risk and conditional expected shortfall in financial risk management and their multiperiod predictions discussed.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
Aus der Literatur war bekannt, daß Kieselgel im allgemeinen eine höhere Affinität zu Wasser als zu Aminosäuren zeigt und es sich daher nicht zur Isolierung von Aminosäuren eignet. Obwohl sich Kieselgel und MCM-41 in bezug auf ihre lokale chemische Oberflächen-beschaffenheit einander sehr ähnlich sind, ließen sich Aminosäuren aus wäßrigen Lösungen durch Adsorption am mesoporösen Molekularsieb hingegen abtrennen. Die Charakterisierung einer aluminiumfreien MCM-41-Probe vor und nach der Adsorption von Phenylalanin zeigte, daß sich die aromatische Aminosäure in den Mesoporen des Molekularsiebs anreichert. Sowohl aus IR-spektroskopischen Untersuchungen des Adsorbats, als auch aus dem Adsorptionsverhalten des Materials gegenüber einer sauren, basischen bzw. neutralen Aminosäure bei unterschiedlichen pH-Werten konnte geschlossen werden, daß elektrostatische Wechselwirkungen zwischen den positiv geladenen Ammoniumgruppen der Aminosäuren und negativ geladenen Silanolatgrupppen (dissoziierte Silanolgruppen) auf der Oberfläche des Adsorbens bestehen. Die Adsorptionskapazität von MCM-41 gegenüber Aminosäuren mit unpolaren Seitenketten nahm mit steigender Länge der Seitenkette zu. Daraus folgte, daß für die Adsorption auch hydrophobe Wechselwirkungen eine Rolle spielen. Vergleicht man die Ergebnisse der Adsorption von Phenylalanin an MCM-41 (Poren-durch-messer = 3,1 nm), SBA-15 (Poren-durch-messer = 9,8 nm) und Kieselgel miteinander, so fällt auf, daß die Adsorptionskapazität der Materialen mit zunehmendem Porendurchmesser bis hin zur praktisch flachen Kieselgel-oberfläche abnimmt. Mit zunehmender Porenkrümmung verringert sich offenbar der Abstand zwischen den Seitenketten benachbarter adsorbierter Aminosäuremoleküle, so daß sich zwischen diesen in stärkerem Maße hydrophobe Wechselwirkungen ausbilden können, die zur Adsorption beitragen. Im zweiten Teil dieser Arbeit konnte anhand von Stickstoff-Physisorptionsmessungen gezeigt werden, daß die Adsorption von Aminosäuren innerhalb der Mikroporen von Zeolithen erfolgt. Die Ergebnisse für die systematische Variation der Aminosäure-Seitenkette, der Struktur und des Aluminiumgehalts der als Adsorbentien eingesetzten Zeolithe sowie des pH-Wertes der Adsorptionslösung können wie folgt zusammengefaßt werden: Lag der pH-Wert der Adsorptionslösung unterhalb bzw. in der Nähe des isoelektrischen Punktes der Aminosäure, so waren elektrostatische Wechselwirkungen zwischen der positiv geladenen Ammoniumgruppe der Aminosäure und dem negativ geladenen Zeolithgitter von entscheidender Bedeutung für die Adsorption. Dieser Ionenaustausch wurde durch Adsorpt-Adsorpt-Wechselwirkungen ergänzt, die sich zwischen den hydrophoben Seitenketten von einander benachbarten adsorbierten Aminosäuremolekülen ausbildeten. Die Stärke dieser hydrophoben Wechselwirkungen stieg mit der Länge der Aminosäure-Seitenkette an und hing darüber hinaus von der Porengeometrie des Zeoliths ab. Das Ausmaß der diskutierten ionischen Wechselwirkungen nahm mit dem Aluminiumgehalt des Zeoliths zu. Am Beispiel einer Lösung von Leucin und Phenylalanin konnte gezeigt werden, daß sich selbst einander chemisch sehr ähnliche Aminosäuren an Zeolithen im Prinzip trennen lassen. Bei einem pH-Wert von 6 wurde für dieses Aminosäurepaar unter Verwendung von Zeolithen mit einem nSi/nAl-Verhältnis von etwa 30 eine deutliche Abhängigkeit des Trenneffektes von der Porengröße der Zeolithe beobachtet. Während für mittelporige Zeolithe die adsorbierte Leucinmenge deutlich über der adsorbierten Phenylalaninmenge lag, adsorbierten weitporige Zeolithe bevorzugt Phenylalanin. Dieses Verhalten läßt sich mit den oben beschriebenen grundlegenden Wechselwirkungen zwischen Aminosäuren und Zeolithen erklären. Der Anteil der adsorbierten Phenylalaninmenge an der gesamten adsorbierten Aminosäuremenge sowie der Trennfaktor K zeigten daher eine lineare Abhängigkeit vom Spaciousness Index SI der untersuchten Zeolithe. Das Ausmaß der Trennung stieg jeweils mit den Stoffmengenanteilen der beiden Aminosäuren in der Lösung an. Für Leucin und Phenylalanin ließen die Messungen der jeweiligen Adsorptionsisothermen an den unter-suchten Zeolithen Aussagen über die Trennung eines Gemischs der beiden Aminosäuren zu. Dazu wurden aus den ermittelten Adsorptionskonstanten die Trennfaktoren für die jeweiligen Adsorbentien berechnet. Schließlich konnte im Rahmen der vorliegenden Arbeit demonstriert werden, daß die Abtrennung von Aminosäuren aus wäßrigen Lösungen an mikro- und mesoporösen Molekularsieben auch im kontinuierlich betriebenen Festbettadsorber durchgeführt werden kann.
MDR1 P-glycoprotein, ein Mitglied der ABC-Superfamilie, ist verantwortlich für die Vermittlung von Mehrfachresistenz gegenüber chemotherapeutischen Agenzien. Trotz zahlreicher Untersuchungen ist der Mechanismus, mit dem Pgp seine Substrate bindet und transportiert bislang nicht eindeutig geklärt. In der vorliegenden Arbeit wurde ein Screening nach natürlich auftretenden Polymorphismen des humanen MDR1-Gens in drei verschiedenen Probandenstudien durchgeführt. Dabei wurden insgesamt 15 verschiedene genetische Variationen dieses ABC-Transporters identifiziert. Zwei Variationen sind in der Promotorregion des Gens lokalisiert, sechs befinden sich in den Intronbereichen und sieben liegen in der codierenden Region des MDR1-Gens. Lediglich drei Polymorphismen bewirken eine Aminosäuresubstitution im resultierenden P-glycoprotein. Von den 15 detektierten Polymorphismen wurden 11 in dieser Arbeit erstmalig beschrieben. Bei dem Screening an verschiedenen Populationen wurden starke Unterschiede in der Häufigkeitsverteilung festgetellt, welche auf den ethnischen Hintergrund der Probanden zurückzuführen sind. Mittels Reportergenassay wurden zwei Deletionen in der Promotorregion des MDR1-Gens untersucht. Beide Deletionen zeigten keinen Einfluß auf die Regulation der MDR1-Basalexpression. Um die in vitro Untersuchung codierender Polymorphismen des humanen MDR1-Gens zu ermöglichen, wurde mittels Rekombinaseprinzip ein Expressionssystem für MDR1 konstruiert. Mit Hilfe dieses Expressionssystems wurden die drei codierenden Polymorphismen T617C, T662C und G2677T funktionell charakterisiert. Im Western-Blot sowie mittels Rhodamin123-Transportassay wurde festgestellt, dass zwei der drei untersuchten Aminosäure-substituierenden MDR1-Polymorphismen (T662C, G2677T) weder auf die Expression noch auf die Transportaktivität von Pgp einen Einfluss ausüben. Für den dritten untersuchten codierenden Polymorphismus dagegen wurden leicht kontroverse Effekte gefunden, die keine eindeutige Aussage zulassen. Insgesamt wurde also eine Reihe von Polymorphismen bzw. Mutationen des humanen MDR1-Gens detektiert und identifiziert, die jedoch für die Funktion von P-glycoprotein und somit für die Träger dieser Variationen nicht maßgeblich sind.
In dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum (nahekritischen) Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus Ethen, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel durchgeführt. Die Untersuchungen behandeln die Grundlagen eines neuartigen Flüssig-flüssig-Extraktionsverfahrens für Naturstoffe. Dieses Extraktionsverfahren wird durch einen wässrig-organischen Flüssigphasensplit ermöglicht, der durch das Aufpressen eines Gases (in der Nähe seines kritischen Zustandes) auf eine homogene wässrig / organische Phase auftritt. Die Untersuchung des durch den Flüssigphasensplit erzeugten Dreiphasengleichgewichts (LLV) sowie der Verteilung ausgewählter Naturstoffe zwischen den beiden Flüssigphasen des Dreiphasengleichgewichts bilden den Schwerpunkt dieser Arbeit. Die Arbeit baut auf Untersuchungen von Wendland (1994) und Adrian (1997) auf. Wendland hat das Phasenverhalten der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 2-Propanol) vermessen und umfangreiche Fortran-Routinen zur Beschreibung des ternären Phasenverhaltens sowie der binären Randsysteme entwickelt. Adrian (1997) hat die drei ternären Systeme Kohlendioxid + Wasser + (1- / 2-Propanol bzw. Propionsäure) sowie die Verteilung von zehn organischen Naturstoffen bzw. Modellkomponenten auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV in einem (teilweise beiden) der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 1-Propanol) untersucht. In dieser Arbeit wurde größtenteils Ethen als nahekritisches Gas eingesetzt, da es im Gegensatz zu dem zuvor benutzten Kohlendioxid in wässrigen Lösungen undissoziiert vorliegt und somit nicht den pH-Wert der koexistierenden flüssigen Phasen bestimmt. Die experimentelle Untersuchung der Phasengleichgewichte erfolgte mit einer Phasengleichgewichtsapparatur, die nach der analytischen Methode arbeitet. In einer thermostatisierten Hochdrucksichtzelle (30 cm3) wurde ein Phasengleichgewicht zwischen mehreren koexistierenden Phasen eingestellt. An die Messzelle waren zwei externe Probenahmeschleifen angeschlossen, durch welche die (in der Zelle koexistierenden) Phasen gepumpt wurden und aus denen Proben für die Analyse mittels GC und HPLC entnommen wurden. Bei Temperaturen zwischen 293 und 333 K und Drücken bis 20.5 MPa wurde das Hochdruck-Mehrphasengleichgewicht (LLV) der beiden ternären Systeme Ethen + Wasser + (1- bzw. 2-Propanol) untersucht. Darüber hinaus wurden die Druck-Temperatur-Koordinaten kritischer Endpunktlinien in diesen beiden ternären Systemen bestimmt und weitere Untersuchungen zum generellen Phasenverhalten angestellt. Den Schwerpunkt dieser Arbeit bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV: Es wurde u. a. die einzelne Verteilung dreier Paare chemisch ähnlicher Naturstoffe im ternären System Ethen + Wasser + 2-Propanol bei 293 und 333 K untersucht. Die Paare waren 2,5-Hexanediol / 2,5-Hexandion, N-Acetyl-Glukosamin / N-Acetyl-Mannosamin und D- / L-Phenylalanin. Im theoretischen Teil dieser Arbeit wurde das Phasenverhalten der ternären Systeme mit der kubischen Zustandsgleichung (EoS) von Peng und Robinson (1976) in der Modifikation von Melhem et al. (1989) kombiniert mit verschiedenen Mischungsregeln beschrieben. Hierbei wurde sowohl eine Vorhersage des ternären Phasenverhaltens aus Informationen zu den binären Randsystemen als auch die Korrelation des ternären Phasenverhaltens angestrebt. Auch aufgrund der teilweise sehr geringen Anzahl von binären Messpunkten, konnte das Verhalten des Systems Ethen + Wasser + 2-Propanol nicht aus den Informationen zu den binären Randsystemen vorhergesagt werden. Für das Verhalten des ternären Systems Ethen + Wasser + 1-Propanol stimmte die Vorhersage nur qualitativ mit den Messwerten überein. Die Wiedergabe des Phasenverhaltens der ternären Systeme verbesserte sich signifikant, wenn die binären Wechselwirkungsparameter an experimentelle Daten für das Dreiphasengleichgewicht der ternären Systeme angepasst wurden. Zur Korrelation der Verteilung der Naturstoffe auf die flüssigen Phasen des Dreiphasengleichgewichts (LLV) wurde eine Methode benutzt, die auf der Anpassung von Reinstoffparametern der Naturstoffe für die Peng-Robinson EoS basiert. Hierbei wurden die in der EoS benötigten Reinstoffparameter des Naturstoffes an die Ergebnisse der Verteilungsmessungen angepasst, wobei die Wechselwirkungsparameter des ternären Grundsystems übernommen und die Parameter für Wechselwirkungen des Naturstoffes mit dem ternären Grundsystem vernachlässigt wurden. Durch dieses Vorgehen beschreiben die Reinstoffparameter der Naturstoffe auch die Mischungseigenschaften. Durch eine Normierung der Mess- bzw. Rechenwerte auf die gemessenen bzw. berechneten ternären oberen und unteren Begrenzungspunkte des Dreiphasengleichgewichts wurde eine quantitative Beschreibung der Messwerte erhalten.
Objective: In some surgical specialties, e.g. orthopedics, robots are already used in the operating room for bony milling work. Oto- and otoneurosurgery may also greatly benefit by robotic enhanced precision. Study Design: Experimental study on robotic milling on oak wood and human temporal bone specimen. Methods: A standard industrial robot with a 6 degrees-of-freedom serial kinematics was used with force feedback to proportionally control the robot speed. Different milling modes and characteristic path parameters were evaluated to generate milling paths based on CAD geometry data of a cochlear implant and an implantable hearing system. Results: The best suited strategy proofed to be the spiral horizontal milling mode with the burr held perpendicularly to the temporal bone surface. In order to avoid high grooves, the distance in between paths should equal half the radius of the cutting burr head. Due to the vibration of the robot’s own motors, a rather high oscillation of the standard deviation of forces was encountered. This oscillation dropped drastically to nearly 0 N, when the burr head reached contact with the dura mater due to its damping characteristics. The cutting burr could be moved a long time on the dura without damaging it, because of its rather blunt head. The robot moved the burr very smoothly according to the encountered resistances. Conclusion: This is the first development of an functioning robotic milling procedure for otoneurosurgery with force-based speed control. It is planned to implement ultrasound-based local navigation and to perform robotic mastoidectomy.
Diese Arbeit ist ein Bestandteil des Projekts META-AKAD. Ziel dieser Arbeit ist die Entwicklung einer Softwarekomponente, die in der Lage ist, automatisiert Klassifikationen nach der Regensburger Verbundklassifikation (RVK) und Schlagworte aus der deutschen Schlagwortnormdatei (SWD) für Dokumente, die als Lehr- oder Lernmaterial eingestuft wurden, zu vergeben. Die automatische Indexierung wird auf Basis einer Support-Vektor-Maschine durchgeführt. Die Implementierung erfolgte in der Programmiersprache Java.
The goal of this thesis is a physically motivated and thermodynamically consistent formulation of higher gradient inelastic material behavior. Thereby, the influence of the material microstructure is incorporated. Next to theoretical aspects, the thesis is complemented with the algorithmic treatment and numerical implementation of the derived model. Hereby, two major inelastic effects will be addressed: on the one hand elasto-plastic processes and on the other hand damage mechanisms, which will both be modeled within a continuum mechanics framework.
SST (satellite-to-satellite tracking) and SGG (satellite gravity gradiometry) provide data that allows the determination of the first and second order radial derivative of the earth's gravitational potential on the satellite orbit, respectively. The modeling of the gravitational potential from such data is an exponentially ill-posed problem that demands regularization. In this paper, we present the numerical studies of an approach, investigated in [24] and [25], that reconstructs the potential with spline smoothing. In this case, spline smoothing is not just an approximation procedure but it solves the underlying compact operator equation of the SST-problem and the SGG-problem. The numerical studies in this paper are performed for a simplified geometrical scenario with simulated data, but the approach is designed to handle first or second order radial derivative data on a real satellite orbit.
Im Mittelpunkt der Untersuchungen standen Bismut-Aren-Komplexe der Reihen [(C6H6)BiCl3-n]n+ (n = 0 – 3) und [(MemC6H6-m)BiCl3] (m = 0 – 3). Außerdem wurden die leichteren Homologen [(C6H6)SbCl3] und [(C6H6)AsCl3] untersucht, um Gruppentrends zu erkennen. Es wurden auch die zu den Komplexen [(C6H6)BiCl3-n]n+ (n = 1 – 3) isoelektronischen Blei-Aren-Komplexe mit in die Betrachtungen einbezogen. Von prinzipiellem Interesse ist der Komplex [(C6H6)2Pb]2+, der als Prototyp eines bent-Sandwich-Bis(aren)hauptgruppenelement-Komplexes aufzufassen ist. Die Strukturen der Neutralkomplexe und Komplexkationen wurden auf MP2(fc)/6-31+G(d)(C,H);SBKJC(d)(Bi,Cl)-Niveau optimiert. Die Wechselwirkungsenergie in [(C6H6)BiCl3] beträgt –23 kJ/mol (MP4). Betrachtungen der Elektronenlokalisierungsfunktion und der Molekülorbitale trugen zum Verständnis der Bindungsverhältnisse in den untersuchten Aren-Komplexen bei. Eine Kristallstrukturanalyse bestätigte die gefundenen Trends der Rechnungen. Die Aren-Komplexe mit leichteren Zentralatomen sind weniger stabil. Außerdem steigt die Stabilität mit der Basizität des Aren-Liganden leicht und mit der Ladung der Komplexe stark an. Zur Untersuchung (B3LYP/6-311+G(d)) der Bindungsverhältnisse im P4-Ring des Tetrakis(amino)-1l5,3l5-Tetraphosphets und der P-P-Bindung seines [2+2]-Cycloreversionsprodukts wurden die Elektronenlokalisierungsfunktionen, wichtige Molekülorbitale, Bindungsordnungen, berechnete chemische Verschiebungen der Phosphorkerne und kernunabhängige chemische Verschiebungen betrachtet. Danach kann für die P-P-Bindung im P4-Ring des Tetraphosphets ein beträchtlicher p-Bindungsanteil angenommen werden. Die P-P-Bindung im [2+2]-Cycloreversionsprodukt kann als elektronisch ungewöhnliche, durch Coulombkräfte verkürzte Doppelbindung verstanden werden. Bei präparativen Arbeiten zu funktionalisierten Aminoarsanen wurde vor einiger Zeit ein Tetrakis(amino)diarsan mit einer außerordentlich langen As-As-Bindung (2,673(3) Å) erhalten. Quantenchemische Rechnungen (B3LYP/6-31+G(d)) bestätigen und unterstützen diesen Befund und räumen letzte Zweifel im Zusammenhang mit der kristallstrukturanalytischen Bestimmung der Bindungslänge aus.
Mobilfunksysteme sind interferenzbegrenzt. Eine signifikante Steigerung der Leistungsfähigkeit künftiger Mobilfunksysteme kann daher nur durch den Einsatz von Verfahren zum Reduzieren der schädlichen Wirkung von Interferenz erreicht werden. Eine besonders attraktive Klasse von Verfahren, die dieses leisten, sind jene der gemeinsamen Empfangssignalverarbeitung, wobei bisher der systematische Entwurf und die systematische Analyse solcher Verfahren für CDMA-Mobilfunksysteme mit infiniter oder quasi-infiniter Datenübertragung - eine im Hinblick auf die derzeit in Betrieb gehenden zellularen Mobilfunksysteme der dritten Generation besonders interessierende Klasse von künftigen Mobilfunksystemen - noch unklar ist. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs- und Optimierungsprozesses von Verfahren zur gemeinsamen Empfangssignalverarbeitung für Mobilfunksysteme der genannten Art. Zu diesem Zweck wird gezeigt, daß sich die Aufgabe der gemeinsamen Empfangssignalverarbeitung in die fünf Teilaufgaben Blockbilden, Datenzuordnen, Interblock-Signalverarbeitung, Intrablock-Signalverarbeitung und Kombinieren & Entscheiden zerlegen läßt. Nachdem in einem ersten Schritt alle fünf Teilaufgaben klar definiert und gegeneinander abgegrenzt werden, erfolgt in einem zweiten Schritt für jede Teilaufgabe die Entwicklung von Lösungsvorschlägen, die nach gewissen Kriterien optimal bzw. suboptimal sind. Zur Lösung jeder einzelnen Teilaufgabe werden neuartige Vorgehensweisen vorgeschlagen, wobei dabei sowohl die Optimierung der Leistungsfähigkeit der jeweiligen Vorgehensweisen als auch Belange, die für die praktische Realisierbarkeit relevant sind, im Vordergrund stehen. Eine Schlüsselrolle kommt den Verfahren der Intrablock-Signalverarbeitung zu, deren Aufgabe darin besteht, ausgehend von Ausschnitten des Empfangssignals Schätzungen von Daten zu ermitteln, die zu dem jeweiligen Ausschnitt beitragen. Die vorgeschlagenen Verfahren der Intrablock-Signalverarbeitung beruhen im wesentlichen auf iterativen Versionen bekannter linearer Schätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt dabei A-priori-Information, wie z.B. die Kenntnis des Datensymbolalphabetes und der A-priori-Wahrscheinlichkeiten der zu übertragenden Daten, zum Erhöhen der Zuverlässigkeit der zu ermittelnden Datenschätzungen. Die verschiedenen Versionen der iterativ realisierten linearen Schätzer und verschiedene Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für viele Anwendungsfälle ein maßgeschneidertes Verfahren zur Intrablock-Signalverarbeitung zu konstruieren. Aufbauend auf dem entwickelten systematischen Entwurfsprinzip wird abschließend für ein exemplarisches CDMA-Mobilfunksystem mit synchronem Mehrteilnehmerzugriff ein darauf zugeschnittenes Verfahren zur gemeinsamen Empfangssignalverarbeitung vorgeschlagen. Die dargelegten Simulationsergebnisse zeigen, daß ausgehend von derzeit favorisierten nicht dem Prinzip der gemeinsamen Empfangssignalverarbeitung folgenden Verfahren zum Schätzen der übertragenen Daten in typischen Mobilfunkszenarien durch Einsetzen des vorgeschlagenen Verfahrens zur gemeinsamen Empfangssignalverarbeitung die Anzahl der gleichzeitig aktiven CDMA-Codes um nahezu eine Größenordnung erhöht werden kann, ohne dabei die bei einem vorgegebenen Signal-Stör-Verhältnis am Referenzempfänger beobachtbare Zuverlässigkeit der ermittelten Schätzungen zu verschlechtern. Deshalb ist der Einsatz von Verfahren zur gemeinsamen Empfangssignalverarbeitung eine vielversprechende Maßnahme zur Kapazitätssteigerung künftiger Mobilfunksysteme.
In this paper we consider the location of stops along the edges of an already existing public transportation network, as introduced in [SHLW02]. This can be the introduction of bus stops along some given bus routes, or of railway stations along the tracks in a railway network. The goal is to achieve a maximal covering of given demand points with a minimal number of stops. This bicriterial problem is in general NP-hard. We present a nite dominating set yielding an IP-formulation as a bicriterial set covering problem. We use this formulation to observe that along one single straight line the bicriterial stop location problem can be solved in polynomial time and present an e cient solution approach for this case. It can be used as the basis of an algorithm tackling real-world instances.
Immer häufiger werden auch im industriellen Umfeld die im Bürobereich gebräuchlichen grafischen, fenster-orientierten Benutzungsoberflächen als Interaktionsschnittstelle eingesetzt. Die Interaktion erfolgt bei solchen fensterorientierten Bediensystemen mittels koordinatengebender Interaktionsgeräte. Im Bürobereich wird dabei als Interaktionsgerät überwiegend eine Computermaus eingesetzt. Mit der Computermaus verbietet sich jedoch ein industrieller Einsatz in rauer Umgebung, sofern sie nicht gegen Verschmutzung abgesichert wird. Weitere Probleme entstehen aus den industriellen Umgebungsbedingungen wie z.B. der häufig nicht vorhandenen Ablagefläche bei Tafelbenutzung und den Maschinenschwingungen bei nicht entkoppelten Bediensystem. Unter anderem wird zwar zur Lösung dieser Probleme eine Vielzahl von alternativen Interaktionsgeräten (wie z.B. Trackballs, Touchscreens, Joysticks, Mousepads, Mousebuttons, etc.) eingesetzt, allerdings ist deren Gebrauchstauglichkeit für die Benutzer nicht geklärt bzw. fragwürdig. In dieser Arbeit wird eine Methode vorgestellt, welche es Entwicklern und Nutzern von Interaktionsgeräten erlaubt, die Gebrauchstauglichkeit von unterschiedlichsten Interaktionstechniken qualitativ und quantitativ bewerten und vergleichen zu können.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für die Jahre 2001 und 2002.
Jahresbericht
(2003)
Congress Report 2003.06
(2003)
Congress Report 2003.07-08
(2003)
Congress Report 2003.09
(2003)
Congress Report 2003.10
(2003)
Congress Report 2003.11
(2003)
Congress Report 2003.12
(2003)
Congress Report 2003.01
(2003)
Congress Report 2003.02
(2003)
Congress Report 2003.03
(2003)
Congress Report 2003.04
(2003)
Congress Report 2003.05
(2003)
The present thesis deals with coupled steady state laminar flows of isothermal incompressible viscous Newtonian fluids in plain and in porous media. The flow in the pure fluid region is usually described by the (Navier-)Stokes system of equations. The most popular models for the flow in the porous media are those suggested by Darcy and by Brinkman. Interface conditions, proposed in the mathematical literature for coupling Darcy and Navier-Stokes equations, are shortly reviewed in the thesis. The coupling of Navier-Stokes and Brinkman equations in the literature is based on the so called continuous stress tensor interface conditions. One of the main tasks of this thesis is to investigate another type of interface conditions, namely, the recently suggested stress tensor jump interface conditions. The mathematical models based on these interface conditions were not carefully investigated from the mathematical point of view, and also their validity was a subject of discussions. The considerations within this thesis are a step toward better understanding of these interface conditions. Several aspects of the numerical simulations of such coupled flows are considered: -the choice of proper interface conditions between the plain and porous media -analysis of the well-posedness of the arising systems of partial differential equations; -developing numerical algorithm for the stress tensor jump interface conditions, coupling Navier-Stokes equations in the pure liquid media with the Navier-Stokes-Brinkman equations in the porous media; -validation of the macroscale mathematical models on the base of a comparison with the results from a direct numerical simulation of model representative problems, allowing for grid resolution of the pore level geometry; -developing software and performing numerical simulation of 3-D industrial flows, namely of oil flows through car filters.
A non-linear multigrid solver for incompressible Navier-Stokes equations, exploiting finite volume discretization of the equations, is extended by adaptive local refinement. The multigrid is the outer iterative cycle, while the SIMPLE algorithm is used as a smoothing procedure. Error indicators are used to define the refinement subdomain. A special implementation approach is used, which allows to perform unstructured local refinement in conjunction with the finite volume discretization. The multigrid - adaptive local refinement algorithm is tested on 2D Poisson equation and further is applied to a lid-driven flows in a cavity (2D and 3D case), comparing the results with bench-mark data. The software design principles of the solver are also discussed.
In first part of this work, summaries of traditional Multiphase Flow Model and more recent Multiphase Mixture Model are presented. Attention is being paid to attempts include various heterogeneous aspects into models. In second part, MMM based differential model for two-phase immiscible flow in porous media is considered. A numerical scheme based on the sequential solution procedure and control volume based finite difference schemes for the pressure and saturation-conservation equations is developed. A computer simulator is built, which exploits object-oriented programming techniques. Numerical result for several test problems are reported.
One of the main goals of an organization developing software is to increase the quality of the software while at the same time to decrease the costs and the duration of the development process. To achieve this, various decisions e.ecting this goal before and during the development process have to be made by the managers. One appropriate tool for decision support are simulation models of the software life cycle, which also help to understand the dynamics of the software development process. Building up a simulation model requires a mathematical description of the interactions between di.erent objects involved in the development process. Based on experimental data, techniques from the .eld of knowledge discovery can be used to quantify these interactions and to generate new process knowledge based on the analysis of the determined relationships. In this paper blocked neuronal networks and related relevance measures will be presented as an appropriate tool for quanti.cation and validation of qualitatively known dependencies in the software development process.
The objective of the present article is to give an overview of an application of Fuzzy Logic in Regulation Thermography, a method of medical diagnosis support. An introduction to this method of the complementary medical science based on temperature measurements – so-called thermograms – is provided. The process of modelling the physician’s thermogram evaluation rules using the calculus of Fuzzy Logic is explained.
The question of how to model dependence structures between financial assets was revolutionized since the last decade when the copula concept was introduced in financial research. Even though the concept of splitting marginal behavior and dependence structure (described by a copula) of multidimensional distributions already goes back to Sklar (1955) and Hoeffding (1940), there were very little empirical efforts done to check out the potentials of this approach. The aim of this thesis is to figure out the possibilities of copulas for modelling, estimating and validating purposes. Therefore we extend the class of Archimedean Copulas via a transformation rule to new classes and come up with an explicit suggestion covering the Frank and Gumbel family. We introduce a copula based mapping rule leading to joint independence and as results of this mapping we present an easy method of multidimensional chi²-testing and a new estimate for high dimensional parametric distributions functions. Different ways of estimating the tail dependence coefficient, describing the asymptotic probability of joint extremes, are compared and improved. The limitations of elliptical distributions are carried out and a generalized form of them, preserving their applicability, is developed. We state a method to split a (generalized) elliptical distribution into its radial and angular part. This leads to a positive definite robust estimate of the dispersion matrix (here only given as a theoretical outlook). The impact of our findings is stated by modelling and testing the return distributions of stock- and currency portfolios furthermore of oil related commodities- and LME metal baskets. In addition we show the crash stability of real estate based firms and the existence of nonlinear dependence in between the yield curve.
In this paper we focus on the strategic design of supply chain networks. We propose a mathematical modeling framework that captures many practical aspects of network design problems simultaneously but which have not received adequate attention in the literature. The aspects considered include: dynamic planning horizon, generic supply chain network structure, external supply of materials, inventory opportunities for goods, distribution of commodities, facility configuration, availability of capital for investments, and storage limitations. Moreover, network configuration decisions concerning the gradual relocation of facilities over the planning horizon are considered. To cope with fluctuating demands, capacity expansion and reduction scenarios are also analyzed as well as modular capacity shifts. The relation of the proposed modeling framework with existing models is discussed. For problems of reasonable size we report on our computational experience with standard mathematical programming software. In particular, useful insights on the impact of various factors on network design decisions are provided.
Wesentliches Ziel dieser Arbeit war ein verbessertes Verständnis der Autoionisationsdynamik in ausgewählten angeregten und anionischen atomaren Stoßkomplexen. Dazu wurden die Energiespektren der in diesen Prozessen freigesetzten Elektronen, zum Teil in Abhängigkeit vom Emissionswinkel, mit hoher Auflösung untersucht und mit quantenmechanischen Rechnungen (die in Kooperation mit Theoretikern durchgeführt wurden) verglichen. Ein Schwerpunkt lag dabei auf Experimenten zur assoziativen Ionisation in Stößen metastabiler Argonatome mit Wasserstoffatomen. In diesem System liegt die Anregungsenergie der metastabilen Argonatome (11.7232eV für den Ar*(3P0)- und 11.5484eV für den Ar*(3P2)-Zustand) niedriger als die Ionisierungsenergie von atomarem Wasserstoff (13.5984eV), und so kann bei thermischen Stoßenergien nur assoziative Ionisation unter Bildung von ArH+-Molekülionen gemäß dem Prozess Ar*(4s 3P2,3P0) + H(1s) --> ArH+(v+,J+) + e-(E) auftreten, welche über Kurvenkreuzungen ablaufen muss. Erstmals wurden die Energieverteilungen der in diesem Prozess emittierten Elektronen für verschiedene Nachweiswinkel gemessen, wobei die Messungen bei einem Nachweiswinkel zustandsselektiert durchgeführt wurden. Die Elektronenenergiespektren zeigen eine deutliche Variation der auftretenden Vibrationsstufen mit dem Nachweiswinkel, wobei verschiedene Winkelabhängigkeiten bei den Stufen zu kleinen und zu großen Vibrationsquantenzahlen v+ beobachtet wurden. Zur Durchführung der winkelabhängigen Messungen wurde ein hochauflösendes Elektronenspektrometer konstruiert, welches an den bereits vorhandenen apparativen Aufbau angepasst und mit einer Option für positionsempfindlichen Elektronennachweis versehen wurde. Charakterisierungs-Messungen haben gezeigt, dass mit dem neuen Elektronenanalysator bei Spaltbreiten von 0.2mm Spektrometerbreiten bis hinab zu 6meV erreicht werden können. Im Rahmen weiterer Experimente mit metastabilen Edelgasatomen wurden erstmals zustandsselektiv die Energieverteilungen der in den Stoßkomplexen Ar*(4s 3P2,3P0) + Hg und Kr*(5s 3P2,3P0) + Hg emittierten Elektronen gemessen. Bei diesen Systemen kann bei thermischen Stoßenergien sowohl Penning-Ionisation gemäß dem Prozess Rg* + Hg --> Rg + Hg+ + e-(E) als auch assoziative Ionisation gemäß Rg* + Hg --> RgHg+ + e-(E) (Rg = Ar oder Kr) auftreten. Diese Messungen wurden unter einem festen Nachweiswinkel (90° relativ zur Richtung des Metastabilenstrahls) durchgeführt. Es wurde beobachtet, dass im Ar*(3P0)+Hg-Spektrum im Vergleich zum Ar*(3P2)+Hg-Spektrum eine zusätzliche Struktur bei geringerer Elektronenenergie auftritt, welche sich nur durch Kopplung an einen tiefer liegenden Autoionisationskanal erklären lässt. Für das System Ar*(3P2) + Hg wurden parallel zu dieser Arbeit quantenmechanische Modellrechnungen von L. Thiel durchgeführt. Aus dem gemessenen Elektronenenergiespektrum konnte unter Verwendung eines ab initio Potentials für den Ausgangskanal ein komplexes Modellpotential für den Eingangskanal gewonnen werden, mit welchem das gemessene Elektronenenergiespektrum gut reproduziert wird. Neben den Experimenten zur assoziativen und zur Penning-Ionisation wurden in Kooperation mit auswärtigen Gruppen Untersuchungen zum assoziativen Detachment in anionischen Stoßkomplexen durchgeführt. Gemeinsam mit M. Cizek und J. Horacek (Prag, Tschechische Republik) wurden die in einem simulierten Experiment zu erwartenden Elektronenenergieverteilungen aus dem Prozess X- + H --> XH(v,J) + e-(E) (X = Cl oder Br) zum einen unter Verwendung einer nichtlokalen Resonanztheorie und zum anderen unter Verwendung einer lokalen Näherung berechnet. Dabei sagten die nichtlokalen Rechnungen deutliche zusätzliche, durch Kanalkopplungseffekte hervorgerufene Strukturen voraus. Deren energetische Positionen im Elektronenenergiespektrum sind annähernd unabhängig von der Stoßenergie und sollten deshalb auch bei relativ breiter Stoßenergieverteilung gut beobachtbar sein. Motiviert durch diesen Befund wurden in Kooperation mit S. Zivanov und M. Allan (Fribourg, Schweiz) erstmals elektronenspektrometrische Untersuchungen an den anionischen Stoßkomplexen Cl- + H und Br- + H durchgeführt. Die gemessenen Elektronenenergieverteilungen zeigen für beide Systeme die im Rahmen der nichtlokalen Resonanztheorie vorhergesagten zusätzlichen Strukturen und dokumentieren damit die starken Kanalkopplungseffekte sowie die für diese Systeme unzureichende Beschreibung durch lokale komplexe Potentiale.
Ziel dieser Arbeit war es, die Rolle der PDE1C-Isoform in ZNS-Zellen zu untersuchen. Es sollte vor allem die Bedeutung der PDE1C als mögliches Target für die anti-neoplastische Therapie von ZNS-Tumoren näher beleuchtet werden. Die humanen Glioblastomzellinien SNB75, SF295, SF539 und SF268 wurden bezüglich ihrer PDE1- und PDE4-Isoenzymausstattung näher charakterisiert. Es zeigte sich, daß die Zellinien SNB75 und SF295 in ihrem PDE-Expressionsmuster sehr unterschiedlich sind: In der Zellinie SNB75 liegt die cAMP-hydrolytische Aktivität deutlich über jener in SF295-Zellen. Darüber hinaus weisen die SNB75-Zellen einen hohen Anteil Ca2+/CaM-stimulierbarer PDE1-Aktivität bei niedriger PDE4-Aktivität auf. Im Gegensatz dazu zeigt die Zellinie SF295, welche keine Ca2+/CaM-stimulierbare PDE-Aktivität besitzt, einen hohen prozentualen Anteil an Rolipram-hemmbarer PDE4-Aktivität. Darüber hinaus verhalten sich die beiden Zellinien auch bezüglich ihrer Gehalte an den „second messengern“ cAMP und cGMP komplementär. In den SNB75-Zellen ist der cAMP-Spiegel etwa um 2/3 niedriger als in den SF295-Zellen; der cGMP-Spiegel ist etwa doppelt so hoch wie der cAMP-Gehalt. In SF295-Zellen hingegen liegt der Gehalt an cGMP um etwa die Hälfte niedriger als der cAMP-Spiegel und ist somit vergleichbar mit dem cGMP-Gehalt der SNB75-Zellen. Auch die intrazelluläre Konzentration von Ca2+ ist in der Zellinie SNB75 höher als in SF295-Zellen. Die Untersuchung ausgelöster Ca2+-Transienten – mit besonderem Augenmerk auf den capacitativen Ca2+-Einstrom (CCE) – ergab, daß in SNB75-Zellen die Kapazität der intrazellulären Ca2+-Speicher und die Geschwindigkeit der Speicherentleerung größer sind als in SF295-Zellen. Auch der CCE ist in SNB75-Zellen größer als in der Zellinie SF295. An den beiden humanen Glioblastomzellinien SNB75 und SF295 wurden mittels Cytotoxizitätstests verschiedene PDE-Hemmstoffe auf ihr wachstumshemmendes Potential untersucht. Für den PDE4-Inhibitor DC-TA-46 konnte ein IC50-Bereich von 3-4.5 µM für die Hemmung des Zellwachstums ermittelt werden. Der als PDE1-Hemmstoff eingesetzte CaM-Antagonist Calmidazoliumchlorid wies einen IC50-Wert für die Wachstumshemmung von 2-3 µM auf. Ein Zusammenhang zwischen PDE1 bzw. PDE4-Expression der Zellinien und dem wachstumshemmenden Potential der eingesetzten Substanzen war nicht erkennbar. Zur weiteren Charakterisierung der Zellinie SNB75 wurden der Karyotyp und die Verdopplungszeit der Zellinie bestimmt. Weiterhin wurde die cDNA der PDE1C aus der humanen Biopsieprobe TB1365 (anaplastisches Astrocytom) kloniert und das rekombinante Protein transient überexprimiert. An der rekombinanten PDE1C wurden – neben der Stimulierbarkeit des Proteins durch Ca2+/CaM (+ 130 %) – die beiden PDE-Hemmstoffe DC-TA-46 und Vinpocetin getestet. Diese beiden Substanzen hemmten die Aktivität der rekombinanten PDE1C um durchschnittlich 42 % (DC-TA-46) bzw. 28 % (Vinpocetin). Ein in vitro-Tiermodell zur näheren Untersuchung der PDE-Ausstattung und cAMP-Homöostase von nicht-malignen ZNS-Zellen und Glioblastomzellen sollte aus subkultivierten Ratten-Astrocyten und der Ratten-Glioblastomzellinie C6 entwickelt werden. Die Untersuchungen der vorliegenden Arbeit zeigen, entgegen Daten für Keratinocyten (Marko et al., 1998), daß die PDE-Aktivität in nicht-malignen Ratten-Astrocyten deutlich höher liegt als in der Glioblastomzellinie C6. Die Ratten-Astrocyten zeigen eine höhere Ca2+/CaM-stimulierbare PDE1-Aktivität. In der Zellinie C6 hingegen ist der PDE4-Anteil im Vergleich zu Ratten-Astrocyten höher. Diese Ergebnisse werden durch RT-PCR-Versuche gestützt. Die Gehalte der „second messenger“ cAMP, cGMP und Ca2+ sind in nicht-malignen Ratten-Astrocyten und malignen C6-Zellen vergleichbar. Allerdings weisen die C6-Zellen einen größeren CCE auf. Der Einsatz von DC-TA-46 in Cytotoxizitätstests weist sowohl in Ratten-Astrocyten als auch in C6-Tumorzellen vergleichbare Hemmwirkungen (IC50-Wert ~ 1.5 µM) auf. Der CaM-Antagonist Calmidazoliumchlorid wirkt in subkultivierten Ratten-Astrocyten bereits in geringsten Konzentrationen wachstumshemmend; der IC50-Wert der Wachstumshemmung von C6-Zellen liegt bei 2.3 µM. Ergebnisse dieser Arbeit zeigen allerdings, daß das untersuchte Ratten-Zellmodell – auch aufgrund der unterschiedlichen Kulturbedingungen, welche die PDE-Expression beeinflussen – nur mit Einschränkungen einsetzbar ist. Aufgrund der aktuellen Daten scheint die PDE1C als Target für eine anti-neoplastischen Therapie von ZNS-Tumoren kaum geeignet. Der Vergleich von nicht-malignen und malignen ZNS-Zellen deutet eher auf eine „down“-Regulation der PDE1C und eine „up“-Regulation der PDE4 hin. Dies konnte sowohl in humanen als auch in Rattenzellen gezeigt werden und müßte in weiteren Untersuchungen vertiefend untersucht werden.
We present new algorithms and provide an overall framework for the interaction of the classically separate steps of logic synthesis and physical layout in the design of VLSI circuits. Due to the continuous development of smaller sized fabrication processes and the subsequent domination of interconnect delays, the traditional separation of logical and physical design results in increasingly inaccurate cost functions and aggravates the design closure problem. Consequently, the interaction of physical and logical domains has become one of the greatest challenges in the design of VLSI circuits. To address this challenge, we propose different solutions for the control and datapath logic of a design, and show how to combine them to reach design closure.
Das Projekt META-AKAD beschäftigt sich mit dem automatisierten Sammeln und bibliothekarischen Erschließen von Lehr- und Lernmaterialien. Es ist unterteilt in drei zentrale Säulen (Anfrageverarbeitung, Ergebnisverarbeitung und XML-Dokument-Management). Die vorliegende Arbeit beschäftigt sich mit dem XML-Dokument-Management. Es stellt eine generische Schnittstelle bereit, um neue XML-Dokumente in das System einzufügen und bestehende Daten zu aktualisieren oder zu löschen. Hierbei wurden Konzepte entwickelt und umgesetzt, um vom verwendeten Datenbank- und Metadatenschema abstrahieren zu können.
Clusters bridge the gap between single atoms or molecules and the condensed phase and it is the challenge of cluster science to obtain a deeper understanding of the molecular foundation of the observed cluster specific properties/reactivities and their dependence on size. The electronic structure of hydrated magnesium monocations [Mg,nH2O]+, n<20, exhibits a strong cluster size dependency. With increasing number of H2O ligands the SOMO evolves from a quasi-valence state (n=3-5), in which the singly occupied molecular orbital (SOMO) is not yet detached from the metal atom and has distinct sp-hybrid character, to a contact ion pair state. For larger clusters (n=17,19) these ion pair states are best described as solvent separated ion pair states, which are formed by a hydrated dication and a hydrated electron. With growing cluster size the SOMO moves away from the magnesium ion to the cluster surface, where it is localized through mutual attractive interactions between the electron density and dangling H-atoms of H2O ligands forming "molecular tweezers" HO-H (e-) H-OH. In case of the hydrated aluminum monocations [Al,nH2O]+,n=20, different isomers of the formal stoichiometry [Al,20H2O]+ were investigated by using gradient-corrected DFT (BLYP) and three different basic structures for [Al,20H2O]+ were identified: (a) [AlI(H2O)20]+ with a threefold coordinated AlI; (b) [HAlIII(OH)(H2O)19]+ with a fourfold coordinated AlIII; (c) [HAlIII(OH)(H2O)19]+ with a fivefold coordinated AlIII. In ground state [AlI(H2O)20]+ (a) which contains aluminum in oxidation state +1 the 3s2 valence electrons remain located at the aluminium monocation. Different than for open shell magnesium monocations no electron transfer into the hydration shell is observed for closed shell AlI. However, clusters of type (a) are high energy isomers (DE»+190 kJ mol-1) and the activation barrier for reaction into cluster type (b) or (c) is only approximately 14 kJ mol-1. The performed ab initio calculations reveal that unlike in [Mg,nH2O]+, n=7-17, for which H atom eliminiation is found to be the result of an intracluster redoxreaction, in [Al,nH2O]+,n=20, H2 is formed in an intracluster acid-base reaction. In [Mg,nH2O]+, n>17, the magnesium dication was found to coexist with a hydrated electron in larger cluster sizes. This proves that intermolecular electron delocalization - previously almost exclusively studied in (H2O)n- and (NH3)n- clusters - can also be an important issue for water clusters doped with an open shell metal cation or a metal anion. Structures and stabilities of hydrated magnesium water cluster anions with the formal stoichiometry [Mg,nH2O]-, n=1-11, were investigated by application of various correlated ab initio methods (MP2, CCSD, CCSD(T)). Metal cations surely have high relevance in numerous biological processes, and as most biological processes take place in aqueous solution hydrated metal ions will be involved. However, in biological systems solvent molecules (i.e. water) compete with different solvated chelate ligands for coordination sites at the metal ion and the solvent and chelate ligands are in mutual interactions with each other and the metal ion. These interactions were investigated for the hydration of ZnII/carnosine complexes by application of FT-ICR-MS, gas-phase H/D exchange experiments and supporting ab initio calculations. In the last chapter of this work the Free Electron Laser IR Multi Photon Dissocition (FEL-IR-MPD) spectra of mass selected cationic niobium acetonitrile complexes with the formal stoichiometry [Nb,nCH3CN]+, n=4-5, in the spectral range 780 – 2500 cm-1 are reported. In case of n=4 the recorded vibrational bands are close to those of the free CH3CN molecule and the experimental spectra do not contain any evident indication of a potential reaction beyond complex formation. By comparison with B3LYP calculated IR absorption spectra the recorded spectra are assigned to high spin (quintet, S=2), planar [NbI(NCCH3)4]+. In [Nb,nCH3CN]+, n=5, new vibrational bands shifted away from those of the acetonitrile monomer are observed between 1300 – 1550 cm-1. These bands are evidence of a chemical modification due to an intramolecular reaction. Screening on the basis of B3LYP calculated IR absorption spectra allow for an assignment of the recorded spectra to the metallacyclic species [NbIII(NCCH3)3(N=C(CH3)C(CH3)=N)]+ (triplet, S=1), which has formed in a internal reductive nitrile coupling reaction from [NbI(NCCH3)5]+. Calculated reaction coordinates explain the experimentally observed differences in reactivity between ground state [NbI(NCCH3)4]+ and [NbI(NCCH3)5]+. The reductive nitrile coupling reaction is exothermic and accessible (Ea=49 kJ mol-1) only in [NbI(NCCH3)5]+, whereas in [NbI(NCCH3)4]+ the reaction is found to be endothermic and retarded by significantly higher activation barriers (Ea>116 kJ mol-1).
Die enorme Reaktivität des Tetrahedrans [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) konnte durch die Komplexierung eines der beiden Phosphoratome mit dem 16VE-Übergangsmetall-Fragment {W(CO)5}herabgesetzt werden. Die Oxidation von [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) mit Schwefel und Selen führt bereits bei Raumtemperatur zu den pseudo-Tripeldeckerkomplexen vom Typ [{Cp'''Fe}2(µ-eta4:4-P2X2)] (2,3) mit einem P2X2-Mitteldeck (X = S, Se). Die vier Hauptgruppenelemente liegen als trapezoid angeordnete Kette vor (RSA), ähnlich der P4-Kette in den Komplexen vom Typ [{CpRFe}2(µ-eta4:4-P4)] (4). Unter Photolyse-Bedingungen erhält man durch Abspaltung der verbrückenden CO-Gruppe aus 1 den bereits von Eichhorn [11,38] charakterisierten Bicyclus [{Cp'''Fe}2(µ-P)2] (5), der in situ mit Schwefel und Selen zu den selben Oxidationsprodukten 2 beziehungsweise 3 reagiert (vgl. voranstehend). Die Komplexierung beider Phosphoratome in den pseudo-Tripeldeckerkomplexen 2 und 3 mit [W(CO)6] ist möglich, wobei die einfach komplexierte Verbindung [{Cp'''Fe}2(µ3-eta4:4:1-P2X2){W(CO)5}] (6,7) (X = S, Se) die P2X2-Struktureinheit des Eduktes beibehält, wäh-rend bei der Zweifachkomplexierung ein stark verzerrtes trigonales Prisma entsteht. Die beiden {W(CO)5}-Fragmente sind in [Cp'''2Fe2P2X2{W(CO)5}2] (8,9) (X = S, Se) symmetrisch an dieses Polyedergerüst koordiniert. Im Fall des Selens entsteht noch eine dritte Verbindung, deren zentrales Strukturelement ein P2Se2Fe-Fünfring ist, in welchem das Fe-Atom etwas nach unten abknickt und neben einem η5-koordinierten Cp'''-Ring eine terminale CO-Bindung aufweist. In Verbindung [Cp'''Fe(µ4-eta4:2:1:1-P2Se2)Fe(CO) Cp'''{W(CO)5}2] (10) sind die beiden Phosphoratome zusätzlich komplexiert. Die Langzeitthermolyse des [{In''(OC)2Fe}2(µ-eta1:1-P4)]-Butterfly-Komplexes (11) mit dem zweikernigen [{Cp'''Fe(CO)2}2] (12) liefert drei pseudo-Tripeldeckerkomplexe [{Cp'''Fe}2(µ-eta4:4-P4)] (4a), [{In''Fe}2(µ-eta4:4-P4)] (4b) und [{Cp'''Fe}{In''Fe}(µ-eta4:4-P4)] (4c). Bei der Umsetzung des Cp'''-Derivates 4a mit [W(CO)6] können zwei strukturisomere Komplexierungsprodukte 31P-NMR-spektroskopisch nachgewiesen werden. Durch fraktionierende Kristallisation gelangt man zu einer analysenreinen Substanz, die röntgenstrukturanalytisch als der alternierend koordinierte Komplex [{Cp'''Fe}2(µ4-eta4:4:1:1-P4){W(CO)5}2] (13) charakterisiert werden kann. Bei dem Versuch, ein Ruthenium-Dimer vom Typ [{CpRRu(CO)2}2] (14) mit dem Tri-tert-butyl-Cyclopentadienylliganden zu synthetisieren, erhält man nur Verbindung [{Cp'''Ru}2(µ-CO)(µ-O)] (15), dessen thermische Umsetzung mit weißem Phosphor zu einem weiteren pseudo-Tripeldeckerkomplex [{Cp'''Ru}2(µ-eta4:4-P4)] (16) mit einem P4-Mitteldeck führt.
Mit dem sterisch anspruchsvollen Di-tert-butyl-Indenylliganden kann alternativ zu den bisher verwendeten alkyl-und silylsubstituierten Cyclopentadienylen der komplette Syntheseweg für die P4-Butterflykomplexe vom Typ [{CpR(OC)2Fe}2(µ-eta1:1-P4)] (2) durchgeführt werden. Die Langzeitthermolyse von [{In''(OC)2Fe}2(µ-eta1:1-P4)] (2b) liefert neben den seit langem bekannten Decarbonylierungsprodukten [{In''Fe}2(µ-eta4:4-P4)] (10b) und [In''Fe(eta5-P5)] (1b) auch den erst seit kurzem bekannten tetrahedranähnlichen Komplex 9b als äußerst instabile Verbindung. Die photolytisch induzierte Decarbonylierung von 9a führt zu einer strukturell außergewöhnlichen Verbindung mit zwei gewinkelten µ-P-Liganden im nahezu planaren Fe2P2-Vierring und einem Signal für beide Phosphoratome im extremen Tieffeld bei delta = 1406.9 ppm. Thermische Umsetzungen des Tetraphosphabicyclobutan-Komplexes 2b mit einem vierfachen Überschuß an Alkin oder Phosphaalkin liefern in Abhängigkeit vom Substituentenmuster interessante Polyphospholyl-Verbindungen. Symmetrisch substituierte Alkine führen nahezu ausschließlich zur Bildung der Sandwichkomplexe [In''Fe(eta5-{P3(CR)2})] (14b,15b) mit einem eta5-koordinierten 1,2,3-Triphospholylliganden in sehr guten Ausbeuten. Bei unsymmetrisch substituierten Alkinen tritt im Fall von elektronenziehenden Substituenten am Kohlenstoff-Atom die Synthese von Sandwichkomplexen mit einem Monophospholylliganden 17 dazu in Konkurrenz. Desweiteren entsteht das phosphorfreie, verzerrte Tetrahedran [{In''Fe}2(µ-CO)(µ-C2PhH)] (19). Donor-Substituenten am Kohlenstoff-Atom wie tert-Butyl- oder Trimethylsilylgruppen dagegen verhindern die Bildung der Monophosphaferrocene 17 vollständig. Die Reaktion von 2b mit einem Phosphaalkin beruht auf dem gleichen Prinzip und führt ebenfalls zu Sandwichkomplexen mit einem Polyphospholylliganden. Neben dem 1,2,4-Triphospha- 28 und dem 1,2,3,4-Tetraphosphaferrocen 29 wird die Bildung des Komplexes 27 mit einem 1,3-Diphosphet als eta^4-koordiniertem Ligand beobachtet. Dieser ist auf die Cycloaddition zweier Phosphaalkin-Einheiten zurückzuführen, während [In''Fe(eta5-{P3(C2{(C6H10)CH3}2)})] (28) und [In''Fe(eta5-{P4(C{C6H10}CH3)})] (29) durch den Einbau von P=C-R in das Tetraphosphabicyclobutan-Gerüst entstehen. Die Komplexierung eines oder mehrerer Phosphoratome im Mono- oder 1,2,3-Triphosphaferrocen mit ÜM-Fragmenten vom Typ {M(CO)5} (M = W, Cr) gelingt problemlos bei Raumtemperatur. Versuche zur Oxidation von 14b oder 17b mit Schwefel und Reduktion mit Kalium führten ausnahmslos zur unspezifischen Zersetzung des Eduktes. Das Aufstockungsverfahren nach Rybinskaya zur Bildung von 30 VE-Tripeldeckerkomplexen hat Hilt schon 1999 am 1,2,3-Triphosphaferrocen erfolgreich durchgeführt. Diese Reaktion konnte ebenso auf den Monophospholyl-Eisen(II)-Komplex 17b übertragen werden.
Die Tyrosinphosphorylierung von Proteinen ist ein wichtiges Schlüsselelement bei der Regulation zellulärer Signalwege und wird durch antagonistisch wirkende Proteintyrosin-kinasen und Proteintyrosinphosphatasen in einem dynamischen Gleichgewicht gehalten. Trotz der Erkenntnis, dass Phosphatasen an der Regulation essentieller zellulärer Vorgänge beteiligt sind, ist über die Funktion und Regulation individueller Phosphatasen nur wenig bekannt. In der vorliegenden Arbeit sollte die physiologische Rolle der Proteintyrosinphosphatase BDP1 untersucht werden. Einen Schwerpunkt bildete hierbei die Negativregulation der Rezeptortyrosinkinase HER2 sowie der HER2-vermittelten Signaltransduktion durch BDP1. Es konnte gezeigt werden, dass die Überexpression von BDP1 die Liganden-induzierte Tyrosinphosphorylierung von HER2 und des Adaptorproteins Gab1 inhibierte und die Aktivierung von MAP-Kinasen reduzierte. Dagegen erhöhte die Unterdrückung der endogenen BDP1-Expression den Phosphorylierungsstatus von HER2. Die Koexpression von BDP1 und HER2 in Brustkrebszelllinien sowie die Assoziation von HER2 mit einer Substrat-bindenden Mutante von BDP1 deuten zusätzlich darauf hin, dass BDP1 ein Regulator der Aktivität von HER2 ist und damit die erste Phosphatase, die mit der Kontrolle des HER-Signals in Verbindung gebracht wird. Weiterhin wurde die BDP1-Expression während der schwangerschaftsinduzierten Differenzierung der murinen Brustdrüse analysiert. Die Untersuchungen zeigten, dass BDP1 in duktalen und alveolaren Brustepithelzellen exprimiert wird. Die Expression der Phosphatase konnte während der Differenzierung der Brustepithelzelllinie HC11 durch Prolaktin und Dexamethason induziert werden. Zusammen mit der Existenz von Stat5- und Glukokortikoidrezeptor-Bindestellen in der Promotorregion von bdp1 sowie der verminderten Expression der Phosphatase im Brustgewebe Stat5-defizienter Mäuse weist dies auf eine Expressionskontrolle des BDP1-Gens durch Schwangerschaftshormone hin und suggeriert eine Rolle der Phosphatase im Differenzierungsprozess der Brustdrüse. Im letzten Teil der Arbeit wurde die Bindung von BDP1 an das Adaptorprotein Grb2 untersucht. Es konnte gezeigt werden, dass die Interaktion zur Hyperphosphorylierung der Phosphatase führte. Dies konnte zumindest teilweise auf eine Grb2-vermittelte Wechselwirkung von BDP1 mit der Tyrosinkinase c-Abl zurückgeführt werden. Zusammengenommen liefern die vorgestellten Ergebnisse neue Daten zur Funktion, Expression und Regulation von BDP1 und tragen entscheidend zur Charakterisierung der biologischen Funktion dieser Phosphatase bei.
Die wesentlichste Veränderung durch Basel II, mit der kreditsuchende Unternehmen konfrontiert sein werden, ist das Rating als wesentlicher Bestandteil des Kreditvergabeprozesses. Auf das Unternehmenscontrolling werden in diesem Zusammenhang, insbesondere im Be-reich der Kommunikation mit externen Adressaten, Neuerungen zukommen. Kommunikation mit Stakeholdern außerhalb des Unternehmens war bisher nur im Rahmen der Investor Relations und eingeschränkt bei der Kreditvergabe anzutreffen. Durch Basel II muss sich das Unternehmenscontrolling jedoch sehr viel offener und kooperativer gegenüber von Ratingagenturen oder der entsprechenden Abteilung der Bank zeigen. In der Ausgestaltung des Risikocontrollings sind für eine Ausrichtung nach Basel II keine gestalterischen Innovationen notwendig. Die risikoadäquatere Bildung des Zinssatzes bietet lediglich einen monetären Anreiz, die Anforderungen, die beispielsweise schon größtenteils durch das KonTraG aufgestellt wurden, innerhalb der Unternehmen zu implementieren.
Diese Projektarbeit beschreibt die Anforderungen, den Aufbau und die Implementierung der Anfrageverarbeitung (Query-Engine). Im diesem Kapitel werden die Zielsetzungen des Meta-Akad Projekts und die Realisierungsmöglichkeiten mit dem Java 2 Enterprise Edition Framework erörtert. Ferner wird die Einordnung der Anfrageverarbeitung in das Gesamtsystem gezeigt. Das zweite Kapitel erläutert grob Anforderungen sowie Ablauf der Anfrageverarbeitung und stellt das Implementierungskonzept dar. In den Nachfolgenden Kapitel wird dann näher auf die einzelnen Phasen der Verarbeitung und die auftretenden Probleme eingegangen. Am Ende werden im Kapitel Ausblick Möglichkeiten für Erweiterungen und Verbesserungen der Anfrageverarbeitung des Meta-Akad Suchdienstes dargelegt.
Das Internet ist kein statisches Objekt, das keinen Veränderungen ausgesetzt ist. Ständig werden neue Informationsmaterialien hinzugefügt, bestehende Inhalte verändert oder ganz entfernt. Das Verändern und Entfernen von Materialien ist ein Problem, das von META-AKAD nicht außer Acht gelassen werden darf. Es ist notwendig die erschlossenen Lehr- und Lernmaterialien ständig auf Veränderung und auf ihre Verfügbarkeit hin zu prüfen. Im Rahmen dieser Projektarbeit soll eine Aktualisierungskomponente entwickelt werden, die es ermöglicht die gesammelten und bereits erschlossenen Lehr- und Lernmaterialien in festgelegten Zyklen automatisch auf ihre Aktualität und Verfügbarkeit hin zu überprüfen. Dies erleichtert es, die gesammelten Materialien zu kontrollieren und zu verwalten. Weiterhin soll die Aktualisierungskomponente dabei helfen nicht mehr verfügbare oder veraltete Dokumente aus der Menge der erfassten Materialien ausfindig zu machen, um diese eventuell entfernen zu können.
Das Projekt Meta-Akad hat das Ziel, Lernenden und Lehrenden den möglichst einfachen, umfassenden und schnellen Zugriff auf Lehrmaterial zu ermöglichen. Dabei werden verschiedene, über die Aspekte einer reinen Internet- Suchmaschine hinausgehende Aspekte berücksichtigt: Neben dem Aufbau einer umfangreichen und repräsentativen Sammlung von Lerndokumenten sollen diese mittels bibliothekarischer Methoden erschlossen und mit umfangreichen Metadaten, wie beispielsweise einer inhaltlichen Einordnung, versehen werden. Um dem Problem der fraglichen Qualität von Dokumenten aus dem Internet gerecht zu werden, bietet Meta-Akad die Möglichkeit diese durch Beguchtachtungsverfahren sicherzustellen. Aufgrund dieses Mehrwerts versteht sich das Projekt als virtuelle, über das Internet erreichbare Bibliothek. Der Zugriff auf die erfassten Dokumente ist durch eine Web-basierte Schnittstelle realisiert: Diese soll sowohl die Möglichkeit einer Suche durch Angabe von Schlüsselwörtern, als auch das Blättern in der Dokumentsammlung erlauben. Eine Suche nach Schlüsselwörtern soll neben den Meta-Daten auch den gesamten textuellen Inhalt der Dokumente betreffen. Die Integration der Volltextsuche in den bereits vorhandenen Meta-Daten Suchvorgang ist das Kernthema dieser Projektarbeit.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das vorgestellte SIMERO-System realisiert eine globale Ganzarmkollisionsvermeidung auf der Basis von Bildern stationärer Kameras. Das System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt.
Der oxidative Stress wurde in Patienten mit unterschiedlichen Erkrankungen / Therapien nachgewiesen, bei denen ein erhöhter oxidativer Stress aus der Literatur zum Teil bereits bekannt ist,. Patienten mit chronischem Nierenversagen, die mit der Nierenersatztherapie Hämodialyse (HD) behandelt wurden, wurden sowohl vor als auch während der Behandlung untersucht und mit gesunden Probanden verglichen: Hierzu wurden die Konzentrationen von Harnsäure (photometrisch) und MDA im Plasma (HPLC / Fluoreszenz, Thiobarbitursäurederivat), sowie das Ausmaß des MDA-dG-Adduktes M1dG (Immunoslotblot) und (oxidativer) DNA-Schäden mit dem Comet Assay in Leukozyten untersucht. Der Gehalt an Glutathion wurde im Vollblut mit einem kinetischen, photometrischen Test bestimmt. Der Einfluss verschiedener Dialysemembranen und der Anämiebehandlung mit einem Eisen-Präparat auf den oxidativen Stress wurde mit den Markern oxidative DNA-Schädigung und MDA-Bildung im Plasma geprüft. Ein Faktor für die Biokompatibilität der speziell modifizierten MARS-Membran zur Therapie von Patienten mit akutem Leberversagen wurde mit der herkömmlicher Dialysemembranen mit Hilfe des Comet Assay verglichen. Das Ausmaß (oxidativer) DNA-Schäden durch das Nierenersatzverfahren Transplantation wurde dem der HD gegenübergestellt. In einer Pilotstudie wurde die antioxidative Wirksamkeit eines Mischfruchtsaftes an gesunden Probanden anhand der Endpunkte DNA-Schädigung und MDA-Bildung geprüft. Vor HD zeigte sich im Vergleich zu den gesunden Kontrollen ein starker oxidativer Stress in den Blutzellen, hauptsächlich auf DNA-Ebene. Während der HD wurde in den Blutzellen eine Belastung der antioxidativen Abwehr beobachtet, die sich aber weder auf DNA-Ebene noch in einer verstärkten LPO im Plasma äußerte. Die starke Elimination der Harnsäure wirkte sich ebenfalls nicht auf die anderen Marker im Plasma oder den Blutzellen aus. Somit hatte der Verlust der Harnsäure im Plasma keinen messbaren oxidativen Effekt. Die Untersuchung der oxidativen DNA-Schäden mit dem Comet Assay war der empfindlichste Marker zum Nachweis des oxidativen Stress. Die Untersuchung des Einflusses der Dialysemembran zeigte eine geringere Induktion von oxidativem Stress und damit eine höhere Biokompatibilität der synthetischen Polysulfonmembran (Fresenius F8) und der halbsynthetischen, Vitamin E-beschichteten Cellulosemembran (Terumo E15) im Vergleich zur halbsynthetischen, diacetylierten Cellulosemembran (Baxter DICEA170). Die Infusion eines Eisen-Präparates beeinflusste das Ausmaß der Plasma-MDA-Bildung und der oxidativen DNA-Schädigung stärker als die HD-Membran. Der oxidative Stress wurde bei diesen dialyseassoziierten Einflussfaktoren über unterschiedliche Wege ausgelöst: Die Eisen-Infusion kann über die Fentonreaktion die Generierung von ROS induzieren, die dann weitere Zellbestandteile – zuerst im Plasma, dann in den Leukozyten – schädigen. Die Dialysemembranen stimulieren die Leukozyten in unterschiedlichem Maße zur ROS-Produktion, die sich hauptsächlich auf Ebene der DNA auswirkt. Diese Ergebnisse bestätigten sowohl den in der Literatur beschriebenen erhöhten oxidativen Stress in HD-Patienten im Vergleich zu gesunden Probanden, als auch die modulierenden Eigenschaften der Dialysemembran und der Anämiebehandlung. Um die langfristige Konsequenz dieser dialysebedingten Einflüsse für die Folgeerkrankungen besser verstehen zu können, sollten sie in prospektiven Studien weiter untersucht und mit der Morbidität für Atherosklerose und Krebs korreliert werden. Die Membran der MARS-Therapie löste keine zusätzlichen oxidativen DNA-Schäden aus. Hier könnte der Comet Assay klinische prognostische / diagnostische Parameter ergänzen, was in weiteren Untersuchungen noch abgeklärt werden muss. Die Nierentransplantation verstärkte den oxidativen Stress im Vergleich zur Ersatztherapie HD. Die ersten Ergebnisse zeigten nach Intervention mit dem Mischfruchtsaft leicht verringerte oxidative DNA-Schäden. Diese Wirkung sollte an einem größeren Kollektiv mit verschiedenen Dosierungen überprüft werden. Zusammenfassend sind HD-Patienten eine Population, deren erhöhter oxidativer Stress mit unterschiedlichen Markern verfolgt werden kann. Erstmals wurde die besondere Eignung des Comet Assays zur Erfassung oxidativer DNA-Schäden in HD-Patienten nachgewiesen. Zwei Arten von oxidativen Ereignissen scheinen bei diesen Patienten eine Rolle zu spielen: ein latenter dialysemembranabhängiger, leukozytenvermittelter oxidativer Stress und eine aus den Eiseninfusionen resultierende Überlastung der antioxidativen Abwehr.
We study a possiblity to use the structure of the regularization error for a posteriori choice of the regularization parameter. As a result, a rather general form of a selection criterion is proposed, and its relation to the heuristical quasi-optimality principle of Tikhonov and Glasko (1964), and to an adaptation scheme proposed in a statistical context by Lepskii (1990), is discussed. The advantages of the proposed criterion are illustrated by using such examples as self-regularization of the trapezoidal rule for noisy Abel-type integral equations, Lavrentiev regularization for non-linear ill-posed problems and an inverse problem of the two-dimensional profile reconstruction.
A new class of locally supported radial basis functions on the (unit) sphere is introduced by forming an infinite number of convolutions of ''isotropic finite elements''. The resulting up functions show useful properties: They are locally supported and are infinitely often differentiable. The main properties of these kernels are studied in detail. In particular, the development of a multiresolution analysis within the reference space of square--integrable functions over the sphere is given. Altogether, the paper presents a mathematically significant and numerically efficient introduction to multiscale approximation by locally supported radial basis functions on the sphere.
The Earth's surface is an almost perfect sphere. Deviations from its spherical shape are less than 0,4% of its radius and essentially arise from its rotation. All equipotential surfaces are nearly spherical, too. In consequence, multiscale modelling of geoscientifically relevant data on the sphere involving rotational symmetry of the trial functions used for the approximation plays an important role. In this paper we deal with isotropic kernel functions showing local support and (one-dimensional) polynomial structure (briefly called isotropic finite elements) for reconstructing square--integrable functions on the sphere. Essential tool is the concept of multiresolution analysis by virtue of the spherical up function. The main result is a tree algorithm in terms of (low--order) isotropic finite elements.
In this paper we consider set covering problems with a coefficient matrix almost having the consecutive ones property, i.e., in many rows of the coefficient matrix, the ones appear consecutively. If this property holds for all rows it is well known that the set covering problem can be solved efficiently. For our case of almost consecutive ones we present a reformulation exploiting the consecutive ones structure to develop bounds and a branching scheme. Our approach has been tested on real-world data as well as on theoretical problem instances.
In this paper we discuss an earliest arrival flow problem of a network having arc travel times and capacities that vary with time over a finite time horizon T. We also consider the possibility to wait (or park) at a node before departingon outgoing arc. This waiting is bounded by the value of maximum waiting time and the node capacity which also vary with time.
We generalize the classical shortest path problem in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a traversal time on each arc. The resulting problem, called time-dependent bicriteria shortest path problem (TdBiSP) has several interesting practical applications, but has not attained much attention in the literature.
Chemische und sensorische Auswirkungen physikalischer Konzentrierungsverfahren auf Most und Wein
(2003)
In dieser Arbeit wurden die Auswirkungen weinbaulicher und kellerwirtschaftlicher Anreicherungsverfahren mit der traditionellen Anreicherung durch Saccharose und der unbehandelten Variante verglichen. Die Auswirkungen wurden analytisch und sensorisch erfasst. Die physikalischen Mostkonzentrierungsverfahren zeichnen sich dadurch aus, dass nicht flüchtige Mostinhaltsstoffe mit einem Molekulargewicht größer als 80g/Mol in erwartetem Maße angereichert werden. Diese Anreicherung ist auch im Wein sowohl analytisch als auch sensorisch feststellbar. Ausnahmen von diesem Anreicherungsverhalten bilden Kalium und Weinsäure, die während des Konzentrierungsvorganges als Weinstein ausfallen. Somit steigt auch die titrierbare Säure nicht in theoretisch erwartbarem Maße und der pH-Wert bleibt nahezu gleich wie beim unbehandelten Most bzw. Wein. Die üblicherweise angewendeten, weil kostengünstigeren und auch für Qualitätswein b.A. zugelassenen physikalischen Konzentrierungsverfahren sind Umkehrosmose (UO) und Vakuumverdampfung (VD). Beide Verfahren eignen sich gleichermaßen zur Anwendung an geklärten Weiß- und Rotmosten. Das Wasser (Permeat bzw. Destillat) wird schonend dem Most entzogen. Dabei treten Verluste von maximal 2% der nicht flüchtigen Inhaltsstoffe auf. Bei den Rotweinen zeigen beide Verfahren die gleichen Effekte. Nach Maischeerwärmung werden die Moste durch die physikalische Konzentrierung in ihrem Phenolgehalt sofort angereichert. Auch bei der Maischegärung werden die Phenolgehalte gegenüber der Saccharoseanreicherung angehoben, aber indirekt über ein reduziertes Saft/Maische-Verhältnis. Mit einem Saftentzug von der Maische können vergleichbare Effekte erzielt werden. Dies führt im Vergleich zur Saccharoseanreicherung zu analytisch reicheren und sensorisch signifikant besser bewerteten Rotweinen. Bei den Weißweinen nach UO- bzw. VD-Mostkonzentrierung im Vergleich zur Saccharosekontrolle besticht vor allem die Aromaintensität dadurch, dass glycosidisch gebundene Vorläufersubstanzen aufkonzentriert und die Aglyca verstärkt freigesetzt werden. Die Weine werden fruchtiger und vollmundiger. In der sensorischen Gesamtbeurteilung der konzentrierten Weißweine im Vergleich zur traditionellen Saccharoseanreicherung werden die genannten positiven Effekte durch die meist zu spitze Säure und einem als unharmonisch, eindimensional und zu breit empfundenen Geschmack überlagert. Deswegen werden nur selten signifikante Verbesserungen erreicht. Von UO werden auch im Most frei vorliegende Aromastoffe mit einem Molekulargewicht größer 80g/Mol angereichert, während bei der VD flüchtige Inhaltsstoffe bereits zu Beginn des Konzentrierungsvorganges zum Großteil ins Destillat übergehen. Bei VD werden deutliche Verluste der freien Terpene, C6-Alkohole und 2-Phenylethanol festgestellt. Das führt bei den Estern, die diese Verbindungen als Alkoholkomponente enthalten zu einer stark eingeschränkten Bildung während der Gärung. Daher ist die Konzentrierung von aromaintensiven Mosten mittels VD nicht ratsam. Die Anwendung der Gefrierkonzentrierung (Kryoextraktion) zeigt die höchste Verlustrate an Mostinhaltsstoffen in das abgetrennte Eiswasser (3% Zucker und 9-11% organische Säuren). Bei den Weißweinen erbringt die Gefrierkonzentrierung sowohl im Aromabereich (Terpenanreicherung) als auch bei der Sensorik der jungen Weine deutliche Vorteile gegenüber der traditionellen Saccharoseanreicherung. Im Rotweinbereich haben sich die Verfahren nicht bewährt. Die Mostkonzentrierung von unreifem oder nicht gesundem Material ist nicht ratsam. Zum einen ist die Mostkonzentrierung beschränkt auf eine Anhebung im Gesamtalkoholgehalt von 2%vol. Dies führt bei Mostgewichten zwischen 50°Oe und 70°Oe nicht zu selbstständigen Weinen. Zum anderen werden Unreifefaktoren und Fäulnisparameter zumindest mit dem UO-Verfahren (hier am Beispiel von C6-Alkohlen und 1-Octen-3-ol nachgewiesen) analytisch angereichert, was in Grenzfällen zu einer Intensivierung dieser unerwünschten Eigenschaften führen kann. Durchschnittlich ist mit Mehrkosten von 50 Cent pro Liter mostkonzentriertem Wein gegenüber herkömmlicher Saccharoseanreicherung zu rechnen. Die bislang noch nicht erlaubte Weinkonzentrierung mittels UO bringt gute Ergebnisse bei der Verdichtung von qualitativ hochwertigen Weinen. Dieses Verfahren kann aber nicht als nachträgliches Alkoholanreicherungsverfahren dienen, da der Alkohol zu einem Großteil permeirt und die Anreicherung im Wein nur etwa halb so stark ist wie die der übrigen Inhaltsstoffe.
In this article, we consider the problem of planning inspections and other tasks within a software development (SD) project with respect to the objectives quality (no. of defects), project duration, and costs. Based on a discrete-event simulation model of SD processes comprising the phases coding, inspection, test, and rework, we present a simplified formulation of the problem as a multiobjective optimization problem. For solving the problem (i.e. finding an approximation of the efficient set) we develop a multiobjective evolutionary algorithm. Details of the algorithm are discussed as well as results of its application to sample problems.
Radiation therapy planning is always a tight rope walk between dangerous insufficient dose in the target volume and life threatening overdosing of organs at risk. Finding ideal balances between these inherently contradictory goals challenges dosimetrists and physicians in their daily practice. Today’s planning systems are typically based on a single evaluation function that measures the quality of a radiation treatment plan. Unfortunately, such a one dimensional approach cannot satisfactorily map the different backgrounds of physicians and the patient dependent necessities. So, too often a time consuming iteration process between evaluation of dose distribution and redefinition of the evaluation function is needed. In this paper we propose a generic multi-criteria approach based on Pareto’s solution concept. For each entity of interest - target volume or organ at risk a structure dependent evaluation function is defined measuring deviations from ideal doses that are calculated from statistical functions. A reasonable bunch of clinically meaningful Pareto optimal solutions are stored in a data base, which can be interactively searched by physicians. The system guarantees dynamical planning as well as the discussion of tradeoffs between different entities. Mathematically, we model the upcoming inverse problem as a multi-criteria linear programming problem. Because of the large scale nature of the problem it is not possible to solve the problem in a 3D-setting without adaptive reduction by appropriate approximation schemes. Our approach is twofold: First, the discretization of the continuous problem is based on an adaptive hierarchical clustering process which is used for a local refinement of constraints during the optimization procedure. Second, the set of Pareto optimal solutions is approximated by an adaptive grid of representatives that are found by a hybrid process of calculating extreme compromises and interpolation methods.
Apoptose in Rattenhepatozyten in Primärkultur- Einfluss von TCDD und polychlorierten Biphenylen
(2003)
Zur Untersuchung der Beeinflussung des apoptotischen Zelltodes durch nicht-dioxinartige polychlorierte Biphenyle in primären Rattenhepatozyten wurden Experimente in Kollagengel- Sandwich-Kultur durchgeführt. Die Auslösung von Apoptose erfolgte mittels Behandlung der Zellen mit UV-Licht. Hierzu wurden die PCB-Kongenere 28, 138 und 183 ausgewählt, als Referenzsubstanz diente Phenobarbital. Es konnte festgestellt werden, dass alle verwendeten PCBs sowie Phenobarbital die UV-induzierte Apoptose konzentrationsabhängig signifikant hemmen. Im Rahmen dieser Studie zeigte sich für die maximalen Hemmeffekte gegenüber der bestrahlten Kontrolle die Reihenfolge PCB 138 (38,7%) > Phenobarbital (30,7%) > PCBs 28, 183 (jeweils 29,1%). Die basale (spontane) Apoptose wurde insgesamt weitaus schwächer beeinflusst. Zur eingehenderen Wirkungscharakterisierung dieser PCBs wäre eine Verifikation der gefundenen Ergebnisse anhand eines Tierexperimentes mit Hinblick auf mögliche tumorpromovierende Effekte dieser Substanzen in der Rattenleber von Interesse. Im weiteren Verlauf der Arbeit wurde versucht, einen Assay zu etablieren, der als biochemischer Marker für Apoptose in primären Rattenhepatozyten eingesetzt werden sollte. In Studien zur DNA-Fragmentierung (DNA-ladder) konnte keine Abhängigkeit der DNAFragmentierung von der eingesetzten UV-Dosis detektiert werden. Somit konnte diese Methode nicht zur Charakterisierung einer Beeinflussung der Apoptose eingesetzt werden. Untersuchungen zur Beeinflussung der Gallensäure-induzierten Caspase-3-Aktivität durch Phenobarbital zeigten keine signifikanten Effekte auf die Caspase-3-Aktivität. Zudem zeichneten sich die Versuche durch eine hohe Schwankungsbreite sowie eine geringe Reproduzierbarkeit aus, so dass keine klare Aussage getroffen werden konnte. Eine biochemische Nachweismethode der Apoptose und deren Beeinflussung durch Xenobiotika konnte somit im zeitlichen Rahmen dieser Arbeit nicht etabliert werden. Abschließend wurde in vorliegender Arbeit der Einfluss von TCDD auf die Apoptose sowie auf die Induktion der 7-Ethoxyresorufin-O-deethylase (EROD)-Aktivität als funktionellem Parameter für die CYP1A-Isoenzym-Induktion in primären Rattenhepatozyten der Stämme Han/Wistar und Long-Evans studiert. In Untersuchungen zum Einfluss von TCDD auf die durch UV-Strahlung ausgelöste Apoptose in Han/Wistar-Hepatozyten konnten keine signifikanten Effekte beobachtet werden. Die maximale Induzierbarkeit der Apoptose lag mit ca. 2,6% deutlich unterhalb der für Hepatozyten des Wistar-Stammes gefundenen Werte. Bei analogen Experimenten mit Long-Evans- Hepatzoyten zeigte sich, dass die Apoptose in diesem Zelltyp nicht induzierbar war. Die Ergebnisse zeigen ferner, dass in beiden Zelltypen eine konzentrationsabhängige Steigerung der EROD-Aktivität festgestellt werden konnte. Die hierbei ermittelten EC50-Werte betrugen für beide Zelltypen ca. 5 x 10-12 M und entsprechen somit annähernd den bereits von Schmitz et al. (1995) publizierten Daten (2 x 10-11 M) für primäre Wistar-Rattenhepatozyten. Die maximale Induktionshöhe lag jedoch in Long-Evans-Hepatozyten deutlich niedriger als in Zellen des Han/Wistar-Stammes.
The original publication is available at www.springerlink.com. This original publication also contains further results. We study a spherical wave propagating in radius- and latitude-direction and oscillating in latitude-direction in case of fibre-reinforced linearly elastic material. A function system solving Euler's equation of motion in this case and depending on certain Bessel and associated Legendre functions is derived.
The inverse problem of recovering the Earth's density distribution from satellite data of the first or second derivative of the gravitational potential at orbit height is discussed. This problem is exponentially ill-posed. In this paper a multiscale regularization technique using scaling functions and wavelets constructed for the corresponding integro-differential equations is introduced and its numerical applications are discussed. In the numerical part the second radial derivative of the gravitational potential at 200 km orbit height is calculated on a point grid out of the NASA/GSFC/NIMA Earth Geopotential Model (EGM96). Those simulated derived data out of SGG satellite measurements are taken for convolutions with the introduced scaling functions yielding a multiresolution analysis of harmonic density variations in the Earth's crust.
In this paper, the reflection and refraction of a plane wave at an interface between .two half-spaces composed of triclinic crystalline material is considered. It is shown that due to incidence of a plane wave three types of waves namely quasi-P (qP), quasi-SV (qSV) and quasi-SH (qSH) will be generated governed by the propagation condition involving the acoustic tensor. A simple procedure has been presented for the calculation of all the three phase velocities of the quasi waves. It has been considered that the direction of particle motion is neither parallel nor perpendicular to the direction of propagation. Relations are established between directions of motion and propagation, respectively. The expressions for reflection and refraction coefficients of qP, qSV and qSH waves are obtained. Numerical results of reflection and refraction coefficients are presented for different types of anisotropic media and for different types of incident waves. Graphical representation have been made for incident qP waves and for incident qSV and qSH waves numerical data are presented in two tables.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires, or leaf springs. It investigates usable features for the vision-based detection of a changing contact situation between a DLO and a rigid polyhedral obstacle and a classification of such contact state transitions. The result is a complete classification of contact state transitions and of the most significant features for each class. This knowledge enables reliable detection of changes in the DLO contact situation, facilitating implementation of sensor-based manipulation skills for all possible contact changes.
In many robotic applications, the teaching of points in space is necessary to register the robot coordinate system with the one of the application. Robot-human interaction is awkward and dangerous for the human because of the possibly large size and power of the robot, so robot movements must be predictable and natural. We present a novel hybrid control algorithm which provides the needed precision in small scale movements while allowing for fast and intuitive large scale translations.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Marker für oxidativen Streß in unterschiedlichen Testsystemen wurden etabliert bzw. entwickelt, um eine Schädigung durch Ozon in vitro und in vivo zu untersuchen. Durch den Plasmid-Relaxations-Assay wurde an isolierter Plasmid-DNA eine zeitabhängige Schädigung durch Ozon nachgewiesen. Das durch zusätzliche Inkubation mit Reparaturenzymen erhaltene Schadensprofil unterscheidet sich von bisher beschriebenen Profilen dahingehend, daß es überwiegend zur Induktion von FPG- und Endonuklease III sensitiven Läsionen kommt. Dies deutet auf eine Reaktion von Ozon per se in diesem Testsystem hin. An isolierten HL-60 Zellen, die gegenüber 8 mg/m³ Ozon für 30 min exponiert waren, wurde die Induktion von Strangbrüchen und FPG-sensitiven Läsionen mittels eines mit Reparaturenzymen modifizierten Comet-Assays nachgewiesen. Das Verhältnis zwischen Strangbrüchen und FPG-sensitven Läsionen betrug 1 : 2, was auch in diesem Testsystem auf die Reaktion von Ozon per se hindeutet. Zur Messung von 8-oxodG im Urin wurde eine Methode mit hoher Präzision (VK 3,5 % für Wiederholanalysen) entwickelt, welche auf Immunoaffinitätschromatographie am bisher für diesen Einsatz nicht beschriebenen Antikörper 1F7 kombiniert mit HPLC-ECD (Gradientenelution) basiert. Zur Validierung der Methode wurden Vergleichsmessungen im Rahmen eines internationalen Ringversuchs durchgeführt. Die Ergebnisse belegen die prinzipielle Vergleichbarkeit des hier beschriebenen Verfahrens mit LC-MS-MS, Carbon Column HPLC-ECD und ELISA, wobei es mit ELISA zu einer bis zu fünffachen Überschätzung der Meßwerte kam, die jedoch gut mit den anderen Methoden korrelierten. Zum Nachweis von 8-oxodG in DNA wurde eine Methode entwickelt, welche die Artefakt-bildung während der DNA-Isolierung mittels Isopropanolfraktionierung in Anwesenheit von NaI sowie während der DNA-Hydrolyse minimiert und die Quantifizierung mittels HPLC-ECD erlaubt. Die für humane Kontrollproben (Blut) erhaltenen Werte lagen in einer Größenordnung, welche auf Basis eines Vergleichs mit Daten aus einem internationalen Ringversuch die Richtigkeit der Werte belegt. Die Richtigkeit der chromatographischen Analysenergebnisse für 8-oxodG wurde durch Teil-nahme an einem internationalen Ringversuch mit Vergleichsmessungen von Standards gezeigt. Zum Nachweis von Malondialdehyd im Blutplasma wurde ein spezifisches Verfahren entwic-kelt, welches die Messung durch HPLC-FlD nach Derivatisierung mit Thiobarbitur-säure erlaubt. Um die Induktion von oxidativem Streß durch Ozon in vivo zu untersuchen, wurde ein Tierexperiment an Ratten durchgeführt, welche gegenüber unterschiedlichen Ozonkonzentrationen für max. 12 Wochen exponiert wurden. Für die Ausscheidung von 8-oxodG im wöchentlich gewonnen 24-Stundenurin konnte kein Unterschied zwischen den verschiedenen Expositionsgruppen nachgewiesen werden. Dies ist möglicherweise auch auf die hohe Streuung der Einzelwerte zurückzuführen, die nicht methodisch begründet ist. Der Nachweis von 8-oxodG in lymphozytärer DNA schlug fehl, was auf die schlechte Qualität der Blutproben zurückzuführen ist. Im terminal gewonnen Lungengewebe wurde ein dosisabhängiger Anstieg der 8-oxodG Konzentration ab einer Ozonkonzentration von 500 µg/m³ beobachtet, der für eine Expositionskonzentration von 1000 µg/m³ gegenüber Raumluft und 200 µg/m³ statistisch signifikant war (p < 0,05). Für Malondialdehyd im Blutplasma konnte keine dosisabhängige Zunahme durch Ozonexposition nachgewiesen werden. Die gegenüber 1000 µg/m³ Ozon exponierten Tiere zeigten jedoch eine gegenüber den anderen Gruppen signifikant niedrigere Malondialdehydkonzentration im Plasma (p < 0,05). Dies ist vermutlich auf die Induktion der antioxidativen Abwehr zurückzuführen, wie sie für ozonexponierte Ratten bereits beschrieben wurde. Die Induktion von Nitrotyrosin im Lungengewebe ozonexponierter Tier konnte nicht nachgewiesen werden. Dies ist auf die Abwesenheit der Entzündungsreaktion, die für akute Ozon-exposition beschrieben ist, zurückzuführen. Der nicht- oder minimal-invasive Nachweis dieser Effekte in vivo in Körperflüs-sigkeiten war mit den untersuchten Biomarkern nicht möglich.
In der vorliegenden Arbeit wurde zunächst der potentielle Einfluss makroskopischer Oberflächentopographieunterschiede auf die Langzeitbeständigkeit geklebter Aluminiumverbunde untersucht. Fokussiert wurde hierbei auf die durch Vorbehandlungsverfahren induzierte Veränderung technischer Rauhigkeitsgrade sowie die damit einhergehende Vergrößerung der adhäsiv wirksamen Oberfläche. Die Trennung der sich infolge der eingesetzten Vorbehandlungsverfahren überlagernden Einflussfaktoren Oberflächentopographie und Oberflächenchemie konnte durch die Generierung unterschiedlicher Rauheitsgrade bei gleichzeitiger Nivellierung der chemischen Oberflächenzustände sichergestellt werden. Erreicht wurde dies durch einen chemisch einheitlichen, die Haftgrundvorbereitung abschließenden Nachbehandlungsprozess. Ein signifikanter Einfluss der im µm-Bereich detektierten, makroskopischen Topographieunterschiede auf die technischen Eigenschaften adhäsiv gefügter Aluminium-Epoxidharzverbunde kann ausgeschlossen werden. Die Resultate der Untersuchungen zur Wirkungsweise der durch Alterungssimulationen induzierten Schädigungsmechanismen zeigten, dass für eine sinnvolle Beurteilung der Langzeitbeständigkeit unterschiedlich vorbehandelter Aluminium-Epoxidharz-Klebungen die Anwendung einzelner, standardisierter Alterungstests oftmals nicht ausreicht. Die Auswirkungen der simulierten Alterungsprozesse auf die technischen Eigenschaften der geklebten Aluminiumverbunde sind sowohl abhängig von der Art, Dauer und Intensität der dominierenden Schädigungsmechanismen, als auch von den durch die jeweilige Vorbehandlung generierten Zuständen der Substratoberflächen. Die jeweilige Haftgrundvorbereitung hat somit einen erheblichen Einfluss auf die Sensitivität der Klebung gegenüber unterschiedlichen Alterungsprozessen. Die phänomenologischen Betrachtungen in Form der durchgeführten Festigkeitsuntersuchungen deuten an, dass die Kinetik der korrosiven Klebschichtunterwanderung weder von der Art des Epoxidharzsystems, noch von den Spezifikationen der im Rahmen dieser Untersuchungen verwendeten Aluminiumlegierungen maßgeblich abhängt. Die Sensitivität dieser Klebungen, insbesondere gegenüber korrosiven Schädigungsmechanismen, wird von den durch die Haftgrundvorbereitung generierten Oberflächenzuständen dominiert. Die Ergebnisse der parallel durchgeführten oberflächenanalytischen Untersuchungen lieferten zur Erklärung der phänomenologischen Resultate ein weitgehend uneinheitliches Bild. Lediglich anhand der Analysen zur submikroskopischen Morphologie unterschiedlich vorbehandelter Fügeteiloberflächen konnte eine Korrelation mit den phänomenologischen Untersuchungen zur Langzeitbeständigkeit geklebter Aluminium-Epoxidharz-Verbunde in korrosiven Medien hergestellt werden. Die daraus abgeleitete Hypothese hinsichtlich eines signifikanten Einflusses der "Nanomorphologie" von Fügeteiloberflächen auf die Kinetik der korrosiven Klebschichtunterwanderung wurde durch zusätzliche Untersuchungen überprüft und bekräftigt. Hierbei erwies sich der entwickelte beschleunigte Korrosionstest als durchaus nützlich, da die unterschiedlich vorbehandelten Klebungen im Vergleich zu dem wesentlich zeitintensiveren Salzsprühtest innerhalb relativ kurzer Zeit phänomenologisch vergleichbare Schadensbilder aufweisen. Das aus den vorliegenden Untersuchungen abgeleitete Erkärungsmodell baut auf der Theorie der oberflächengesteuerten, grenzschichtnahen Polymerbeeinflussung auf. Dieses Postulat der sich in Abhängigkeit des chemischen Oberflächenzustandes verändernden Polymerisationsgrade in der Interphase zwischen Festkörperoberfläche und Klebstoff wird erweitert um den Einfluss sogenannter Nanomorphologien, also einer in submikroskopischen Dimensionen vorliegenden Feinstrukturierung der Fügeteiloberfläche. Eine durch Festkörperoberflächen induzierte selektive Adsorption von Klebstoffbestandteilen, die Entstehung schwacher Polymerzonen (weak boundary layers) oder andere potentielle Heterogenitäten innerhalb der Adhäsionszone werden somit in Richtung Substratbulk verschoben. Anstatt einer scharf ausgeprägten Phasengrenze zwischen Polymer und Substratoberfläche entsteht somit eine Grenzzone, die aufgrund ihrer fein verteilten Zusammensetzung aus Oxid und Klebstoff zusätzlich Verbundwerkstoffeigenschaften aufweisen kann. Die Frage nach dem aus ingenieurwissenschaftlicher Sicht höchsten Effizienz von Wirkmechanismen bei der Oberflächenvorbehandlung zur Erzielung langzeitbeständiger Aluminiumklebungen wird hier - im Rahmen der in der vorliegenden Arbeit betrachteten Parameter und unter der Prämisse chemisch reaktiver Festkörperoberflächen - mit der Generierung dünner, nanoskopisch strukturierter Oberflächenmorphologien beantwortet.
Im Rahmen der vorliegenden Arbeit wurden ausgewählte weit- bis superweitporige Molekularsiebe mit unbekannter bzw. ungewöhnlicher Porenarchitektur hergestellt, chemisch-physikalisch charakterisiert und in sauer sowie bifunktionell katalysierten Testreaktionen erprobt. Untersucht wurde Zeolith ZSM-25, der zu den 12-Ring-Molekularsieben gezählt wird, dessen genaue Struktur aber bis heute unbekannt ist. Es konnte gezeigt werden, dass dieses Molekularsieb nur eine sehr kleine innere spezifische Oberfläche besitzt. Weiterhin wurden die Synthese und die Eigenschaften von Zeolith NU-87, der aus einem Porensystem von sich kreuzenden 10- und 12-Ring-Kanälen aufgebaut ist, untersucht. Sowohl im Produktspektrum der Ethylbenzol-Disproportionierung als auch bei der bifunktionell katalysierten n-Decan-Isomerisierung konnten Bestätigungen für die ungewöhnliche Porenarchitektur gefunden werden. Für Zeolith ZSM-12 wurde der Aluminiumgehalt variiert und die erhaltenen Katalysatoren in der Ethylbenzol-Disproportionierung getestet. Dabei konnte anhand der Veränderungen in den Selektivitäten für die drei Diethylbenzol-Isomere gezeigt werden, dass das eindimensionale Porensystem dieses Zeoliths mit zunehmender Katalysators-Laufzeit immer stärker verkokt. Zeolith SSZ-24 ist isostrukturell zum Alumophosphat AlPO4-5 und wurde in der vorliegenden Arbeit erstmals direkt (d.h. über Hydrothermalsynthese) hergestellt. Der Zeolith zeigt in der Disproportionierung von Ethylbenzol nur eine geringe katalytische Aktivität. Einen Schwerpunkt der vorliegenden Arbeit stellte die Synthese und Charakterisierung von Molekularsieben mit IFR-Topologie (Silikat-Polymorph ITQ-4, Alumosilikat MCM-58, Gallosilikat [Ga] MCM-58, Borosilikat SSZ 42) dar. In der Disproportionierung von Ethylbenzol erwiesen sich HMCM-58 und [Ga] HMCM-58 als hochaktive Katalysatoren mit Umsätzen nahe dem berechneten thermodynamischen Gleichgewicht. Bifunktionelle Katalysatoren mit IFR-Struktur wurden in der Isomerisierung von n-Decan untersucht. Der superweitporige Zeolith UTD-1 (DON-Topologie) konnte mit einer selbst modifizierten Literaturvorschrift als Borosilikat hergestellt werden. Dieses wurde anschließend in das entsprechende Alumo- bzw. Gallosilikat überführt. In der Disproportionierung von Ethylbenzol und der Isomerisierung von n-Decan zeigten die Alumo- und das Gallosilikat-Katalysatoren nur eine sehr geringe katalytische Aktivität.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
Sepsis ist eine lebensbedrohliche Infektion, welche eine der häufigsten Todesursachen bei Patienten der Intensivstation ist. Die Mortalität des septischen Schocks hat sich während der letzten 25 Jahre trotz Verbesserung lebenserhaltender Maßnahmen nicht wesentlich verringert. Bei der Sepsis lösen externe Faktoren (die invadierenden Mikroorganismen) die Erkrankung aus, körpereigene Reaktionskaskaden jedoch entscheiden letztlich über den Verlauf, der in der Sepsis ein sehr heterogenes Erscheinungsbild zeigen kann. Darum führt eine allein gegen den Mikroorganismus gerichtete Therapie bei der Sepsis häufig nicht zum Erfolg. Eine therapeutische Intervention in körpereigene Abläufe setzt jedoch voraus, dass diese Vorgänge, die involvierten Proteine sowie die molekularen Mechanismen bekannt sind. Da klinische Studien darauf hinweisen, dass während der Pathogenese der Sepsis eine aktivierungsabhängige, exzessive Verminderung der T-Lymphozyten im Blutbild (Lymphopenie) infolge verstärkter Apoptose auftritt und damit die Abwehr der Pathogene negativ beeinträchtigt wird, bildeten Untersuchungen an aktivierten T-Zellen den Schwerpunkt der vorliegenden Arbeit. Aktivierte T-Lymphozyten sind wichtige Zellen der natürlichen Immunantwort und spielen eine entscheidende Rolle im Verlauf von Infektionserkrankungen. Eine therapeutische Modulation ihrer Apoptose könnte die Ereigniskaskade früh unterbrechen und möglicherweise den dramatischen klinischen Verlauf der Sepsis dämpfen. Der Befund der Lymphopenie in Sepsis führte mich zu der Hypothese dieser Arbeit, dass PPARg hierfür verantwortlich sein könnte, da eine Aktivierung von PPARg nicht nur antiinflammatorisch, sondern auch proapoptotisch wirken kann. Eine diesbezügliche Verbindung zwischen Lymphopenie bei Sepsis und PPARg-Expression wurde noch nicht untersucht. Deshalb habe ich im Rahmen dieser Arbeit analysiert, inwieweit PPARg zur Lymphopenie von T-Zellen septischer Patienten beiträgt. Den Ausgangspunkt bildeten dabei Untersuchungen an aktivierten T-Zellen. Sowohl an der T-Zelllinie Jurkat, als auch an primären CD3+ T-Zellen konnte ich Folgendes zeigen: 1. Die Aktivierung von humanen T-Zellen mit dem T-Zell-Mitogen PHA induziert die Expression des Liganden-abhängigen Transkriptionsfaktors PPARg, führt jedoch nicht autokrin zu dessen Aktivierung. 2. Physiologische Mediatoren wie Stickstoffmonoxid oder synthetische PPARg-Liganden wie Ciglitazon bewirken eine Aktivierung von PPARg in den PHA-aktivierten T- Zellen. 3. Der durch spezifische Agonisten aktivierte Transkriptionsfaktor PPARg ruft in aktivierten T-Zellen Apoptose hervor. 4. SR-202 greift in die PPARg-vermittelte Apoptose ein. Die Vorinkubation mit diesem spezifischen PPARg-Antagonist führt zu einer verminderten Apoptose der aktivierten T-Zellen. 5. Fas-vermittelte Apoptose ist der am besten untersuchte Apoptose-auslösende Reaktionsweg in T-Zellen. Vorliegende Untersuchungen mit einem anti-Fas-neutralisierenden Antikörper zur näheren Charakterisierung der PPARg-vermittelten Apoptose verweisen jedoch auf Fas-unabhängige Mechanismen. Um die klinische Relevanz der Daten zu prüfen, versuchte ich, die Ergebnisse auf das Modell der Sepsis zu übertragen. Folgende Zusammenhänge ließen sich dabei erkennen: 1. Es ist bekannt, dass die T-Lymphozyten im septischen Geschehen im Vergleich zum gesunden Spender deutlich vermindert sind. Dies ist in Übereinstimmung mit meinen Befunden. Zusätzlich bestätigte sich die Annahme, dass der Zelltod apoptotisch, also gerichtet, verläuft. 2. In den T-Zellen der septischen Patienten ist im Gegensatz zu den T-Zellen gesunder Probanden die Expression von PPARg erhöht, so dass, aufbauend auf die Vorversuche an aktivierten T-Zellen, eine PPARg-vermittelte Apoptose postuliert werden konnte. 3. Die Zugabe von PPARg-Agonisten zu den septischen T-Zellen erhöht die Apoptose, während die Vorinkubation mit dem Antagonisten SR-202 vor der Agonisten-Behandlung die Apoptose hemmt. 4. Basierend auf Untersuchungen mit einem Fas-neutralisierenden Antikörper, ist davon auszugehen, dass die zugrundeliegenden Mechanismen der PPARg-vermittelten Apoptose in septischen T-Zellen ebenfalls Fas-unabhängig sind. In Erkrankungen, deren Verlauf wie bei der Sepsis durch Lymphopenie gekennzeichnet ist, könnte der hier aufgezeigte Mechanismen der PPARg-vermittelten Apoptose von pathophysiologischer Signifikanz sein. Das bessere Verstehen der Signaltransduktionswege, die zu der PPARg-Expression sowie der PPARg-abhängigen Apoptose in aktivierten T-Zellen führen, könnten eine Basis für neue therapeutische Strategien im Kampf gegen die Sepsis bilden. Erste Anhaltspunkte dafür liefert der Nachweis der Modulation der T-Zell-Apoptose durch den spezifischen PPARg-Antagonist SR-202.
Unter Ambient Intelligence (AmI) wird die Integration verschiedener Technologien zu einer den Menschen umgebenden, (nahezu) unsichtbaren Gesamtheit verstanden. Diese Intelligente Umgebung wird möglich durch die Miniaturisierung hochintegrierter Bauteile (Sensoren, Aktuatoren und Rechnern), deren zunehmende Intelligenz und vor allem deren lokale und globale zunehmend drahtlose Vernetzung. Unter dem Titel Man-u-Faktur 2012 (man and factoring in 2012) wurde an der Technischen Universität Kaiserslautern im Rahmen des Forschungsschwerpunkts Ambient Intelligence ein Szenario entwickelt, das ein beeindruckendes Gesamtbild einer Technik, die den Menschen in den Mittelpunkt rückt, beschreibt. Man-u-Faktur 2012 steht dabei für ein Weiterdrehen des Rads der Industrialisierung von der heute üblichen variantenreichen, technologiezentrierten Massenfertigung hin zu einer kundenindividuellen, mitarbeiterzentrierten Maßfertigung. Im Speziellen wird hierunter der Aufbau massiv verteiler kunden- aber auch mitarbeiterfreundlicher Produktionsanlagen verstanden, die sich im hochdynamischen Umfeld entsprechend der jeweiligen Gegebenheiten anzupassen wissen. Der Mensch ist überall dort präsent, wo flexibles Arbeiten oder flexible Entscheidungen im Vordergrund stehen. In diesem Bericht wird der Einfluss von Ambient Intelligence beispielhaft auf die Vision einer Fahrradproduktion in der Man-u-Faktur 2012 angewandt. Aus diesem Szenario werden anschließend sowohl die zu entwickelnden Schlüsseltechnologien als auch die Einflüsse auf Wirtschaft und Gesellschaft abgeleitet.
The following three papers present recent developments in multiscale gravitational field modeling by the use of CHAMP or CHAMP-related data. Part A - The Model SWITCH-03: Observed orbit perturbations of the near-Earth orbiting satellite CHAMP are analyzed to recover the long-wavelength features of the Earth's gravitational potential. More precisely, by tracking the low-flying satellite CHAMP by the high-flying satellites of the Global Positioning System (GPS) a kinematic orbit of CHAMP is obtainable from GPS tracking observations, i.e. the ephemeris in cartesian coordinates in an Earth-fixed coordinate frame (WGS84) becomes available. In this study we are concerned with two tasks: First we present new methods for preprocessing, modelling and analyzing the emerging tracking data. Then, in a first step we demonstrate the strength of our approach by applying it to simulated CHAMP orbit data. In a second step we present results obtained by operating on a data set derived from real CHAMP data. The modelling is mainly based on a connection between non-bandlimited spherical splines and least square adjustment techniques to take into account the non-sphericity of the trajectory. Furthermore, harmonic regularization wavelets for solving the underlying Satellite-to-Satellite Tracking (SST) problem are used within the framework of multiscale recovery of the Earth's gravitational potential leading to SWITCH-03 (Spline and Wavelet Inverse Tikhonov regularized CHamp data). Further it is shown how regularization parameters can be adapted adequately to a specific region improving a globally resolved model. Finally we give a comparison of the developed model to the EGM96 model, the model UCPH2002_02_0.5 from the University of Copenhagen and the GFZ models EIGEN-1s and EIGEN-2. Part B - Multiscale Solutions from CHAMP: CHAMP orbits and accelerometer data are used to recover the long- to medium- wavelength features of the Earth's gravitational potential. In this study we are concerned with analyzing preprocessed data in a framework of multiscale recovery of the Earth's gravitational potential, allowing both global and regional solutions. The energy conservation approach has been used to convert orbits and accelerometer data into in-situ potential. Our modelling is spacewise, based on (1) non-bandlimited least square adjustment splines to take into account the true (non-spherical) shape of the trajectory (2) harmonic regularization wavelets for solving the underlying inverse problem of downward continuation. Furthermore we can show that by adapting regularization parameters to specific regions local solutions can improve considerably on global ones. We apply this concept to kinematic CHAMP orbits, and, for test purposes, to dynamic orbits. Finally we compare our recovered model to the EGM96 model, and the GFZ models EIGEN-2 and EIGEN-GRACE01s. Part C - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, EGM96: Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise and these shall be made available to other interested groups. These wavelet coefficients allow the reconstruction of the wavelet approximations. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.
In Anbetracht der ständig steigenden Nachfrage nach Mobilkommunikation einerseits und der nur begrenzt zur Verfügung stehenden Ressource Frequenzspektrum andererseits müssen Mobilfunksysteme der dritten Generation (3G) eine hohe Frequenzökonomie haben. Dies trifft insbesondere auf die Abwärtsstrecken dieser Systeme zu, in denen auch paketorientierte Dienste mit hohen Datenraten angeboten werden sollen. Seitens der Basisstationen kann die spektrale Effizienz der Abwärtsstrecke durch das Verwenden mehrelementiger adaptiver Sendeantennen erhöht werden. Hierzu sind leistungsfähige Signalverarbeitungskonzepte erforderlich, die die effektive Kombination der adaptiven Antennen mit der eingesetzten Sendeleistungsregelung ermöglichen. Die wichtigsten Aspekte beim Entwerfen von Signalverarbeitungskonzepten für adaptive Sendeantennen sind das Gewährleisten mobilstationsspezifischer Mindestdatenraten sowie das Reduzieren der aufzuwendenden Sendeleistungen. Die vorliegende Arbeit trägt dazu bei, den Einsatz mehrantennenelementiger adaptiver Sendeantennen in Mobilfunksystemen der dritten Generation voranzutreiben. Existierende Konzepte werden dargestellt, vereinheitlicht, analysiert und durch eigene Ansätze des Autors erweitert. Signalverarbeitungskonzepte für adaptive Antennen benötigen als Wissensbasis zumindest einen gewissen Grad an Kenntnis über die Mobilfunkkanäle der Abwärtsstrecke. Beim für den FDD-Modus angedachten 3G-Teilstandard WCDMA ergibt sich das Problem, daß wegen des Frequenzversatzes zwischen der Auf- und der Abwärtsstrecke die Ergebnisse der Kanalschätzung in der Aufwärtsstrecke nicht direkt zum Einstellen der adaptiven Sendeantennen verwendet werden können. Eine Möglichkeit, in FDD-Systemen an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, besteht im Ausnutzen der an den Basisstationen ermittelbaren räumlichen Korrelationsmatrizen der Mobilfunkkanäle der Aufwärtsstrecke. Diese Vorgehensweise ist nur dann sinnvoll, wenn die relevanten Einfallsrichtungen der Aufwärtsstrecke mit den relevanten Abstrahlungsrichtungen der Abwärtsstrecke übereinstimmen. Für diesen Fall wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Anpassen der adaptiven Sendeantennen erarbeitet, das nicht auf komplexen Richtungsschätzalgorithmen beruht. Eine verläßlichere Methode, an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, ist das Signalisieren von Kanalzustandsinformation, die an den Mobilstationen gewonnen wird, über einen Rückkanal an die versorgende Basisstation. Da dieses Rücksignalisieren zeitkritisch ist und die Übertragungskapazität des Rückkanals begrenzt ist, wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Vorverarbeiten und Rücksignalisieren von Kanalzustandsinformation erarbeitet.
Dieses Szenario ist eine Erweiterung eines Teilszenarios von Human Centered Manufacturing. Dabei geht es um die Montage der Energieelektrik für industrielle Anlagen. Im Jahr 2015 enthält die Ausrüstung eines Elektromonteurs bei der Verdrahtung von Schaltschränken u.a. einen Schutzhelm mit integrierter Farbkamera, integriertem Mikrofon und einem Lautsprecher im Ohrbereich sowie einen automatisch gesteuerten Laserpointer. Auf der Baustelle sind keine Pläne mehr erforderlich. Der Monteur benötigt keinen Plan während der Montage.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.
We define a class of topological spaces (LCNT-spaces) which come together with a nuclear Frechet algebra. Like the algebra of smooth functions on a manifold, this algebra carries the differential structure of the object. We compute the Hochschild homology of this object and show that it is isomorphic to the space of differential forms. This is a generalization of a result obtained by Alain Connes in the framework of smooth manifolds.
Hyperquasivarieties
(2003)
In dieser Arbeit wurden neue hocheffiziente photorefraktive Gläser auf Basis des Chromophors IDOP20 entwickelt. Der Chromophor wurde zunächst anhand der Kerr-Gütezahl auf seine Eignung für PR-Anwendungen überprüft. Es konnte eine relativ große Kerr-Gütezahl bestimmt werden. Durch die sterisch anspruchsvollen 3,3’-Dimethylmethylen-Gruppen wird in diesem Chromophor die Neigung zur Dimerenbildung weitgehend unterdrückt. Für mehrere photorefraktive Gläser mit IDOP20 als elektrooptischem Chromophor konnten sehr hohe Verstärkungskoeffizienten Gamma erzielt werden. Für das Glas der Zusammensetzung IDOP20:2BNCM:DPP:TPD:TNFM 30:25:20:24:1 Gew.-% wurde mit einer Nettoverstärkung von Gamma_net = 178 1/cm ein der bisher größten Werte bei einer Feldstärke von E = 45 V/µm erzielt. Weiterhin konnte der Polymeranteil in den photorefraktiven Gläsern vollständig durch glasbildende Co-Chromophore ersetzt werden. Dadurch wurde die Phasenseparation und Kristallbildung in den photorefraktiven Gläsern unterdrückt und die Stabilität und die optische Qualität der Gläser verbessert. Die glasbildenden Eigenschaften von IDOP20 wurden durch dynamische Differenz-Kalorimetrie-Messungen nachgewiesen werden. Der Chromophor bildet einen Charge-Transfer-Komplex mit dem Sensibilisator TNFM. Weitere quasistationäre und zeitabhängige holographische und ellipsometrische Messungen wurden an einem Glas mit zugesetztem Weichmacher DPP (zur Herabsetzung der Glasübergangstemperatur) der Zusammensetzung IDOP20:DPP:TNFM 69:30:1 Gew.-% durchgeführt. Dabei konnte eine Brechungsindexmodulation von Delta n = 0.009 bei einer Feldstärke 60 V/µm ermittelt werden. In zeitabhängigen Messungen wurde ein monoexponentieller Verlauf des photorefraktiven Gitteraufbaus beobachtet. Weiterhin wurde eine sehr starke Temperaturabhängigkeit der Antwortzeiten festgestellt und die Dynamik der Molekülorientierung als zeitbestimmender Prozess identifiziert. Die photorefraktive Leistung der IDOP20-Gläser wurde im Vergleich zu ATOP1-Gläsern diskutiert.