Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
- Mehrskalenanalyse (3)
- Mobilfunk (3)
- Robotik (3)
- mathematical education (3)
- AKLEON (2)
- Alterungsbeständigkeit (2)
- Ambient Intelligence (2)
- CAD (2)
- CDMA (2)
- CHAMP (2)
- Elektrotechnik (2)
- Gravitationsfeld (2)
- Implementierung (2)
- Inverses Problem (2)
- Kleben (2)
- Lineare Optimierung (2)
- Mensch-Maschine-Kommunikation (2)
- Mensch-Roboter-Koexistenz (2)
- Mensch-Roboter-Kooperation (2)
- Navier-Stokes-Gleichung (2)
- Optimierung (2)
- RODEO (2)
- RONAF (2)
- Regelung (2)
- SIMERO (2)
- Simplex (2)
- Stücklisten (2)
- Szenario (2)
- Up Functions (2)
- Zeolith (2)
- linear optimization (2)
- mobile radio (2)
- numerical simulation (2)
- praxis orientated (2)
- simplex (2)
- time series (2)
- wavelets (2)
- 5-> (1)
- : Navier-Stokes equations (1)
- : Two-phase flow in porous media (1)
- : multiple criteria optimization (1)
- : multiple objective programming (1)
- Ab-initio-Rechnung (1)
- Abel integral equations (1)
- Adsorption (1)
- Akute myeloische Leukämie (1)
- Algebraische Geometrie (1)
- Alkin (1)
- Alterung (1)
- Aluminium (1)
- Aminosäuren (1)
- Anfrageverarbeitung (1)
- Anorganisches Pigment (1)
- Anthropotechnik (1)
- Antimon (1)
- Anämiebehandlung (1)
- Aperiodic Crystal (1)
- Aperiodischer Kristall (1)
- Apoptosis (1)
- Approximation (1)
- Arabidopsis thaliana (1)
- Archimedische Kopula (1)
- Aromastoffe (1)
- Arsen (1)
- Asiatische Option (1)
- Assembly (1)
- Automatische Indexierung (1)
- Bahnplanung (1)
- Basel (1)
- Basket Option (1)
- Batteriemanagement (1)
- Batterien (1)
- Bessel functions (1)
- Bicyclus (1)
- Bildverarbeitung (1)
- Biomarker (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Bismut (1)
- Bitvektor (1)
- Blocked Neural Networks (1)
- Brinkman (1)
- Brownian motion (1)
- Brownsche Bewegung (1)
- Butterflykomplex (1)
- Bändchenhalbzeuge (1)
- CGH (1)
- CNS (1)
- Calcium (1)
- Castor (1)
- Cauchy-Navier-Equation (1)
- Cauchy-Navier-Gleichung (1)
- Chalkogen (1)
- Chemische Bindung / Theorie (1)
- Chi-Quadrat-Test (1)
- Cholesky-Verfahren (1)
- Clusterion (1)
- Clusterverbindungen (1)
- Code Inspection (1)
- Comet Assay (1)
- Comparative Genomische Hybridisierung (1)
- Continuum Damage (1)
- Cyclisches Nucleotid Phosphodiesterase <3 (1)
- Cyclo-AMP (1)
- Cyclo-GMP (1)
- Cytogenetik (1)
- DHFR (1)
- DNS (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Decane (1)
- Decomposition and Reconstruction Schemes (1)
- Deformationstheorie (1)
- Dialysemembran (1)
- Dichtefunktionalformalismus (1)
- Dihydrofolatreduktase (1)
- Discrete linear systems (1)
- Dislocations (1)
- Disproportionierung (1)
- Double Minutes (1)
- Dreidimensionale Bildverarbeitung (1)
- Druckkorrektur (1)
- Dynamic cut (1)
- Dynamik / Baumechanik (1)
- Earliest arrival augmenting path (1)
- Eisen-Phosphor-Cluster (1)
- Elastische Deformation (1)
- Elastoplasticity (1)
- Elliptische Verteilung (1)
- Empfangssignalverarbeitung (1)
- Entwurfsautomation (1)
- Epidermaler Wachstumsfaktor-Rezeptor (1)
- Epoxidharz (1)
- Epoxidharzklebstoff (1)
- Epoxy Adhesive (1)
- Erdmagnetismus (1)
- Erfüllbarke (1)
- Ergonomie (1)
- Ethylbenzol (1)
- Ethylen (1)
- Euler's equation of motion (1)
- Expected shortfall (1)
- Experiment (1)
- Extreme value theory (1)
- Faserfestigkeit (1)
- Faserkunststoffverbunde (1)
- Faserschädigung (1)
- Faserverbundwerkstoff (1)
- Festkörperchemie (1)
- Filtergesetz (1)
- Finite Elements (1)
- Finite-Elemente-Methode (1)
- Finite-Volumen-Methode (1)
- Fitts Law (1)
- Flachwasser (1)
- Flachwassergleichungen (1)
- Floatglas (1)
- Flüssig-Flüssig-Extraktion (1)
- Folgar-Tucker equation (1)
- Force-Torque (1)
- Fourier-Transformation (1)
- Fräsen (1)
- Garbentheorie (1)
- Genamplifikation (1)
- Genexpression (1)
- Gewichtung (1)
- Glasfaser (1)
- Glioblastom (1)
- Glutathion (1)
- Glättung (1)
- Glättungsparameterwahl (1)
- Gruppenoperation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Hand (1)
- Hand-Arm-System (1)
- Hankel matrix (1)
- Harmonische Spline-Funktion (1)
- HeLa-Zelle (1)
- Heavy-tailed Verteilung (1)
- Heston model (1)
- Heterogene Katalyse (1)
- High-Spin-Komplexe (1)
- Hochdrucktechnik (1)
- Hochschild homology (1)
- Hochschild-Homologie (1)
- Homologietheorie (1)
- Hub-and-Spoke-System (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- Humangenetik (1)
- Hybridregler (1)
- Hydratation (1)
- Hydrogen Bonding (1)
- Hydrokracken (1)
- Hydrostatischer Druck (1)
- Hämodialyse (1)
- Hörgerät (1)
- Immobilienaktie (1)
- Immunofluoreszenzmikroskopie (1)
- Implantation (1)
- Incommensurate Structure (1)
- Indexierung <Inhaltserschließung> (1)
- Informatik (1)
- Infrared Multiphoton Dissociation Spectroscopy (IR-MPD) (1)
- Infrarotspek (1)
- Instrumente (1)
- Integer programming (1)
- Interaktion (1)
- Interaktionsgerät (1)
- Interaktionsmodell (1)
- Interferenz (1)
- Inverse problems in Banach spaces (1)
- Ionensolvatation (1)
- Joint Transmission (1)
- Katalytische Iso (1)
- Kernschätzer (1)
- Klebstoff (1)
- Knowledge Extraction (1)
- Koexpression (1)
- Kohlenstofffaser (1)
- Komplexchemie (1)
- Kooperation (1)
- Koordinatengeber (1)
- Kopula <Mathematik> (1)
- Kraftregelung (1)
- Kreditrisiko (1)
- Kristallographie (1)
- Kunststoffeinfärbung (1)
- Kühlturm (1)
- L-curve Methode (1)
- Label correcting algorithm (1)
- Label setting algorithm (1)
- Lagrangian relaxation (1)
- Lavrentiev regularization for equations with monotone operators (1)
- Layout (1)
- Leukämie (1)
- Lineare Elastizitätstheorie (1)
- Lipidperoxidation (1)
- Locally Supported Radial Basis Functions (1)
- Logiksynthese (1)
- Luftfahrtindustrie (1)
- MFC-Knochennagel-Implantat (1)
- MO-Theorie (1)
- MS-Klebstoff (1)
- MS-Polymers (1)
- MYC (1)
- Malondialdehyd (1)
- Manipulation skills (1)
- Mapping (1)
- Marktrisiko (1)
- Martingaloptimalitätsprinzip (1)
- Mastoid (1)
- Mastoidektomie (1)
- Material-Force-Method (1)
- Maus <Datentechnik> (1)
- Mehrkriterielle Optimierung (1)
- Mensch (1)
- Metallocene (1)
- Methotrexat (1)
- Mikrobiegeversuch (1)
- Model checking (1)
- Modellbildung (1)
- Modulraum (1)
- Molekularsieb (1)
- Molekülorbital (1)
- Mostkonzentrierung (1)
- Multicriteria decision making (1)
- Multidrug-Resistenz (1)
- Multiple criteria analysis (1)
- Multiresolution Analysis (1)
- Multisresolution Analysis (1)
- Multivariate Wahrscheinlichkeitsverteilung (1)
- Naturstoffverteilung (1)
- Navier-Stokes (1)
- Network flows (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Nichtparametrische Regression (1)
- Nierenversagen (1)
- Nonlinear Regression (1)
- Nonlinear multigrid (1)
- Nonparametric time series (1)
- Numerische Strömungssimulation (1)
- Oberflächenmaße (1)
- Oberflächenproteine (1)
- Oberflächenvorbehandlung (1)
- Ohrenchirurgie (1)
- Onkogen (1)
- Option pricing (1)
- Optionsbewertung (1)
- Optionspreistheorie (1)
- Organisches Pigment (1)
- Organometallcluster (1)
- Oxidativer Stress (1)
- Ozon (1)
- P-Glykoprotein (1)
- PI-Regler (1)
- Paramecium primaurelia (1)
- Parser (1)
- Peng-Robinson-EoS (1)
- Permutationsäquivalenz (1)
- Phase Transition (1)
- Phasengleichgewicht (1)
- Phasenumwandlung (1)
- Phenylalanin (1)
- Phosphaalkin (1)
- Phosphatasen (1)
- Phosphor (1)
- Phosphor-Phosphor-Bindung (1)
- Photochemischer Smog (1)
- Pigment (1)
- Plastizitätstheorie (1)
- Polyhedron (1)
- Polymere (1)
- Polymorphismus (1)
- Polyphosphol (1)
- Portfolio-Optimierung (1)
- Poröser Stoff (1)
- Prepregtechnologie (1)
- Produktion (1)
- Propanole (1)
- Protonentransfer (1)
- Quantile autoregression (1)
- Quasi-identities (1)
- RTL (1)
- Reflection (1)
- Regler (1)
- Reglerentwurf (1)
- Regularisierung (1)
- Regularität (1)
- Relationales Datenbanksystem (1)
- Rhodium (1)
- Riemannian manifolds (1)
- Riemannsche Mannigfaltigkeiten (1)
- Risiko (1)
- Risikomanagement (1)
- Roboter (1)
- Robotics (1)
- Ruß / Anorganisches Pigment (1)
- Röntgenstrukturanalyse (1)
- SAX2 (1)
- SIMPLE (1)
- SWARM (1)
- Sandwichverbindung (1)
- Satellitengeodäsie (1)
- Scale function (1)
- Schadensmechanik (1)
- Schalenringelement (1)
- Schaltwerk (1)
- Schädelchirurgie (1)
- Sendesignalverarbeitung (1)
- Sendesignalvorverarbeitung (1)
- Sepsis (1)
- Serotyp (1)
- Serotyptrandformation (1)
- Shallow Water Equations (1)
- Sicherheit (1)
- Signaltransduktion (1)
- Silicones (1)
- Silikonklebstoff (1)
- Singly Occupied Molecular Orbital (SOMO) (1)
- Softwareergonomie (1)
- Sommersmog (1)
- Spherical (1)
- Spherical Wavelets (1)
- Spline-Approximation (1)
- Stahlbeton (1)
- Stein equation (1)
- Stochastische Processe (1)
- Stratifaltigkeiten (1)
- Support-Vektor-Maschine (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- System-on-Chip (1)
- T-Lymphozyt (1)
- Tail Dependence Koeffizient (1)
- Tetrahedran (1)
- Tripeldeckerkomplexe (1)
- Triphosphol (1)
- Tumor (1)
- Umkehrosmose (1)
- Vakuumverdampfung (1)
- Value at Risk (1)
- Vektorkugelfunktionen (1)
- Vektorwavelets (1)
- Verifikation (1)
- Vorverarbeitung (1)
- Wasserstoffbrückenbindung (1)
- Wavelet-Theorie (1)
- Wavelet-Theory (1)
- Wein (1)
- Wirbelabtrennung (1)
- Wirbelströmung (1)
- Wässrige Lösung (1)
- XML (1)
- Zeitreihen (1)
- Zellulares Mobilfunksystem (1)
- Zentralnervensystem (1)
- Zeolith M41S (1)
- Zeolith Y (1)
- Zeolith ZSM12 (1)
- Zuckertransporter (1)
- Zugesicherte Eigenschaft (1)
- Zyklische Homologie (1)
- abgeleitete Kategorie (1)
- adaptive Antennen (1)
- adaptive antennas (1)
- adaptive local refinement (1)
- adaptive refinement (1)
- adaptive triangulation (1)
- adhesive bonding (1)
- algebraic geometry (1)
- aluminium (1)
- archimedean copula (1)
- asian option (1)
- associated Legendre functions (1)
- asymptotic homogenization (1)
- automated analog circuit design (1)
- basel (1)
- basket option (1)
- batch presorting problem (1)
- batteries (1)
- battery management (1)
- behavioral modeling (1)
- bills of material (1)
- bills of materials (1)
- bitvector (1)
- bounded model checking (1)
- circuit sizing (1)
- cliquet options (1)
- clustering and disaggregation techniques (1)
- competetive analysis (1)
- computer algebra (1)
- concentration of musts (1)
- conditional quantiles (1)
- consecutive ones property (1)
- controllership (1)
- controlling (1)
- cooling tower (1)
- coupled flow in plain and porous media (1)
- cyclic homology (1)
- cyclic nucleotide phosphodiesterase (1)
- decision support systems (1)
- deformable objects (1)
- derived category (1)
- design automation (1)
- dif (1)
- discrete facility location (1)
- discrete location (1)
- durability (1)
- efficient set (1)
- elasticity problem (1)
- elliptical distribution (1)
- epoxy (1)
- estimate (1)
- estimator (1)
- evolutionary algorithms (1)
- experiment (1)
- expert system (1)
- fatigue (1)
- fiber orientation (1)
- fibre damage (1)
- fibre strength (1)
- flavour (1)
- flood risk (1)
- force control (1)
- force following (1)
- forward starting options (1)
- fuzzy logic (1)
- genetic algorithms (1)
- geomagnetism (1)
- glioblastoma (1)
- global pressure (1)
- gravimetry (1)
- gravitational field recovery (1)
- group action (1)
- harmonic density (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hybrid control (1)
- hyper-quasi-identities (1)
- hypergeometric functions (1)
- hyperquasivarieties (1)
- incident wave (1)
- incompressible flow (1)
- injection molding (1)
- integer programming (1)
- interactive navigation (1)
- kernel estimate (1)
- knowledge management (1)
- knowledge representation (1)
- kraftbasiertes Führen (1)
- langfaserverstärkte Polymere (1)
- layout (1)
- lid-driven flow in a (1)
- liquid-liquid-extraction of natural products (1)
- logic synthesis (1)
- logistics (1)
- macro modeling (1)
- martingale optimality principle (1)
- mastoid (1)
- mastoidectomy (1)
- mathematica education (1)
- mechanische Eigenschaften (1)
- micro-bending test (1)
- mobile radio systems (1)
- model (1)
- model reduction (1)
- moduli space (1)
- multi-user detection (1)
- multigrid methods (1)
- multileaf collimator (1)
- multiphase mixture model (1)
- multiscale modeling (1)
- multiscale structures (1)
- multivariate chi-square-test (1)
- nahekritischer Zustandsbereich (1)
- near-critical ethene+water+propanol (1)
- nichtparametrisch (1)
- non-Newtonian flow in porous media (1)
- non-commutative geometry (1)
- non-local conditions (1)
- non-parametric regression (1)
- nonlinear term structure dependence (1)
- nonparametric (1)
- oil filters (1)
- online optimization (1)
- option pricing (1)
- otorhinolaryngological surgery (1)
- parameter choice (1)
- pigments (1)
- polynomial algorithms (1)
- portfolio-optimization (1)
- preprocessing (1)
- pressure correction (1)
- project management and scheduling (1)
- projection-type splitting (1)
- property cheking (1)
- quantile autoregression (1)
- quasi-P (1)
- quasi-SH (1)
- quasi-SV (1)
- quasivarieties (1)
- radiation therapy (1)
- real-life applications. (1)
- received signal processing (1)
- refraction (1)
- regularity (1)
- reinforced concrete (1)
- reinforced plastics (1)
- representative systems of Pareto solutions (1)
- reverse osmosis (1)
- ring element (1)
- risikohandling (1)
- risk (1)
- safe human robot coexistence (1)
- safe human robot cooperation (1)
- satisfiability (1)
- scaling functions (1)
- sequential circuit (1)
- set covering (1)
- sheaf theory (1)
- singular spaces (1)
- singularity (1)
- singuläre Räume (1)
- software development (1)
- spherical splines (1)
- stability (1)
- stochastic processes (1)
- stochastic volatility (1)
- stop location (1)
- strategic (1)
- strength (1)
- structural dynamics (1)
- subgradient (1)
- sugar transporter (1)
- summer smog (1)
- supply chain management (1)
- surface measures (1)
- surface pre-treatment (1)
- symbolic analysis (1)
- symmetry (1)
- system simulation (1)
- tail dependence coefficient (1)
- taktile und haptische Wahrnehmung (1)
- technology mapping (1)
- thermoplastische Halbzeuge (1)
- toric geometry (1)
- torische Geometrie (1)
- trasmit signal processing (1)
- triclinic medium (1)
- uniform consistency (1)
- vacuum distillation (1)
- value-at-risk (1)
- variable neighborhood search (1)
- various formulations (1)
- vector spherical harmonics (1)
- vectorial wavelets (1)
- verification (1)
- vertical velocity (1)
- vertikale Geschwindigkeiten (1)
- visual (1)
- visual interfaces (1)
- vortex seperation (1)
- wine (1)
- Überflutung (1)
- Überflutungsrisiko (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (1)
- Universität (1)
- Universitätsbibliothek (1)
In many robotic applications, the teaching of points in space is necessary to register the robot coordinate system with the one of the application. Robot-human interaction is awkward and dangerous for the human because of the possibly large size and power of the robot, so robot movements must be predictable and natural. We present a novel hybrid control algorithm which provides the needed precision in small scale movements while allowing for fast and intuitive large scale translations.
The original publication is available at www.springerlink.com. This original publication also contains further results. We study a spherical wave propagating in radius- and latitude-direction and oscillating in latitude-direction in case of fibre-reinforced linearly elastic material. A function system solving Euler's equation of motion in this case and depending on certain Bessel and associated Legendre functions is derived.
In this article, we consider the problem of planning inspections and other tasks within a software development (SD) project with respect to the objectives quality (no. of defects), project duration, and costs. Based on a discrete-event simulation model of SD processes comprising the phases coding, inspection, test, and rework, we present a simplified formulation of the problem as a multiobjective optimization problem. For solving the problem (i.e. finding an approximation of the efficient set) we develop a multiobjective evolutionary algorithm. Details of the algorithm are discussed as well as results of its application to sample problems.
The Earth's surface is an almost perfect sphere. Deviations from its spherical shape are less than 0,4% of its radius and essentially arise from its rotation. All equipotential surfaces are nearly spherical, too. In consequence, multiscale modelling of geoscientifically relevant data on the sphere involving rotational symmetry of the trial functions used for the approximation plays an important role. In this paper we deal with isotropic kernel functions showing local support and (one-dimensional) polynomial structure (briefly called isotropic finite elements) for reconstructing square--integrable functions on the sphere. Essential tool is the concept of multiresolution analysis by virtue of the spherical up function. The main result is a tree algorithm in terms of (low--order) isotropic finite elements.
Im Mittelpunkt der Untersuchungen standen Bismut-Aren-Komplexe der Reihen [(C6H6)BiCl3-n]n+ (n = 0 – 3) und [(MemC6H6-m)BiCl3] (m = 0 – 3). Außerdem wurden die leichteren Homologen [(C6H6)SbCl3] und [(C6H6)AsCl3] untersucht, um Gruppentrends zu erkennen. Es wurden auch die zu den Komplexen [(C6H6)BiCl3-n]n+ (n = 1 – 3) isoelektronischen Blei-Aren-Komplexe mit in die Betrachtungen einbezogen. Von prinzipiellem Interesse ist der Komplex [(C6H6)2Pb]2+, der als Prototyp eines bent-Sandwich-Bis(aren)hauptgruppenelement-Komplexes aufzufassen ist. Die Strukturen der Neutralkomplexe und Komplexkationen wurden auf MP2(fc)/6-31+G(d)(C,H);SBKJC(d)(Bi,Cl)-Niveau optimiert. Die Wechselwirkungsenergie in [(C6H6)BiCl3] beträgt –23 kJ/mol (MP4). Betrachtungen der Elektronenlokalisierungsfunktion und der Molekülorbitale trugen zum Verständnis der Bindungsverhältnisse in den untersuchten Aren-Komplexen bei. Eine Kristallstrukturanalyse bestätigte die gefundenen Trends der Rechnungen. Die Aren-Komplexe mit leichteren Zentralatomen sind weniger stabil. Außerdem steigt die Stabilität mit der Basizität des Aren-Liganden leicht und mit der Ladung der Komplexe stark an. Zur Untersuchung (B3LYP/6-311+G(d)) der Bindungsverhältnisse im P4-Ring des Tetrakis(amino)-1l5,3l5-Tetraphosphets und der P-P-Bindung seines [2+2]-Cycloreversionsprodukts wurden die Elektronenlokalisierungsfunktionen, wichtige Molekülorbitale, Bindungsordnungen, berechnete chemische Verschiebungen der Phosphorkerne und kernunabhängige chemische Verschiebungen betrachtet. Danach kann für die P-P-Bindung im P4-Ring des Tetraphosphets ein beträchtlicher p-Bindungsanteil angenommen werden. Die P-P-Bindung im [2+2]-Cycloreversionsprodukt kann als elektronisch ungewöhnliche, durch Coulombkräfte verkürzte Doppelbindung verstanden werden. Bei präparativen Arbeiten zu funktionalisierten Aminoarsanen wurde vor einiger Zeit ein Tetrakis(amino)diarsan mit einer außerordentlich langen As-As-Bindung (2,673(3) Å) erhalten. Quantenchemische Rechnungen (B3LYP/6-31+G(d)) bestätigen und unterstützen diesen Befund und räumen letzte Zweifel im Zusammenhang mit der kristallstrukturanalytischen Bestimmung der Bindungslänge aus.
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
We generalize the classical shortest path problem in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a traversal time on each arc. The resulting problem, called time-dependent bicriteria shortest path problem (TdBiSP) has several interesting practical applications, but has not attained much attention in the literature.
This report explains basic notions and concepts of Abstract State Machines (ASM) as well as notation for defining ASM models. The objective here is to provide an intuitive understanding of the formalism; for a rigorous definition of the mathematical foundations of ASM, the reader is referred to [2] and [3]. Further references on ASM-related material can be found on the ASM Web Pages [1].
Annual Report 2002
(2003)
Apoptose in Rattenhepatozyten in Primärkultur- Einfluss von TCDD und polychlorierten Biphenylen
(2003)
Zur Untersuchung der Beeinflussung des apoptotischen Zelltodes durch nicht-dioxinartige polychlorierte Biphenyle in primären Rattenhepatozyten wurden Experimente in Kollagengel- Sandwich-Kultur durchgeführt. Die Auslösung von Apoptose erfolgte mittels Behandlung der Zellen mit UV-Licht. Hierzu wurden die PCB-Kongenere 28, 138 und 183 ausgewählt, als Referenzsubstanz diente Phenobarbital. Es konnte festgestellt werden, dass alle verwendeten PCBs sowie Phenobarbital die UV-induzierte Apoptose konzentrationsabhängig signifikant hemmen. Im Rahmen dieser Studie zeigte sich für die maximalen Hemmeffekte gegenüber der bestrahlten Kontrolle die Reihenfolge PCB 138 (38,7%) > Phenobarbital (30,7%) > PCBs 28, 183 (jeweils 29,1%). Die basale (spontane) Apoptose wurde insgesamt weitaus schwächer beeinflusst. Zur eingehenderen Wirkungscharakterisierung dieser PCBs wäre eine Verifikation der gefundenen Ergebnisse anhand eines Tierexperimentes mit Hinblick auf mögliche tumorpromovierende Effekte dieser Substanzen in der Rattenleber von Interesse. Im weiteren Verlauf der Arbeit wurde versucht, einen Assay zu etablieren, der als biochemischer Marker für Apoptose in primären Rattenhepatozyten eingesetzt werden sollte. In Studien zur DNA-Fragmentierung (DNA-ladder) konnte keine Abhängigkeit der DNAFragmentierung von der eingesetzten UV-Dosis detektiert werden. Somit konnte diese Methode nicht zur Charakterisierung einer Beeinflussung der Apoptose eingesetzt werden. Untersuchungen zur Beeinflussung der Gallensäure-induzierten Caspase-3-Aktivität durch Phenobarbital zeigten keine signifikanten Effekte auf die Caspase-3-Aktivität. Zudem zeichneten sich die Versuche durch eine hohe Schwankungsbreite sowie eine geringe Reproduzierbarkeit aus, so dass keine klare Aussage getroffen werden konnte. Eine biochemische Nachweismethode der Apoptose und deren Beeinflussung durch Xenobiotika konnte somit im zeitlichen Rahmen dieser Arbeit nicht etabliert werden. Abschließend wurde in vorliegender Arbeit der Einfluss von TCDD auf die Apoptose sowie auf die Induktion der 7-Ethoxyresorufin-O-deethylase (EROD)-Aktivität als funktionellem Parameter für die CYP1A-Isoenzym-Induktion in primären Rattenhepatozyten der Stämme Han/Wistar und Long-Evans studiert. In Untersuchungen zum Einfluss von TCDD auf die durch UV-Strahlung ausgelöste Apoptose in Han/Wistar-Hepatozyten konnten keine signifikanten Effekte beobachtet werden. Die maximale Induzierbarkeit der Apoptose lag mit ca. 2,6% deutlich unterhalb der für Hepatozyten des Wistar-Stammes gefundenen Werte. Bei analogen Experimenten mit Long-Evans- Hepatzoyten zeigte sich, dass die Apoptose in diesem Zelltyp nicht induzierbar war. Die Ergebnisse zeigen ferner, dass in beiden Zelltypen eine konzentrationsabhängige Steigerung der EROD-Aktivität festgestellt werden konnte. Die hierbei ermittelten EC50-Werte betrugen für beide Zelltypen ca. 5 x 10-12 M und entsprechen somit annähernd den bereits von Schmitz et al. (1995) publizierten Daten (2 x 10-11 M) für primäre Wistar-Rattenhepatozyten. Die maximale Induktionshöhe lag jedoch in Long-Evans-Hepatozyten deutlich niedriger als in Zellen des Han/Wistar-Stammes.
Asymptotic homogenisation technique and two-scale convergence is used for analysis of macro-strength and fatigue durability of composites with a periodic structure under cyclic loading. The linear damage accumulation rule is employed in the phenomenological micro-durability conditions (for each component of the composite) under varying cyclic loading. Both local and non-local strength and durability conditions are analysed. The strong convergence of the strength and fatigue damage measure as the structure period tends to zero is proved and their limiting values are estimated.
MDR1 P-glycoprotein, ein Mitglied der ABC-Superfamilie, ist verantwortlich für die Vermittlung von Mehrfachresistenz gegenüber chemotherapeutischen Agenzien. Trotz zahlreicher Untersuchungen ist der Mechanismus, mit dem Pgp seine Substrate bindet und transportiert bislang nicht eindeutig geklärt. In der vorliegenden Arbeit wurde ein Screening nach natürlich auftretenden Polymorphismen des humanen MDR1-Gens in drei verschiedenen Probandenstudien durchgeführt. Dabei wurden insgesamt 15 verschiedene genetische Variationen dieses ABC-Transporters identifiziert. Zwei Variationen sind in der Promotorregion des Gens lokalisiert, sechs befinden sich in den Intronbereichen und sieben liegen in der codierenden Region des MDR1-Gens. Lediglich drei Polymorphismen bewirken eine Aminosäuresubstitution im resultierenden P-glycoprotein. Von den 15 detektierten Polymorphismen wurden 11 in dieser Arbeit erstmalig beschrieben. Bei dem Screening an verschiedenen Populationen wurden starke Unterschiede in der Häufigkeitsverteilung festgetellt, welche auf den ethnischen Hintergrund der Probanden zurückzuführen sind. Mittels Reportergenassay wurden zwei Deletionen in der Promotorregion des MDR1-Gens untersucht. Beide Deletionen zeigten keinen Einfluß auf die Regulation der MDR1-Basalexpression. Um die in vitro Untersuchung codierender Polymorphismen des humanen MDR1-Gens zu ermöglichen, wurde mittels Rekombinaseprinzip ein Expressionssystem für MDR1 konstruiert. Mit Hilfe dieses Expressionssystems wurden die drei codierenden Polymorphismen T617C, T662C und G2677T funktionell charakterisiert. Im Western-Blot sowie mittels Rhodamin123-Transportassay wurde festgestellt, dass zwei der drei untersuchten Aminosäure-substituierenden MDR1-Polymorphismen (T662C, G2677T) weder auf die Expression noch auf die Transportaktivität von Pgp einen Einfluss ausüben. Für den dritten untersuchten codierenden Polymorphismus dagegen wurden leicht kontroverse Effekte gefunden, die keine eindeutige Aussage zulassen. Insgesamt wurde also eine Reihe von Polymorphismen bzw. Mutationen des humanen MDR1-Gens detektiert und identifiziert, die jedoch für die Funktion von P-glycoprotein und somit für die Träger dieser Variationen nicht maßgeblich sind.
Die wesentlichste Veränderung durch Basel II, mit der kreditsuchende Unternehmen konfrontiert sein werden, ist das Rating als wesentlicher Bestandteil des Kreditvergabeprozesses. Auf das Unternehmenscontrolling werden in diesem Zusammenhang, insbesondere im Be-reich der Kommunikation mit externen Adressaten, Neuerungen zukommen. Kommunikation mit Stakeholdern außerhalb des Unternehmens war bisher nur im Rahmen der Investor Relations und eingeschränkt bei der Kreditvergabe anzutreffen. Durch Basel II muss sich das Unternehmenscontrolling jedoch sehr viel offener und kooperativer gegenüber von Ratingagenturen oder der entsprechenden Abteilung der Bank zeigen. In der Ausgestaltung des Risikocontrollings sind für eine Ausrichtung nach Basel II keine gestalterischen Innovationen notwendig. Die risikoadäquatere Bildung des Zinssatzes bietet lediglich einen monetären Anreiz, die Anforderungen, die beispielsweise schon größtenteils durch das KonTraG aufgestellt wurden, innerhalb der Unternehmen zu implementieren.
Die vorliegende Arbeit behandelt Algorithmen zur nichtlinearen statischen und dynamischen Analyse von rotationssymmetrischen Schalenstrukturen aus Stahlbeton. Hierzu werden die Grundlagen eines zweiaxialen Stahlbetonmodells beschrieben, das die Erfassung von Vorschädigungen erlaubt. Dieses Modell findet Berücksichtigung innerhalb einer geometrisch und physikalisch nichtlinearen Flächentragwerkstheorie, die im Rahmen einer inkrementell iterativen FE-Formulierung für ein doppelt gekrümmtes Schalenringelement unter Herleitung sämtlicher Elementbeiträge umgesetzt wird. Somit wird ein wichtiger Beitrag zur allgemeinen Theorie und Numerik von Ringelementen geleistet. Ferner wird zur Lösung des nichtlinearen Bewegungsdifferentialgleichungssystems die Anpassung von bekannten Zeitintegrationsverfahren an das Ringelementkonzept vorgeführt; ein weiterer wesentlicher neuartiger Aspekt besteht darüber hinaus in der Verwendung modaler Lösungsverfahren mit Berücksichtigung von Nichtlinearitäten bei inkrementell iterativer Bestimmung der Beteiligungsfaktoren. Im Mittelpunkt der baupraktischen Anwendung der vorgestellten Elemente und Algorithmen steht die Auslegung von Rotationsschalen gegen Erdbebeneinwirkungen. Hierbei werden insbesondere an ausgewählten Beispielen des konstruktiven Ingenieurbaus wie am Spezialfall eines Naturzugkühlturms nichtlineare dynamische Effekte aufgezeigt und erläutert sowie deren Konsequenzen auf die Tragwerksauslegung erörtert.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für die Jahre 2001 und 2002.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das vorgestellte SIMERO-System realisiert eine globale Ganzarmkollisionsvermeidung auf der Basis von Bildern stationärer Kameras. Das System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt.
This publication tries to develop mathematical subjects for school from realistic problems. The center of this report are business planning and decision problems which occur in almost all companies. The main topics are: Calculation of raw material demand for given orders, consumption of existing stock and the lot sizing.
One of the main goals of an organization developing software is to increase the quality of the software while at the same time to decrease the costs and the duration of the development process. To achieve this, various decisions e.ecting this goal before and during the development process have to be made by the managers. One appropriate tool for decision support are simulation models of the software life cycle, which also help to understand the dynamics of the software development process. Building up a simulation model requires a mathematical description of the interactions between di.erent objects involved in the development process. Based on experimental data, techniques from the .eld of knowledge discovery can be used to quantify these interactions and to generate new process knowledge based on the analysis of the determined relationships. In this paper blocked neuronal networks and related relevance measures will be presented as an appropriate tool for quanti.cation and validation of qualitatively known dependencies in the software development process.
The focus of this work has been to develop two families of wavelet solvers for the inner displacement boundary-value problem of elastostatics. Our methods are particularly suitable for the deformation analysis corresponding to geoscientifically relevant (regular) boundaries like sphere, ellipsoid or the actual Earth's surface. The first method, a spatial approach to wavelets on a regular (boundary) surface, is established for the classical (inner) displacement problem. Starting from the limit and jump relations of elastostatics we formulate scaling functions and wavelets within the framework of the Cauchy-Navier equation. Based on numerical integration rules a tree algorithm is constructed for fast wavelet computation. This method can be viewed as a first attempt to "short-wavelength modelling", i.e. high resolution of the fine structure of displacement fields. The second technique aims at a suitable wavelet approximation associated to Green's integral representation for the displacement boundary-value problem of elastostatics. The starting points are tensor product kernels defined on Cauchy-Navier vector fields. We come to scaling functions and a spectral approach to wavelets for the boundary-value problems of elastostatics associated to spherical boundaries. Again a tree algorithm which uses a numerical integration rule on bandlimited functions is established to reduce the computational effort. For numerical realization for both methods, multiscale deformation analysis is investigated for the geoscientifically relevant case of a spherical boundary using test examples. Finally, the applicability of our wavelet concepts is shown by considering the deformation analysis of a particular region of the Earth, viz. Nevada, using surface displacements provided by satellite observations. This represents the first step towards practical applications.
Im Rahmen der vorliegenden Doktorarbeit wurde das Protein AtMSBP1 (Arabidopsis thaliana Monosaccharid Binding Protein 1) aus der Familie der Zuckertransporter auf molekularer und biochemischer Ebene untersucht. Dieses Protein weist sowohl strukturelle, als auch funktionelle Besonderheiten im Vergleich zu anderen bisher untersuchten Zuckertransportern aus Arabidopsis thaliana auf. Die MSBP-Proteine stellen eine eigene Gruppe innerhalb der Monosaccharid-Transporter der Pflanzen dar. Sie haben wie andere Zuckertransporter 12 transmembrane Helices, die zwischen Helix 6 und 7 durch einen großen zentralen Loop miteinander verbunden sind. Dieser hydrophile Loop ist bei den MSBP-Proteinen 4 bis 5 mal so lang wie bei anderen Zuckertransportern und spielt für die Funktion der MSBP-Proteine wahrscheinlich eine wichtige Rolle. Die MSBP-Proteine weisen mehr Ähnlichkeit zu bakteriellen als zu plasmamembranständigen pflanzlichen Monosaccharidtransportern auf. Die Proteine des MSBP-Typs wurden in verschiedenen Spezies der Angiospermen identifiziert. In Arabidopsis thaliana kommen drei Isoformen der MSBP-Proteine vor, die auf mRNA-Ebene in verschieden Geweben nachgewiesen wurden und ein spezifisches Expressionsmuster zeigen. Der AtMSBP1 ist in der äußeren Plastidenmembran lokalisiert, trägt dort aber nicht signifikant zum Glukosetransport bei. Bei der Anzucht von AtMSBP1::T-DNA- und AtMSBP2::T-DNA-"knock out"-Mutanten auf Erde gibt es keine signifikanten phänotypischen Unterschiede im Vergleich zu Wildtyppflanzen. Bei erhöhten Konzentrationen verschiedener Zucker zeigen aber die "knock out"-Mutanten auf morphologischer und molekularer Ebene einen sensitiveren Phänotyp im Vergleich zu Wildtyppflanzen. Die Ergebnisse lassen auf eine Verknüpfung der MSBP-Proteine mit den "Zuckersensing-Wegen" der Pflanzen schließen.
Chemische und sensorische Auswirkungen physikalischer Konzentrierungsverfahren auf Most und Wein
(2003)
In dieser Arbeit wurden die Auswirkungen weinbaulicher und kellerwirtschaftlicher Anreicherungsverfahren mit der traditionellen Anreicherung durch Saccharose und der unbehandelten Variante verglichen. Die Auswirkungen wurden analytisch und sensorisch erfasst. Die physikalischen Mostkonzentrierungsverfahren zeichnen sich dadurch aus, dass nicht flüchtige Mostinhaltsstoffe mit einem Molekulargewicht größer als 80g/Mol in erwartetem Maße angereichert werden. Diese Anreicherung ist auch im Wein sowohl analytisch als auch sensorisch feststellbar. Ausnahmen von diesem Anreicherungsverhalten bilden Kalium und Weinsäure, die während des Konzentrierungsvorganges als Weinstein ausfallen. Somit steigt auch die titrierbare Säure nicht in theoretisch erwartbarem Maße und der pH-Wert bleibt nahezu gleich wie beim unbehandelten Most bzw. Wein. Die üblicherweise angewendeten, weil kostengünstigeren und auch für Qualitätswein b.A. zugelassenen physikalischen Konzentrierungsverfahren sind Umkehrosmose (UO) und Vakuumverdampfung (VD). Beide Verfahren eignen sich gleichermaßen zur Anwendung an geklärten Weiß- und Rotmosten. Das Wasser (Permeat bzw. Destillat) wird schonend dem Most entzogen. Dabei treten Verluste von maximal 2% der nicht flüchtigen Inhaltsstoffe auf. Bei den Rotweinen zeigen beide Verfahren die gleichen Effekte. Nach Maischeerwärmung werden die Moste durch die physikalische Konzentrierung in ihrem Phenolgehalt sofort angereichert. Auch bei der Maischegärung werden die Phenolgehalte gegenüber der Saccharoseanreicherung angehoben, aber indirekt über ein reduziertes Saft/Maische-Verhältnis. Mit einem Saftentzug von der Maische können vergleichbare Effekte erzielt werden. Dies führt im Vergleich zur Saccharoseanreicherung zu analytisch reicheren und sensorisch signifikant besser bewerteten Rotweinen. Bei den Weißweinen nach UO- bzw. VD-Mostkonzentrierung im Vergleich zur Saccharosekontrolle besticht vor allem die Aromaintensität dadurch, dass glycosidisch gebundene Vorläufersubstanzen aufkonzentriert und die Aglyca verstärkt freigesetzt werden. Die Weine werden fruchtiger und vollmundiger. In der sensorischen Gesamtbeurteilung der konzentrierten Weißweine im Vergleich zur traditionellen Saccharoseanreicherung werden die genannten positiven Effekte durch die meist zu spitze Säure und einem als unharmonisch, eindimensional und zu breit empfundenen Geschmack überlagert. Deswegen werden nur selten signifikante Verbesserungen erreicht. Von UO werden auch im Most frei vorliegende Aromastoffe mit einem Molekulargewicht größer 80g/Mol angereichert, während bei der VD flüchtige Inhaltsstoffe bereits zu Beginn des Konzentrierungsvorganges zum Großteil ins Destillat übergehen. Bei VD werden deutliche Verluste der freien Terpene, C6-Alkohole und 2-Phenylethanol festgestellt. Das führt bei den Estern, die diese Verbindungen als Alkoholkomponente enthalten zu einer stark eingeschränkten Bildung während der Gärung. Daher ist die Konzentrierung von aromaintensiven Mosten mittels VD nicht ratsam. Die Anwendung der Gefrierkonzentrierung (Kryoextraktion) zeigt die höchste Verlustrate an Mostinhaltsstoffen in das abgetrennte Eiswasser (3% Zucker und 9-11% organische Säuren). Bei den Weißweinen erbringt die Gefrierkonzentrierung sowohl im Aromabereich (Terpenanreicherung) als auch bei der Sensorik der jungen Weine deutliche Vorteile gegenüber der traditionellen Saccharoseanreicherung. Im Rotweinbereich haben sich die Verfahren nicht bewährt. Die Mostkonzentrierung von unreifem oder nicht gesundem Material ist nicht ratsam. Zum einen ist die Mostkonzentrierung beschränkt auf eine Anhebung im Gesamtalkoholgehalt von 2%vol. Dies führt bei Mostgewichten zwischen 50°Oe und 70°Oe nicht zu selbstständigen Weinen. Zum anderen werden Unreifefaktoren und Fäulnisparameter zumindest mit dem UO-Verfahren (hier am Beispiel von C6-Alkohlen und 1-Octen-3-ol nachgewiesen) analytisch angereichert, was in Grenzfällen zu einer Intensivierung dieser unerwünschten Eigenschaften führen kann. Durchschnittlich ist mit Mehrkosten von 50 Cent pro Liter mostkonzentriertem Wein gegenüber herkömmlicher Saccharoseanreicherung zu rechnen. Die bislang noch nicht erlaubte Weinkonzentrierung mittels UO bringt gute Ergebnisse bei der Verdichtung von qualitativ hochwertigen Weinen. Dieses Verfahren kann aber nicht als nachträgliches Alkoholanreicherungsverfahren dienen, da der Alkohol zu einem Großteil permeirt und die Anreicherung im Wein nur etwa halb so stark ist wie die der übrigen Inhaltsstoffe.
Clusters bridge the gap between single atoms or molecules and the condensed phase and it is the challenge of cluster science to obtain a deeper understanding of the molecular foundation of the observed cluster specific properties/reactivities and their dependence on size. The electronic structure of hydrated magnesium monocations [Mg,nH2O]+, n<20, exhibits a strong cluster size dependency. With increasing number of H2O ligands the SOMO evolves from a quasi-valence state (n=3-5), in which the singly occupied molecular orbital (SOMO) is not yet detached from the metal atom and has distinct sp-hybrid character, to a contact ion pair state. For larger clusters (n=17,19) these ion pair states are best described as solvent separated ion pair states, which are formed by a hydrated dication and a hydrated electron. With growing cluster size the SOMO moves away from the magnesium ion to the cluster surface, where it is localized through mutual attractive interactions between the electron density and dangling H-atoms of H2O ligands forming "molecular tweezers" HO-H (e-) H-OH. In case of the hydrated aluminum monocations [Al,nH2O]+,n=20, different isomers of the formal stoichiometry [Al,20H2O]+ were investigated by using gradient-corrected DFT (BLYP) and three different basic structures for [Al,20H2O]+ were identified: (a) [AlI(H2O)20]+ with a threefold coordinated AlI; (b) [HAlIII(OH)(H2O)19]+ with a fourfold coordinated AlIII; (c) [HAlIII(OH)(H2O)19]+ with a fivefold coordinated AlIII. In ground state [AlI(H2O)20]+ (a) which contains aluminum in oxidation state +1 the 3s2 valence electrons remain located at the aluminium monocation. Different than for open shell magnesium monocations no electron transfer into the hydration shell is observed for closed shell AlI. However, clusters of type (a) are high energy isomers (DE»+190 kJ mol-1) and the activation barrier for reaction into cluster type (b) or (c) is only approximately 14 kJ mol-1. The performed ab initio calculations reveal that unlike in [Mg,nH2O]+, n=7-17, for which H atom eliminiation is found to be the result of an intracluster redoxreaction, in [Al,nH2O]+,n=20, H2 is formed in an intracluster acid-base reaction. In [Mg,nH2O]+, n>17, the magnesium dication was found to coexist with a hydrated electron in larger cluster sizes. This proves that intermolecular electron delocalization - previously almost exclusively studied in (H2O)n- and (NH3)n- clusters - can also be an important issue for water clusters doped with an open shell metal cation or a metal anion. Structures and stabilities of hydrated magnesium water cluster anions with the formal stoichiometry [Mg,nH2O]-, n=1-11, were investigated by application of various correlated ab initio methods (MP2, CCSD, CCSD(T)). Metal cations surely have high relevance in numerous biological processes, and as most biological processes take place in aqueous solution hydrated metal ions will be involved. However, in biological systems solvent molecules (i.e. water) compete with different solvated chelate ligands for coordination sites at the metal ion and the solvent and chelate ligands are in mutual interactions with each other and the metal ion. These interactions were investigated for the hydration of ZnII/carnosine complexes by application of FT-ICR-MS, gas-phase H/D exchange experiments and supporting ab initio calculations. In the last chapter of this work the Free Electron Laser IR Multi Photon Dissocition (FEL-IR-MPD) spectra of mass selected cationic niobium acetonitrile complexes with the formal stoichiometry [Nb,nCH3CN]+, n=4-5, in the spectral range 780 – 2500 cm-1 are reported. In case of n=4 the recorded vibrational bands are close to those of the free CH3CN molecule and the experimental spectra do not contain any evident indication of a potential reaction beyond complex formation. By comparison with B3LYP calculated IR absorption spectra the recorded spectra are assigned to high spin (quintet, S=2), planar [NbI(NCCH3)4]+. In [Nb,nCH3CN]+, n=5, new vibrational bands shifted away from those of the acetonitrile monomer are observed between 1300 – 1550 cm-1. These bands are evidence of a chemical modification due to an intramolecular reaction. Screening on the basis of B3LYP calculated IR absorption spectra allow for an assignment of the recorded spectra to the metallacyclic species [NbIII(NCCH3)3(N=C(CH3)C(CH3)=N)]+ (triplet, S=1), which has formed in a internal reductive nitrile coupling reaction from [NbI(NCCH3)5]+. Calculated reaction coordinates explain the experimentally observed differences in reactivity between ground state [NbI(NCCH3)4]+ and [NbI(NCCH3)5]+. The reductive nitrile coupling reaction is exothermic and accessible (Ea=49 kJ mol-1) only in [NbI(NCCH3)5]+, whereas in [NbI(NCCH3)4]+ the reaction is found to be endothermic and retarded by significantly higher activation barriers (Ea>116 kJ mol-1).
Congress Report 2003.01
(2003)
Congress Report 2003.02
(2003)
Congress Report 2003.03
(2003)
Congress Report 2003.04
(2003)
Congress Report 2003.05
(2003)
Congress Report 2003.06
(2003)
Congress Report 2003.07-08
(2003)
Congress Report 2003.09
(2003)
Congress Report 2003.10
(2003)
Congress Report 2003.11
(2003)
Congress Report 2003.12
(2003)
Objective: In some surgical specialties, e.g. orthopedics, robots are already used in the operating room for bony milling work. Oto- and otoneurosurgery may also greatly benefit by robotic enhanced precision. Study Design: Experimental study on robotic milling on oak wood and human temporal bone specimen. Methods: A standard industrial robot with a 6 degrees-of-freedom serial kinematics was used with force feedback to proportionally control the robot speed. Different milling modes and characteristic path parameters were evaluated to generate milling paths based on CAD geometry data of a cochlear implant and an implantable hearing system. Results: The best suited strategy proofed to be the spiral horizontal milling mode with the burr held perpendicularly to the temporal bone surface. In order to avoid high grooves, the distance in between paths should equal half the radius of the cutting burr head. Due to the vibration of the robot’s own motors, a rather high oscillation of the standard deviation of forces was encountered. This oscillation dropped drastically to nearly 0 N, when the burr head reached contact with the dura mater due to its damping characteristics. The cutting burr could be moved a long time on the dura without damaging it, because of its rather blunt head. The robot moved the burr very smoothly according to the encountered resistances. Conclusion: This is the first development of an functioning robotic milling procedure for otoneurosurgery with force-based speed control. It is planned to implement ultrasound-based local navigation and to perform robotic mastoidectomy.
The objective of the present article is to give an overview of an application of Fuzzy Logic in Regulation Thermography, a method of medical diagnosis support. An introduction to this method of the complementary medical science based on temperature measurements – so-called thermograms – is provided. The process of modelling the physician’s thermogram evaluation rules using the calculus of Fuzzy Logic is explained.
The thesis discusses discrete-time dynamic flows over a finite time horizon T. These flows take time, called travel time, to pass an arc of the network. Travel times, as well as other network attributes, such as, costs, arc and node capacities, and supply at the source node, can be constant or time-dependent. Here we review results on discrete-time dynamic flow problems (DTDNFP) with constant attributes and develop new algorithms to solve several DTDNFPs with time-dependent attributes. Several dynamic network flow problems are discussed: maximum dynamic flow, earliest arrival flow, and quickest flow problems. We generalize the hybrid capacity scaling and shortest augmenting path algorithmic of the static network flow problem to consider the time dependency of the network attributes. The result is used to solve the maximum dynamic flow problem with time-dependent travel times and capacities. We also develop a new algorithm to solve earliest arrival flow problems with the same assumptions on the network attributes. The possibility to wait (or park) at a node before departing on outgoing arc is also taken into account. We prove that the complexity of new algorithm is reduced when infinite waiting is considered. We also report the computational analysis of this algorithm. The results are then used to solve quickest flow problems. Additionally, we discuss time-dependent bicriteria shortest path problems. Here we generalize the classical shortest path problems in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a travel time on each arc. These problems have several interesting practical applications, but have not attained much attention in the literature. Here we develop two new algorithms in which one of them requires weaker assumptions as in previous research on the subject. Numerical tests show the superiority of the new algorithms. We then apply dynamic network flow models and their associated solution algorithms to determine lower bounds of the evacuation time, evacuation routes, and maximum capacities of inhabited areas with respect to safety requirements. As a macroscopic approach, our dynamic network flow models are mainly used to produce good lower bounds for the evacuation time and do not consider any individual behavior during the emergency situation. These bounds can be used to analyze existing buildings or help in the design phase of planning a building.
In this paper we discuss an earliest arrival flow problem of a network having arc travel times and capacities that vary with time over a finite time horizon T. We also consider the possibility to wait (or park) at a node before departingon outgoing arc. This waiting is bounded by the value of maximum waiting time and the node capacity which also vary with time.
In Anbetracht der ständig steigenden Nachfrage nach Mobilkommunikation einerseits und der nur begrenzt zur Verfügung stehenden Ressource Frequenzspektrum andererseits müssen Mobilfunksysteme der dritten Generation (3G) eine hohe Frequenzökonomie haben. Dies trifft insbesondere auf die Abwärtsstrecken dieser Systeme zu, in denen auch paketorientierte Dienste mit hohen Datenraten angeboten werden sollen. Seitens der Basisstationen kann die spektrale Effizienz der Abwärtsstrecke durch das Verwenden mehrelementiger adaptiver Sendeantennen erhöht werden. Hierzu sind leistungsfähige Signalverarbeitungskonzepte erforderlich, die die effektive Kombination der adaptiven Antennen mit der eingesetzten Sendeleistungsregelung ermöglichen. Die wichtigsten Aspekte beim Entwerfen von Signalverarbeitungskonzepten für adaptive Sendeantennen sind das Gewährleisten mobilstationsspezifischer Mindestdatenraten sowie das Reduzieren der aufzuwendenden Sendeleistungen. Die vorliegende Arbeit trägt dazu bei, den Einsatz mehrantennenelementiger adaptiver Sendeantennen in Mobilfunksystemen der dritten Generation voranzutreiben. Existierende Konzepte werden dargestellt, vereinheitlicht, analysiert und durch eigene Ansätze des Autors erweitert. Signalverarbeitungskonzepte für adaptive Antennen benötigen als Wissensbasis zumindest einen gewissen Grad an Kenntnis über die Mobilfunkkanäle der Abwärtsstrecke. Beim für den FDD-Modus angedachten 3G-Teilstandard WCDMA ergibt sich das Problem, daß wegen des Frequenzversatzes zwischen der Auf- und der Abwärtsstrecke die Ergebnisse der Kanalschätzung in der Aufwärtsstrecke nicht direkt zum Einstellen der adaptiven Sendeantennen verwendet werden können. Eine Möglichkeit, in FDD-Systemen an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, besteht im Ausnutzen der an den Basisstationen ermittelbaren räumlichen Korrelationsmatrizen der Mobilfunkkanäle der Aufwärtsstrecke. Diese Vorgehensweise ist nur dann sinnvoll, wenn die relevanten Einfallsrichtungen der Aufwärtsstrecke mit den relevanten Abstrahlungsrichtungen der Abwärtsstrecke übereinstimmen. Für diesen Fall wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Anpassen der adaptiven Sendeantennen erarbeitet, das nicht auf komplexen Richtungsschätzalgorithmen beruht. Eine verläßlichere Methode, an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, ist das Signalisieren von Kanalzustandsinformation, die an den Mobilstationen gewonnen wird, über einen Rückkanal an die versorgende Basisstation. Da dieses Rücksignalisieren zeitkritisch ist und die Übertragungskapazität des Rückkanals begrenzt ist, wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Vorverarbeiten und Rücksignalisieren von Kanalzustandsinformation erarbeitet.
Wesentliches Ziel dieser Arbeit war ein verbessertes Verständnis der Autoionisationsdynamik in ausgewählten angeregten und anionischen atomaren Stoßkomplexen. Dazu wurden die Energiespektren der in diesen Prozessen freigesetzten Elektronen, zum Teil in Abhängigkeit vom Emissionswinkel, mit hoher Auflösung untersucht und mit quantenmechanischen Rechnungen (die in Kooperation mit Theoretikern durchgeführt wurden) verglichen. Ein Schwerpunkt lag dabei auf Experimenten zur assoziativen Ionisation in Stößen metastabiler Argonatome mit Wasserstoffatomen. In diesem System liegt die Anregungsenergie der metastabilen Argonatome (11.7232eV für den Ar*(3P0)- und 11.5484eV für den Ar*(3P2)-Zustand) niedriger als die Ionisierungsenergie von atomarem Wasserstoff (13.5984eV), und so kann bei thermischen Stoßenergien nur assoziative Ionisation unter Bildung von ArH+-Molekülionen gemäß dem Prozess Ar*(4s 3P2,3P0) + H(1s) --> ArH+(v+,J+) + e-(E) auftreten, welche über Kurvenkreuzungen ablaufen muss. Erstmals wurden die Energieverteilungen der in diesem Prozess emittierten Elektronen für verschiedene Nachweiswinkel gemessen, wobei die Messungen bei einem Nachweiswinkel zustandsselektiert durchgeführt wurden. Die Elektronenenergiespektren zeigen eine deutliche Variation der auftretenden Vibrationsstufen mit dem Nachweiswinkel, wobei verschiedene Winkelabhängigkeiten bei den Stufen zu kleinen und zu großen Vibrationsquantenzahlen v+ beobachtet wurden. Zur Durchführung der winkelabhängigen Messungen wurde ein hochauflösendes Elektronenspektrometer konstruiert, welches an den bereits vorhandenen apparativen Aufbau angepasst und mit einer Option für positionsempfindlichen Elektronennachweis versehen wurde. Charakterisierungs-Messungen haben gezeigt, dass mit dem neuen Elektronenanalysator bei Spaltbreiten von 0.2mm Spektrometerbreiten bis hinab zu 6meV erreicht werden können. Im Rahmen weiterer Experimente mit metastabilen Edelgasatomen wurden erstmals zustandsselektiv die Energieverteilungen der in den Stoßkomplexen Ar*(4s 3P2,3P0) + Hg und Kr*(5s 3P2,3P0) + Hg emittierten Elektronen gemessen. Bei diesen Systemen kann bei thermischen Stoßenergien sowohl Penning-Ionisation gemäß dem Prozess Rg* + Hg --> Rg + Hg+ + e-(E) als auch assoziative Ionisation gemäß Rg* + Hg --> RgHg+ + e-(E) (Rg = Ar oder Kr) auftreten. Diese Messungen wurden unter einem festen Nachweiswinkel (90° relativ zur Richtung des Metastabilenstrahls) durchgeführt. Es wurde beobachtet, dass im Ar*(3P0)+Hg-Spektrum im Vergleich zum Ar*(3P2)+Hg-Spektrum eine zusätzliche Struktur bei geringerer Elektronenenergie auftritt, welche sich nur durch Kopplung an einen tiefer liegenden Autoionisationskanal erklären lässt. Für das System Ar*(3P2) + Hg wurden parallel zu dieser Arbeit quantenmechanische Modellrechnungen von L. Thiel durchgeführt. Aus dem gemessenen Elektronenenergiespektrum konnte unter Verwendung eines ab initio Potentials für den Ausgangskanal ein komplexes Modellpotential für den Eingangskanal gewonnen werden, mit welchem das gemessene Elektronenenergiespektrum gut reproduziert wird. Neben den Experimenten zur assoziativen und zur Penning-Ionisation wurden in Kooperation mit auswärtigen Gruppen Untersuchungen zum assoziativen Detachment in anionischen Stoßkomplexen durchgeführt. Gemeinsam mit M. Cizek und J. Horacek (Prag, Tschechische Republik) wurden die in einem simulierten Experiment zu erwartenden Elektronenenergieverteilungen aus dem Prozess X- + H --> XH(v,J) + e-(E) (X = Cl oder Br) zum einen unter Verwendung einer nichtlokalen Resonanztheorie und zum anderen unter Verwendung einer lokalen Näherung berechnet. Dabei sagten die nichtlokalen Rechnungen deutliche zusätzliche, durch Kanalkopplungseffekte hervorgerufene Strukturen voraus. Deren energetische Positionen im Elektronenenergiespektrum sind annähernd unabhängig von der Stoßenergie und sollten deshalb auch bei relativ breiter Stoßenergieverteilung gut beobachtbar sein. Motiviert durch diesen Befund wurden in Kooperation mit S. Zivanov und M. Allan (Fribourg, Schweiz) erstmals elektronenspektrometrische Untersuchungen an den anionischen Stoßkomplexen Cl- + H und Br- + H durchgeführt. Die gemessenen Elektronenenergieverteilungen zeigen für beide Systeme die im Rahmen der nichtlokalen Resonanztheorie vorhergesagten zusätzlichen Strukturen und dokumentieren damit die starken Kanalkopplungseffekte sowie die für diese Systeme unzureichende Beschreibung durch lokale komplexe Potentiale.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.
Empfängerorientierte Übertragungsverfahren sind dadurch gekennzeichnet, daß der im Sender zu verwendende Signalverarbeitungsalgorithmus an den im Empfänger verwendeten Signalverarbeitungsalgorithmus angepaßt ist. Dies geschieht meist mit zusätzlicher Kanalinformation, die nur am Sender und nicht am Empfänger verfügbar ist. In empfängerorientierten Systemen kann man besonders einfache Algorithmen in den Empfängern realisieren, die im Falle einer Abwärtsstreckenübertragung eines Mobilfunksystems, in den Mobilstationen sind. Dies ist mit geringen Produktionskosten und geringem Energieverbrauch der Mobilstationen verbunden. Um dennoch eine gewisse Güte der Datenübertragung zu gewährleisten, wird bei der Empfängerorientierung mehr Aufwand in der Feststation des Mobilfunksystems betrieben. Die derzeit verwendeten und für die dritte Mobilfunkgeneration (UMTS) vorgesehenen Übertragungsverfahren sind senderorientiert. Das bedeutet, daß der Signalverarbeitungsalgorithmus im Empfänger an den Signalverarbeitungsalgorithmus des Senders angepaßt ist. Auch bei der Senderorientierung wird meist die Kanalinformation in den Anpassungsprozeß im Empfänger einbezogen. Zum Gewinnen der Kanalinformation sind Testsignale notwendig, anhand der die Kanalinformation geschätzt werden kann. Solche Testsignale können in der Abwärtsstrecke eines empfängerorientierten Mobilfunksystems entfallen. Anstelle der Testsignale kann man Daten übertragen und somit die Datenrate im Vergleich zu senderorientierten Systemen erhöhen. Um die Performanz von Übertragungsverfahren beurteilen zu können, sind geeignete Kriterien notwendig. Meist werden zur Beurteilung Bitfehlerwahrscheinlichkeiten oder Signal-Stör-Verhältnisse verwendet. Da die Höhe der aufzuwendenden Sendeenergie nicht nur technisch, sondern auch gesellschaftlich ein wichtiger Aspekt zukünftiger Mobilfunksysteme ist, wird vom Verfasser das Kriterium der Energieeffizienz vorgeschlagen. Die Energieeffizienz beurteilt das Zusammenspiel von Signalverarbeitungsalgorithmen des Senders und des Empfängers unter Berücksichtigung der Kanaleigenschaften. Dabei wird die nutzbare Empfangsenergie auf die investierte Sendeenergie bezogen. Anhand der ermittelten energieeffizienzen und analytischen Betrachtungen in der vorliegenden Arbeit kann man den Schluß ziehen, daß empfängerorientierte Übertragungsverfahren für die Abwärtsstreckenübertragung in Mobilfunksystemen den senderorientierten vorzuziehen sind, wenn an der Feststation relativ viele und an den Mobilstationen relativ wenige Antennen zur Verfügung stehen. Dies ist bereits heute der Fall und auch in zukünftigen Mobilfunksystemen zu erwarten. Ferner eröffnet das am Rande untersuchte kanalorientierte Übertragungsverfahren, bei dem die Signalverarbeitungsalgorithmen des Sender und des Empfängers an die Kanalinformation angepaßt werden, ein weites Feld für zukünftige Forschungsvorhaben.
Im Rahmen der vorliegenden Arbeit wurde erstmalig die Verarbeitungstechnik zur
Entwicklung und Herstellung von Microfibrillaren Composites (MFCs) im Bereich der
resorbierbaren Polymeren angewandt. Ziel war die Herstellung eines polymeren
MFC-Knochennagel-Implantats aus den zwei biodegradierbaren Werkstoffen
Polylaktid und Polyglykolid, um eine Verbesserung der mechanischen Eigenschaften
gegenüber den Ausgangswerkstoffen zu erzielen. Die biodegradierbaren MFCs
wurden schließlich bzgl. ihres mechanischen Leistungspotentials gegenüber der
alternativen Herstellungstechnik „Solid-State-Extrusion“ bewertet.
Die vier verschiedenen Polylaktide, Poly-L-laktid (PLLA), Polylaktid (PLA), Poly-DLlaktid
(PLDLA), Poly-LDL-laktid (PLDLLA) und der Werkstoff Polyglykolid (PGA)
bildeten vier Werkstoffpaarungen für die MFC-Versuchsreihen. Für die Solid-State-
Extrusion standen die vier Polylaktide aus der MFC-Serie sowie mehrere kompatible
Polylaktidmischungen zur Verfügung.
Innerhalb der Untersuchungen wurde zuerst das Verfahren der Solid-State-Extrusion
optimiert, da es hier auch Überschneidungen in den MFC-Verarbeitungsetappen gab.
Um den MFC-Prozess optimieren zu können, wurden theoretische Überlegungen
und schematische Modellansätze aufgestellt, die dann durch mikroskopische
Beobachtungen bestätigt und verifiziert wurden. Aus der entwickelten
Modellvorstellung konnten Lösungsansätze hergeleitet werden, welche die von
Fakirov et al. aufgestellten MFC-Bedingungen erweiterten und eine Herstellung von
resorbierbaren Microfibrillaren Composites ermöglichten.
Die 3-Punkt-Biegeuntersuchungen der MFC-Werkstoffpaarung zeigten für eine PGA/PLA 30:70-Mischung eine Erhöhung der mechanischen Steifigkeit um 30 % und
der Festigkeit um 20 % gegenüber dem reinen Polylaktid. Die initiale
Leistungssteigerung mittels der Solid-State-Extrusion fällt mit über 120 % Steigerung
deutlich stärker aus als die der MFCs, jedoch reduziert sich der Gewinn unter
Berücksichtigung eines Umformprozesses auf ca. 50 %. Weiterhin konnten die MFCs
mittels dem Spritzgießverfahren in komplexe Geometrien geformt werden.
Abschließend wurde für den MFC-Prozeß ein Verarbeitungsfenster hergeleitet.
This thesis aimed at developing and producing bioresorbable Microfibrillar
Composites (MFCs) for polymer bone nails. The main goal was to create a complete
resorbable Microfibrillar Composite made from the two common commercial
polymers polylactide (PLA) and polyglycolide (PGA). The mechanical strength and
stiffness of this new composite should be significantly higher in comparison to the
native materials. To evaluate their mechanical potential, the produced MFCs were
compared to the alternative technique of solid-state-extrusion.
Four different polymer blends in different component ratios were developed and
investigated for the MFC series. These blends werde made of four different
polylactides, two amorphous and two partially crystalline polylactides, together with
polyglycolide as the reinforcing material. For the solid-state-extrusion, four native
polylactides from the MFC series and several miscible polylactide blends were
produced.
Following the experimental studies, the process of solid-state-extrusion was
optimized first. Furthermore a theoretical model was developed for optimizing the
MFC process. This model was prooved by experimental data and microscopy
investigations. Due to the model it was possible to develop solutions for the MFCprocessing.
In addition the basic rules developed by Fakirov et al. were extended.
The mechanical properties were evaluated by 3 point bending tests. An increase of
30 % for the stiffness and 20 % for the bending strength in comparison to the native
polylactide was reached by a MFC-PGA/PLA 30:70. For the solid-state-extrusion, a
significant increase of 120 % was possible. But considering an additional forming
process, the mechanical properties dropped to 50 % of the initial values.
Furthermore, regarding the MFC-process, it was possible to get complex shapes like
the bone nails by injection molding. In conclusion a processing window was
established for the MFC-process.
Immer häufiger werden auch im industriellen Umfeld die im Bürobereich gebräuchlichen grafischen, fenster-orientierten Benutzungsoberflächen als Interaktionsschnittstelle eingesetzt. Die Interaktion erfolgt bei solchen fensterorientierten Bediensystemen mittels koordinatengebender Interaktionsgeräte. Im Bürobereich wird dabei als Interaktionsgerät überwiegend eine Computermaus eingesetzt. Mit der Computermaus verbietet sich jedoch ein industrieller Einsatz in rauer Umgebung, sofern sie nicht gegen Verschmutzung abgesichert wird. Weitere Probleme entstehen aus den industriellen Umgebungsbedingungen wie z.B. der häufig nicht vorhandenen Ablagefläche bei Tafelbenutzung und den Maschinenschwingungen bei nicht entkoppelten Bediensystem. Unter anderem wird zwar zur Lösung dieser Probleme eine Vielzahl von alternativen Interaktionsgeräten (wie z.B. Trackballs, Touchscreens, Joysticks, Mousepads, Mousebuttons, etc.) eingesetzt, allerdings ist deren Gebrauchstauglichkeit für die Benutzer nicht geklärt bzw. fragwürdig. In dieser Arbeit wird eine Methode vorgestellt, welche es Entwicklern und Nutzern von Interaktionsgeräten erlaubt, die Gebrauchstauglichkeit von unterschiedlichsten Interaktionstechniken qualitativ und quantitativ bewerten und vergleichen zu können.
Diese Projektarbeit beschreibt die Anforderungen, den Aufbau und die Implementierung der Anfrageverarbeitung (Query-Engine). Im diesem Kapitel werden die Zielsetzungen des Meta-Akad Projekts und die Realisierungsmöglichkeiten mit dem Java 2 Enterprise Edition Framework erörtert. Ferner wird die Einordnung der Anfrageverarbeitung in das Gesamtsystem gezeigt. Das zweite Kapitel erläutert grob Anforderungen sowie Ablauf der Anfrageverarbeitung und stellt das Implementierungskonzept dar. In den Nachfolgenden Kapitel wird dann näher auf die einzelnen Phasen der Verarbeitung und die auftretenden Probleme eingegangen. Am Ende werden im Kapitel Ausblick Möglichkeiten für Erweiterungen und Verbesserungen der Anfrageverarbeitung des Meta-Akad Suchdienstes dargelegt.
The Discrete Ordered Median Problem (DOMP) generalizes classical discrete location problems, such as the N-median, N-center and Uncapacitated Facility Location problems. It was introduced by Nickel [16], who formulated it as both a nonlinear and a linear integer program. We propose an alternative integer linear programming formulation for the DOMP, discuss relationships between both integer linear programming formulations, and show how properties of optimal solutions can be used to strengthen these formulations. Moreover, we present a specific branch and bound procedure to solve the DOMP more efficiently. We test the integer linear programming formulations and this branch and bound method computationally on randomly generated test problems.
Extensions of Shallow Water Equations The subject of the thesis of Michael Hilden is the simulation of floods in urban areas. In case of strong rain events, water can flow out of the overloaded sewer system onto the street and damage the connected houses. The dependable simulation of water flow out of a manhole ("manhole") and over a curb ("curb") is crucial for the assessment of the flood risks. The incompressible 3D-Navier-Stokes Equations (3D-NSE) describe the free surface flow of water accurately, but require expensive computations. Therefore, the less CPU-intensive (factor ca.1/100) Shallow Water Equations (SWE) are usually applied in hydrology. They can be derived from 3D-NSE under the assumption of a hydrostatic pressure distribution via depth-integration and are applied successfully in particular to simulations of river flow processes. The SWE-computations of the flow problems "manhole" and "curb" differ to the 3D-NSE results. Thus, SWE need to be extended appropriately to give reliable forecasts for flood risks in urban areas within reduced computational efforts. These extensions are developed based on physical considerations not considered in the classical SWE. In one extension, a vortex layer on the ground is separated from the main flow representing its new bottom. In a further extension, the hydrostatic pressure distribution is corrected by additional terms due to approximations of vertical velocities and their interaction with the flow. These extensions increase the quality of the SWE results for these flow problems up to the quality level of the NSE results within a moderate increase of the CPU efforts.
In recent years a considerable attention was paid to an investigation of finite orders relative to different properties of their isotone functions [2,3]. Strict order relations are defined as strict asymmetric and transitive binary relations. Some algebraic properties of strict orders were already studied in [6]. For the class K of so-called 2-series strict orders we describe the partially ordered set EndK of endomorphism monoids, ordered by inclusion. It is obtained that EndK possesses a least element and in most cases defines a Boolean algebra. Moreover, every 2-series strict order is determined by its n-ary isotone functions for some natural number n.
Mobilfunksysteme sind interferenzbegrenzt. Eine signifikante Steigerung der Leistungsfähigkeit künftiger Mobilfunksysteme kann daher nur durch den Einsatz von Verfahren zum Reduzieren der schädlichen Wirkung von Interferenz erreicht werden. Eine besonders attraktive Klasse von Verfahren, die dieses leisten, sind jene der gemeinsamen Empfangssignalverarbeitung, wobei bisher der systematische Entwurf und die systematische Analyse solcher Verfahren für CDMA-Mobilfunksysteme mit infiniter oder quasi-infiniter Datenübertragung - eine im Hinblick auf die derzeit in Betrieb gehenden zellularen Mobilfunksysteme der dritten Generation besonders interessierende Klasse von künftigen Mobilfunksystemen - noch unklar ist. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs- und Optimierungsprozesses von Verfahren zur gemeinsamen Empfangssignalverarbeitung für Mobilfunksysteme der genannten Art. Zu diesem Zweck wird gezeigt, daß sich die Aufgabe der gemeinsamen Empfangssignalverarbeitung in die fünf Teilaufgaben Blockbilden, Datenzuordnen, Interblock-Signalverarbeitung, Intrablock-Signalverarbeitung und Kombinieren & Entscheiden zerlegen läßt. Nachdem in einem ersten Schritt alle fünf Teilaufgaben klar definiert und gegeneinander abgegrenzt werden, erfolgt in einem zweiten Schritt für jede Teilaufgabe die Entwicklung von Lösungsvorschlägen, die nach gewissen Kriterien optimal bzw. suboptimal sind. Zur Lösung jeder einzelnen Teilaufgabe werden neuartige Vorgehensweisen vorgeschlagen, wobei dabei sowohl die Optimierung der Leistungsfähigkeit der jeweiligen Vorgehensweisen als auch Belange, die für die praktische Realisierbarkeit relevant sind, im Vordergrund stehen. Eine Schlüsselrolle kommt den Verfahren der Intrablock-Signalverarbeitung zu, deren Aufgabe darin besteht, ausgehend von Ausschnitten des Empfangssignals Schätzungen von Daten zu ermitteln, die zu dem jeweiligen Ausschnitt beitragen. Die vorgeschlagenen Verfahren der Intrablock-Signalverarbeitung beruhen im wesentlichen auf iterativen Versionen bekannter linearer Schätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt dabei A-priori-Information, wie z.B. die Kenntnis des Datensymbolalphabetes und der A-priori-Wahrscheinlichkeiten der zu übertragenden Daten, zum Erhöhen der Zuverlässigkeit der zu ermittelnden Datenschätzungen. Die verschiedenen Versionen der iterativ realisierten linearen Schätzer und verschiedene Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für viele Anwendungsfälle ein maßgeschneidertes Verfahren zur Intrablock-Signalverarbeitung zu konstruieren. Aufbauend auf dem entwickelten systematischen Entwurfsprinzip wird abschließend für ein exemplarisches CDMA-Mobilfunksystem mit synchronem Mehrteilnehmerzugriff ein darauf zugeschnittenes Verfahren zur gemeinsamen Empfangssignalverarbeitung vorgeschlagen. Die dargelegten Simulationsergebnisse zeigen, daß ausgehend von derzeit favorisierten nicht dem Prinzip der gemeinsamen Empfangssignalverarbeitung folgenden Verfahren zum Schätzen der übertragenen Daten in typischen Mobilfunkszenarien durch Einsetzen des vorgeschlagenen Verfahrens zur gemeinsamen Empfangssignalverarbeitung die Anzahl der gleichzeitig aktiven CDMA-Codes um nahezu eine Größenordnung erhöht werden kann, ohne dabei die bei einem vorgegebenen Signal-Stör-Verhältnis am Referenzempfänger beobachtbare Zuverlässigkeit der ermittelten Schätzungen zu verschlechtern. Deshalb ist der Einsatz von Verfahren zur gemeinsamen Empfangssignalverarbeitung eine vielversprechende Maßnahme zur Kapazitätssteigerung künftiger Mobilfunksysteme.
Die cytogenetische Manifestation von Genamplifikation in humanen Zellen wurde in einem Fall von akuter myeloischer Leukämie (AML) sowie an der humanen Cervixcarcinomzelllinie HeLa S3 untersucht. In dem AML-Fall ergab die Karyotypisierung der Leukämiezellen neben dem Verlust eines X-Chromosoms das Vorliegen einer extrachromosomalen Genamplifikation in Form von Double Minutes. Mit Hilfe der Comparativen Genomischen Hybridisierung (CGH) und der Fluoreszenz-in situ-Hybridisierung (FISH) wurde die Herkunft der amplifizierten Sequenz aus der chromosomalen Region 8q24 ermittelt und eine Amplifikation des Protoonkogens MYC in den Double Minutes nachgewiesen. Die FISH-Analyse zeigte zudem den Verlust von einem der beiden chromosomalen MYC-Loci an, der auf einen Deletionsmechanismus der Genamplifikationsentwicklung schliessen ließ. Die Induktion der Amplifikation des Dihydrofolat-Reduktase-Gens (DHFR) durch Selektion mit Methotrexat (MTX) diente als Modellsystem zur Analyse der frühen Stadien der Genamplifikationsentwicklung. Durch mehrmonatige Mehrschrittselektionen von zwei HeLa-Zellpopulationen wurden unabhängig voneinander zwei HeLa-Sublinien mit jeweils extrachromosomaler DHFR-Amplifikation in Form von Double Minutes erzeugt. Die Veränderungen der 5q-Trägerchromosomen und der intrachromosomalen DHFR-Kopienanzahl, die im Verlauf der MTX-Selektionen in den HeLa-Zellen auftraten, wiesen auf das Zusammenwirken unterschiedlicher Mechanismen zur DHFR-Amplifikation hin. Niedrige MTX-Konzentrationen wirkten in Richtung einer Anreicherung von intrachromosomalen DHFR-Kopien, die hauptsächlich auf den Zugewinn eines Chromosoms 5 zurückzuführen waren. Daneben wies das Auftreten von neuen derivativen DHFR-haltigen Chromosomen auf Bruchereignisse in Chromosom 5 hin. Das Erscheinen eines derivativen Chromosoms mit zwei invertiert angeordneten 5q und drei DHFR-Kopien ließ auf das Ablaufen von Breakage-Fusion-Bridge (BFB)-Zyklen schliessen. Bei höheren MTX-Konzentrationen (ab 0.25 µM) trat dagegen eine Anreicherung von extrachromosomalen DHFR-Kopien in Double Minutes bei gleichzeitigem Rückgang der derivativen DHFR-haltigen Chromosomen in den Vordergrund. Die Sublinien aus Selektion 1 waren in diesem Stadium durch den Verlust eines Chromosoms 5 gekennzeichnet, der auf eine Generierung von extrachromosomalen DHFR-Kopien aus 5q-Bruchstücken hinwies. Im Gegensatz dazu trat bei den Sublinien von Selektion 2 in diesem Stadium zunächst noch eine Zunahme von intrachromosomalen DHFR-Kopien auf, die nachfolgend durch eine sprunghafte Erhöhung von extrachromosomalen DHFR-Kopien in Double Minutes in der Zellpopulation abgelöst wurde. In den Sublinien von Selektion 2 kann daher eine Generierung von extrachromosomalen DHFR-Kopien durch Bruchereignisse an einem zuvor hinzugewonnenen Chromosom 5 angenommen werden. Die letzten Sublinien aus beiden Selektionen wiesen wieder den 5q-Trägerchromosomen- und intrachromosomalen DHFR-Status der Parentallinie auf, der offenbar in den HeLa-Zellen eine besondere Stabilität besitzt. Die unterschiedlichen Veränderungen im 5q- und DHFR-Status in den untersuchten HeLa-Sublinien zeigen, dass eine DHFR-Amplifikation in HeLa-Zellen unter MTX-Selektionsdruck auf verschiedenen Wegen erfolgen kann. In mehrmonatiger Kultivierung ohne Selektionsdruck entwickelte die verwendete HeLa-Zelllinie unter den vorliegenden Kultivierungsbedingungen keine der in den MTX-selektionierten Sublinien beobachteten Veränderungen, so dass diese als selektionsspezifische Prozesse angesehen werden können.
Das Projekt META-AKAD beschäftigt sich mit dem automatisierten Sammeln und bibliothekarischen Erschließen von Lehr- und Lernmaterialien. Es ist unterteilt in drei zentrale Säulen (Anfrageverarbeitung, Ergebnisverarbeitung und XML-Dokument-Management). Die vorliegende Arbeit beschäftigt sich mit dem XML-Dokument-Management. Es stellt eine generische Schnittstelle bereit, um neue XML-Dokumente in das System einzufügen und bestehende Daten zu aktualisieren oder zu löschen. Hierbei wurden Konzepte entwickelt und umgesetzt, um vom verwendeten Datenbank- und Metadatenschema abstrahieren zu können.
We present two heuristic methods for solving the Discrete Ordered Median Problem (DOMP), for which no such approaches have been developed so far. The DOMP generalizes classical discrete facility location problems, such as the p-median, p-center and Uncapacitated Facility Location problems. The first procedure proposed in this paper is based on a genetic algorithm developed by Moreno Vega [MV96] for p-median and p-center problems. Additionally, a second heuristic approach based on the Variable Neighborhood Search metaheuristic (VNS) proposed by Hansen & Mladenovic [HM97] for the p-median problem is described. An extensive numerical study is presented to show the efficiency of both heuristics and compare them.
In dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum (nahekritischen) Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus Ethen, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel durchgeführt. Die Untersuchungen behandeln die Grundlagen eines neuartigen Flüssig-flüssig-Extraktionsverfahrens für Naturstoffe. Dieses Extraktionsverfahren wird durch einen wässrig-organischen Flüssigphasensplit ermöglicht, der durch das Aufpressen eines Gases (in der Nähe seines kritischen Zustandes) auf eine homogene wässrig / organische Phase auftritt. Die Untersuchung des durch den Flüssigphasensplit erzeugten Dreiphasengleichgewichts (LLV) sowie der Verteilung ausgewählter Naturstoffe zwischen den beiden Flüssigphasen des Dreiphasengleichgewichts bilden den Schwerpunkt dieser Arbeit. Die Arbeit baut auf Untersuchungen von Wendland (1994) und Adrian (1997) auf. Wendland hat das Phasenverhalten der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 2-Propanol) vermessen und umfangreiche Fortran-Routinen zur Beschreibung des ternären Phasenverhaltens sowie der binären Randsysteme entwickelt. Adrian (1997) hat die drei ternären Systeme Kohlendioxid + Wasser + (1- / 2-Propanol bzw. Propionsäure) sowie die Verteilung von zehn organischen Naturstoffen bzw. Modellkomponenten auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV in einem (teilweise beiden) der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 1-Propanol) untersucht. In dieser Arbeit wurde größtenteils Ethen als nahekritisches Gas eingesetzt, da es im Gegensatz zu dem zuvor benutzten Kohlendioxid in wässrigen Lösungen undissoziiert vorliegt und somit nicht den pH-Wert der koexistierenden flüssigen Phasen bestimmt. Die experimentelle Untersuchung der Phasengleichgewichte erfolgte mit einer Phasengleichgewichtsapparatur, die nach der analytischen Methode arbeitet. In einer thermostatisierten Hochdrucksichtzelle (30 cm3) wurde ein Phasengleichgewicht zwischen mehreren koexistierenden Phasen eingestellt. An die Messzelle waren zwei externe Probenahmeschleifen angeschlossen, durch welche die (in der Zelle koexistierenden) Phasen gepumpt wurden und aus denen Proben für die Analyse mittels GC und HPLC entnommen wurden. Bei Temperaturen zwischen 293 und 333 K und Drücken bis 20.5 MPa wurde das Hochdruck-Mehrphasengleichgewicht (LLV) der beiden ternären Systeme Ethen + Wasser + (1- bzw. 2-Propanol) untersucht. Darüber hinaus wurden die Druck-Temperatur-Koordinaten kritischer Endpunktlinien in diesen beiden ternären Systemen bestimmt und weitere Untersuchungen zum generellen Phasenverhalten angestellt. Den Schwerpunkt dieser Arbeit bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV: Es wurde u. a. die einzelne Verteilung dreier Paare chemisch ähnlicher Naturstoffe im ternären System Ethen + Wasser + 2-Propanol bei 293 und 333 K untersucht. Die Paare waren 2,5-Hexanediol / 2,5-Hexandion, N-Acetyl-Glukosamin / N-Acetyl-Mannosamin und D- / L-Phenylalanin. Im theoretischen Teil dieser Arbeit wurde das Phasenverhalten der ternären Systeme mit der kubischen Zustandsgleichung (EoS) von Peng und Robinson (1976) in der Modifikation von Melhem et al. (1989) kombiniert mit verschiedenen Mischungsregeln beschrieben. Hierbei wurde sowohl eine Vorhersage des ternären Phasenverhaltens aus Informationen zu den binären Randsystemen als auch die Korrelation des ternären Phasenverhaltens angestrebt. Auch aufgrund der teilweise sehr geringen Anzahl von binären Messpunkten, konnte das Verhalten des Systems Ethen + Wasser + 2-Propanol nicht aus den Informationen zu den binären Randsystemen vorhergesagt werden. Für das Verhalten des ternären Systems Ethen + Wasser + 1-Propanol stimmte die Vorhersage nur qualitativ mit den Messwerten überein. Die Wiedergabe des Phasenverhaltens der ternären Systeme verbesserte sich signifikant, wenn die binären Wechselwirkungsparameter an experimentelle Daten für das Dreiphasengleichgewicht der ternären Systeme angepasst wurden. Zur Korrelation der Verteilung der Naturstoffe auf die flüssigen Phasen des Dreiphasengleichgewichts (LLV) wurde eine Methode benutzt, die auf der Anpassung von Reinstoffparametern der Naturstoffe für die Peng-Robinson EoS basiert. Hierbei wurden die in der EoS benötigten Reinstoffparameter des Naturstoffes an die Ergebnisse der Verteilungsmessungen angepasst, wobei die Wechselwirkungsparameter des ternären Grundsystems übernommen und die Parameter für Wechselwirkungen des Naturstoffes mit dem ternären Grundsystem vernachlässigt wurden. Durch dieses Vorgehen beschreiben die Reinstoffparameter der Naturstoffe auch die Mischungseigenschaften. Durch eine Normierung der Mess- bzw. Rechenwerte auf die gemessenen bzw. berechneten ternären oberen und unteren Begrenzungspunkte des Dreiphasengleichgewichts wurde eine quantitative Beschreibung der Messwerte erhalten.
In dieser Arbeit wurden neue hocheffiziente photorefraktive Gläser auf Basis des Chromophors IDOP20 entwickelt. Der Chromophor wurde zunächst anhand der Kerr-Gütezahl auf seine Eignung für PR-Anwendungen überprüft. Es konnte eine relativ große Kerr-Gütezahl bestimmt werden. Durch die sterisch anspruchsvollen 3,3’-Dimethylmethylen-Gruppen wird in diesem Chromophor die Neigung zur Dimerenbildung weitgehend unterdrückt. Für mehrere photorefraktive Gläser mit IDOP20 als elektrooptischem Chromophor konnten sehr hohe Verstärkungskoeffizienten Gamma erzielt werden. Für das Glas der Zusammensetzung IDOP20:2BNCM:DPP:TPD:TNFM 30:25:20:24:1 Gew.-% wurde mit einer Nettoverstärkung von Gamma_net = 178 1/cm ein der bisher größten Werte bei einer Feldstärke von E = 45 V/µm erzielt. Weiterhin konnte der Polymeranteil in den photorefraktiven Gläsern vollständig durch glasbildende Co-Chromophore ersetzt werden. Dadurch wurde die Phasenseparation und Kristallbildung in den photorefraktiven Gläsern unterdrückt und die Stabilität und die optische Qualität der Gläser verbessert. Die glasbildenden Eigenschaften von IDOP20 wurden durch dynamische Differenz-Kalorimetrie-Messungen nachgewiesen werden. Der Chromophor bildet einen Charge-Transfer-Komplex mit dem Sensibilisator TNFM. Weitere quasistationäre und zeitabhängige holographische und ellipsometrische Messungen wurden an einem Glas mit zugesetztem Weichmacher DPP (zur Herabsetzung der Glasübergangstemperatur) der Zusammensetzung IDOP20:DPP:TNFM 69:30:1 Gew.-% durchgeführt. Dabei konnte eine Brechungsindexmodulation von Delta n = 0.009 bei einer Feldstärke 60 V/µm ermittelt werden. In zeitabhängigen Messungen wurde ein monoexponentieller Verlauf des photorefraktiven Gitteraufbaus beobachtet. Weiterhin wurde eine sehr starke Temperaturabhängigkeit der Antwortzeiten festgestellt und die Dynamik der Molekülorientierung als zeitbestimmender Prozess identifiziert. Die photorefraktive Leistung der IDOP20-Gläser wurde im Vergleich zu ATOP1-Gläsern diskutiert.
In der vorliegenden Arbeit wird die Beständigkeit geklebter, hochfester Glasverbunde unter natürlicher Bewitterung untersucht. Ziel der vorliegenden Arbeit ist es, die Anforderungen an einen Klebstoff zum hochfesten und witterungsbeständigen Fügen von Glas für Anwendungen im Bauwesen zu spezifizieren und die Tauglichkeit geeignet erscheinender Systeme anhand dieser Anforderungen zu prüfen und zu bewerten. Feuchtigkeit sowie die UV- und Lichteinstrahlung sind die Hauptschädigungsfaktoren für Glasklebungen. Ein Klebstoff für die Befestigung von Punkthaltern an Glas muss unter diesen Belastungen dauerhafte Verbindungen zur Glasoberfläche aufbauen und im Vergleich zu den in linienförmigen Verbindungen eingesetzten Silikonen deutlich höhere Spannungen übertragen können. Als aussichtsreiche Klebstoffkonzepte zur Erfüllung dieser Forderungen werden ein epoxidverstärkter Silyl-Klebstoff und ein Zweikomponenten-Epoxidharzklebstoff mit Haftvermittler ausgewählt. Diese Klebstoffe können der Theorie nach -ebenso wie Silikone- über Si-O-Si-Bindungen an die Glasoberfläche anbinden. Ein in der Praxis bewährter Silikondichtstoff dient als Bewertungsmaßstab für das Alterungsverhalten der gewählten Systeme. Die Untersuchung des Alterungsverhaltens der Klebstoffe erfolgt an Glas-Glas-Modellverbunden in Druckscher- und in Zugschergeometrie. Der Einfluss von Feuchtigkeit auf die Verbindung wird durch eine Wasserlagerung der Modellverbunde bei 40 °C simuliert, eine künstliche Bewitterung belastet die Proben zusätzlich durch UV- und sichtbares Licht. Durch eine parallel zu diesen Versuchen durchgeführte Freibewitterung kann die Aussagekraft der gewonnenen Ergebnisse bewertet werden. Die Wasserlagerung führt bei den mit GD 823 N hergestellten Modellverbunden nach relativ kurzer Zeit zu einem deutlichen Abfall der Verbundfestigkeit und zu einem Wechsel des im ungealterten Zustand kohäsiven Bruchbildes zu adhäsivem Versagen. Die künstliche Bewitterung zeigt die Unempfindlichkeit gegenüber der Einwirkung von Sonnenlicht, erhöhter Temperatur und zeitweiliger Feuchtebelastung. Sie führt zu keiner relevanten Änderung der Festigkeit oder des Bruchbildes der Modellverbunde. Die natürliche Bewitterung der Verbunde führt nach fünf Jahren zu keiner erkennbaren Schädigung des Klebstoffes oder der Grenzfläche. Die ermittelten mechanischen Kennwerte unterscheiden sich nur geringfügig von den im ungealterten Zustand ermittelten Werten. Bei den mit MOS 7 hergestellten Verbunden führt die Wasserlagerung zu einem moderaten Festigkeitsverlust, der durch Trocknung der Proben teilweise rückgängig gemacht werden kann. Dabei ändert sich das Bruchbild vom kohäsiven Versagen im ungealterten Zustand zu einem adhäsiven Versagen nach Wasserlagerung. Nach Rücktrocknung treten bei kürzeren Alterungsdauern wieder Kohäsionsbrüche auf, nach längerer Wasserlagerung bleibt das Bruchbild adhäsiv. Die Ergebnisse der mechanischen Prüfungen deuten auf eine signifikante Nachvernetzung des Klebstoffs im Verlauf der Alterungen hin, die nicht nur durch das Wasser, sondern auch durch die erhöhte Temperatur verursacht wird. Dies kann durch FTIR-Messungen gezeigt werden. Die künstliche Bewitterung führt zu einer deutlichen Schädigung der Verbindung, die sowohl in den mechanischen Kennwerten als auch im Wechsel des Bruchbildes sichtbar wird. Dieses Verhalten zeigen die Proben auch bei Freibewitterung. Längere Lagerung der Proben unter Lichtabschluss bei Umgebungsbedingungen führt zu einer starken Zunahme von Scherfestigkeit und E-Modul durch die langsam ablaufende Nachvernetzung der Epoxidharzphase. Der Klebstoff MOS 7 ist trotz der mit ihm zu erzielenden gut feuchtigkeitsbeständigen Verbunde aufgrund der nicht ausreichenden Beständigkeit bei Bewitterung und der sich stark ändernden mechanischen Eigenschaften für eine direkte UV-Belastung der Grenzfläche und einen Einsatz in feucht-warmer Umgebung weniger geeignet. Die mit dem Epoxidharz Sichel Metallon FL verklebten Modellverbunde werden sowohl bei Raumtemperatur als auch bei 120 °C ausgehärtet. Nach beiden Aushärtebedingungen zeigen die Verbunde nach Alterung in 40 °C warmem Wasser nur geringe Verluste der Festigkeit. Erst die Erhöhung der Alterungstemperatur auf 70 °C führt zu einem deutlichen Festigkeitsverlust mit erkennbaren Vorteilen der Heißaushärtung. Bei künstlicher Bewitterung lassen sich geringfügige Unterschiede der verklebten Glasseite erkennen. Die Ergebnisse deuten darauf hin, dass die Verklebung der Ofenseite zu einer etwas besseren Beständigkeit führt. Technisch sind die ermittelten Unterschiede nur von geringer Bedeutung. Die Freibewitterung hinterlässt nach fünf Jahren keine erkennbaren Schäden an der Klebung.
We define a class of topological spaces (LCNT-spaces) which come together with a nuclear Frechet algebra. Like the algebra of smooth functions on a manifold, this algebra carries the differential structure of the object. We compute the Hochschild homology of this object and show that it is isomorphic to the space of differential forms. This is a generalization of a result obtained by Alain Connes in the framework of smooth manifolds.
Hyperquasivarieties
(2003)
We propose several algorithms for efficient Testing of logical Implication in the case of ground objects. Because the problem of Testing a set of propositional formulas for (un)satisfiability is \(NP\)-complete there's strong evidence that there exist examples for which every algorithm which solves the problem of testing for (un)satisfiability has a runtime that is exponential in the length of the input. So will have our algorithms. We will therefore point out classes of logic programs for which our algorithms have a lower runtime. At the end of this paper we will give an outline of an algorithm for theory refinement which is based on the algorithms described above.
Das Projekt Meta-Akad hat das Ziel, Lernenden und Lehrenden den möglichst einfachen, umfassenden und schnellen Zugriff auf Lehrmaterial zu ermöglichen. Dabei werden verschiedene, über die Aspekte einer reinen Internet- Suchmaschine hinausgehende Aspekte berücksichtigt: Neben dem Aufbau einer umfangreichen und repräsentativen Sammlung von Lerndokumenten sollen diese mittels bibliothekarischer Methoden erschlossen und mit umfangreichen Metadaten, wie beispielsweise einer inhaltlichen Einordnung, versehen werden. Um dem Problem der fraglichen Qualität von Dokumenten aus dem Internet gerecht zu werden, bietet Meta-Akad die Möglichkeit diese durch Beguchtachtungsverfahren sicherzustellen. Aufgrund dieses Mehrwerts versteht sich das Projekt als virtuelle, über das Internet erreichbare Bibliothek. Der Zugriff auf die erfassten Dokumente ist durch eine Web-basierte Schnittstelle realisiert: Diese soll sowohl die Möglichkeit einer Suche durch Angabe von Schlüsselwörtern, als auch das Blättern in der Dokumentsammlung erlauben. Eine Suche nach Schlüsselwörtern soll neben den Meta-Daten auch den gesamten textuellen Inhalt der Dokumente betreffen. Die Integration der Volltextsuche in den bereits vorhandenen Meta-Daten Suchvorgang ist das Kernthema dieser Projektarbeit.
Radiation therapy planning is always a tight rope walk between dangerous insufficient dose in the target volume and life threatening overdosing of organs at risk. Finding ideal balances between these inherently contradictory goals challenges dosimetrists and physicians in their daily practice. Today’s planning systems are typically based on a single evaluation function that measures the quality of a radiation treatment plan. Unfortunately, such a one dimensional approach cannot satisfactorily map the different backgrounds of physicians and the patient dependent necessities. So, too often a time consuming iteration process between evaluation of dose distribution and redefinition of the evaluation function is needed. In this paper we propose a generic multi-criteria approach based on Pareto’s solution concept. For each entity of interest - target volume or organ at risk a structure dependent evaluation function is defined measuring deviations from ideal doses that are calculated from statistical functions. A reasonable bunch of clinically meaningful Pareto optimal solutions are stored in a data base, which can be interactively searched by physicians. The system guarantees dynamical planning as well as the discussion of tradeoffs between different entities. Mathematically, we model the upcoming inverse problem as a multi-criteria linear programming problem. Because of the large scale nature of the problem it is not possible to solve the problem in a 3D-setting without adaptive reduction by appropriate approximation schemes. Our approach is twofold: First, the discretization of the continuous problem is based on an adaptive hierarchical clustering process which is used for a local refinement of constraints during the optimization procedure. Second, the set of Pareto optimal solutions is approximated by an adaptive grid of representatives that are found by a hybrid process of calculating extreme compromises and interpolation methods.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.
Jahresbericht
(2003)
In this paper, we present a novel multicriteria decision support system (MCDSS), called knowCube, consisting of components for knowledge organization, generation, and navigation. Knowledge organization rests upon a database for managing qualitative and quantitative criteria, together with add-on information. Knowledge generation serves filling the database via e.g. identification, optimization, classification or simulation. For “finding needles in haycocks”, the knowledge navigation component supports graphical database retrieval and interactive, goal-oriented problem solving. Navigation “helpers” are, for instance, cascading criteria aggregations, modifiable metrics, ergonomic interfaces, and customizable visualizations. Examples from real-life projects, e.g. in industrial engineering and in the life sciences, illustrate the application of our MCDSS.
In this paper we focus on the strategic design of supply chain networks. We propose a mathematical modeling framework that captures many practical aspects of network design problems simultaneously but which have not received adequate attention in the literature. The aspects considered include: dynamic planning horizon, generic supply chain network structure, external supply of materials, inventory opportunities for goods, distribution of commodities, facility configuration, availability of capital for investments, and storage limitations. Moreover, network configuration decisions concerning the gradual relocation of facilities over the planning horizon are considered. To cope with fluctuating demands, capacity expansion and reduction scenarios are also analyzed as well as modular capacity shifts. The relation of the proposed modeling framework with existing models is discussed. For problems of reasonable size we report on our computational experience with standard mathematical programming software. In particular, useful insights on the impact of various factors on network design decisions are provided.
We present new algorithms and provide an overall framework for the interaction of the classically separate steps of logic synthesis and physical layout in the design of VLSI circuits. Due to the continuous development of smaller sized fabrication processes and the subsequent domination of interconnect delays, the traditional separation of logical and physical design results in increasingly inaccurate cost functions and aggravates the design closure problem. Consequently, the interaction of physical and logical domains has become one of the greatest challenges in the design of VLSI circuits. To address this challenge, we propose different solutions for the control and datapath logic of a design, and show how to combine them to reach design closure.
Linear Optimization is an important area from applied mathematics. A lot of practical problems can be modelled and solved with this technique. This publication shall help to introduce this topic to pupils. The process of modelling, the reduction of problems to their significant attributes shall be described. The linear programms will be solved by using the simplex method. Many examples illustrate the topic.
A mediados del año 1997 la publicación de los denominados TIMMS-Estudios (Third International Mathematics and Science Study) causó un importante impacto en el público alemán. El motivo de esto fue el rendimiento escolar conseguido en la rama de matemáticas y ciencias naturales del octavo curso, el cual estaba situado en un campo internacional, donde particularmente en el ámbito matemático el conjunto de los estados del norte-, oeste-, y del este de Europa que forman parte del TIMSS - sin mencionar a la mayoría de los paises asiáticos - habían conseguido claramente mejores rendimiento. En definitiva mostraban un peor rendimiento los escolares alemanes con respecto a los paises vecinos y con los ....
In this paper we consider the location of stops along the edges of an already existing public transportation network, as introduced in [SHLW02]. This can be the introduction of bus stops along some given bus routes, or of railway stations along the tracks in a railway network. The goal is to achieve a maximal covering of given demand points with a minimal number of stops. This bicriterial problem is in general NP-hard. We present a nite dominating set yielding an IP-formulation as a bicriterial set covering problem. We use this formulation to observe that along one single straight line the bicriterial stop location problem can be solved in polynomial time and present an e cient solution approach for this case. It can be used as the basis of an algorithm tackling real-world instances.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires, or leaf springs. It investigates usable features for the vision-based detection of a changing contact situation between a DLO and a rigid polyhedral obstacle and a classification of such contact state transitions. The result is a complete classification of contact state transitions and of the most significant features for each class. This knowledge enables reliable detection of changes in the DLO contact situation, facilitating implementation of sensor-based manipulation skills for all possible contact changes.
The central theme in this thesis concerns the development of enhanced methods and algorithms for appraising market and credit risks and their application within the context of standard and more advanced market models. Generally, methods and algorithms for analysing market risk of complex portfolios involve detailed knowledge of option sensitivities, the so-called "Greeks". Based on an analysis of symmetries in financial market models, relations between option sensitivities are obtained, which can be used for the efficient valuation of the Greeks. Mainly, the relations are derived within the Black Scholes model, however, some relations are also valid for more general models, for instance the Heston model. Portfolios are usually influenced by lots of underlyings, so it is necessary to characterise the dependencies of these basic instruments. It is usual to describe such dependencies by correlation matrices. However, estimations of correlation matrices in practice are disturbed by statistical noise and usually have the problem of rank deficiency due to missing data. A fast algorithm is presented which performs a generalized Cholesky decomposition of a perturbed correlation matrix. In contrast to the standard Cholesky algorithm, an advantage of the generalized method is that it works for semi-positive, rank deficient matrices as well. Moreover, it gives an approximative decomposition when the input matrix is indefinite. A comparison with known algorithms with similar features is performed and it turns out, that the new algorithm can be recommended in situations where computation time is the critical issue. The determination of a profit and loss distribution by Fourier inversion of its characteristic function is a powerful tool, but it can break down when the characteristic function is not integrable. In this thesis, methods for Fourier inversion of non-integrable characteristic functions are studied. In this respect, two theorems are obtained which are based on a suitable approximation of the unknown distribution with known density and characteristic function. Further it will be shown, that straightforward Fast Fourier inversion works, when the according density lives on a bounded interval. The above techniques are of crucial importance to determine the profit and loss distribution (P&L) of large portfolios efficiently. The so-called Delta Gamma normal approach has become industrial standard for the estimation of market risk. It is shown, that the performance of the Delta Gamma normal approach can be improved substantially by application of the developed methods. The same optimization procedure also applies to the Delta Gamma Student model. A standard tool for computing the P&L distribution of a loan portfolio is the CreditRisk+ model. Basically, the CreditRisk+ distribution is a discrete distribution which can be computed from its probability generating function. For this a numerically stable method is presented and as an alternative, a new algorithm based on Fourier inversion is proposed. Finally, an extension of the CreditRisk+ model to market risk is developed, which distribution can be obtained efficiently by the presented Fourier inversion methods as well.
The question of how to model dependence structures between financial assets was revolutionized since the last decade when the copula concept was introduced in financial research. Even though the concept of splitting marginal behavior and dependence structure (described by a copula) of multidimensional distributions already goes back to Sklar (1955) and Hoeffding (1940), there were very little empirical efforts done to check out the potentials of this approach. The aim of this thesis is to figure out the possibilities of copulas for modelling, estimating and validating purposes. Therefore we extend the class of Archimedean Copulas via a transformation rule to new classes and come up with an explicit suggestion covering the Frank and Gumbel family. We introduce a copula based mapping rule leading to joint independence and as results of this mapping we present an easy method of multidimensional chi²-testing and a new estimate for high dimensional parametric distributions functions. Different ways of estimating the tail dependence coefficient, describing the asymptotic probability of joint extremes, are compared and improved. The limitations of elliptical distributions are carried out and a generalized form of them, preserving their applicability, is developed. We state a method to split a (generalized) elliptical distribution into its radial and angular part. This leads to a positive definite robust estimate of the dispersion matrix (here only given as a theoretical outlook). The impact of our findings is stated by modelling and testing the return distributions of stock- and currency portfolios furthermore of oil related commodities- and LME metal baskets. In addition we show the crash stability of real estate based firms and the existence of nonlinear dependence in between the yield curve.
A non-linear multigrid solver for incompressible Navier-Stokes equations, exploiting finite volume discretization of the equations, is extended by adaptive local refinement. The multigrid is the outer iterative cycle, while the SIMPLE algorithm is used as a smoothing procedure. Error indicators are used to define the refinement subdomain. A special implementation approach is used, which allows to perform unstructured local refinement in conjunction with the finite volume discretization. The multigrid - adaptive local refinement algorithm is tested on 2D Poisson equation and further is applied to a lid-driven flows in a cavity (2D and 3D case), comparing the results with bench-mark data. The software design principles of the solver are also discussed.
A new class of locally supported radial basis functions on the (unit) sphere is introduced by forming an infinite number of convolutions of ''isotropic finite elements''. The resulting up functions show useful properties: They are locally supported and are infinitely often differentiable. The main properties of these kernels are studied in detail. In particular, the development of a multiresolution analysis within the reference space of square--integrable functions over the sphere is given. Altogether, the paper presents a mathematically significant and numerically efficient introduction to multiscale approximation by locally supported radial basis functions on the sphere.
The following three papers present recent developments in multiscale gravitational field modeling by the use of CHAMP or CHAMP-related data. Part A - The Model SWITCH-03: Observed orbit perturbations of the near-Earth orbiting satellite CHAMP are analyzed to recover the long-wavelength features of the Earth's gravitational potential. More precisely, by tracking the low-flying satellite CHAMP by the high-flying satellites of the Global Positioning System (GPS) a kinematic orbit of CHAMP is obtainable from GPS tracking observations, i.e. the ephemeris in cartesian coordinates in an Earth-fixed coordinate frame (WGS84) becomes available. In this study we are concerned with two tasks: First we present new methods for preprocessing, modelling and analyzing the emerging tracking data. Then, in a first step we demonstrate the strength of our approach by applying it to simulated CHAMP orbit data. In a second step we present results obtained by operating on a data set derived from real CHAMP data. The modelling is mainly based on a connection between non-bandlimited spherical splines and least square adjustment techniques to take into account the non-sphericity of the trajectory. Furthermore, harmonic regularization wavelets for solving the underlying Satellite-to-Satellite Tracking (SST) problem are used within the framework of multiscale recovery of the Earth's gravitational potential leading to SWITCH-03 (Spline and Wavelet Inverse Tikhonov regularized CHamp data). Further it is shown how regularization parameters can be adapted adequately to a specific region improving a globally resolved model. Finally we give a comparison of the developed model to the EGM96 model, the model UCPH2002_02_0.5 from the University of Copenhagen and the GFZ models EIGEN-1s and EIGEN-2. Part B - Multiscale Solutions from CHAMP: CHAMP orbits and accelerometer data are used to recover the long- to medium- wavelength features of the Earth's gravitational potential. In this study we are concerned with analyzing preprocessed data in a framework of multiscale recovery of the Earth's gravitational potential, allowing both global and regional solutions. The energy conservation approach has been used to convert orbits and accelerometer data into in-situ potential. Our modelling is spacewise, based on (1) non-bandlimited least square adjustment splines to take into account the true (non-spherical) shape of the trajectory (2) harmonic regularization wavelets for solving the underlying inverse problem of downward continuation. Furthermore we can show that by adapting regularization parameters to specific regions local solutions can improve considerably on global ones. We apply this concept to kinematic CHAMP orbits, and, for test purposes, to dynamic orbits. Finally we compare our recovered model to the EGM96 model, and the GFZ models EIGEN-2 and EIGEN-GRACE01s. Part C - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, EGM96: Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise and these shall be made available to other interested groups. These wavelet coefficients allow the reconstruction of the wavelet approximations. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.
Das Internet ist kein statisches Objekt, das keinen Veränderungen ausgesetzt ist. Ständig werden neue Informationsmaterialien hinzugefügt, bestehende Inhalte verändert oder ganz entfernt. Das Verändern und Entfernen von Materialien ist ein Problem, das von META-AKAD nicht außer Acht gelassen werden darf. Es ist notwendig die erschlossenen Lehr- und Lernmaterialien ständig auf Veränderung und auf ihre Verfügbarkeit hin zu prüfen. Im Rahmen dieser Projektarbeit soll eine Aktualisierungskomponente entwickelt werden, die es ermöglicht die gesammelten und bereits erschlossenen Lehr- und Lernmaterialien in festgelegten Zyklen automatisch auf ihre Aktualität und Verfügbarkeit hin zu überprüfen. Dies erleichtert es, die gesammelten Materialien zu kontrollieren und zu verwalten. Weiterhin soll die Aktualisierungskomponente dabei helfen nicht mehr verfügbare oder veraltete Dokumente aus der Menge der erfassten Materialien ausfindig zu machen, um diese eventuell entfernen zu können.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
The present thesis deals with coupled steady state laminar flows of isothermal incompressible viscous Newtonian fluids in plain and in porous media. The flow in the pure fluid region is usually described by the (Navier-)Stokes system of equations. The most popular models for the flow in the porous media are those suggested by Darcy and by Brinkman. Interface conditions, proposed in the mathematical literature for coupling Darcy and Navier-Stokes equations, are shortly reviewed in the thesis. The coupling of Navier-Stokes and Brinkman equations in the literature is based on the so called continuous stress tensor interface conditions. One of the main tasks of this thesis is to investigate another type of interface conditions, namely, the recently suggested stress tensor jump interface conditions. The mathematical models based on these interface conditions were not carefully investigated from the mathematical point of view, and also their validity was a subject of discussions. The considerations within this thesis are a step toward better understanding of these interface conditions. Several aspects of the numerical simulations of such coupled flows are considered: -the choice of proper interface conditions between the plain and porous media -analysis of the well-posedness of the arising systems of partial differential equations; -developing numerical algorithm for the stress tensor jump interface conditions, coupling Navier-Stokes equations in the pure liquid media with the Navier-Stokes-Brinkman equations in the porous media; -validation of the macroscale mathematical models on the base of a comparison with the results from a direct numerical simulation of model representative problems, allowing for grid resolution of the pore level geometry; -developing software and performing numerical simulation of 3-D industrial flows, namely of oil flows through car filters.
On a Multigrid Adaptive Refinement Solver for Saturated Non-Newtonian Flow in Porous Media A multigrid adaptive refinement algorithm for non-Newtonian flow in porous media is presented. The saturated flow of a non-Newtonian fluid is described by the continuity equation and the generalized Darcy law. The resulting second order nonlinear elliptic equation is discretized by a finite volume method on a cell-centered grid. A nonlinear full-multigrid, full-approximation-storage algorithm is implemented. As a smoother, a single grid solver based on Picard linearization and Gauss-Seidel relaxation is used. Further, a local refinement multigrid algorithm on a composite grid is developed. A residual based error indicator is used in the adaptive refinement criterion. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Several results from numerical experiments are presented in order to examine the performance of the solver.
This paper concerns numerical simulation of flow through oil filters. Oil filters consist of filter housing (filter box), and a porous filtering medium, which completely separates the inlet from the outlet. We discuss mathematical models, describing coupled flows in the pure liquid subregions and in the porous filter media, as well as interface conditions between them. Further, we reformulate the problem in fictitious regions method manner, and discuss peculiarities of the numerical algorithm in solving the coupled system. Next, we show numerical results, validating the model and the algorithm. Finally, we present results from simulation of 3-D oil flow through a real car filter.
We study a possiblity to use the structure of the regularization error for a posteriori choice of the regularization parameter. As a result, a rather general form of a selection criterion is proposed, and its relation to the heuristical quasi-optimality principle of Tikhonov and Glasko (1964), and to an adaptation scheme proposed in a statistical context by Lepskii (1990), is discussed. The advantages of the proposed criterion are illustrated by using such examples as self-regularization of the trapezoidal rule for noisy Abel-type integral equations, Lavrentiev regularization for non-linear ill-posed problems and an inverse problem of the two-dimensional profile reconstruction.
We consider the problem of pricing European forward starting options in the presence of stochastic volatility. By performing a change of measure using the asset price at the time of strike determination as a numeraire, we derive a closed-form solution based on Heston’s model of stochastic volatility.
Las matemáticas son atribuidas en general a algo no claro y sólo para matemáticos. La imagen de las matemáticas para los escolares, es la de una ciencia, la cual se sirve sólo de si misma. Es importante hacer frente al prejuicio de que las matemáticas distan lejos de toda utilidad práctica. La matemática es una ciencia al servicio de todas las dem´as ciencias, de cuya ayuda se necesita en casi todos los campos de la vida. La matemática de la escuela debería despertar en cualquier ámbito de la vida de los escolares el interés sobre ...
Industrial analog circuits are usually designed using numerical simulation tools. To obtain a deeper circuit understanding, symbolic analysis techniques can additionally be applied. Approximation methods which reduce the complexity of symbolic expressions are needed in order to handle industrial-sized problems. This paper will give an overview to the field of symbolic analog circuit analysis. Starting with a motivation, the state-of-the-art simplification algorithms for linear as well as for nonlinear circuits are presented. The basic ideas behind the different techniques are described, whereas the technical details can be found in the cited references. Finally, the application of linear and nonlinear symbolic analysis will be shown on two example circuits.
A new stability preserving model reduction algorithm for discrete linear SISO-systems based on their impulse response is proposed. Similar to the Padé approximation, an equation system for the Markov parameters involving the Hankel matrix is considered, that here however is chosen to be of very high dimension. Although this equation system therefore in general cannot be solved exactly, it is proved that the approximate solution, computed via the Moore-Penrose inverse, gives rise to a stability preserving reduction scheme, a property that cannot be guaranteed for the Padé approach. Furthermore, the proposed algorithm is compared to another stability preserving reduction approach, namely the balanced truncation method, showing comparable performance of the reduced systems. The balanced truncation method however starts from a state space description of the systems and in general is expected to be more computational demanding.
Dieses Szenario ist eine Erweiterung eines Teilszenarios von Human Centered Manufacturing. Dabei geht es um die Montage der Energieelektrik für industrielle Anlagen. Im Jahr 2015 enthält die Ausrüstung eines Elektromonteurs bei der Verdrahtung von Schaltschränken u.a. einen Schutzhelm mit integrierter Farbkamera, integriertem Mikrofon und einem Lautsprecher im Ohrbereich sowie einen automatisch gesteuerten Laserpointer. Auf der Baustelle sind keine Pläne mehr erforderlich. Der Monteur benötigt keinen Plan während der Montage.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Sepsis ist eine lebensbedrohliche Infektion, welche eine der häufigsten Todesursachen bei Patienten der Intensivstation ist. Die Mortalität des septischen Schocks hat sich während der letzten 25 Jahre trotz Verbesserung lebenserhaltender Maßnahmen nicht wesentlich verringert. Bei der Sepsis lösen externe Faktoren (die invadierenden Mikroorganismen) die Erkrankung aus, körpereigene Reaktionskaskaden jedoch entscheiden letztlich über den Verlauf, der in der Sepsis ein sehr heterogenes Erscheinungsbild zeigen kann. Darum führt eine allein gegen den Mikroorganismus gerichtete Therapie bei der Sepsis häufig nicht zum Erfolg. Eine therapeutische Intervention in körpereigene Abläufe setzt jedoch voraus, dass diese Vorgänge, die involvierten Proteine sowie die molekularen Mechanismen bekannt sind. Da klinische Studien darauf hinweisen, dass während der Pathogenese der Sepsis eine aktivierungsabhängige, exzessive Verminderung der T-Lymphozyten im Blutbild (Lymphopenie) infolge verstärkter Apoptose auftritt und damit die Abwehr der Pathogene negativ beeinträchtigt wird, bildeten Untersuchungen an aktivierten T-Zellen den Schwerpunkt der vorliegenden Arbeit. Aktivierte T-Lymphozyten sind wichtige Zellen der natürlichen Immunantwort und spielen eine entscheidende Rolle im Verlauf von Infektionserkrankungen. Eine therapeutische Modulation ihrer Apoptose könnte die Ereigniskaskade früh unterbrechen und möglicherweise den dramatischen klinischen Verlauf der Sepsis dämpfen. Der Befund der Lymphopenie in Sepsis führte mich zu der Hypothese dieser Arbeit, dass PPARg hierfür verantwortlich sein könnte, da eine Aktivierung von PPARg nicht nur antiinflammatorisch, sondern auch proapoptotisch wirken kann. Eine diesbezügliche Verbindung zwischen Lymphopenie bei Sepsis und PPARg-Expression wurde noch nicht untersucht. Deshalb habe ich im Rahmen dieser Arbeit analysiert, inwieweit PPARg zur Lymphopenie von T-Zellen septischer Patienten beiträgt. Den Ausgangspunkt bildeten dabei Untersuchungen an aktivierten T-Zellen. Sowohl an der T-Zelllinie Jurkat, als auch an primären CD3+ T-Zellen konnte ich Folgendes zeigen: 1. Die Aktivierung von humanen T-Zellen mit dem T-Zell-Mitogen PHA induziert die Expression des Liganden-abhängigen Transkriptionsfaktors PPARg, führt jedoch nicht autokrin zu dessen Aktivierung. 2. Physiologische Mediatoren wie Stickstoffmonoxid oder synthetische PPARg-Liganden wie Ciglitazon bewirken eine Aktivierung von PPARg in den PHA-aktivierten T- Zellen. 3. Der durch spezifische Agonisten aktivierte Transkriptionsfaktor PPARg ruft in aktivierten T-Zellen Apoptose hervor. 4. SR-202 greift in die PPARg-vermittelte Apoptose ein. Die Vorinkubation mit diesem spezifischen PPARg-Antagonist führt zu einer verminderten Apoptose der aktivierten T-Zellen. 5. Fas-vermittelte Apoptose ist der am besten untersuchte Apoptose-auslösende Reaktionsweg in T-Zellen. Vorliegende Untersuchungen mit einem anti-Fas-neutralisierenden Antikörper zur näheren Charakterisierung der PPARg-vermittelten Apoptose verweisen jedoch auf Fas-unabhängige Mechanismen. Um die klinische Relevanz der Daten zu prüfen, versuchte ich, die Ergebnisse auf das Modell der Sepsis zu übertragen. Folgende Zusammenhänge ließen sich dabei erkennen: 1. Es ist bekannt, dass die T-Lymphozyten im septischen Geschehen im Vergleich zum gesunden Spender deutlich vermindert sind. Dies ist in Übereinstimmung mit meinen Befunden. Zusätzlich bestätigte sich die Annahme, dass der Zelltod apoptotisch, also gerichtet, verläuft. 2. In den T-Zellen der septischen Patienten ist im Gegensatz zu den T-Zellen gesunder Probanden die Expression von PPARg erhöht, so dass, aufbauend auf die Vorversuche an aktivierten T-Zellen, eine PPARg-vermittelte Apoptose postuliert werden konnte. 3. Die Zugabe von PPARg-Agonisten zu den septischen T-Zellen erhöht die Apoptose, während die Vorinkubation mit dem Antagonisten SR-202 vor der Agonisten-Behandlung die Apoptose hemmt. 4. Basierend auf Untersuchungen mit einem Fas-neutralisierenden Antikörper, ist davon auszugehen, dass die zugrundeliegenden Mechanismen der PPARg-vermittelten Apoptose in septischen T-Zellen ebenfalls Fas-unabhängig sind. In Erkrankungen, deren Verlauf wie bei der Sepsis durch Lymphopenie gekennzeichnet ist, könnte der hier aufgezeigte Mechanismen der PPARg-vermittelten Apoptose von pathophysiologischer Signifikanz sein. Das bessere Verstehen der Signaltransduktionswege, die zu der PPARg-Expression sowie der PPARg-abhängigen Apoptose in aktivierten T-Zellen führen, könnten eine Basis für neue therapeutische Strategien im Kampf gegen die Sepsis bilden. Erste Anhaltspunkte dafür liefert der Nachweis der Modulation der T-Zell-Apoptose durch den spezifischen PPARg-Antagonist SR-202.
As the sustained trend towards integrating more and more functionality into systems on a chip can be observed in all fields, their economic realization is a challenge for the chip making industry. This is, however, barely possible today, as the ability to design and verify such complex systems could not keep up with the rapid technological development. Owing to this productivity gap, a design methodology, mainly using pre designed and pre verifying blocks, is mandatory. The availability of such blocks, meeting the highest possible quality standards, is decisive for its success. Cost-effective, this can only be achieved by formal verification on the block-level, namely by checking properties, ranging over finite intervals of time. As this verification approach is based on constructing and solving Boolean equivalence problems, it allows for using backtrack search procedures, such as SAT. Recent improvements of the latter are responsible for its high capacity. Still, the verification of some classes of hardware designs, enjoying regular substructures or complex arithmetic data paths, is difficult and often intractable. For regular designs, this is mainly due to individual treatment of symmetrical parts of the search space by backtrack search procedures used. One approach to tackle these deficiencies, is to exploit the regular structure for problem reduction on the register transfer level (RTL). This work describes a new approach for property checking on the RTL, preserving the problem inherent structure for subsequent reduction. The reduction is based on eliminating symmetrical parts from bitvector functions, and hence, from the search space. Several approaches for symmetry reduction in search problems, based on invariance of a function under permutation of variables, have been previously proposed. Unfortunately, our investigations did not reveal this kind of symmetry in relevant cases. Instead, we propose a reduction based on symmetrical values, as we encounter them much more frequently in our industrial examples. Let \(f\) be a Boolean function. The values \(0\) and \(1\) are symmetrical values for a variable \(x\) in \(f\) iff there is a variable permutation \(\pi\) of the variables of \(f\), fixing \(x\), such that \(f|_{x=0} = \pi(f|_{x=1})\). Then the question whether \(f=1\) holds is independent from this variable, and it can be removed. By iterative application of this approach to all variables of \(f\), they are either all removed, leaving \(f=1\) or \(f=0\) trivially, or there is a variable \(x'\) with no such \(\pi\). The latter leads to the conclusion that \(f=1\) does not hold, as we found a counter-example either with \(x'=0\), or \(x'=1\). Extending this basic idea to vectors of variables, allows to elevate it to the RTL. There, self similarities in the function representation, resulting from the regular structure preserved, can be exploited, and as a consequence, symmetrical bitvector values can be found syntactically. In particular, bitvector term-rewriting techniques, isomorphism procedures for specially manipulated term graphs, and combinations thereof, are proposed. This approach dramatically reduces the computational effort needed for functional verification on the block-level and, in particular, for the important problem class of regular designs. It allows the verification of industrial designs previously intractable. The main contributions of this work are in providing a framework for dealing with bitvector functions algebraically, a concise description of bounded model checking on the register transfer level, as well as new reduction techniques and new approaches for finding and exploiting symmetrical values in bitvector functions.
Die Luftfahrtindustrie und die meeresgestützte ölfördernde Industrie, die so genannte
Off-Shore Industrie, streben die Einführung bzw. Weiterverbreitung von faserverstärkten
Kunststoffen mit thermoplastischer Matrix an. Sowohl Leistungsverbesserung
aber auch Kosten- und Gewichtsreduktion sind die Treiber für diese Entwicklung.
Der sehr hohe Anspruch an die Qualität der Bauteile bedingt die Verfügbarkeit
geeigneter Herstellungsverfahren. Beispiele hierfür sind das Tapelege- und das Wickelverfahren.
Beide Prozesse sind allerdings bis heute nur in den Varianten für die
Verarbeitung duroplastischer Matrizes industriell umgesetzt und etabliert. Die Bauteilherstellung
geschieht bei Anwendung von Duroplasten für Hochtemperatur- oder
Primärstrukturanwendungen durch eine, dem formgebenden Prozess nachgeschaltete
Aushärtung im Ofen oder Autoklav. Thermoplaste bieten jedoch die Möglichkeit
zur Einsparung dieses Prozessschrittes durch die in-situ Konsolidierung, d.h. endkonturnahes,
formgebendes Ablegen und Verschweißen in einem Schritt. Die Komplexität
der Thermoplastprozesse ist jedoch durch die simultane Durchführung zweier
Aufgaben erhöht. Deshalb besteht ein großer Bedarf, die theoretischen Hintergründe,
das physikalische, thermodynamische und chemische Prozessverständnis stetig
grundlegend zu erarbeiten bzw. zu verbessern. Die rein experimentelle Prozessentwicklung
an Anlagen industriellen Maßstabs ist aus Kostengründen und dem Problem
der mangelhaften Auflösung einzelner Prozessphänomene dafür ungeeignet.
Daher wird seit vielen Jahren am Verständnis, der Abstraktion und der Simulation
dieser Prozesse gearbeitet. Die dabei entstandenen theoretischen Modellierungen
können allerdings nur selten einen Bezug zum realen Prozess nachweisen.Die vorliegende Arbeit schließt deshalb die Lücke zwischen Simulation und experimenteller
Prozessentwicklung. Auf Basis einer vielfach verwendeten mathematischen
Beschreibung der thermodynamischen Verhältnisse im Prozess, einer Energiebilanzgleichung,
die erstmals in diesem Zusammenhang um die Möglichkeit zur
Berechnung von Strahlungsrandbedingungen erweitert wird, beschreibt die Arbeit die
Entwicklung eines Prozesssimulationssystems. Das dazu neu entwickelte Finite-
Elemente-Methode Programm ProSimFRT, das auf der nicht-linearen Diskretisierung
der Energiebilanzgleichung basiert, bildet der Kern eines modularen Prozesssimulationspaketes, welches die ganzheitliche parametrische Berechnung der Temperatur
während des gesamten Prozesses und für alle Prozessteilnehmer erlaubt. Thermodynamische
Teilaspekte der Verfahren und somit auf rein theoretischem Weg unzugängliche
Prozessparameter, wie z.B. konvektive Randbedingungen oder durch eine
Wasserstoff-Sauerstoffflamme erzeugte Wärmeströme können mit ProSimFRT semiempirisch
ermittelt werden. Die hierfür angewandte Methodik der Simulationskalibrierung
bedarf jedoch einer experimentellen Verifikationsmöglichkeit. Daher wird eine
neu entwickelte Experimentalplattform vorgestellt. Ein spezieller Thermodynamikprüfstand
erlaubt die Ermittlung der Prozessparameter und eine flexible Möglichkeit
zum Nachweis der Funktionsfähigkeit der Simulation. Die Integration dieser Parameter
zu einem ganzheitlichen Prozessmodell am Beispiel des Thermoplasttapelegens
mit kohlenstofffaserverstärktem Polyetheretherketon und die ableitbaren Hinweise für
die Prozessentwicklung bilden abschließend die Grundlage für die zukünftige Integration
der Simulation in die Gesamtprozesskette.
The aerospace industry and the off-shore oil industry are facing the introduction and
evolution of fiber reinforced thermoplastics. Performance enhancements as well as
cost and weight savings are the drivers behind this development. The high level of
requirements concerning the quality of components leads to a need for applicable
manufacturing technologies. Filament winding and tape placement are examples for
such processes. Both have been successfully industrialized for thermoset materials.
Thermoset components for high temperature or primary structure applications are
typically manufactured in a multi-step approach. After a geometry determining step
consolidation and curing are introduced as further processing steps towards the final
component, often using ovens or autoclaves. Being weldable, thermoplastics give the
possibility to integrate this multi-step thermoset processes. Hence the complexity of
thermoplastic processing is increased, but the potential of saving manufacturing time
is obvious. This leads to the need of theoretic background know how about the
physical, thermodynamical and chemical phenomena behind the thermoplastic
manufacturing technologies. Due to that, since many years worldwide efforts are carried
out concerning the understanding, abstraction and simulation of this processes.
But, the developed models hardly have a direct relation to real processes.
The present work overcomes the gap between simulation and experimental process
development. Based on a widely used mathematical description of the thermodynamics
within the processes, an energy balance equation, which is enhanced with radiative
boundary conditions for the first time in this context, the present work describes
the development of a process simulation tool. The newly developed finite-element
program ProSimFRT, which is based on a non-linear discretization of the energy balance
equation, serves as kernel of a modular process simulation environment. This
package allows the parametric calculation of the temperature fields throughout the whole process and for all process participants. Thermodynamic aspects, hardly
available by analytical theory as convective boundary conditions or heat fluxes generated
by oxygen-hydrogen flames can be determined semi-empirically with
ProSimFRT. The method used for that needs a possibility for experimental investigations.
Hence, a thermodynamic test rig is introduced.This test rig allows the determination of process parameters and delivers a flexible
possibility for the validation and verification of the simulation. The integration of this
parameters into an overall process model for the thermoplastic tape placement process
using carbon fiber reinforced polyetheretherketone and derivable hints for the
process development conclude the present work. They are a baseline for the future
integration of the simulation into the manufacturing process.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
Mit dem sterisch anspruchsvollen Di-tert-butyl-Indenylliganden kann alternativ zu den bisher verwendeten alkyl-und silylsubstituierten Cyclopentadienylen der komplette Syntheseweg für die P4-Butterflykomplexe vom Typ [{CpR(OC)2Fe}2(µ-eta1:1-P4)] (2) durchgeführt werden. Die Langzeitthermolyse von [{In''(OC)2Fe}2(µ-eta1:1-P4)] (2b) liefert neben den seit langem bekannten Decarbonylierungsprodukten [{In''Fe}2(µ-eta4:4-P4)] (10b) und [In''Fe(eta5-P5)] (1b) auch den erst seit kurzem bekannten tetrahedranähnlichen Komplex 9b als äußerst instabile Verbindung. Die photolytisch induzierte Decarbonylierung von 9a führt zu einer strukturell außergewöhnlichen Verbindung mit zwei gewinkelten µ-P-Liganden im nahezu planaren Fe2P2-Vierring und einem Signal für beide Phosphoratome im extremen Tieffeld bei delta = 1406.9 ppm. Thermische Umsetzungen des Tetraphosphabicyclobutan-Komplexes 2b mit einem vierfachen Überschuß an Alkin oder Phosphaalkin liefern in Abhängigkeit vom Substituentenmuster interessante Polyphospholyl-Verbindungen. Symmetrisch substituierte Alkine führen nahezu ausschließlich zur Bildung der Sandwichkomplexe [In''Fe(eta5-{P3(CR)2})] (14b,15b) mit einem eta5-koordinierten 1,2,3-Triphospholylliganden in sehr guten Ausbeuten. Bei unsymmetrisch substituierten Alkinen tritt im Fall von elektronenziehenden Substituenten am Kohlenstoff-Atom die Synthese von Sandwichkomplexen mit einem Monophospholylliganden 17 dazu in Konkurrenz. Desweiteren entsteht das phosphorfreie, verzerrte Tetrahedran [{In''Fe}2(µ-CO)(µ-C2PhH)] (19). Donor-Substituenten am Kohlenstoff-Atom wie tert-Butyl- oder Trimethylsilylgruppen dagegen verhindern die Bildung der Monophosphaferrocene 17 vollständig. Die Reaktion von 2b mit einem Phosphaalkin beruht auf dem gleichen Prinzip und führt ebenfalls zu Sandwichkomplexen mit einem Polyphospholylliganden. Neben dem 1,2,4-Triphospha- 28 und dem 1,2,3,4-Tetraphosphaferrocen 29 wird die Bildung des Komplexes 27 mit einem 1,3-Diphosphet als eta^4-koordiniertem Ligand beobachtet. Dieser ist auf die Cycloaddition zweier Phosphaalkin-Einheiten zurückzuführen, während [In''Fe(eta5-{P3(C2{(C6H10)CH3}2)})] (28) und [In''Fe(eta5-{P4(C{C6H10}CH3)})] (29) durch den Einbau von P=C-R in das Tetraphosphabicyclobutan-Gerüst entstehen. Die Komplexierung eines oder mehrerer Phosphoratome im Mono- oder 1,2,3-Triphosphaferrocen mit ÜM-Fragmenten vom Typ {M(CO)5} (M = W, Cr) gelingt problemlos bei Raumtemperatur. Versuche zur Oxidation von 14b oder 17b mit Schwefel und Reduktion mit Kalium führten ausnahmslos zur unspezifischen Zersetzung des Eduktes. Das Aufstockungsverfahren nach Rybinskaya zur Bildung von 30 VE-Tripeldeckerkomplexen hat Hilt schon 1999 am 1,2,3-Triphosphaferrocen erfolgreich durchgeführt. Diese Reaktion konnte ebenso auf den Monophospholyl-Eisen(II)-Komplex 17b übertragen werden.
Diese Arbeit ist ein Bestandteil des Projekts META-AKAD. Ziel dieser Arbeit ist die Entwicklung einer Softwarekomponente, die in der Lage ist, automatisiert Klassifikationen nach der Regensburger Verbundklassifikation (RVK) und Schlagworte aus der deutschen Schlagwortnormdatei (SWD) für Dokumente, die als Lehr- oder Lernmaterial eingestuft wurden, zu vergeben. Die automatische Indexierung wird auf Basis einer Support-Vektor-Maschine durchgeführt. Die Implementierung erfolgte in der Programmiersprache Java.
The inverse problem of recovering the Earth's density distribution from satellite data of the first or second derivative of the gravitational potential at orbit height is discussed. This problem is exponentially ill-posed. In this paper a multiscale regularization technique using scaling functions and wavelets constructed for the corresponding integro-differential equations is introduced and its numerical applications are discussed. In the numerical part the second radial derivative of the gravitational potential at 200 km orbit height is calculated on a point grid out of the NASA/GSFC/NIMA Earth Geopotential Model (EGM96). Those simulated derived data out of SGG satellite measurements are taken for convolutions with the introduced scaling functions yielding a multiresolution analysis of harmonic density variations in the Earth's crust.