Refine
Year of publication
- 2002 (110) (remove)
Document Type
- Doctoral Thesis (50)
- Preprint (18)
- Report (18)
- Periodical Part (12)
- Article (5)
- Diploma Thesis (2)
- Part of a Book (1)
- Lecture (1)
- Master's Thesis (1)
- Moving Images (1)
Has Fulltext
- yes (110)
Keywords
- AG-RESY (9)
- Robotik (4)
- Mathematikunterricht (3)
- RODEO (3)
- RONAF (3)
- Androgene (2)
- Assembly (2)
- Force-Torque (2)
- Genregulation (2)
- HJB equation (2)
- Inverses Problem (2)
- Kooperation (2)
- Manipulation skills (2)
- Mehrskalenanalyse (2)
- Mensch-Roboter-Kooperation (2)
- Modellierung (2)
- Navigation (2)
- Portfolio optimisation (2)
- Prozesssteuerung (2)
- Robotics (2)
- SIMERO (2)
- Simulation (2)
- Standortplanung (2)
- deformable objects (2)
- modelling (2)
- praxis orientated (2)
- praxisorientiert (2)
- safe human robot cooperation (2)
- stochastic control (2)
- 4-Aminopiperidin (1)
- 4-Aminopiperidine (1)
- A431 (1)
- Abscheidung (1)
- Absorption (1)
- Abwassersystem (1)
- Adaptive Antennen (1)
- Aktien (1)
- Aktivitätskoeffizient (1)
- Alkin (1)
- Altern (1)
- Anti-diffusion (1)
- Antiandrogene (1)
- Antidiffusion (1)
- Antiestrogene (1)
- Apoptosis (1)
- Arachidonsäurestoffwechsel (1)
- Arsen (1)
- Arseniden (1)
- Assigment (1)
- Ausparken (1)
- Autökologie (1)
- BAD (1)
- BDH (1)
- Bahnplanung (1)
- Bamipin (1)
- Bartlett spectrum (1)
- Batchkalorimetrie (1)
- Bemessung (1)
- Beschichten (1)
- Bodenfilter (1)
- Börse (1)
- CAR <Roboter> (1)
- CAS (1)
- CHAMP-Mission (1)
- Car-Sharing (1)
- CarSharing (1)
- Carcinogenese (1)
- Cat-CVD-Verfahren (1)
- Cauchy-Navier equation (1)
- Cauchy-Navier scaling function and wavelet (1)
- Chemolumineszenz (1)
- Chloratom (1)
- Chromatin (1)
- Chromatographiesäule (1)
- Clostridium difficile (1)
- Cochlea Implant (1)
- Cochlea Implantat (1)
- Coenogonium (1)
- Combinatorial optimization (1)
- Combined Mobility (1)
- Complexity theory (1)
- Computer assistierte Chirurgie (1)
- Computer assistierte Chirurgie (CAS) (1)
- Computersimulation (1)
- Consistencyanalysis (1)
- Cre-loxP-System (1)
- Cryptothecia (1)
- Cy (1)
- Cytokine (1)
- DNA adducts (1)
- Deterioration (1)
- Deuteromycetes (1)
- Dialkali-Halogen (1)
- Diamine (1)
- Diffusion (1)
- Dissertation (1)
- Doppelbarriereoption (1)
- Dotieren (1)
- Double Barrier Option (1)
- Dreikerncluster (1)
- Dry Weight (1)
- Dünnschichtsolarz (1)
- EPR (1)
- ESR (1)
- Education (1)
- Efficiency (1)
- Effizienz (1)
- Einparken (1)
- Einzelzell-Analyse (1)
- Elektrolytlösungen (1)
- Elektromagnetische Streuung (1)
- Emissionen (1)
- Entlastungsverhalten (1)
- Equicofactor matrix polynomials (1)
- Erdmagnetismus (1)
- Estrogene (1)
- Euler number (1)
- Exponential Utility (1)
- Exponentieller Nutzen (1)
- Fermentation (1)
- Finanzmathematik (1)
- Finanzzeitreihe (1)
- Finite-Elemente-Methode (1)
- Flechtenalgen (1)
- Floatingpotential (1)
- Flüssig-Flüssig System (1)
- Flüssig-Flüssig-Gleichgewicht (1)
- Fokker-Planck-Gleichung (1)
- Force Feedback (1)
- Fredholmsche Integralgleichung (1)
- Fräsen (1)
- Fungi (1)
- Funktionsmorphologie (1)
- GGPP (1)
- Galerkin-Methode (1)
- Gebäude (1)
- Gen-Expression (1)
- Gene Expression (1)
- Geodäsie (1)
- Gewässerschutz (1)
- Glycogen Synthase Kinase 3 (1)
- Gravitation (1)
- HETE (1)
- HMG-CoA-Reduktase (1)
- HODE (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Heißes Elektron (1)
- Hexaphenylcyclohexaarsan (1)
- Hierarchische Matrix (1)
- Histamin (1)
- Hormon (1)
- Hot-Wire-Verfahren (1)
- Hydride (1)
- ITSM (1)
- Immiscible lattice BGK (1)
- Implan (1)
- Inhibitor (1)
- Integer programming (1)
- Interaktion (1)
- Interaktive Kunst (1)
- Interfaces (1)
- Inverse spin injection (1)
- JAK-STAT-Weg (1)
- JAK-STAT-pathway (1)
- K-best solution (1)
- Klimagerechtes Bauen (1)
- Kollisionserkennung (1)
- Kombinierte Mobilität (1)
- Komplex-analytische Struktur (1)
- Komplexe (1)
- Konfiguration <Chemie> (1)
- Konformation (1)
- Kraftrückkopplung (1)
- Kunst im öffentlichen Raum (1)
- Kühlturm (1)
- Lattice Boltzmann (1)
- Lattice Boltzmann models (1)
- Lattice-BGK (1)
- Lattice-Boltzmann (1)
- Lebensdaueranalyse (1)
- Lehrerweiterbildung (1)
- Leichtbauweise Faser-Kunststoff-Verbundwerkstoffe (FKV) (1)
- Level sets (1)
- Lichtflecke (1)
- Linksparken (1)
- Lipoxygenasen (1)
- Location problems (1)
- Locational Planning (1)
- Logistics (1)
- Lungenkrebs (1)
- MAP-Kinase (1)
- MCF-7 (1)
- META-AKAD (1)
- Markierungsgen (1)
- Matrix perturbation theory (1)
- Matrixkompression (1)
- Maus (1)
- Medienfassaden (1)
- Mediengesellschaft (1)
- Metabolismus (1)
- Metallkomplexe (1)
- Metallschicht (1)
- Microsystem Technology (1)
- Mie- and Helmholtz-Representation (1)
- Mie- und Helmholtz-Darstellung (1)
- Mikroklima (1)
- Mikrosystemtechnik (1)
- Mobilfunk (1)
- Modelica (1)
- Modell (1)
- Modifiziertes Epoxidharz (1)
- Molekularbiologie (1)
- Monte Carlo (1)
- Monte-Carlo-Simulation (1)
- Multiobjective programming (1)
- Multiresolution analysis (1)
- Multiskalen-Entrauschen (1)
- Mund-Kiefer-Gesichts-Chirurgie (1)
- NNK (1)
- NO-Synthase (1)
- Natriummolekül (1)
- Navier-Stokes equation (1)
- Networks (1)
- Neue Medien (1)
- Neural Networks (1)
- Neuronales Netz (1)
- New Media Art (1)
- Nichtlineare Diffusion (1)
- Nichtrauchen (1)
- Nitrosamine (1)
- Nonlinear time series analysis (1)
- Nonspecific Adsorption (1)
- Numerische Mathematik (1)
- Numerische Mathematik / Algorithmus (1)
- Oberflächenphysik (1)
- Oberflächenplasmonresonanz (1)
- Oberflächenspannung (1)
- On-line-Methode (1)
- On-line-Verfahren (1)
- Operationsroboter (1)
- Optionen (1)
- Organobleche (1)
- Organometallcluster (1)
- Parken (1)
- Parkmanöver (1)
- Particle-In-Cell (1)
- Partikel Methoden (1)
- Passivrauchen (1)
- Patrizipation (1)
- Paxillin (1)
- Phasengleichgewicht (1)
- Phosphatidylinositolkinase <3-> (1)
- Phosphodiesterasehemmer (1)
- Phosphor (1)
- Photochemie (1)
- Photoelektron (1)
- Phyllopsora (1)
- Physiologie (1)
- Pilze (1)
- Plasma / Dimension 2 (1)
- Plasma-Immersions-Implantation (1)
- Plasmaphysik (1)
- Plasmarandschicht (1)
- Plasmaschicht (1)
- Plasmaschwingung (1)
- Plasmatechnik (1)
- Plasmon (1)
- Polycycloarsan (1)
- Polyelektrolyt (1)
- Polyester- und Epoxidharze (1)
- Polymerlösung (1)
- Polypropylen (1)
- Portfolio Optimization (1)
- Portfolio-Optimierung (1)
- Portfolio-Optimierung (1)
- Potenzialhyperfläche (1)
- Prepreg-Technologie (1)
- Proliferation (1)
- Promotor (1)
- Pteridine (1)
- Public Space (1)
- Public Transport (1)
- QMC (1)
- Quantenwell (1)
- Random set (1)
- Rauchen (1)
- Raucherentwöhnung (1)
- Reaktionsdynamik (1)
- Reaktionsquerschnitt (1)
- Reaktivität (1)
- Realization theory (1)
- Regenwasserbehandlung (1)
- Regularisierung (1)
- Reinigungsleistung (1)
- Retentionsbodenfilter (1)
- Rho (1)
- Rho-Proteine (1)
- Roboter (1)
- Roboterarm (1)
- Ruthenium (1)
- Ruthenium-Phosphor-Cluster (1)
- Schale (1)
- Schichtstruktur (1)
- Schlauchflechten (1)
- Schnittstellen (1)
- Schwache Formulierung (1)
- Schädelbasis (1)
- Sedimentationsbecken (1)
- Sensitivitätsanalyse (1)
- Signaltransduktion (1)
- Silanisierung (1)
- Silanization (1)
- Silicium / Amorpher Zustand (1)
- Simulationsmodelle (1)
- Single Cell Analysis (1)
- Softwarewiederverwendung (1)
- Solarzelle (1)
- Stadtraum (1)
- Stahlbeton (1)
- Statine (1)
- Stickstoffmonoxidradikal (1)
- Stochastic Volatility (1)
- Stochastische Volatilität (1)
- Strahlungstransport (1)
- Straßenentwässerung (1)
- Styrene (1)
- Surface-Hopping (1)
- Sustainable architecture (1)
- TD-CDMA (1)
- Thelotrema (1)
- Thermodynamisches Gleichgewicht (1)
- Thermoplast-Elastomer- und Duromer-Matrizes (1)
- Thermoplast-Tapelegeverfahren (1)
- Time-delay-Netz (1)
- Trajektorie <Kinematik> (1)
- Transaction costs (1)
- Transaktionskosten (1)
- Transkription (1)
- Trockengewicht (1)
- Tropischer Regenwald (1)
- Two-phase flow (1)
- Unspezifische Adsorption (1)
- Unterholz (1)
- Urban Media (1)
- Urban Screens (1)
- VIROP (1)
- Vektorwavelets (1)
- Verarbeitungstechnik (1)
- Verkehrsablauf (1)
- Verkehrssicherheit (1)
- Versuchsanlage (1)
- Vinylcyclopropan (1)
- Viskose Transportschemata (1)
- Wavelet (1)
- Wavelets (1)
- Wiederverwertung Altgummipartikel (1)
- Wirkstoffe (1)
- Wirkungsgrad (1)
- Zellskelett (1)
- Zigarettenrauchen (1)
- Zigarrenrauchen (1)
- Zweiphasenströmung (1)
- Zweiphotonenspektroskopie (1)
- acetylcholine receptor (1)
- active damping (1)
- activity coefficient (1)
- alkyne (1)
- androgene (1)
- anisotropy (1)
- aqueous solution (1)
- arachidonic acid (1)
- benzo[a]pyrene (1)
- bicyclische heterocyclische Verbindungen (1)
- boudary condistions (1)
- bounce-back rule (1)
- building (1)
- carcinogenesis (1)
- chemiluminescence (1)
- chemoprevention (1)
- collision detection (1)
- complex (1)
- continuum damage (1)
- control theory (1)
- cooling tower shell (1)
- credit spread (1)
- cuboidal lattice (1)
- cytokine (1)
- deterioration (1)
- dialkali-halogen (1)
- digitale Installationen (1)
- discrepancy (1)
- discretisation of control problems (1)
- displacement problem (1)
- domain decomposition methods (1)
- doping (1)
- downward continuation (1)
- endlosfaserverstärkte Thermoplaste (1)
- endocrine disruptors (1)
- endokrine Disruptoren (1)
- estrogene (1)
- expression (1)
- fast Fourier transform (1)
- fictitious configurations (1)
- filling processes (1)
- finite deformations (1)
- finite elements (1)
- floating potential (1)
- free-surface phenomena (1)
- gelonin (1)
- geomagnetism (1)
- großflächige Abscheidung (1)
- harmonic wavelets (1)
- hierarchical matrix (1)
- human robot cooperation (1)
- hydrides (1)
- iNOS (1)
- image analysis (1)
- immunotoxins (1)
- induzierbar (1)
- injection molding (1)
- interfa (1)
- interface boundary conditions (1)
- kinetic derivation (1)
- knock-out (1)
- konditionaler knock-out (1)
- langfaserverstärkte Thermoplaste (1)
- lattice Boltzmann equation (1)
- lecithinabhängige Dehydrogenase (1)
- lecithine dependent dehydrogenase (1)
- limit and jump relations (1)
- liquid-liquid equilibrium (1)
- locational planning (1)
- log utility (1)
- low-rank approximation (1)
- lung cancer (1)
- mRNA-Expression (1)
- macroscopic equations (1)
- mathematical education (1)
- mediale Architektur (1)
- mediale Inszenierung (1)
- mice (1)
- mouse (1)
- multiscale denoising (1)
- multivalued fundamental diagram (1)
- myasthenia gravis (1)
- neighborhod relationships (1)
- neurotrophin 3 (1)
- non-linear wealth dynamics (1)
- oscillation (1)
- particle-in-cell (1)
- phase equilibria (1)
- phase equilibrium (1)
- phase transitions (1)
- phosphorus (1)
- photochemistry (1)
- plasma sheaths (1)
- plasma source ion implantation (1)
- plasma-based ion implantation and deposition (1)
- plasticity (1)
- polyelectrolyte (1)
- polymer solution (1)
- power spectrum (1)
- power utility (1)
- programming by demonstration (1)
- pyramid schemes (1)
- quasi-Monte Carlo (1)
- raum-zeitliche Analyse (1)
- reaction cross section (1)
- reactivity (1)
- real-time PCR (1)
- reconstruction formula (1)
- reduktive Decyanierung (1)
- ribosome-inactivating proteins (1)
- robotergestützt (1)
- ruthenium (1)
- scalar and vectorial wavelets (1)
- scheduling theory (1)
- semiclassical (1)
- semiklassisch (1)
- simulation (1)
- simulierte Finanzzeitreihe (1)
- software reuse (1)
- solutions containing electrolytes (1)
- stop and go waves (1)
- structural tensors (1)
- surface-hopping (1)
- systems (1)
- technische Analyse (1)
- thermisches Gebäudeverhalten (1)
- three membered metall cluster (1)
- time delays (1)
- traffic flow (1)
- urbaner Raum (1)
- virtual programming (1)
- volume of fluid method (1)
- wässrige Lösung (1)
- ÖPNV (1)
- Öffentlichkeitsbildung (1)
- Östrogene (1)
- Übergangsmetallcyclopentadienyl-Komplexe (1)
- öffentlicher Raum (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (27)
- Kaiserslautern - Fachbereich Informatik (17)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Fraunhofer (ITWM) (10)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Physik (4)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
In der Arbeit sollen ausgewählte technische Indikatoren und deren Handelsstrategien hinsichtlich ihres Verhaltens bzw. ihrer Profitabilität in verschiedenen Marktphasen untersucht werden. Um das Argument, dass die Indikatoren selbst erfüllend sind, zu entkräften, werden Finanzzeitreihen simuliert und die Indikatoren auf diese angewendet und ausgewertet. Zu diesem Zweck wird zu gegebenen echten Kursdaten ein finanzzeitreihenanalytisches Modell angepasst. Dieses wird zur Simulation von Finanzzeitreihen und damit zur Auswertung der Indikatoren verwendet werden. Durch geeignete Auswahlverfahren sollen verschiedene Handelsstrategien zu Strategien kombiniert werden, um ein besseres Ertrag/Risikoverhältnis zu erreichen als dies bei einzelnen Strategien der Fall wäre.
These lecture notes give a completely self-contained introduction to the control theory of linear time-invariant systems. No prior knowledge is requried apart from linear algebra and some basic familiarity with ordinary differential equations. Thus, the course is suited for students of mathematics in their second or third year, and for theoretically inclined engineering students. Because of its appealing simplicity and elegance, the behavioral approch has been adopted to a large extend. A short list of recommended text books on the subject has been added, as a suggestion for further reading.
It is difficult for robots to handle a vibrating deformable object. Even for human beings it is a high-risk operation to, for example, insert a vibrating linear object into a small hole. However, fast manipulation using a robot arm is not just a dream; it may be achieved if some important features of the vibration are detected online. In this paper, we present an approach for fast manipulation using a force/torque sensor mounted on the robot's wrist. Template matching method is employed to recognize the vibrational phase of the deformable objects. Therefore, a fast manipulation can be performed with a high success rate, even if there is acute vibration. Experiments inserting a deformable object into a hole are conducted to test the presented method. Results demonstrate that the presented sensor-based online fast manipulation is feasible.
A Topology Primer
(2002)
Zur nähtechnischen Konfektion von textilen Verstärkungsstrukturen für Faser-Kunststoff-Verbunde
(2002)
The further exploitation of Liquid-Composite-Moulding Technologies (LCM) for the
manufacture of Fiber-Reinforced-Plastics (FRP) relies on an eligible preforming
process. Preforming of fibrous reinforcements aspires the manufacture of dry
skeletons of the fiber assembly with the desired fiber orientation based on a predefined
fiber type. The LCM processing must be maintained by the preforming
technique. However, FRP part properties - given from fiber orientations - should not be
affected.
Sewing technologies, in all their varieties, can be applied as very flexible preforming
methods. Analogies between making-up dry reinforcement structures and the classical
field of sewing, e.g. garment manufacture, led to a substantial progress in technologies
available for preforimg as well as to increased economical benefits through the
application of sew-preforming.
A comprehensive understanding of the application of sewing technologies for FRP –
from the treatment of a semi-finished product to the infusion of a stitched preform – is
the basis for the design of an all new process chain.
The present work classifies this new preforming method within the existing
technologies. Furthermore, critical sewing machine elements are evaluated regarding
FRP compatibility. Stitching parameters and their impact on the reinforcement quality
as well as the FRP processing (LCM) are discussed.
Focusing on the economic efficiency of the sewing preforming technology, the critical
number of parts for selecting the right preform technology is discussed. The new
process chain enables the selection of the critical vertical range of preform
manufacture.
The large variety of preform design parameters, e. g. stitch density, needle thread
tension, seam type, sub-preform-structures etc., requires a “Preform-Engineering”,
covering an interface between preform manufacturing and FRP-part design. This
parallel engineering of part-, preform- and process-design leads to a global reflection
of the LCM technology. Thus, FRP part quality can be raised.
Utilization of Correlation Matrices in Adaptive Array Processors for Time-Slotted CDMA Uplinks
(2002)
It is well known that the performance of mobile radio systems can be significantly enhanced by the application of adaptive antennas which consist of multi-element antenna arrays plus signal processing circuitry. In the thesis the utilization of such antennas as receive antennas in the uplink of mobile radio air interfaces of the type TD-CDMA is studied. Especially, the incorporation of covariance matrices of the received interference signals into the signal processing algorithms is investigated with a view to improve the system performance as compared to state of the art adaptive antenna technology. These covariance matrices implicitly contain information on the directions of incidence of the interference signals, and this information may be exploited to reduce the effective interference power when processing the signals received by the array elements. As a basis for the investigations, first directional models of the mobile radio channels and of the interference impinging at the receiver are developed, which can be implemented on the computer at low cost. These channel models cover both outdoor and indoor environments. They are partly based on measured channel impulse responses and, therefore, allow a description of the mobile radio channels which comes sufficiently close to reality. Concerning the interference models, two cases are considered. In the one case, the interference signals arriving from different directions are correlated, and in the other case these signals are uncorrelated. After a visualization of the potential of adaptive receive antennas, data detection and channel estimation schemes for the TD-CDMA uplink are presented, which rely on such antennas under the consideration of interference covariance matrices. Of special interest is the detection scheme MSJD (Multi Step Joint Detection), which is a novel iterative approach to multi-user detection. Concerning channel estimation, the incorporation of the knowledge of the interference covariance matrix and of the correlation matrix of the channel impulse responses is enabled by an MMSE (Minimum Mean Square Error) based channel estimator. The presented signal processing concepts using covariance matrices for channel estimation and data detection are merged in order to form entire receiver structures. Important tasks to be fulfilled in such receivers are the estimation of the interference covariance matrices and the reconstruction of the received desired signals. These reconstructions are required when applying MSJD in data detection. The considered receiver structures are implemented on the computer in order to enable system simulations. The obtained simulation results show that the developed schemes are very promising in cases, where the impinging interference is highly directional, whereas in cases with the interference directions being more homogeneously distributed over the azimuth the consideration of the interference covariance matrices is of only limited benefit. The thesis can serve as a basis for practical system implementations.
Interactive graphics has been limited to simple direct illumination that commonly results in an artificial appearance. A more realistic appearance by simulating global illumination effects has been too costly to compute at interactive rates. In this paper we describe a new Monte Carlo-based global illumination algorithm. It achieves performance of up to 10 frames per second while arbitrary changes to the scene may be applied interactively. The performance is obtained through the effective use of a fast, distributed ray-tracing engine as well as a new interleaved sampling technique for parallel Monte Carlo simulation. A new filtering step in combination with correlated sampling avoids the disturbing noise artifacts common to Monte Carlo methods.
Die Geschichte zeigt, dass der städtische öffentliche Raum schon immer ein Ort gewesen ist, der von vielseitigen Interaktionen lebt und von ihnen geformt wird. Besonders die Bildung von Öffentlichkeit und Urbanität entsteht durch ein Zusammenkommen von verschiedensten Austauchprozessen. Seit Aufkommen der digitalen Medien ist jedoch die Art der menschlichen Interaktion deutlich erweitert und komplexer geworden, sodass sie Befürchtungen auslösten, der reale öffentliche Raum verliere als Interaktionsort an Bedeutung. Unabhängigkeit von Ort und Zeit, entlokalisierte und individualisierte Zeitstrukturen zerfasern den Rhythmus der Stadt. Jene droht ungemütlicher und gefährlicher zu werden. Das Netz wurde zum neuen ‚öffentlicheren’ Raum im Sinne einer aktiven kritischen bürgerlichen Öffentlichkeit erhoben.
Mit der Mobilisierung der digitalen Technologien wird es jedoch möglich, zurück in den öffentlichen Raum zu gehen und sich die neuen Medien als kommunikationsfördernd, identitäts- und gemeinschaftsproduzierend zu Hilfe zu nehmen, um ein neues integrierendes und identitätsstiftendes Interaktionsfeld für eine demokratische Gesellschaft zu kreieren - im besonderen als Gegenentwicklung zur weiteren Kommerzialisierung und Reizüberfrachtung des öffentlichen Raums. Die interaktive Kunst mit ihrer Lebensnähe, den kommunikativen Ansätzen und dem reflektierenden Umgang mit den modernen Machttechnologien ist dementsprechend besonders prädestiniert, mit dem städtischen öffentlichen Raum verknüpft zu werden.
Ziel der Arbeit ist es nun, aus dem Feld der Interaktiven Kunst neue Ansätze für eine Wiederbelebung der Öffentlichkeitsfunktion des Stadtraumes aufzuzeigen, so zum Beispiel Katalysatoren für eine direkte Mensch-Mensch-Interaktion oder eine neue Art von Involvie- rung in die Gestaltung des öffentlichen Raumes. In seiner neuen Interaktivität kann der Raum selbst zu einer Art Austauschmedium werden.
Aus den theoretischen Überlegungen, den Fragebögen und der Analyse gesammelter interaktiver Projekte, die bewusst in den öffentlichen Raum gehen, haben sich schließlich folgende fünf Kategorien herauskristallisiert. Sie bilden Ansatzpunkte für einen Schritt in Richtung Realisierung eines zeitgemäßen Interaktionsfeldes.
• Interaktionsförderung zur angstfreien Konfrontation und zum Kontakt mit Fremden
• Förderung der Öffentlichkeitsbildung durch Kritik, Diskussion und Reflektion der Gesellschaft
• Förderung der sozialen Interaktion und Verortung in der lokalen Nachbarschaft
• Wahrnehmung der gesellschaftlichen Entwicklung durch Technologie reflektierende, sinnliche Systemerfahrung
• Aktivierung zur bewussten Teilnahme an der Gestaltung des öffentlichen Raums
Die Homepage, die sich aus der CD-Rom zur Diplomarbeit entwickelt hat, stellt diese interaktiven Medienprojekte vor. Sie verdeutlicht anhand der Analyse und Kategorisierung der Projekte, wie nun die Neuen Medien alternativ genutzt werden können, um zur Reaktivierung und positiven Veränderung des Stadtraumes beizutragen.
In einer offenen Liste können weitere Projekte eintragen werden. Mit der Zeit kann sich so ein umfangreiches Archiv entwickeln, mit Beispielen, die zu neuen Ansätzen im Umgang der Stadtplanung mit dem öffentlichen Raum anregen.
www.interactionfield.de
Sowohl 4 alpha- als auch 4 beta-Cyclobamipin imitieren die Konformationsisomere des unverstrebten Bamipins, die durch Umklappen des Sechsrings und durch N-Inversion möglich sind. Bamipin ist ein H1-Antihistaminikum, das im Handel als Lactat oder Hydrochlorid unter dem Namen Soventol® Anwendung findet. Protonierung von 4 alpha- und 4 beta-Cyclobamipin führt zu den entsprechenden Salzen. Die Konformation der Salze wird NMR-spektroskopisch bestimmt. H1-antihistaminische Wirksamkeitstests ergeben eine 14 mal höhere Wirksamkeit für das 4 alpha-Isomere im Vergleich zu Bamipin. 4 beta-Cyclobamipin besitzt dagegen nur 40% Wirkpotential.
Microsystem technology has been a fast evolving field over the last few years. Its ability to handle volumes in the sub-microliter range makes it very interesting for potential application in fields such as biology, medicine and pharmaceutical research. However, the use of micro-fabricated devices for the analysis of liquid biological samples still has to prove its applicability for many particular demands of basic research. This is particularly true for samples consisting of complex protein mixtures. The presented study therefore aimed at evaluating if a commonly used glass-coating technique from the field of micro-fluidic technology can be used to fabricate an analysis system for molecular biology. It was ultimately motivated by the demand to develop a technique that allows the analysis of biological samples at the single-cell level. Gene expression at the transcription level is initiated and regulated by DNA-binding proteins. To fully understand these regulatory processes, it is necessary to monitor the interaction of specific transcription factors with other elements - proteins as well as DNA sites - in living cells. One well-established method to perform such analysis is the Chromatin Immunoprecipitation (CHIP) assay. To map protein-DNA interactions, living cells are treated with formaldehyde in vivo to cross-link DNA-binding proteins to their resident sites. The chromatin is then broken into small fragments, and specific antibodies against the protein of interest are used to immunopurify the chromatin fragments to which those factors are bound. After purification, the associated DNA can be detected and analyzed using Polymerase Chain Reaction (PCR). Current CHIP technology is limited as it needs a relatively large number of cells while there is increasing interest in monitoring DNA-protein interactions in very few, if not single cells. Most notably this is the case in research on early organism development (embryogenesis). To investigate if microsystem technology can be used to analyze DNA-protein complexes from samples containing chromatin from only few cells, a new setup for fluid transport in glass capillaries of 75 µm inner diameter has been developed, forming an array of micro-columns for parallel affinity chromatography. The inner capillary walls were antibody-coated using a silane-based protocol. The remaining surface was made chemically inert by saturating free binding sites with suitable biomolecules. Variations of this protocol have been tested. Furthermore, the sensitivity of the PCR method to detect immunoprecipitated protein-DNA complexes was improved, resulting in the reliable detection of about 100 DNA fragments from chromatin. The aim of the study was to successively decrease the amount of analyzed chromatin in order to investigate the lower limits of this technology in regard to sensitivity and specificity of detection. The Drosophila GAGA transcription factor was used as an established model system. The protein has already been analyzed in several large-scale CHIP experiments and antibodies of excellent specificity are available. The results of the study revealed that this approach is not easily applicable to "real-world" biological samples in regard to volume reduction and specificity. Particularly, material that non-specifically adsorbed to capillary surfaces outweighed the specific antibody-antigen interaction, the system was designed for. It became clear that complex biological structures, such as chromatin-protein compositions, are not as easily accessible by techniques based on chemically modified glass surfaces as pre-purified samples. In the case of the investigated system, it became evident that there is a need for more research that goes beyond the scope of this work. It is necessary to develop novel coatings and materials to prevent non-specific adsorption. In addition to improving existing techniques, fundamentally new concepts, such as microstructures in biocompatible polymers or liquid transport on hydrophobic stripes on planar substrates to minimize surface contact, may also help to advance the miniaturization of biological experiments.
In this paper we consider the location of stops along the edges of an already existing public transportation network. This can be the introduction of bus stops along some given bus routes, or of railway stations along the tracks in a railway network. The positive effect of new stops is given by the better access of the potential customers to their closest station, while the increasement of travel time caused by the additional stopping activities of the trains leads to a negative effect. The goal is to cover all given demand points with a minimal amount of additional traveling time, where covering may be defined with respect to an arbitrary norm (or even a gauge). Unfortunately, this problem is NP-hard, even if only the Euclidean distance is used. In this paper, we give a reduction to a finite candidate set leading to a discrete set covering problem. Moreover, we identify network structures in which the coefficient matrix of the resulting set covering problem is totally unimodular, and use this result to derive efficient solution approaches. Various extensions of the problem are also discussed.
This thesis builds a bridge between singularity theory and computer algebra. To an isolated hypersurface singularity one can associate a regular meromorphic connection, the Gauß-Manin connection, containing a lattice, the Brieskorn lattice. The leading terms of the Brieskorn lattice with respect to the weight and V-filtration of the Gauß-Manin connection define the spectral pairs. They correspond to the Hodge numbers of the mixed Hodge structure on the cohomology of the Milnor fibre and belong to the finest known invariants of isolated hypersurface singularities. The differential structure of the Brieskorn lattice can be described by two complex endomorphisms A0 and A1 containing even more information than the spectral pairs. In this thesis, an algorithmic approach to the Brieskorn lattice in the Gauß-Manin connection is presented. It leads to algorithms to compute the complex monodromy, the spectral pairs, and the differential structure of the Brieskorn lattice. These algorithms are implemented in the computer algebra system Singular.
Matrix Compression Methods for the Numerical Solution of Radiative Transfer in Scattering Media
(2002)
Radiative transfer in scattering media is usually described by the radiative transfer equation, an integro-differential equation which describes the propagation of the radiative intensity along a ray. The high dimensionality of the equation leads to a very large number of unknowns when discretizing the equation. This is the major difficulty in its numerical solution. In case of isotropic scattering and diffuse boundaries, the radiative transfer equation can be reformulated into a system of integral equations of the second kind, where the position is the only independent variable. By employing the so-called momentum equation, we derive an integral equation, which is also valid in case of linear anisotropic scattering. This equation is very similar to the equation for the isotropic case: no additional unknowns are introduced and the integral operators involved have very similar mapping properties. The discretization of an integral operator leads to a full matrix. Therefore, due to the large dimension of the matrix in practical applcation, it is not feasible to assemble and store the entire matrix. The so-called matrix compression methods circumvent the assembly of the matrix. Instead, the matrix-vector multiplications needed by iterative solvers are performed only approximately, thus, reducing, the computational complexity tremendously. The kernels of the integral equation describing the radiative transfer are very similar to the kernels of the integral equations occuring in the boundary element method. Therefore, with only slight modifications, the matrix compression methods, developed for the latter are readily applicable to the former. As apposed to the boundary element method, the integral kernels for radiative transfer in absorbing and scattering media involve an exponential decay term. We examine how this decay influences the efficiency of the matrix compression methods. Further, a comparison with the discrete ordinate method shows that discretizing the integral equation may lead to reductions in CPU time and to an improved accuracy especially in case of small absorption and scattering coefficients or if local sources are present.
Manipulating Deformable Linear Objects: Manipulation Skill for Active Damping of Oscillations
(2002)
While handling deformable linear objects (DLOs), such as hoses, wires or leaf springs, with an industrial robot at high speed, unintended and undesired oscillations that delay further operations may occur. This paper analyzes oscillations based on a simple model with one degree of freedom (DOF) and presents a method for active open-loop damping. Different ways to interpret an oscillating DLO as a system with 1 DOF lead to translational and rotational adjustment motions. Both were implemented as a manipulation skill with a sepa-rate program that can be executed immediately after any robot motion. We showed how these manipulation skills can generate the needed adjustment motions automatically based on the readings of a wrist-mounted force/torque sensor. Experiments demonstrated the effectiveness under various conditions.
Handhabung deformierbarer linearer Objekte: Programmierung mit verschiedenen Manipulation-Skills
(2002)
Diese Arbeit beschreibt verschiedene Bewegungsprimitive zur Lösung einiger häufig auftre-tender Probleme bei der Handhabung von deformierbaren linearen Objekten. Anhand der beispielhaften Montage einer Feder wird die Nützlichkeit der verschiedenen Manipulation-Skills im einzelnen, aber auch deren Kombination dargestellt.
In this work we present and estimate an explanatory model with a predefined system of explanatory equations, a so called lag dependent model. We present a locally optimal, on blocked neural network based lag estimator and theorems about consistensy. We define the change points in context of lag dependent model, and present a powerfull algorithm for change point detection in high dimensional high dynamical systems. We present a special kind of bootstrap for approximating the distribution of statistics of interest in dependent processes.
Styrene is most commonly used in Vinylester resins (VERs) and is the co-monomer
best described regarding VERs. However, there is little knowledge about the
influence of other co-monomers on properties of resins and castings. Because of
some unfavorable properties styrene provides in resins, e. g. the relatively low flash
point, public interest in the usage of styrene-free resins in chemically bonded anchors
has increased in the last couple of years.
To develop styrene-free VERs and to examine their qualifications when used in
chemically bonded anchors was one of the main purposes of this thesis. Properties
of several castings were examined and described and correlations between these
properties and those of co-monomers were investigated to find a pattern that would
allow facilitation for further examinations. One styrenated and seven styrene-free
resins were synthezised and compared to each other in several investigations.
Using these different co-monomers a great variety of fracture-mechanical and
mechanical properties of the castings can be achieved. Compared to the styrenecontaining
resin it is possible to get either higher, lower or equal strength, stiffness
and elongation. Castings containing HPMA and PEG200DMA proved to be of special
interest. VER/HPMA achieved highest results regarding modulus and strength.
Elongation was equal to that of the resin containing styrene. VER/PEG200DMA
showed the best results regarding elongation and had the lowest tensile modulus.
Tensile and flexural elongations were as high as those of the styrene reference
sytem.
Styrenefree systems showed a lower thermal resistance compared to the styrenated
resin and absorbed more water. There were significant differences in alkali
resistance as well. Only THFMA and PEG200DMA could deliver values similar to the
styrene system. The different amount of ester groups in the networks could not
explain these results but a correlation was found between residual strength and the
sum of hydroxy- and ester group concentrations.A method was deduced from these test results to allow assumptions on hydrophilicity
properties of castings by considering the molecular structure and the amount of comonomer
used.
Chemical bonding anchors containing the synthesised styrene-free resins were
produced. These showed high pull-out loads and little displacements under
permanent loading. Adhesive properties of the resins showed no direct correlation to
the bond strength of anchors. A tendency was found that resins with high stiffness
provide anchors with higher bond strength. Alkali resistance of the bonding material
was examined in slice tests. Even bonding materials containing resins that were
almost completely destroyed during a boiling test with NaOH showed good residual
strength here.
DSC-analysis of anchor grout samples collected from pulled out anchors showed low
glass transition temperature and locally inconsistent cure degrees. The possibility of
thermal postcure of anchor grouts after setting was examined to be able to better
compare the different systems when almost completely cured. Two methods were
considered: heating of the anchor rod using hot air and electromagnetic induction.
Based on a thermodynamical calculation model the heat loss proved to be high when
using hot air. Results of the induction method were promising, however. The degree
of cure and the glass transition temperature could be improved almost over the
complete embedment depth. A more homogenous network was achieved with a
reduced content of residuals and better chemical resistance.
Parkmanöver sind ein häufig auftretender Bestandteil des urbanen Verkehrsgeschehens. Über den Einfluss von Parkmanövern auf Verkehrsablauf und Verkehrssicherheit lagen bisher nur teilweise Kenntnisse von eher qualitativem Charakter vor. Ziel dieser Arbeit war es, in einem ersten (empirischen) Schritt die vorliegenden Kenntnisse zu ergänzen und zu quantifizieren und in einem zweiten Schritt ein Simulationsmodell zu entwickeln, mit dessen Hilfe sich Aussagen zu weitergehenden Fragestellungen unter variierenden Randbedingungen machen lassen. Im ersten Schritt wurden im Rahmen des Forschungsprojektes "Linksparken in städtischen Straßen" ca. 3.400 Parkmanöver in Längsrichtung dokumentiert und bzgl. ihres Einflusses auf Verkehrsablauf und Verkehrssicherheit analysiert. Dabei wurden insbesondere auch (illegale) Parkmanöver entgegen der Fahrtrichtung (Linksparken) betrachtet und mit dem heute vorgeschriebenen Rechtsparken verglichen. Die wichtigsten Ergebnisse des empirischen Teils waren: - Die Analyse der amtlichen Unfallstatistiken ergab, dass Parkmanöver generell einen eher geringen Einfluss auf die Verkehrssicherheit haben, zumal beim Ein- und Ausparken meistens Bagatellschäden verursacht werden. In einer zusätzlichen Befragung von 118 Polizeidienststellen speziell zum Linksparken stellte sich heraus, dass Linksparken im Unfallgeschehen derzeit keine nennenswerte Rolle spielt, dass aber die beim Ausparken eingeschränkte Sicht des Fahrers auf die Fahrbahn als Gefährdungspotenzial angesehen wird. - Bei den Erhebungen wurden acht Parkmanöver (0,2%) erfasst, durch die Konflikte verursacht wurden, Unfälle ereigneten sich nicht. Ein gehäuftes Auftreten von Konflikten bei bestimmten Parkmanövern oder bestimmten Abschnitten davon war (auch aufgrund der geringen Anzahl der Konflikte) nicht feststellbar. - In Straßen mit sehr geringem Verkehrsaufkommen wurde teilweise fast die Hälfte aller Parkmanöver entgegen der Fahrtrichtung durchgeführt. Dieser Anteil nimmt mit zunehmendem Verkehrsaufkommen ab, da Parkstände auf der linken Seite nicht mehr ohne Behinderung des Gegenverkehrs belegt und verlassen werden können. - Beim Ausparken von links befindet sich der Fahrer auf der der Fahrbahn abgewandten Seite. Insbesondere durch größere Fahrzeuge wie z.B. Lieferwagen kann dann die Sicht auf den fließenden Verkehr so weit eingeschränkt sein, dass das Fahrzeug relativ weit in die Fahrbahn einfahren muss, bevor der Fahrer das Verkehrsgeschehen überschauen kann. Dies wird vor allem auf Straßen mit Geschwindigkeiten von über 30 km/h als unvertretbares Sicherheitsrisiko angesehen. In solchen Straßen sollte daher auch im Falle einer Novellierung der StVO von einer Legalisierung des Linksparkens abgesehen werden. - Rechts rückwärts durchgeführte Parkmanöver verursachen am häufigsten Wartezeiten im fließenden Verkehr, wobei auch die Länge der verursachten Wartezeiten bei diesem Manöver am größten ist. Dies ist darauf zurückzuführen, dass nachfolgende Fahrzeuge häufig relativ dicht auf ein einparkendes Fahrzeug auffahren und so (1) dieses am einparken hindern und (b) das einparkende Fahrzeug selbst nicht überholen können, ohne vorher zurückzustoßen. Im Vergleich zu den Wartezeiten, wie sie durch Lichtsignalanlagen verursacht werden, sind die durch Parkmanöver verursachten Wartezeiten jedoch sehr gering. Im zweiten Schritt der Arbeit wurden die Ergebnisse der Empirie in das mikroskopische Simulationsmodell EPAVA (Einfluss von PArkmanövern auf den VerkehrsAblauf) implementiert. Da für das Auftreten von Unfällen oder Konflikten in der Empirie aufgrund deren Seltenheit keine Regeln abgeleitet werden konnten, werden diese nicht simuliert. Simuliert wird der Einfluss von Parkmanövern auf den Verkehrsablauf, wobei die Randbedingungen des simulierten Streckenabschnittes vom Benutzer interaktiv definiert werden können. Parameter zur Beurteilung des Verkehrsablaufs sind neben den Wartezeiten im fließenden Verkehr die Parkraumauslastung und die Entstehung von Parksuchverkehr. Damit stehen Informationen zu Parametern zur Verfügung, die empirisch nicht erhoben werden können. In der Anwendung von EPAVA wurden zwei unterschiedlich stark belastete Streckenabschnitte mit jeweils drei unterschiedlichen Werten für die Akzeptanz von Parkständen auf der linken Seite simuliert. Dabei führt das Simulationsprogramm zu folgenden Ergebnissen: - Mit zunehmender Akzeptanz des Linksparkens werden freie Parkstände schneller wieder belegt, da diese von Fahrzeugen aus beiden Fahrtrichtungen angefahren werden. Dadurch kann insbesondere in Gebieten mit hohem Parkdruck eine bessere Auslastung des Parkraums erreicht werden. - Mit der höheren Auslastung des Parkraums geht eine Reduzierung des Parksuchverkehrs einher. Diese ist jedoch nur sehr gering.
In the last decade, injection molding of long-fiber reinforced thermoplastics
(LFT) has been established as a low-cost, high volume technique for manufacturing
parts with complex shape without any post-treatment [1–3]. Applications
are mainly found in the automotive industry with a volume annually
growing by 10% to 15% [4].
While first applications were based on polyamide (PA6 and PA6.6), the market
share of glass fiber reinforced polypropylene (PP) is growing due to cost savings
and ease of processing. With the use of polypropylene, different processing
techniques such as gas-assisted injection molding [5] or injection compression
molding [6] have emerged in addition to injection molding [7, 8].
In order to overcome or justify higher materials costs when compared to short
fiber reinforced thermoplastics, the manufacturing techniques for LFT pellets
with fiber length greater than 10mm have evolved starting from pultrusion by
improving impregnation and throughput [9] or by direct addition of fiber strands
in the mold [10–12].
The benefit of long glass fiber reinforcement either in PP or PA is mainly due
to the enhanced resistance to fiber pull-out resulting in an increase in impact
properties and strength [13–19], even at low temperature levels [20]. Creep
and fatigue resistance are also substantially improved [21, 22].
The performance of fiber reinforced thermoplastics manufactured by injection
molding strongly depends on the flow-induced microstructure which is
driven by materials composition, processing conditions and part geometry.
The anisotropic microstructure is characterized by fiber fraction and dispersion,
fiber length and fiber orientation.
Facing the complexity of this processing technique, simulation becomes a precious
tool already in the concept phase for parts manufactured by injection
molding. Process simulation supports decisions with respect to choice of concepts
and materials. The part design is determined in terms of mold filling
including location of gates, vents and weld lines. Tool design requires the
determination of melt feeding, logistics and mold heating. Subsequently, performance
including prediction of shrinkage and warpage as well as structural
analysis is evaluated [23].
While simulation based on two-dimensional representation of three-dimensional
part geometry has been extensively used during the last two decades, the
complexity of the parts as well as the trend towards solid modelling in CAD
and CAE demands the step towards three-dimensional process simulation. The scope of this work is the prediction of flow-induced microstructure during
injection molding of long glass fiber reinforced polypropylene using threedimensional
process simulation. Modelling of the injection molding process in
three dimensions is supported experimentally by rheological characterization
in both shear and extensional flow and by two- and three-dimensional evaluation
of microstructure.
In chapter 2 the fundamentals of rheometry and rheology are presented with
respect to long fiber reinforced thermoplastics. The influence of parameters
on microstructure is described and approaches for modelling the state of microstructure
and its dynamics are discussed.
Chapter 3 introduces a rheometric technique allowing for rheological characterization
of polymer melts at processing conditions as encountered during
manufacturing. Using this rheometer, both shear and extensional viscosity of
long glass fiber reinforced polypropylene are measured with respect to composition
of materials, processing conditions and geometry of the cavity.
Chapter 4 contains the evaluation of microstructure of long glass fiber reinforced
polypropylene in terms of two-dimensional fiber orientation and its dependence
on materials parameters and processing condition. For the evaluation
of three-dimensional microstructure, a technique based on x-ray tomography
is introduced.
In chapter 5, modelling of microstructural dynamics is addressed. One-way
coupling of interactions between fluid and fibers is described macroscopically.
The flow behavior of fibers in the vicinity of cavity walls is evaluated experimentally.
From these observations, a model for treatment of fiber-wall interaction
with respect to numerical simulation is proposed.
Chapter 6 presents the application of three-dimensional simulation of the injection
molding process. Mold filling simulation is performed using a commercial
code while prediction of 3D fiber orientation is based on a proprietary module.
The rheological and thermal properties derived in chapter 3 are tested by
simulation of the experiments and comparison of predicted pressure and temperature
profile versus recorded results. The performance of fiber orientation
prediction is verified using analytical solutions of test examples from literature.
The capability of three-dimensional simulation is demonstrated based on the
simulation of mold filling and prediction of fiber orientation for an automotive
part.
Stahlbeton-Kühlturmschalen unterliegen während ihrer Nutzungsdauer einer Vielzahl von Beanspruchungen, die im Tragwerk ein mit der Zeit zunehmendes Rissbild verursachen können. Hiermit verbundenen ist eine Veränderung der Steifigkeitsverteilung, die bei diesen hochgradig statisch unbestimmten Schalentragwerken das Tragverhalten bestimmt. Mit der vorgestellten nichtlinearen Vorgehensweise, die mögliche Ent- und Wiederbelastungen in Kombination mit Zwangbeanspruchungen und ungleichmäßiger Befeuchtung der Schalenoberfläche erfasst, gelingt es, die beobachteten Alterungserscheinungen bei Kühlturmschalen numerisch zu simulieren. Hieraus lassen sich Modelle ableiten, die es erlauben, das Tragverhalten in den Nachweisen für die Grenzzustände der Gebrauchstauglichkeit und der Tragfähigkeit auch während der Nutzungsdauer des Bauwerkes zu berücksichtigen. Die vorgestellte Vorgehensweise ist auch auf andere Tragwerke aus Stahlbeton anwendbar.
thesis deals with the investigation of the dynamics of optically excited (hot) electrons in thin and ultra-thin layers. The main interests concern about the time behaviour of the dissipation of energy and momentum of the excited electrons. The relevant relaxation times occur in the femtosecond time region. The two-photon photoemission is known to be an adequate tool in order to analyse such dynamical processes in real-time. This work expands the knowledge in the fields of electron relaxation in ultra-thin silver layers on different substrates, as well as in adsorbate states in a bandgap of a semiconductor. It contributes facts to the comprehension of spin transport through an interface between a metal and a semiconductor. The primary goal was to prove the predicted theory by reducing the observed crystal in at least one direction. One expects a change of the electron relaxation behaviour while altering the crystal’s shape from a 3d bulk to a 2d (ultra-thin) layer. This is due to the fact that below a determined layer thickness, the electron gas transfers to a two-dimensional one. This behaviour could be proven in this work. In an about 3nm thin silver layer on graphite, the hot electrons show a jump to longer relaxation time all over the whole accessible energy range. It is the first time that the temporal evolution of the relaxation of excited electrons could be observed during the transition from a 3d to a 2d system. In order to reduce or even eliminate the influence coming from the substrate, the system of silver on the semiconductor GaAs, which has a bandgap of 1.5eV at the Gamma-point, was investigated. The observations of the relaxation behaviour of hot electron in different ultra-thin silver layers on this semiconductor could show, that at metal-insulator-junctions, plasmons in the silver and in the interface, as well as cascading electrons from higher lying energies, have a huge influence to the dissipation of momentum and energy. This comes mainly from the band bending of the semiconductor, and from the electrons, which are excited in GaAs. The limitation of the silver layer on GaAs in one direction led to the expected generation of quantum well states (QWS) in the bandgap. Those adsorbate states have quantised energy- and momentum values, which are directly connected to the layer thickness and the standing electron wave therein. With the experiments of this work, published values could not only be completed and proved, but it could also be determined the time evolution of such a QWS. It came out that this QWS might only be filled by electrons, which are moving from the lower edge of the conduction band of the semiconductor to the silver and suffer cascading steps there. By means of the system silver on GaAs, and of the known fact that an excitation of electrons in GaAs with circularly polarised light of the energy 1.5eV does produce spin polarised electrons in the conduction band, it became possible to bring a contribution to the hot topic of spin injection. The main target of spin injection is the transfer of spin polarised electrons out of a ferromagnet into a semiconductor, in order to develop spin dependent switches and memories. It could be demonstrated here that spin polarised electrons from GaAs can move through the interface into silver, could be photoemitted from there and their spin was still being detectable. As a third investigation system, ultra-thin silver layers were deposited on the insulator MgO, which has a bandgap of 7.8eV. Also in this system, one could recognize a change in the relaxation time while reducing the dimension of the silver layer from thick to ultra-thin. Additionally, it came out an extreme large relaxation time at a layer thickness of 0.6 – 1.2nm. This time is an order of magnitude longer than at thick films, and this is a consequence of two factors: first, the reduction of the phase space due to the confined electron gas in the z-direction, and second, the slowlier thermalisation of the electron gas due to less accessible scattering partners.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz insbesondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der lateralen Schädelbasis an. In jüngsten Arbeiten wurden Prozessparameter zur Anlage eines Implantatlagers bspw. für ein Cochlea Implantat oder für eine roboterunterstützte Mastoidektomie ermittelt. Gemessen wurden die Parameter Kraft, Moment, Vibration und Temperatur bei unterschiedlichen Vorschüben, Drehzahlen, Bahnkurven und unterschiedlichem Knochenmaterial (Mastoid, Kalotte). Hieraus ergaben sich Optimierungsparameter für solche Fräsvorgänge. Auffallend waren unvermittelt auftretende und extrem weit über dem Grenzwert liegende Spitzenwerte für Kräfte, bei im Normbereich liegenden Mittelwerten. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine Kraft-geregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6-achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.Durch intraoperative online Rückkopplung der Kraft - Sensorik war eine lokale Navigation möglich. Bei steigenden Kräften über den Grenzwert wurde die Vorschubgeschwindigkeit automatisch reguliert, auch konnte das Errreichen der Dura an Hand der Werte detektiert werden. Das Implantatlager ließ sich durch das entwickelte Computerprogramm exakt ausfräsen. Die Untersuchungen ergaben, dass eine zufriedenstellende Anlage eines Implantatbettes in der Kalotte durch einen Kraft-geregelten Fräsvorgang mit einem Roboter, im Sinne einer lokalen Navigation, gelingt.
Das relativ kostengünstige Hot-Wire-CVD-Verfahren (HWCVD) ist für die großflächige Abscheidung von Dünnschichtsolarzellen auf der Basis des amorphen Siliziums (a-Si:H) eine viel versprechende Alternative zu anderen Abscheideverfahren, da - bei apparativ relativ einfachem Aufbau - ähnliche oder sogar bessere Materialeigenschaften sowie höhere Abscheideraten erreichbar sind. Allerdings wurde erst mit dieser Arbeit gezeigt, dass HWCVD zur Herstellung von a-Si:H-Solarzellen hochskaliert und zur Beschichtung großer Flächen angewendet werden kann. Dafür wurde eine Anlage speziell für die großflächige Abscheidung (30 cm x 30 cm) konzipiert und weltweit erstmals der Einfluss der Gaszuführungs- und Filamentgeometrie auf die Uniformität und Materialqualität des a-Si:H systematisch untersucht- sowohl experimentell als auch gestützt durch theoretische Berechnungen. Abschließend wurde der Prozess mit einer Monte-Carlo-Simulationsmethode simuliert und die Simulationsergebnisse an Hand der experimentellen Ergebnisse interpretiert.
Two approaches for determining the Euler-Poincaré characteristic of a set observed on lattice points are considered in the context of image analysis { the integral geometric and the polyhedral approach. Information about the set is assumed to be available on lattice points only. In order to retain properties of the Euler number and to provide a good approximation of the true Euler number of the original set in the Euclidean space, the appropriate choice of adjacency in the lattice for the set and its background is crucial. Adjacencies are defined using tessellations of the whole space into polyhedrons. In R 3 , two new 14 adjacencies are introduced additionally to the well known 6 and 26 adjacencies. For the Euler number of a set and its complement, a consistency relation holds. Each of the pairs of adjacencies (14:1; 14:1), (14:2; 14:2), (6; 26), and (26; 6) is shown to be a pair of complementary adjacencies with respect to this relation. That is, the approximations of the Euler numbers are consistent if the set and its background (complement) are equipped with this pair of adjacencies. Furthermore, sufficient conditions for the correctness of the approximations of the Euler number are given. The analysis of selected microstructures and a simulation study illustrate how the estimated Euler number depends on the chosen adjacency. It also shows that there is not a uniquely best pair of adjacencies with respect to the estimation of the Euler number of a set in Euclidean space.
In this paper we study linear ill-posed problems Ax = y in a Hilbert space setting where instead of exact data y noisy data y^delta are given satisfying |y - y^delta| <= delta with known noise level delta. Regularized approximations are obtained by a general regularization scheme where the regularization parameter is chosen from Morozov's discrepancy principle. Assuming the unknown solution belongs to some general source set M we prove that the regularized approximation provides order optimal error bounds on the set M. Our results cover the special case of finitely smoothing operators A and extends recent results for infinitely smoothing operators.
In dieser Arbeit wurden Modelle entwickelt, an denen die noch weitgehend unbekannten zellulären Funktionen der epidermalen Lipoxygenasen (LOXn) untersucht werden können: 1. Mit Hilfe von GFP-LOX-Fusionsproteinen wurde die Bedeutung der katalytischen Aktivität und der Extradomäne, die bei den beiden Isoenzymen 12R-LOX und eLOX-3 vorkommt, für die intrazelluläre Verteilung der Enzyme nachgewiesen. 2. Die Herstellung LOX-überexprimierender Keratinozyten war möglicherweise wegen des Abschaltens des Promotors oder der Negativselektion LOX-exprimierender Zellen über eine Transfektion mit herkömmlichen Expressionsplasmiden nicht möglich. Für die virale Transduktion von Tetrazyklin-regulierbaren Expressionssystemen wurden die nötigen Vorarbeiten geleistet. 3. Es wurde der Knockout des 12R-LOX-Gens unter Verwendung des Cre/loxP-Systems bis zur Geburt chimärer Mäuse durchgeführt. 4. Bei der Charakterisierung von transgenen e12S-LOX-überexprimierenden Mäusen wurde eine gegenseitige Beeinflussung epidermaler 12S-LOXn in Bezug auf die mRNAExpression nachgewiesen. Die Wechselwirkungen führten dazu, daß bei Tieren mit starker l12S-LOX und schwacher e12S-LOX-Expression die Empfindlichkeit gegenüber chemischer Karzinogenese (Inititations-Promotions-Modell) herabgesetzt war. Dieses korrelierte mit einer massiven Akkumulation des Linolsäure-Derivats 13-HODE, dem eine antikarzinogene Wirkung zugeschrieben wird. Eine erhöhte Tumorbildung ging mit der Überexpression von p12S-LOX oder e12S-LOX einher. Dies wiederum korrelierte mit einer Akkumulation des Arachidonsäure-Derivats 12-HETE, für das eine prokarzinogene Wirkung postuliert wird. 5. Mit Hilfe des Comet-Assays konnte für primäre Keratinozyten eine gentoxische Wirkung von HPETEn und HETEn gezeigt werden.
Der direkte Einstieg in die Phosphorchemie ist durch Reaktion einer Rohlösung von [Cp=Ru(CO)2H] (1) (Cp= = C5H3(SiMe3)2) mit P4 möglich. Dabei erhält man den Komplex [Cp=Ru(CO)2PH2] (6a) mit freier Phosphanidogruppe, der selbst nicht isoliert, dessen Existenz jedoch spektroskopisch und durch Folgereaktionen eindeutig belegt werden kann. Das freie Elektronenpaar des Phosphors kann sowohl durch [M(CO)5(thf)] (M = Cr, Mo, W) (7,8,9) als auch durch [Cp*Re(CO)2(thf)] (14) nach Verlust von deren thf-Liganden komplexiert werden. Das bei der Reaktion mit 14 als Nebenprodukt entstandene [{Cp*(OC)2Re}2(µ-CO)] (17) konnte erstmals röntgenstrukturanalytisch untersucht werden. Die Cothermolyse von [{Cp=Ru(CO)2}2] (4) mit P4 liefert [Cp=Ru(Eta5-P5)] (18) und [{Cp=Ru}2(µ-Eta;2:2-P2)2] (19), die beide röntgenstrukturanalytisch charakterisiert werden konnten. 18 erweist sich als erstes Pentaphosphametallocen, das eine annähernd ideal ekliptische Konformation aufweist. Im Zweikernkomplex 19 konnte ein Komplex der 8. Gruppe mit zwei separaten P2-Brückenliganden eindeutig belegt werden. Die Cothermolyse von 4 mit [Cp*Fe(Eta5-P5)] liefert neben 18 und 19 die Homo- und Heterotrimetallcluster [{Cp=Ru}n{Cp*Fe}3-nP5] (n = 1, 2, 3) mit verzerrt dreiecksdodekaedrischen Gerüststrukturen. Die Röntgenstrukturanalysen von [{Cp=Ru}3P5] (24), [{Cp=Ru}2{Cp*Fe}P5] (25) und [{Cp*Fe}2{Cp=Ru}P5] (26) zeigen, daß die Metallfragmente {Cp*Fe} und {Cp=Ru} nahezu ohne Auswirkungen auf die Gerüststruktur ausgetauscht werden können. Der Vergleich zu den Cp-Derivaten zeigt die annähernde Identität der Verbindungen. Bei 26 bleibt die Stellung des Cp=-Liganden am Ruthenium nach Einbau eines Eisenfragmentes erhalten, während in [{Cp*Fe}2{CpRu}P5] (26a) ein Wechsel in der Stellung des Cp-Liganden stattfindet. Die Photolyse von [Cp=Ru(CO)2H] (1) in THF ergibt die spektroskopisch identifizierten Verbindungen [{Cp=Ru(CO)}2(µ-H)2] (28), [{Cp=Ru(CO)}2{Cp=Ru(CO)H}] (29) und [{Cp=Ru}4(µ3-CO)4] (30). Das in geringen Mengen anfallende 28 konnte als dimere Struktur mit zwei verbrückenden Wasserstoffatomen identifiziert werden. Für Komplex 29 wurde eine Struktur als triangularer Metalldreiring postuliert, der den Verbindungen 33 und 34 sehr ähnlich ist. Bei 29 handelt es sich um einen 46 VE-Komplex mit einer Ru-Ru-Doppelbindung im Dreiring. Verbindung 30 mit tetraedrischem Ru4-Gerüst kann in hoher Ausbeute dargestellt werden. 30 ist luft- und wasserstabil und überaus reaktionsträge. Führt man die Photolyse von 1 in Hexan als nichtkoordinierendem Lösungsmittel durch, so erhält man neben 28 und 29 die Komplexe [{Cp=Ru(µ-CO)}2{Cp=Ru(CO)H}] (33), [{{{Cp=Ru}2(µ-CO)}{Cp=RuH}}(µ3-CO)2] (34) sowie die unbekannte Verbindung 35. Die Röntgenstrukturanalysen von 33 und 34 zeigen zwei mit 46 VE elektronendefiziente, triangulare Ru3-Cluster mit einer M-M-Doppelbindung im Ring, welche beide der Vorgabe der Magischen Zahlen entsprechen. 33 reagiert bereitwillig mit P4 und ergibt [{Cp=Ru}(µ-Eta4:1:1-P4){Ru(CO)Cp=}] (40). Die RSA von 40 zeigt, daß Ru1 um 25,3° aus der Ebene der vier Phosphoratome P1-P4 abgewinkelt und kein planares Tetraphospharuthenol verwirklicht ist. Die Aufsicht auf die P4Ru-Ebene läßt jedoch deutlich das Bestreben erkennen, die Konstitution einer pentagonalen Pyramide auszubilden.
Inhalt dieser Arbeit ist der diastereoselektive Zugang zu den orthogonal Amingeschützten 6+ - und 6^2-6-Amino-3-azabicyclo[3.1.0]hexanen 1 und 2 (R, X=H). Diese können als Baustein für pharmazeutische Präparate wie dem Gyrasehemmer Trovafloxacin eingesetzt werden, oder in pharmakologischen Studien zur Imitation konformativ rigider 4-Amino-piperidine, einer ebenfalls häufig in Arzneimitteln auftretenden Struktureinheit, dienen. Die als Ausgangsverbindung benötigten Aminonitrile 1 und 2 (R=CN) werden aus cyclischen Chlorenaminen 3 durch 3,5-Ringschlußreaktion mit Alkalicyanid erhalten. Als Schutzgruppen fungieren ein Allyl- oder Benzylrest als PG1, sowie ein Ethoxycarbonyl-, ein Benzyl- oder Methylrest als PG2. Die erhaltenen Nitrile werden mit einer Lösung von Natrium in flüssigem Ammoniak bei 70°C reduktiv decyaniert. Beide Konfigurationsisomere reagieren bei diesen Bedingungen unter Retention der Konfiguration. Setzt man die 6beta-Aminonitrile in einer Lösung von Lithium in flüssigem Ethylamin bei erhöhter Temperatur (0°C) um, invertieren diese in die thermodynamisch stabilere 6alpha-Amin-Konfiguration.
Die Untersuchung der Löslichkeit basischer und saurer Gase in wässrigen Lösungen ist seit mehreren Jahren ein Schwerpunkt von Forschungsarbeiten am Lehrstuhl für Technische Thermodynamik der Universität Kaiserslautern. In Weiterführung dieser Arbeiten beschäftigt sich die vorliegende Arbeit einerseits mit Untersuchungen zur Löslichkeit von Kohlendioxid in wässrigen Lösungen von Kaliumchlorid und Kaliumhydroxid und andererseits sowohl mit der Löslichkeit von Schwefeldioxid bzw. Schwefeldioxid und Ammoniak in wässrigen Lösungen als auch mit kalorischen Effekten (Wärmetönungen), die beim Verdünnen solcher Lösungen auftreten. Ziel der Arbeiten war es, die bisher vorliegenden experimentellen Untersuchungen zu ergänzen und die zur Beschreibung der Thermodynamik solcher Systeme in früheren Arbeiten entwickelten Modelle weiter zu verbessern. Dazu wurden umfangreiche experimentelle Arbeiten sowohl zum Phasengleichgewicht als auch zur Enthalpie- änderung beim Verdünnen durchgeführt. Die neuen Ergebnisse wurden zunächst mit Vorhersagen des Modells verglichen und schließlich dazu benutzt, das Modell - insbesondere durch Neuanpassung/Erweiterung der Parameter - zu verbessern. Dies gelang für die kohlendioxidhaltigen Systeme mit einer - aufgrund der Erfahrun- gen aus früheren Arbeiten - erwarteten Qualität. Untersuchungen mit schwefeldioxidhaltigen Systemen wurden bisher nur in vergleichsweise geringem Umfang durchgeführt. Im experimentellen Teil der vor- liegenden Arbeit wurde deshalb einerseits die simultane Löslichkeit von Schwefel- dioxid und Ammoniak in wässrigen Lösungen der einzelnen Salze Natriumsulfat und Ammoniumsulfat und andererseits die Wärmetönung beim Verdünnen wässriger Lösungen von Schwefeldioxid mit reinem Wasser, wässriger Lösungen von Schwefeldioxid und Natriumsulfat bzw. Ammoniumsulfat mit der jeweiligen Salzlösung, wässriger Lösungen von Schwefeldioxid und Ammoniak mit reinem Wasser und wässriger Lösungen von Schwefeldioxid, Ammoniak und Natriumsulfat bzw. Ammoniumsulfat mit den jeweiligen Salzlösungen experimentell bestimmt. Die Untersuchungen zur Gaslöslichkeit erfolgten bei Temperaturen zwischen 40 °C und 130 °C und Drücken bis max. 10 MPa, die kalorimetrischen Untersuchungen bei 40 °C und 80 °C und Drücken bis ca 1 MPa. Die Salzkonzentration lag üblicherweise bei 1.0 mol/kg bis 4 mol/kg Wasser, die Konzentration von Schwefeldioxid bzw. Ammoniak im Bereich bis ca. 6 mol/kg Wasser. Ausgangspunkt der Modellerweiterung war ein auf der Basis experimenteller Untersuchungen einerseits zur Löslichkeit von Schwefeldioxid in reinem Wasser sowie in wässrigen Lösungen der einzelnen Salze Natriumsulfat bzw. Ammonium- sulfat und andererseits von Schwefeldioxid und Ammoniak in reinem Wasser in früheren Arbeiten erstelltes Modell, bei dem die Eigenschaften der flüssigen Phase mit einem ursprünglich von Pitzer vorgeschlagenen Ansatz beschrieben werden. Diese Modellierung berücksichtigt auch chemische Reaktionen wie die Bildung von Bisulfit und Sulfit aus Schwefeldioxid und die von Ammoniumionen aus Ammoniak. Beim Vergleich von Rechenwerten mit den experimentellen Ergebnissen zeigten sich, vor allem bei der Wärmetönung, teilweise beträchtliche Abweichungen. Bei der Überarbeitung des Modells wurden nur Modellparameter, die physikalische Wechsel- wirkungen beschreiben, neu bestimmt. Für diese Überarbeitung wurden keine experimentellen Ergebnisse für die "Vierkomponenten-Systeme" - also Ammoniak, Schwefeldioxid, Wasser mit Sulfatsalz - verwendet. Diese Ergebnisse wurden zum Test der überarbeiteten Modellierung herangezogen. Bei diesen theoretischen Arbeiten bestätigte sich die aus früheren Arbeiten bekannte Erfahrung, dass die zur Parameterbeschreibung verwendeten experimentellen Ergebnisse nahezu im Rahmen der experimentellen Genauigkeit korreliert werden können. Die Vorhersagen des so parametrierten Modells für die gleichzeitige Löslichkeit von Schwefeldioxid und Ammoniak in den sulfathaltigen, wässrigen Lösungen stimmen jedoch nur befriedigend - und damit schlechter als erwartet - mit den experimentellen Ergeb- nissen überein. Noch deutlich größere Abweichungen ergaben sich beim Vergleich von Messwerten und Modellvorhersagen für die Wärmetönung beim Verdünnen. Versuche, diese Abweichungen z. B. durch Neuanpassung der Wechselwirkungs- parameter oder Berücksichtigung weiterer Wechselwirkungsparameter deutlich zu verringern, waren nicht erfolgreich. Es wird deshalb vermutet, dass in den schwefeldioxidhaltigen, wässrigen Lösungen nicht nur die Bildung von Bisulfit und Sulfit, sondern auch diejenige weiterer Spezies (z. B. die in der Literatur kontrovers diskutierte Bildung von Pyrosulfit) berücksichtigt werden muss. Dies soll in weiter- führenden Arbeiten auch mit Einsatz weiterer Messmethoden, z. B. der IR-Spektroskopie, untersucht werden.
Zur Entwicklung und Planung energiesparender Gebäude, zum Entwurf geeigneter Regelungsalgorithmen benötigt man detailliertes Wissen über das thermische und energetische Verhalten eines Gebäudes, das in Wechselwirkung mit seiner Umgebung und seinen Bewohnern steht. Dies leistet ein mathematisches Modell. Die Beschreibung großer, komplexer technischer Systeme führt zu hoch komplexen, umfangreichen mathematischen Modellen, die - zur Simulation implementiert - große Softwaresysteme ergeben. Es liegt daher nahe, Konzepte der Informatik auch in der mathematischen Modellbildung zu nutzen. Neben der Dekomposition in Teilsysteme, den Strukturierungskonzepten zur Beherrschung der Komplexität ist hier ein aktueller Forschungsgegenstand der Informatik von besonderem Interesse. Es handelt sich um die Nutzung der Wiederverwendung als methodisches Element des Softwareentwicklungsprozesses großer Systeme. Es wurde eine Modellbibliothek zur Simulation thermischen Gebäudeverhaltens in Modelica erstellt. Sie untergliedert sich in die Abschnitte Gebäude-, Thermohydraulik-, Umgebungs- und Algorithmenbibliothek. Die objektorientiert implementierten, nicht berechnungskausalen Modellkomponenten sind hierarchisch strukturiert. Ihre Implementierung orientiert sich am intuitiven physikalischen Verständnis des zu beschreibenden technischen Prozesses. So aggregiert ein Gebäude einzelne Räume, Fenster, Wände und diese wiederum einzelne Wandschichten.
Based on the framework of continuum mechanics two different concepts to formulate phenomenological anisotropic inelasticity are developed in a thermodynamically consistent manner. On the one hand, special emphasis is placed on the incorporation of structural tensors while on the other hand, fictitious configurations are introduced. Substantial parts of this work deal with the numerical treatment of the presented theory within the finite element method.
Diese Arbeit stellt die erste exakte quantenchemische Behandlung eines chemischen Elementarprozesses dar, der durch eine Vielzahl elektronischer Potentialflächen und nichtadiabatischer Kopplungsgebiete geprägt ist.Motiviert durch die historische Bedeutung der Reaktion zur Entwicklung elementarer Reaktionsmechanismen (M. und J.Polanyi, Herschbach) sowie die experimentellen Arbeiten von Bergmann, dem es Mitte der 90er Jahre gelang, gezielt innere Schwingungsanregungen im Targetmolekül zu stimulieren (STIRAP), wurde die Dynamik der Radikalreaktion Na2(v,J) + Cl -> NaCl(v',J') + Na* quantenchemisch untersucht. Untersuchungsparameter waren in erster Linie die Schwingungs- und Rotationsabhängigkeit des Targetmoleküls sowie die Stoßenergieabhängigkeit im Bereich von 0.2-0.5eV. Auf der Basis von sehr genauen gekoppelten ab initio-MRCI-Potentialflächen - insgesamt wurden im Ein- und Ausgangskanal 32 diabatische Potential- und Koppelelementflächen berechnet und analytisch dargestellt - wurde ein nichtadiabatisches Surface-Hopping-Programm entwickelt, wobei die semiklassischen Trajektorien u.a. nach dem Fewest-Switches-Algorithmus von Tully propagiert wurden. Die Ergebnisse geben ein detailliertes Bild dieser Multikreuzungsreaktion wider: Die Schwingungsenergieabhängigkeit zeigte in Übereinstimmung mit dem Experiment eine kontinuierliche Zunahme des chemolumineszenten Reaktionsquerschnittes mit der Anregung des Targetmoleküls (v(Na2)=0-28). Die Stoßenergieabhängigkeit zeigt mit zunehmenden v(Na2) eine Inversion: Zunahme des chemolumineszenten Querschnittes mit zunehmender Stoßenergie bei v=0, Abnahme bei v>0. Die große freiwerdende Exothermizität (abzüglich der Na-Anregungsenergie) wird zu ca. 75% in innere Energie des Produktmoleküls überführt, wobei zusätzliche Energie durch Schwingungs- bzw. Stoßenergieanregung aufgrund des wachsenden Stoßparameterbereichs zu über 50% in Rotationsenergie des NaCl umgesetzt wird. Der differentielle Reaktionsquerschnitt zeigt bei einer Stoßenergie von 0.3eV eine deutliche Bevorzugung der Vorwärstsstreuung in Bezug auf die Richtung des stoßenden Cl-Atoms. Die statistische Phasenraumtheorie gibt zwar die Schwingungsabhängigkeit gut wider, allerdings nur unter der falschen - wie die Trajektorienrechnungen zeigen - Vorraussetzung, dass der strahlungslose Kanal (Na im Grundzustand) gemäß seines statistischen Gewichtes zur Reaktion beiträgt. Die Bedeutung der einzelnen Zustände im Eingangskanal wurde detailliert untersucht und es konnte ferner gezeigt werden, dass auch der Quenchprozess zwischen Grund- und erstem angeregten Zustand im Ausgangskanal von großer Bedeutung für das Chemolumineszenzverhalten ist. Abschließend wurde gezeigt, dass die Reaktion von heissem NaCl' (hohe innere Anregung des Targets) mit Na unter Bildung von Na* mit relativ geringem Querschnitt verläuft. Der von M.Polanyi in seinen legendären Flammenexperimentenursprünglich propagierte indirekte Reaktionsmechanismus - Na2+Cl -> NaCl'+Na; NaCl'+Na-> NaCl+Na* - erweist sich gegenüber dem obigen direkten Mechanismus somit als relativ ineffektiv.
Different aspects of geomagnetic field modelling from satellite data are examined in the framework of modern multiscale approximation. The thesis is mostly concerned with wavelet techniques, i.e. multiscale methods based on certain classes of kernel functions which are able to realize a multiscale analysis of the funtion (data) space under consideration. It is thus possible to break up complicated functions like the geomagnetic field, electric current densities or geopotentials into different pieces and study these pieces separately. Based on a general approach to scalar and vectorial multiscale methods, topics include multiscale denoising, crustal field approximation and downward continuation, wavelet-parametrizations of the magnetic field in Mie-representation as well as multiscale-methods for the analysis of time-dependent spherical vector fields. For each subject the necessary theoretical framework is established and numerical applications examine and illustrate the practical aspects.
Contributions to the application of adaptive antennas and CDMA code pooling in the TD CDMA downlink
(2002)
TD (Time Division)-CDMA is one of the partial standards adopted by 3GPP (3rd Generation Partnership Project) for 3rd Generation (3G) mobile radio systems. An important issue when designing 3G mobile radio systems is the efficient use of the available frequency spectrum, that is the achievement of a spectrum efficiency as high as possible. It is well known that the spectrum efficiency can be enhanced by utilizing multi-element antennas instead of single-element antennas at the base station (BS). Concerning the uplink of TD- CDMA, the benefits achievable by multi-element BS antennas have been quantitatively studied to a satisfactory extent. However, corresponding studies for the downlink are still missing. This thesis has the goal to make contributions to fill this lack of information. For near-to-reality directional mobile radio scenarios TD-CDMA downlink utilizing multi-element antennas at the BS are investigated both on the system level and on the link level. The system level investigations show how the carrier-to-interference ratio can be improved by applying such antennas. As the result of the link level investigations, which rely on the detection scheme Joint Detection (JD), the improvement of the bit er- ror rate by utilizing multi-element antennas at the BS can be quantified. Concerning the link level of TD-CDMA, a number of improvements are proposed which allow considerable performance enhancement of TD-CDMA downlink in connection with multi-element BS antennas. These improvements include * the concept of partial joint detection (PJD), in which at each mobile station (MS) only a subset of the arriving CDMA signals including those being of interest to this MS are jointly detected, * a blind channel estimation algorithm, * CDMA code pooling, that is assigning more than one CDMA code to certain con- nections in order to offer these users higher data rates, * maximizing the Shannon transmission capacity by an interleaving concept termed CDMA code interleaving and by advantageously selecting the assignment of CDMA codes to mobile radio channels, * specific power control schemes, which tackle the problem of different transmission qualities of the CDMA codes. As a comprehensive illustration of the advantages achievable by multi-element BS anten- nas in the TD-CDMA downlink, quantitative results concerning the spectrum efficiency for different numbers of antenna elements at the BS conclude the thesis.
The development of recombinant DNA techniques opened a new era for protein production both in scientific research and industrial application. However, the purification of recombinant proteins is very often quite difficult and inefficient. Therefore, we tried to employ novel techniques for the expression and purification of three pharmacologically interesting proteins: the plant toxin gelonin; a fusion protein of gelonin and the extracellular domain of the subunit of the acetylcholine receptor (gelonin-AchR) and human neurotrophin 3 (hNT3). Recombinant gelonin, acetylcholine receptor a subunit and their fusion product, gelonin-AchR were constructed and expressed. The gelonin gene, a 753 bp polynucleotide was chemically synthesized by Ya-Wei Shi et al. and was kindly provided to us. The gene was first inserted into the vector pUC118 yielding pUC-gel. It was subsequently transferred into pET28a and pET-gel was expressed in E. coli. The product, gelonin was soluble and was purified in two steps showing a homogeneous band corresponding to 28 kD on SDS-PAGE. The expression of the extracellular domain of the -subunit of AchR always led to insoluble aggregates and even upon coexpression with the chaperonin GroESL, very small and hardly reproducible amounts of soluble material were formed, only. Therefore, recombinant AchR- gelonin was cloned and expressed in the same host. The corresponding fusion protein, gelonin-AchR, again formed aggregates and it had to be solubilized in 6 M Gu-HCl for further purification and refolding. The final product, however, was recognized by several monoclonal antibodies directed against the extracellular domain of the -subunit of AchR as well as a polyclonal serum against gelonin. Expression and purification of recombinant hNT3 was achieved by the use of a protein self-splicing system. Based on the reported hNT3 DNA sequence, a 380 bp fragment corresponding to a 14 kD protein was amplified from genomal DNA of human whole blood by PCR. The DNA fragment was cloned into the pTXB1 vector, which contains a DNA fragment of intein and chintin binding domain (CBD). A further construct, pJLA-hNT3, is temperature-inducible. Both constructs expressed the target protein, hNT3-intein-CBD in E. coli by the induction with IPTG or temperature, however, as aggregates. After denaturation and renaturation, the soluble fusion protein was slowly loaded on an affinity column of chitin beads. A 14 kD hNT3 could be isolated after cleavage with DTT either at 4 °C or 25 °C for 48 h. Based on nerve fiber out-growth of the dorsal root ganglia of chicken embryos, both, hNT-3-intein-CBD and hNT3 itself exhibit almost the same biological activity.
Strict order relations are defined as strict asymmetric and transitive binary relations. For classes of so-called levelled strict orders it is analyzed, under which conditions the endomorphism monoids of two relations coincide; in particular the case of direct sums of strict antichains is studied. Further, it is shown that these orders differ in their sets of binary order preserving functions.
In vielen Ländern werden derzeit Simulationsmodelle miteinander gekoppelt, die zum einen Prozesse auf der Oberfläche und im Entwässerungssystem und zum anderen Prozesse in der Kläranlage nachbilden. Den Anlass hierfür stellte die Erkenntnis dar, dass eine getrennte Betrachtung und Optimierung der beiden Teile eines Abwassersystems nicht zwangsläufig zu aus Gewässersicht besten Lösungen führt. Da die Zusammenhänge sehr komplex sind, können Auswirkungen von Systemveränderungen, seien sie baulicher oder verfahrenstechnischer Art, nur mit Modellen im Vorfeld eingeschätzt werden. Die gemeinsame Simulation von Entwässerungssystem und Kläranlage wird mit dem Begriff "integrierte Modellierung" beschrieben. Da der Einsatz der integrierten Modellierung in den Anfängen steckt, gibt es eine Vielzahl an offenen Fragen und Defiziten. Stichworte sind hier insbesondere die erforderliche Detailliertheit der Modellansätze sowie die zu betrachtenden Stoffparameter und die damit einhergehenden Unsicherheiten bei den Simulationsergebnissen. Diese unbefriedigende Situation gab Anlass zu einer Zusammenstellung und Bewertung der Unsicherheiten, die bei der integrierten Modellierung bestehen. Im Vordergrund stand die Beurteilung unterschiedlicher Modellansätze und -parameter. Die Unsicherheiten wurden zunächst hinsichtlich der maßgebenden Größen Entlastungsverhalten und Kläranlagenablauf getrennt bewertet. Es zeigte sich, dass große Defizite hinsichtlich der Beurteilung der Auswirkungen von Modellansätzen und -parametern über die "Systemgrenze" hinweg bestehen. Unter System wird hier einerseits das Entwässerungssystem und andererseits die Kläranlage verstanden. Ausgewählte Unsicherheiten, wie z.B. die Auswirkungen unterschiedlicher Modellansätze und -parameter zur Simulation der stofflichen Prozesse auf der Oberfläche und im Kanal, wurden detailliert untersucht und beschrieben, was zu einem besseren Prozessverständnis beiträgt. Es wurde grundsätzlich nachgewiesen, dass eine Kopplung der verwendeten Modellansätze aus den Bereichen Entwässerungssystem und Kläranlage weitgehend zu nachvollziehbaren Ganglinien an allen maßgebenden Stellen im Abwassersystem führt. Es zeigten sich jedoch auch Schwächen bei der derzeitig häufig gewählten Vorgehensweise. Die Simulation des chemischen Sauerstoffbedarfs als ein Parameter im Entwässerungssystem und die konstante Fraktionierung an der Übergabestelle zum Kläranlagenmodell, welches verschiedene CSB-Fraktionen als Eingangsgrößen benötigt, führte zu teilweise unplausiblen Ganglinien im Kläranlagenablauf. Es wurden zwei Lösungsansätze untersucht und festgestellt, dass die getrennte Simulation von partikulärem und gelöstem CSB entscheidende Vorteile insbesondere bei stark ablagerungsbehafteten Kanalnetzen aufweist. Die Arbeit verdeutlicht, welche Modellansätze und -parameter gewässerökologisch relevante Emissionen und die Kläranlagenablaufkonzentrationen maßgebend beeinflussen. In Abhängigkeit von der Zielsetzung müssen bei zukünftigen Simulationsstudien bisher häufig vereinfacht modellierte Prozesse, wie z.B. die Verdrängung gelöster Stoffe im Entwässerungssystem, detaillierter nachgebildet werden. Verschiedene Modellansätze auf der Oberfläche (2-Komponenten-Methode/ Akkumulation-Abtrag) sowie verschiedene Modellparameter bei der Anwendung der Akkumulations-/Abtragsmethode führten zu extrem unterschiedlichen Ergebnissen bezüglich der stündlichen CSB-Entlastungswerte. Andere Prozesse dagegen können in bestimmten Anwendungsfällen vernachlässigt werden. So ist die detaillierte Nachbildung des Absetzverhaltens in den Regenbecken lediglich bei der Beurteilung langfristiger Wirkungen von Relevanz. Bezogen auf die maximalen CSB-Konzentrationen im Kläranlagenablauf erwiesen sich verschiedene Modellansätze im Entwässerungssystem und unterschiedliche Fraktionierungsansätze an der Schnittstelle als wenig sensitiv. Als wichtigste Einflussgröße stellte sich das Nachklärbeckenmodell heraus. Mit der Anwendung des Modells in einem kleinen Einzugsgebiet wurden die Probleme in einem konkreten Anwendungsfall deutlich. Eine Nachbildung der Zu- und Ablaufganglinien der Kläranlage war während Trockenwetterphasen möglich. Die Schwankungen der Stickstoffkonzentrationen im Ablauf der Belebung und im Ablauf der Nachklärung, die sich aufgrund der Betriebsweise der intermittierenden Belüftung ergeben, konnten zufrieden-stellend modelliert werden. Während Regenwetterphasen traten dagegen diverse Abweichungen der Simulations- gegenüber den Messergebnissen auf. Eine aufwändigere Beprobung während Regenwetter ist erforderlich. Die exemplarische Anwendung des Modells wie auch die Erkenntnisse aus den Sensitivitätsanalysen zeigten, dass die integrierte Modellierung von Entwässerungssystem und Kläranlage bei diversen Aufgabenstellungen ein sinnvolles Werkzeug ist. Vor dessen Einsatz sollten jedoch die jeweils maßgebenden Gewässerbelastungen identifiziert werden.
One crucial assumption of continuous financial mathematics is that the portfolio can be rebalanced continuously and that there are no transaction costs. In reality, this of course does not work. On the one hand, continuous rebalancing is impossible, on the other hand, each transaction causes costs which have to be subtracted from the wealth. Therefore, we focus on trading strategies which are based on discrete rebalancing - in random or equidistant times - and where transaction costs are considered. These strategies are considered for various utility functions and are compared with the optimal ones of continuous trading.
Die traditionelle anonyme Architektur der Tropen hat weltweit über lange Zeiträume hinweg intelligente Bauformen, Baukonstruktionen und Raumfolgen entwickelt für das Wohnen, die Arbeit, die Kultur und die Religion ihrer agrarisch geprägten Gesellschaftsformen unter harten klimatischen Bedingungen. Für die Dritte Welt in den Tropen führte die Begegnung mit der europäischen Zivilisation durch die Kolonisation im 19. Jahrhundert zu einem Zusammenbruch ihrer traditionellen Kulturformen. In den vergangenen 100 Jahren, vor allem seit der Unabhängigkeit der jungen Staaten, wurden grosse bauliche Investitionen geleistet, die jedoch selten unter Beachtung der besonderen Bedingungen des tropischen Klimas erfolgten. Die grosse Masse des Gebauten zeigt heute die stereotypen architektonischen Gestaltungsansätze des europäischen gemässigten Klimas mit nachteiligen Konsequenzen für die ökologische und hygienische Konzeption des Gebäudes. Von derzeit 6 Milliarden Menschen (im Jahre 2000) leben 5 Milliarden in der Dritten Welt. Die Bevölkerungsexplosion in diesen jungen Staaten wird in Zukunft grosse Bauaufgaben für den Wohnungsbau, Verwaltung, Kultur und Soziales erfordern, die mit den überholten europäischen Schematismen nicht mehr zu bewältigen sein werden. Vor diesem Hintergrund könnte ein Rückgriff auf die alten baulichen Erfahrungen der traditionellen anonymen Architektur der Tropen wesentliche und vorbildhafte Hilfestellung bieten für die Entwicklung einer neuen klimagerechten und menschenwürdigen Architektur. Die vorliegende Dissertation konzentriert sich auf die Herausarbeitung der Prinzipien des klimagerechten Bauens in den Tropen. Ihre Ergebnisse gründen auf der Forschung, welche die Fachhochschule Konstanz unter meiner Leitung in den vergangenen 15 Jahren im tropischen Klimaraum Afrikas durchgeführt hat.
Der kausale Zusammenhang zwischen der Dominanz von Mikroflechten gegen über Makroflechten in Tieflandregenwäldern war nicht bekannt und wird in vorliegender Studie erörtert. In der Literatur wird eine unvorteilhafte Kombination von hohen Temperaturen, niedrigen Lichtintensitäten und hoher Feuchtigkeit für die weitgehende Abwesenheit von Makroflechten in tropischen Tieflandregenwäldern verantwortlich gemacht. Aufgrund der hohen Abundanz in diesen Habitaten, kann diese Aussage für krustige Flechten nur bedingt zutreffen. Es wurden eine Reihe von Arbeitshypothesen entwickelt, die klären sollten, ob corticole Grünalgenflechten bestimmte funktionelle Lebensstrategie aufweisen, in welcher Weise das Mikroklima ihren Stoffwechselprozess beeinflusst, und warum sie im tropischen Tiefland-Regenwald dominieren. Die Fragenstellungen wurden unter Verwendung von ökophysiologischen Methoden in vivo und in situ in einem für die Flechten mikroklimatisch unvorteilhafte, tropischen immergrünen Tieflandregenwald im National Park Les Nouragues (Französisch-Guyana) untersucht. Aufgrund des intensiven Kontakts mit ihrem Substrat werden corticole Flechten stark von den mikroklimatischen Bedingungen des Phorophyten beeinflusst. Sie zeigen morphologisch-anatomische Anpassungen, die einen physiologisch vorteilhaften Zustand zwischen Wasserübersättigung und Austrocknung ermöglichen. Ihre Photosynthese ist an niedrige Lichtintensitäten angepasst und nutzt unterschiedliche Lichtqualitäten aufgrund physiologischer Strategien verschieden aus. Weitere Ergebnisse zeigten dass Krustenflechten neben funktionellen morphologisch-anatomischen und physiologischen Strategien, auch durch ein hohes Oberflächen zu Volumen Verhältnis, durch ein hohes Biomassenverhältnis des Photobionten zum Mycobionten und wahrscheinlich durch die Fähigkeit, saprophytisch Kohlenstoff zu gewinnen, befähigt sind, mikroklimatisch unvorteilhafte Habitate, wie die eines tropischen Tieflandregenwaldes, zu besiedeln
If an investor borrows money he generally has to pay higher interest rates than he would have received, if he had put his funds on a savings account. The classical model of continuous time portfolio optimisation ignores this effect. Since there is obviously a connection between the default probability and the total percentage of wealth, which the investor is in debt, we study portfolio optimisation with a control dependent interest rate. Assuming a logarithmic and a power utility function, respectively, we prove explicit formulae of the optimal control.
We consider some portfolio optimisation problems where either the investor has a desire for an a priori specified consumption stream or/and follows a deterministic pay in scheme while also trying to maximize expected utility from final wealth. We derive explicit closed form solutions for continuous and discrete monetary streams. The mathematical method used is classical stochastic control theory.
Elementare Finanzmathematik
(2002)
Im Rahmen dieser Arbeit soll eine elementar gehaltene Einführung in die Aufgabenstellungen und Prinzipien der modernen Finanzmathematik gegeben werden. Insbesondere werden die Grundlagen der Modellierung von Aktienkursen, der Bewertung von Optionen und der Portfolio-Optimierung vorgestellt. Natürlich können die verwendeten Methoden und die entwickelte Theorie nicht in voller Allgemeinheit für den Schuluntericht verwendet werden, doch sollen einzelne Prinzipien so heraus gearbeitet werden, dass sie auch an einfachen Beispielen verstanden werden können.
Image synthesis often requires the Monte Carlo estimation of integrals. Based on a generalized concept of stratification we present an efficient sampling scheme that consistently outperforms previous techniques. This is achieved by assembling sampling patterns that are stratified in the sense of jittered sampling and N-rooks sampling at the same time. The faster convergence and improved anti-aliasing are demonstrated by numerical experiments.
We present an algorithm for determining quadrature rules for computing the direct illumination of predominantly diffuse objects by high dynamic range images. The new method precisely reproduces fine shadow detail, is much more efficient as compared to Monte Carlo integration, and does not require any manual intervention.
A spectral theory for stationary random closed sets is developed and provided with a sound mathematical basis. Definition and proof of existence of the Bartlett spectrum of a stationary random closed set as well as the proof of a Wiener-Khintchine theorem for the power spectrum are used to two ends: First, well known second order characteristics like the covariance can be estimated faster than usual via frequency space. Second, the Bartlett spectrum and the power spectrum can be used as second order characteristics in frequency space. Examples show, that in some cases information about the random closed set is easier to obtain from these characteristics in frequency space than from their real world counterparts.
Im ersten Teil der Arbeit wurde die Cytotoxizität von drei Testsubstanzen (Digitonin, SDS und TritonX-100) mit Hilfe von vier verschiedenen Assays (NR, CV, LDH und WST) in der Rattenhepatozyten Primärkultur untersucht. Die Ergebnisse zeigten, dass WST und LDH aufgrund ihrer geringen Streuung und hohen Sensitivität die am besten geeigneten Methoden sind, um Cytotoxizität zu messen. Anschließend wurden mit diesen Assays die IC50-Konzentrationen von 16 Entwicklungssubstanzen der Firma Knoll AG bestimmt, um die ermittelten Konzentration in den folgenden Induktionsversuchen zu verwenden. Anschließend wurde der Einfluss der 16 Knoll-Substanzen auf Cytochrom P450-Isoenzyme in der Rattenhepatozyten Primärkultur untersucht. Dabei zeigte sich, das von den 16 Substanzen lediglich drei eine schwache CYP 1A-Induktion, die über EROD und MROD bestimmt wurde, bewirkten. Im Gegensatz dazu bewirkten acht der Knoll-Substanzen eine starke Induktion, im Vergleich zum Modellinduktor PB, der durch CYP1A und 2B katalysierten BROD-Aktivität. Dieses PB-ähnliche Induktionsmuster zeigte sich auch im Testosteron-Assay. Als herausragender Induktor, vom PB-Typ zeigte sich dabei die Substanz LU 135252. Die Konjugationsreaktionen (Phase II) mit den verschiedenen Substraten CDNB für GST und MUF, HOBI und PNP für verschiedene UGTs wurden durch die Knoll-Substanzen wenig beeinflusst. Im abschließenden Teil wurde der Einfluss von vier Knoll-Substanzen auf drei peroxisomale Enzyme (ACOX, CAT und Katalase) und auf Cytochrom P450 4A untersucht. Die beiden Substanzen 201640 und 418585 erhöhten die Aktivitäten aller vier Enzyme (wenn auch schwächer als die Modellinduktoren CLO und CIPRO) und könnten sich damit als Peroxisomen Proliferatoren erweisen. Der Vergleich von in vivo-Daten aus Toxizitätsstudien mit den in vitro-Daten zeigte eine sehr gute Übereinstimmung bei der qualitativen Einteilung der Substanzen in Nicht-Induktoren und Induktoren, des PB- bzw. des Clofibrat-Typs.