Refine
Year of publication
- 2002 (110) (remove)
Document Type
- Doctoral Thesis (50)
- Preprint (18)
- Report (18)
- Periodical Part (12)
- Article (5)
- Diploma Thesis (2)
- Part of a Book (1)
- Lecture (1)
- Master's Thesis (1)
- Moving Images (1)
Has Fulltext
- yes (110)
Keywords
- AG-RESY (9)
- Robotik (4)
- Mathematikunterricht (3)
- RODEO (3)
- RONAF (3)
- Androgene (2)
- Assembly (2)
- Force-Torque (2)
- Genregulation (2)
- HJB equation (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (27)
- Kaiserslautern - Fachbereich Informatik (17)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Fraunhofer (ITWM) (10)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Physik (4)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
In der Arbeit sollen ausgewählte technische Indikatoren und deren Handelsstrategien hinsichtlich ihres Verhaltens bzw. ihrer Profitabilität in verschiedenen Marktphasen untersucht werden. Um das Argument, dass die Indikatoren selbst erfüllend sind, zu entkräften, werden Finanzzeitreihen simuliert und die Indikatoren auf diese angewendet und ausgewertet. Zu diesem Zweck wird zu gegebenen echten Kursdaten ein finanzzeitreihenanalytisches Modell angepasst. Dieses wird zur Simulation von Finanzzeitreihen und damit zur Auswertung der Indikatoren verwendet werden. Durch geeignete Auswahlverfahren sollen verschiedene Handelsstrategien zu Strategien kombiniert werden, um ein besseres Ertrag/Risikoverhältnis zu erreichen als dies bei einzelnen Strategien der Fall wäre.
These lecture notes give a completely self-contained introduction to the control theory of linear time-invariant systems. No prior knowledge is requried apart from linear algebra and some basic familiarity with ordinary differential equations. Thus, the course is suited for students of mathematics in their second or third year, and for theoretically inclined engineering students. Because of its appealing simplicity and elegance, the behavioral approch has been adopted to a large extend. A short list of recommended text books on the subject has been added, as a suggestion for further reading.
It is difficult for robots to handle a vibrating deformable object. Even for human beings it is a high-risk operation to, for example, insert a vibrating linear object into a small hole. However, fast manipulation using a robot arm is not just a dream; it may be achieved if some important features of the vibration are detected online. In this paper, we present an approach for fast manipulation using a force/torque sensor mounted on the robot's wrist. Template matching method is employed to recognize the vibrational phase of the deformable objects. Therefore, a fast manipulation can be performed with a high success rate, even if there is acute vibration. Experiments inserting a deformable object into a hole are conducted to test the presented method. Results demonstrate that the presented sensor-based online fast manipulation is feasible.
A Topology Primer
(2002)
Zur nähtechnischen Konfektion von textilen Verstärkungsstrukturen für Faser-Kunststoff-Verbunde
(2002)
The further exploitation of Liquid-Composite-Moulding Technologies (LCM) for the
manufacture of Fiber-Reinforced-Plastics (FRP) relies on an eligible preforming
process. Preforming of fibrous reinforcements aspires the manufacture of dry
skeletons of the fiber assembly with the desired fiber orientation based on a predefined
fiber type. The LCM processing must be maintained by the preforming
technique. However, FRP part properties - given from fiber orientations - should not be
affected.
Sewing technologies, in all their varieties, can be applied as very flexible preforming
methods. Analogies between making-up dry reinforcement structures and the classical
field of sewing, e.g. garment manufacture, led to a substantial progress in technologies
available for preforimg as well as to increased economical benefits through the
application of sew-preforming.
A comprehensive understanding of the application of sewing technologies for FRP –
from the treatment of a semi-finished product to the infusion of a stitched preform – is
the basis for the design of an all new process chain.
The present work classifies this new preforming method within the existing
technologies. Furthermore, critical sewing machine elements are evaluated regarding
FRP compatibility. Stitching parameters and their impact on the reinforcement quality
as well as the FRP processing (LCM) are discussed.
Focusing on the economic efficiency of the sewing preforming technology, the critical
number of parts for selecting the right preform technology is discussed. The new
process chain enables the selection of the critical vertical range of preform
manufacture.
The large variety of preform design parameters, e. g. stitch density, needle thread
tension, seam type, sub-preform-structures etc., requires a “Preform-Engineering”,
covering an interface between preform manufacturing and FRP-part design. This
parallel engineering of part-, preform- and process-design leads to a global reflection
of the LCM technology. Thus, FRP part quality can be raised.
Utilization of Correlation Matrices in Adaptive Array Processors for Time-Slotted CDMA Uplinks
(2002)
It is well known that the performance of mobile radio systems can be significantly enhanced by the application of adaptive antennas which consist of multi-element antenna arrays plus signal processing circuitry. In the thesis the utilization of such antennas as receive antennas in the uplink of mobile radio air interfaces of the type TD-CDMA is studied. Especially, the incorporation of covariance matrices of the received interference signals into the signal processing algorithms is investigated with a view to improve the system performance as compared to state of the art adaptive antenna technology. These covariance matrices implicitly contain information on the directions of incidence of the interference signals, and this information may be exploited to reduce the effective interference power when processing the signals received by the array elements. As a basis for the investigations, first directional models of the mobile radio channels and of the interference impinging at the receiver are developed, which can be implemented on the computer at low cost. These channel models cover both outdoor and indoor environments. They are partly based on measured channel impulse responses and, therefore, allow a description of the mobile radio channels which comes sufficiently close to reality. Concerning the interference models, two cases are considered. In the one case, the interference signals arriving from different directions are correlated, and in the other case these signals are uncorrelated. After a visualization of the potential of adaptive receive antennas, data detection and channel estimation schemes for the TD-CDMA uplink are presented, which rely on such antennas under the consideration of interference covariance matrices. Of special interest is the detection scheme MSJD (Multi Step Joint Detection), which is a novel iterative approach to multi-user detection. Concerning channel estimation, the incorporation of the knowledge of the interference covariance matrix and of the correlation matrix of the channel impulse responses is enabled by an MMSE (Minimum Mean Square Error) based channel estimator. The presented signal processing concepts using covariance matrices for channel estimation and data detection are merged in order to form entire receiver structures. Important tasks to be fulfilled in such receivers are the estimation of the interference covariance matrices and the reconstruction of the received desired signals. These reconstructions are required when applying MSJD in data detection. The considered receiver structures are implemented on the computer in order to enable system simulations. The obtained simulation results show that the developed schemes are very promising in cases, where the impinging interference is highly directional, whereas in cases with the interference directions being more homogeneously distributed over the azimuth the consideration of the interference covariance matrices is of only limited benefit. The thesis can serve as a basis for practical system implementations.
Interactive graphics has been limited to simple direct illumination that commonly results in an artificial appearance. A more realistic appearance by simulating global illumination effects has been too costly to compute at interactive rates. In this paper we describe a new Monte Carlo-based global illumination algorithm. It achieves performance of up to 10 frames per second while arbitrary changes to the scene may be applied interactively. The performance is obtained through the effective use of a fast, distributed ray-tracing engine as well as a new interleaved sampling technique for parallel Monte Carlo simulation. A new filtering step in combination with correlated sampling avoids the disturbing noise artifacts common to Monte Carlo methods.
Die Geschichte zeigt, dass der städtische öffentliche Raum schon immer ein Ort gewesen ist, der von vielseitigen Interaktionen lebt und von ihnen geformt wird. Besonders die Bildung von Öffentlichkeit und Urbanität entsteht durch ein Zusammenkommen von verschiedensten Austauchprozessen. Seit Aufkommen der digitalen Medien ist jedoch die Art der menschlichen Interaktion deutlich erweitert und komplexer geworden, sodass sie Befürchtungen auslösten, der reale öffentliche Raum verliere als Interaktionsort an Bedeutung. Unabhängigkeit von Ort und Zeit, entlokalisierte und individualisierte Zeitstrukturen zerfasern den Rhythmus der Stadt. Jene droht ungemütlicher und gefährlicher zu werden. Das Netz wurde zum neuen ‚öffentlicheren’ Raum im Sinne einer aktiven kritischen bürgerlichen Öffentlichkeit erhoben.
Mit der Mobilisierung der digitalen Technologien wird es jedoch möglich, zurück in den öffentlichen Raum zu gehen und sich die neuen Medien als kommunikationsfördernd, identitäts- und gemeinschaftsproduzierend zu Hilfe zu nehmen, um ein neues integrierendes und identitätsstiftendes Interaktionsfeld für eine demokratische Gesellschaft zu kreieren - im besonderen als Gegenentwicklung zur weiteren Kommerzialisierung und Reizüberfrachtung des öffentlichen Raums. Die interaktive Kunst mit ihrer Lebensnähe, den kommunikativen Ansätzen und dem reflektierenden Umgang mit den modernen Machttechnologien ist dementsprechend besonders prädestiniert, mit dem städtischen öffentlichen Raum verknüpft zu werden.
Ziel der Arbeit ist es nun, aus dem Feld der Interaktiven Kunst neue Ansätze für eine Wiederbelebung der Öffentlichkeitsfunktion des Stadtraumes aufzuzeigen, so zum Beispiel Katalysatoren für eine direkte Mensch-Mensch-Interaktion oder eine neue Art von Involvie- rung in die Gestaltung des öffentlichen Raumes. In seiner neuen Interaktivität kann der Raum selbst zu einer Art Austauschmedium werden.
Aus den theoretischen Überlegungen, den Fragebögen und der Analyse gesammelter interaktiver Projekte, die bewusst in den öffentlichen Raum gehen, haben sich schließlich folgende fünf Kategorien herauskristallisiert. Sie bilden Ansatzpunkte für einen Schritt in Richtung Realisierung eines zeitgemäßen Interaktionsfeldes.
• Interaktionsförderung zur angstfreien Konfrontation und zum Kontakt mit Fremden
• Förderung der Öffentlichkeitsbildung durch Kritik, Diskussion und Reflektion der Gesellschaft
• Förderung der sozialen Interaktion und Verortung in der lokalen Nachbarschaft
• Wahrnehmung der gesellschaftlichen Entwicklung durch Technologie reflektierende, sinnliche Systemerfahrung
• Aktivierung zur bewussten Teilnahme an der Gestaltung des öffentlichen Raums
Die Homepage, die sich aus der CD-Rom zur Diplomarbeit entwickelt hat, stellt diese interaktiven Medienprojekte vor. Sie verdeutlicht anhand der Analyse und Kategorisierung der Projekte, wie nun die Neuen Medien alternativ genutzt werden können, um zur Reaktivierung und positiven Veränderung des Stadtraumes beizutragen.
In einer offenen Liste können weitere Projekte eintragen werden. Mit der Zeit kann sich so ein umfangreiches Archiv entwickeln, mit Beispielen, die zu neuen Ansätzen im Umgang der Stadtplanung mit dem öffentlichen Raum anregen.
www.interactionfield.de
Sowohl 4 alpha- als auch 4 beta-Cyclobamipin imitieren die Konformationsisomere des unverstrebten Bamipins, die durch Umklappen des Sechsrings und durch N-Inversion möglich sind. Bamipin ist ein H1-Antihistaminikum, das im Handel als Lactat oder Hydrochlorid unter dem Namen Soventol® Anwendung findet. Protonierung von 4 alpha- und 4 beta-Cyclobamipin führt zu den entsprechenden Salzen. Die Konformation der Salze wird NMR-spektroskopisch bestimmt. H1-antihistaminische Wirksamkeitstests ergeben eine 14 mal höhere Wirksamkeit für das 4 alpha-Isomere im Vergleich zu Bamipin. 4 beta-Cyclobamipin besitzt dagegen nur 40% Wirkpotential.
Microsystem technology has been a fast evolving field over the last few years. Its ability to handle volumes in the sub-microliter range makes it very interesting for potential application in fields such as biology, medicine and pharmaceutical research. However, the use of micro-fabricated devices for the analysis of liquid biological samples still has to prove its applicability for many particular demands of basic research. This is particularly true for samples consisting of complex protein mixtures. The presented study therefore aimed at evaluating if a commonly used glass-coating technique from the field of micro-fluidic technology can be used to fabricate an analysis system for molecular biology. It was ultimately motivated by the demand to develop a technique that allows the analysis of biological samples at the single-cell level. Gene expression at the transcription level is initiated and regulated by DNA-binding proteins. To fully understand these regulatory processes, it is necessary to monitor the interaction of specific transcription factors with other elements - proteins as well as DNA sites - in living cells. One well-established method to perform such analysis is the Chromatin Immunoprecipitation (CHIP) assay. To map protein-DNA interactions, living cells are treated with formaldehyde in vivo to cross-link DNA-binding proteins to their resident sites. The chromatin is then broken into small fragments, and specific antibodies against the protein of interest are used to immunopurify the chromatin fragments to which those factors are bound. After purification, the associated DNA can be detected and analyzed using Polymerase Chain Reaction (PCR). Current CHIP technology is limited as it needs a relatively large number of cells while there is increasing interest in monitoring DNA-protein interactions in very few, if not single cells. Most notably this is the case in research on early organism development (embryogenesis). To investigate if microsystem technology can be used to analyze DNA-protein complexes from samples containing chromatin from only few cells, a new setup for fluid transport in glass capillaries of 75 µm inner diameter has been developed, forming an array of micro-columns for parallel affinity chromatography. The inner capillary walls were antibody-coated using a silane-based protocol. The remaining surface was made chemically inert by saturating free binding sites with suitable biomolecules. Variations of this protocol have been tested. Furthermore, the sensitivity of the PCR method to detect immunoprecipitated protein-DNA complexes was improved, resulting in the reliable detection of about 100 DNA fragments from chromatin. The aim of the study was to successively decrease the amount of analyzed chromatin in order to investigate the lower limits of this technology in regard to sensitivity and specificity of detection. The Drosophila GAGA transcription factor was used as an established model system. The protein has already been analyzed in several large-scale CHIP experiments and antibodies of excellent specificity are available. The results of the study revealed that this approach is not easily applicable to "real-world" biological samples in regard to volume reduction and specificity. Particularly, material that non-specifically adsorbed to capillary surfaces outweighed the specific antibody-antigen interaction, the system was designed for. It became clear that complex biological structures, such as chromatin-protein compositions, are not as easily accessible by techniques based on chemically modified glass surfaces as pre-purified samples. In the case of the investigated system, it became evident that there is a need for more research that goes beyond the scope of this work. It is necessary to develop novel coatings and materials to prevent non-specific adsorption. In addition to improving existing techniques, fundamentally new concepts, such as microstructures in biocompatible polymers or liquid transport on hydrophobic stripes on planar substrates to minimize surface contact, may also help to advance the miniaturization of biological experiments.
In this paper we consider the location of stops along the edges of an already existing public transportation network. This can be the introduction of bus stops along some given bus routes, or of railway stations along the tracks in a railway network. The positive effect of new stops is given by the better access of the potential customers to their closest station, while the increasement of travel time caused by the additional stopping activities of the trains leads to a negative effect. The goal is to cover all given demand points with a minimal amount of additional traveling time, where covering may be defined with respect to an arbitrary norm (or even a gauge). Unfortunately, this problem is NP-hard, even if only the Euclidean distance is used. In this paper, we give a reduction to a finite candidate set leading to a discrete set covering problem. Moreover, we identify network structures in which the coefficient matrix of the resulting set covering problem is totally unimodular, and use this result to derive efficient solution approaches. Various extensions of the problem are also discussed.
This thesis builds a bridge between singularity theory and computer algebra. To an isolated hypersurface singularity one can associate a regular meromorphic connection, the Gauß-Manin connection, containing a lattice, the Brieskorn lattice. The leading terms of the Brieskorn lattice with respect to the weight and V-filtration of the Gauß-Manin connection define the spectral pairs. They correspond to the Hodge numbers of the mixed Hodge structure on the cohomology of the Milnor fibre and belong to the finest known invariants of isolated hypersurface singularities. The differential structure of the Brieskorn lattice can be described by two complex endomorphisms A0 and A1 containing even more information than the spectral pairs. In this thesis, an algorithmic approach to the Brieskorn lattice in the Gauß-Manin connection is presented. It leads to algorithms to compute the complex monodromy, the spectral pairs, and the differential structure of the Brieskorn lattice. These algorithms are implemented in the computer algebra system Singular.
Matrix Compression Methods for the Numerical Solution of Radiative Transfer in Scattering Media
(2002)
Radiative transfer in scattering media is usually described by the radiative transfer equation, an integro-differential equation which describes the propagation of the radiative intensity along a ray. The high dimensionality of the equation leads to a very large number of unknowns when discretizing the equation. This is the major difficulty in its numerical solution. In case of isotropic scattering and diffuse boundaries, the radiative transfer equation can be reformulated into a system of integral equations of the second kind, where the position is the only independent variable. By employing the so-called momentum equation, we derive an integral equation, which is also valid in case of linear anisotropic scattering. This equation is very similar to the equation for the isotropic case: no additional unknowns are introduced and the integral operators involved have very similar mapping properties. The discretization of an integral operator leads to a full matrix. Therefore, due to the large dimension of the matrix in practical applcation, it is not feasible to assemble and store the entire matrix. The so-called matrix compression methods circumvent the assembly of the matrix. Instead, the matrix-vector multiplications needed by iterative solvers are performed only approximately, thus, reducing, the computational complexity tremendously. The kernels of the integral equation describing the radiative transfer are very similar to the kernels of the integral equations occuring in the boundary element method. Therefore, with only slight modifications, the matrix compression methods, developed for the latter are readily applicable to the former. As apposed to the boundary element method, the integral kernels for radiative transfer in absorbing and scattering media involve an exponential decay term. We examine how this decay influences the efficiency of the matrix compression methods. Further, a comparison with the discrete ordinate method shows that discretizing the integral equation may lead to reductions in CPU time and to an improved accuracy especially in case of small absorption and scattering coefficients or if local sources are present.
Manipulating Deformable Linear Objects: Manipulation Skill for Active Damping of Oscillations
(2002)
While handling deformable linear objects (DLOs), such as hoses, wires or leaf springs, with an industrial robot at high speed, unintended and undesired oscillations that delay further operations may occur. This paper analyzes oscillations based on a simple model with one degree of freedom (DOF) and presents a method for active open-loop damping. Different ways to interpret an oscillating DLO as a system with 1 DOF lead to translational and rotational adjustment motions. Both were implemented as a manipulation skill with a sepa-rate program that can be executed immediately after any robot motion. We showed how these manipulation skills can generate the needed adjustment motions automatically based on the readings of a wrist-mounted force/torque sensor. Experiments demonstrated the effectiveness under various conditions.
Handhabung deformierbarer linearer Objekte: Programmierung mit verschiedenen Manipulation-Skills
(2002)
Diese Arbeit beschreibt verschiedene Bewegungsprimitive zur Lösung einiger häufig auftre-tender Probleme bei der Handhabung von deformierbaren linearen Objekten. Anhand der beispielhaften Montage einer Feder wird die Nützlichkeit der verschiedenen Manipulation-Skills im einzelnen, aber auch deren Kombination dargestellt.
In this work we present and estimate an explanatory model with a predefined system of explanatory equations, a so called lag dependent model. We present a locally optimal, on blocked neural network based lag estimator and theorems about consistensy. We define the change points in context of lag dependent model, and present a powerfull algorithm for change point detection in high dimensional high dynamical systems. We present a special kind of bootstrap for approximating the distribution of statistics of interest in dependent processes.
Styrene is most commonly used in Vinylester resins (VERs) and is the co-monomer
best described regarding VERs. However, there is little knowledge about the
influence of other co-monomers on properties of resins and castings. Because of
some unfavorable properties styrene provides in resins, e. g. the relatively low flash
point, public interest in the usage of styrene-free resins in chemically bonded anchors
has increased in the last couple of years.
To develop styrene-free VERs and to examine their qualifications when used in
chemically bonded anchors was one of the main purposes of this thesis. Properties
of several castings were examined and described and correlations between these
properties and those of co-monomers were investigated to find a pattern that would
allow facilitation for further examinations. One styrenated and seven styrene-free
resins were synthezised and compared to each other in several investigations.
Using these different co-monomers a great variety of fracture-mechanical and
mechanical properties of the castings can be achieved. Compared to the styrenecontaining
resin it is possible to get either higher, lower or equal strength, stiffness
and elongation. Castings containing HPMA and PEG200DMA proved to be of special
interest. VER/HPMA achieved highest results regarding modulus and strength.
Elongation was equal to that of the resin containing styrene. VER/PEG200DMA
showed the best results regarding elongation and had the lowest tensile modulus.
Tensile and flexural elongations were as high as those of the styrene reference
sytem.
Styrenefree systems showed a lower thermal resistance compared to the styrenated
resin and absorbed more water. There were significant differences in alkali
resistance as well. Only THFMA and PEG200DMA could deliver values similar to the
styrene system. The different amount of ester groups in the networks could not
explain these results but a correlation was found between residual strength and the
sum of hydroxy- and ester group concentrations.A method was deduced from these test results to allow assumptions on hydrophilicity
properties of castings by considering the molecular structure and the amount of comonomer
used.
Chemical bonding anchors containing the synthesised styrene-free resins were
produced. These showed high pull-out loads and little displacements under
permanent loading. Adhesive properties of the resins showed no direct correlation to
the bond strength of anchors. A tendency was found that resins with high stiffness
provide anchors with higher bond strength. Alkali resistance of the bonding material
was examined in slice tests. Even bonding materials containing resins that were
almost completely destroyed during a boiling test with NaOH showed good residual
strength here.
DSC-analysis of anchor grout samples collected from pulled out anchors showed low
glass transition temperature and locally inconsistent cure degrees. The possibility of
thermal postcure of anchor grouts after setting was examined to be able to better
compare the different systems when almost completely cured. Two methods were
considered: heating of the anchor rod using hot air and electromagnetic induction.
Based on a thermodynamical calculation model the heat loss proved to be high when
using hot air. Results of the induction method were promising, however. The degree
of cure and the glass transition temperature could be improved almost over the
complete embedment depth. A more homogenous network was achieved with a
reduced content of residuals and better chemical resistance.
Parkmanöver sind ein häufig auftretender Bestandteil des urbanen Verkehrsgeschehens. Über den Einfluss von Parkmanövern auf Verkehrsablauf und Verkehrssicherheit lagen bisher nur teilweise Kenntnisse von eher qualitativem Charakter vor. Ziel dieser Arbeit war es, in einem ersten (empirischen) Schritt die vorliegenden Kenntnisse zu ergänzen und zu quantifizieren und in einem zweiten Schritt ein Simulationsmodell zu entwickeln, mit dessen Hilfe sich Aussagen zu weitergehenden Fragestellungen unter variierenden Randbedingungen machen lassen. Im ersten Schritt wurden im Rahmen des Forschungsprojektes "Linksparken in städtischen Straßen" ca. 3.400 Parkmanöver in Längsrichtung dokumentiert und bzgl. ihres Einflusses auf Verkehrsablauf und Verkehrssicherheit analysiert. Dabei wurden insbesondere auch (illegale) Parkmanöver entgegen der Fahrtrichtung (Linksparken) betrachtet und mit dem heute vorgeschriebenen Rechtsparken verglichen. Die wichtigsten Ergebnisse des empirischen Teils waren: - Die Analyse der amtlichen Unfallstatistiken ergab, dass Parkmanöver generell einen eher geringen Einfluss auf die Verkehrssicherheit haben, zumal beim Ein- und Ausparken meistens Bagatellschäden verursacht werden. In einer zusätzlichen Befragung von 118 Polizeidienststellen speziell zum Linksparken stellte sich heraus, dass Linksparken im Unfallgeschehen derzeit keine nennenswerte Rolle spielt, dass aber die beim Ausparken eingeschränkte Sicht des Fahrers auf die Fahrbahn als Gefährdungspotenzial angesehen wird. - Bei den Erhebungen wurden acht Parkmanöver (0,2%) erfasst, durch die Konflikte verursacht wurden, Unfälle ereigneten sich nicht. Ein gehäuftes Auftreten von Konflikten bei bestimmten Parkmanövern oder bestimmten Abschnitten davon war (auch aufgrund der geringen Anzahl der Konflikte) nicht feststellbar. - In Straßen mit sehr geringem Verkehrsaufkommen wurde teilweise fast die Hälfte aller Parkmanöver entgegen der Fahrtrichtung durchgeführt. Dieser Anteil nimmt mit zunehmendem Verkehrsaufkommen ab, da Parkstände auf der linken Seite nicht mehr ohne Behinderung des Gegenverkehrs belegt und verlassen werden können. - Beim Ausparken von links befindet sich der Fahrer auf der der Fahrbahn abgewandten Seite. Insbesondere durch größere Fahrzeuge wie z.B. Lieferwagen kann dann die Sicht auf den fließenden Verkehr so weit eingeschränkt sein, dass das Fahrzeug relativ weit in die Fahrbahn einfahren muss, bevor der Fahrer das Verkehrsgeschehen überschauen kann. Dies wird vor allem auf Straßen mit Geschwindigkeiten von über 30 km/h als unvertretbares Sicherheitsrisiko angesehen. In solchen Straßen sollte daher auch im Falle einer Novellierung der StVO von einer Legalisierung des Linksparkens abgesehen werden. - Rechts rückwärts durchgeführte Parkmanöver verursachen am häufigsten Wartezeiten im fließenden Verkehr, wobei auch die Länge der verursachten Wartezeiten bei diesem Manöver am größten ist. Dies ist darauf zurückzuführen, dass nachfolgende Fahrzeuge häufig relativ dicht auf ein einparkendes Fahrzeug auffahren und so (1) dieses am einparken hindern und (b) das einparkende Fahrzeug selbst nicht überholen können, ohne vorher zurückzustoßen. Im Vergleich zu den Wartezeiten, wie sie durch Lichtsignalanlagen verursacht werden, sind die durch Parkmanöver verursachten Wartezeiten jedoch sehr gering. Im zweiten Schritt der Arbeit wurden die Ergebnisse der Empirie in das mikroskopische Simulationsmodell EPAVA (Einfluss von PArkmanövern auf den VerkehrsAblauf) implementiert. Da für das Auftreten von Unfällen oder Konflikten in der Empirie aufgrund deren Seltenheit keine Regeln abgeleitet werden konnten, werden diese nicht simuliert. Simuliert wird der Einfluss von Parkmanövern auf den Verkehrsablauf, wobei die Randbedingungen des simulierten Streckenabschnittes vom Benutzer interaktiv definiert werden können. Parameter zur Beurteilung des Verkehrsablaufs sind neben den Wartezeiten im fließenden Verkehr die Parkraumauslastung und die Entstehung von Parksuchverkehr. Damit stehen Informationen zu Parametern zur Verfügung, die empirisch nicht erhoben werden können. In der Anwendung von EPAVA wurden zwei unterschiedlich stark belastete Streckenabschnitte mit jeweils drei unterschiedlichen Werten für die Akzeptanz von Parkständen auf der linken Seite simuliert. Dabei führt das Simulationsprogramm zu folgenden Ergebnissen: - Mit zunehmender Akzeptanz des Linksparkens werden freie Parkstände schneller wieder belegt, da diese von Fahrzeugen aus beiden Fahrtrichtungen angefahren werden. Dadurch kann insbesondere in Gebieten mit hohem Parkdruck eine bessere Auslastung des Parkraums erreicht werden. - Mit der höheren Auslastung des Parkraums geht eine Reduzierung des Parksuchverkehrs einher. Diese ist jedoch nur sehr gering.
In the last decade, injection molding of long-fiber reinforced thermoplastics
(LFT) has been established as a low-cost, high volume technique for manufacturing
parts with complex shape without any post-treatment [1–3]. Applications
are mainly found in the automotive industry with a volume annually
growing by 10% to 15% [4].
While first applications were based on polyamide (PA6 and PA6.6), the market
share of glass fiber reinforced polypropylene (PP) is growing due to cost savings
and ease of processing. With the use of polypropylene, different processing
techniques such as gas-assisted injection molding [5] or injection compression
molding [6] have emerged in addition to injection molding [7, 8].
In order to overcome or justify higher materials costs when compared to short
fiber reinforced thermoplastics, the manufacturing techniques for LFT pellets
with fiber length greater than 10mm have evolved starting from pultrusion by
improving impregnation and throughput [9] or by direct addition of fiber strands
in the mold [10–12].
The benefit of long glass fiber reinforcement either in PP or PA is mainly due
to the enhanced resistance to fiber pull-out resulting in an increase in impact
properties and strength [13–19], even at low temperature levels [20]. Creep
and fatigue resistance are also substantially improved [21, 22].
The performance of fiber reinforced thermoplastics manufactured by injection
molding strongly depends on the flow-induced microstructure which is
driven by materials composition, processing conditions and part geometry.
The anisotropic microstructure is characterized by fiber fraction and dispersion,
fiber length and fiber orientation.
Facing the complexity of this processing technique, simulation becomes a precious
tool already in the concept phase for parts manufactured by injection
molding. Process simulation supports decisions with respect to choice of concepts
and materials. The part design is determined in terms of mold filling
including location of gates, vents and weld lines. Tool design requires the
determination of melt feeding, logistics and mold heating. Subsequently, performance
including prediction of shrinkage and warpage as well as structural
analysis is evaluated [23].
While simulation based on two-dimensional representation of three-dimensional
part geometry has been extensively used during the last two decades, the
complexity of the parts as well as the trend towards solid modelling in CAD
and CAE demands the step towards three-dimensional process simulation. The scope of this work is the prediction of flow-induced microstructure during
injection molding of long glass fiber reinforced polypropylene using threedimensional
process simulation. Modelling of the injection molding process in
three dimensions is supported experimentally by rheological characterization
in both shear and extensional flow and by two- and three-dimensional evaluation
of microstructure.
In chapter 2 the fundamentals of rheometry and rheology are presented with
respect to long fiber reinforced thermoplastics. The influence of parameters
on microstructure is described and approaches for modelling the state of microstructure
and its dynamics are discussed.
Chapter 3 introduces a rheometric technique allowing for rheological characterization
of polymer melts at processing conditions as encountered during
manufacturing. Using this rheometer, both shear and extensional viscosity of
long glass fiber reinforced polypropylene are measured with respect to composition
of materials, processing conditions and geometry of the cavity.
Chapter 4 contains the evaluation of microstructure of long glass fiber reinforced
polypropylene in terms of two-dimensional fiber orientation and its dependence
on materials parameters and processing condition. For the evaluation
of three-dimensional microstructure, a technique based on x-ray tomography
is introduced.
In chapter 5, modelling of microstructural dynamics is addressed. One-way
coupling of interactions between fluid and fibers is described macroscopically.
The flow behavior of fibers in the vicinity of cavity walls is evaluated experimentally.
From these observations, a model for treatment of fiber-wall interaction
with respect to numerical simulation is proposed.
Chapter 6 presents the application of three-dimensional simulation of the injection
molding process. Mold filling simulation is performed using a commercial
code while prediction of 3D fiber orientation is based on a proprietary module.
The rheological and thermal properties derived in chapter 3 are tested by
simulation of the experiments and comparison of predicted pressure and temperature
profile versus recorded results. The performance of fiber orientation
prediction is verified using analytical solutions of test examples from literature.
The capability of three-dimensional simulation is demonstrated based on the
simulation of mold filling and prediction of fiber orientation for an automotive
part.
Stahlbeton-Kühlturmschalen unterliegen während ihrer Nutzungsdauer einer Vielzahl von Beanspruchungen, die im Tragwerk ein mit der Zeit zunehmendes Rissbild verursachen können. Hiermit verbundenen ist eine Veränderung der Steifigkeitsverteilung, die bei diesen hochgradig statisch unbestimmten Schalentragwerken das Tragverhalten bestimmt. Mit der vorgestellten nichtlinearen Vorgehensweise, die mögliche Ent- und Wiederbelastungen in Kombination mit Zwangbeanspruchungen und ungleichmäßiger Befeuchtung der Schalenoberfläche erfasst, gelingt es, die beobachteten Alterungserscheinungen bei Kühlturmschalen numerisch zu simulieren. Hieraus lassen sich Modelle ableiten, die es erlauben, das Tragverhalten in den Nachweisen für die Grenzzustände der Gebrauchstauglichkeit und der Tragfähigkeit auch während der Nutzungsdauer des Bauwerkes zu berücksichtigen. Die vorgestellte Vorgehensweise ist auch auf andere Tragwerke aus Stahlbeton anwendbar.
thesis deals with the investigation of the dynamics of optically excited (hot) electrons in thin and ultra-thin layers. The main interests concern about the time behaviour of the dissipation of energy and momentum of the excited electrons. The relevant relaxation times occur in the femtosecond time region. The two-photon photoemission is known to be an adequate tool in order to analyse such dynamical processes in real-time. This work expands the knowledge in the fields of electron relaxation in ultra-thin silver layers on different substrates, as well as in adsorbate states in a bandgap of a semiconductor. It contributes facts to the comprehension of spin transport through an interface between a metal and a semiconductor. The primary goal was to prove the predicted theory by reducing the observed crystal in at least one direction. One expects a change of the electron relaxation behaviour while altering the crystal’s shape from a 3d bulk to a 2d (ultra-thin) layer. This is due to the fact that below a determined layer thickness, the electron gas transfers to a two-dimensional one. This behaviour could be proven in this work. In an about 3nm thin silver layer on graphite, the hot electrons show a jump to longer relaxation time all over the whole accessible energy range. It is the first time that the temporal evolution of the relaxation of excited electrons could be observed during the transition from a 3d to a 2d system. In order to reduce or even eliminate the influence coming from the substrate, the system of silver on the semiconductor GaAs, which has a bandgap of 1.5eV at the Gamma-point, was investigated. The observations of the relaxation behaviour of hot electron in different ultra-thin silver layers on this semiconductor could show, that at metal-insulator-junctions, plasmons in the silver and in the interface, as well as cascading electrons from higher lying energies, have a huge influence to the dissipation of momentum and energy. This comes mainly from the band bending of the semiconductor, and from the electrons, which are excited in GaAs. The limitation of the silver layer on GaAs in one direction led to the expected generation of quantum well states (QWS) in the bandgap. Those adsorbate states have quantised energy- and momentum values, which are directly connected to the layer thickness and the standing electron wave therein. With the experiments of this work, published values could not only be completed and proved, but it could also be determined the time evolution of such a QWS. It came out that this QWS might only be filled by electrons, which are moving from the lower edge of the conduction band of the semiconductor to the silver and suffer cascading steps there. By means of the system silver on GaAs, and of the known fact that an excitation of electrons in GaAs with circularly polarised light of the energy 1.5eV does produce spin polarised electrons in the conduction band, it became possible to bring a contribution to the hot topic of spin injection. The main target of spin injection is the transfer of spin polarised electrons out of a ferromagnet into a semiconductor, in order to develop spin dependent switches and memories. It could be demonstrated here that spin polarised electrons from GaAs can move through the interface into silver, could be photoemitted from there and their spin was still being detectable. As a third investigation system, ultra-thin silver layers were deposited on the insulator MgO, which has a bandgap of 7.8eV. Also in this system, one could recognize a change in the relaxation time while reducing the dimension of the silver layer from thick to ultra-thin. Additionally, it came out an extreme large relaxation time at a layer thickness of 0.6 – 1.2nm. This time is an order of magnitude longer than at thick films, and this is a consequence of two factors: first, the reduction of the phase space due to the confined electron gas in the z-direction, and second, the slowlier thermalisation of the electron gas due to less accessible scattering partners.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz insbesondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der lateralen Schädelbasis an. In jüngsten Arbeiten wurden Prozessparameter zur Anlage eines Implantatlagers bspw. für ein Cochlea Implantat oder für eine roboterunterstützte Mastoidektomie ermittelt. Gemessen wurden die Parameter Kraft, Moment, Vibration und Temperatur bei unterschiedlichen Vorschüben, Drehzahlen, Bahnkurven und unterschiedlichem Knochenmaterial (Mastoid, Kalotte). Hieraus ergaben sich Optimierungsparameter für solche Fräsvorgänge. Auffallend waren unvermittelt auftretende und extrem weit über dem Grenzwert liegende Spitzenwerte für Kräfte, bei im Normbereich liegenden Mittelwerten. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine Kraft-geregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6-achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.Durch intraoperative online Rückkopplung der Kraft - Sensorik war eine lokale Navigation möglich. Bei steigenden Kräften über den Grenzwert wurde die Vorschubgeschwindigkeit automatisch reguliert, auch konnte das Errreichen der Dura an Hand der Werte detektiert werden. Das Implantatlager ließ sich durch das entwickelte Computerprogramm exakt ausfräsen. Die Untersuchungen ergaben, dass eine zufriedenstellende Anlage eines Implantatbettes in der Kalotte durch einen Kraft-geregelten Fräsvorgang mit einem Roboter, im Sinne einer lokalen Navigation, gelingt.
Das relativ kostengünstige Hot-Wire-CVD-Verfahren (HWCVD) ist für die großflächige Abscheidung von Dünnschichtsolarzellen auf der Basis des amorphen Siliziums (a-Si:H) eine viel versprechende Alternative zu anderen Abscheideverfahren, da - bei apparativ relativ einfachem Aufbau - ähnliche oder sogar bessere Materialeigenschaften sowie höhere Abscheideraten erreichbar sind. Allerdings wurde erst mit dieser Arbeit gezeigt, dass HWCVD zur Herstellung von a-Si:H-Solarzellen hochskaliert und zur Beschichtung großer Flächen angewendet werden kann. Dafür wurde eine Anlage speziell für die großflächige Abscheidung (30 cm x 30 cm) konzipiert und weltweit erstmals der Einfluss der Gaszuführungs- und Filamentgeometrie auf die Uniformität und Materialqualität des a-Si:H systematisch untersucht- sowohl experimentell als auch gestützt durch theoretische Berechnungen. Abschließend wurde der Prozess mit einer Monte-Carlo-Simulationsmethode simuliert und die Simulationsergebnisse an Hand der experimentellen Ergebnisse interpretiert.
Two approaches for determining the Euler-Poincaré characteristic of a set observed on lattice points are considered in the context of image analysis { the integral geometric and the polyhedral approach. Information about the set is assumed to be available on lattice points only. In order to retain properties of the Euler number and to provide a good approximation of the true Euler number of the original set in the Euclidean space, the appropriate choice of adjacency in the lattice for the set and its background is crucial. Adjacencies are defined using tessellations of the whole space into polyhedrons. In R 3 , two new 14 adjacencies are introduced additionally to the well known 6 and 26 adjacencies. For the Euler number of a set and its complement, a consistency relation holds. Each of the pairs of adjacencies (14:1; 14:1), (14:2; 14:2), (6; 26), and (26; 6) is shown to be a pair of complementary adjacencies with respect to this relation. That is, the approximations of the Euler numbers are consistent if the set and its background (complement) are equipped with this pair of adjacencies. Furthermore, sufficient conditions for the correctness of the approximations of the Euler number are given. The analysis of selected microstructures and a simulation study illustrate how the estimated Euler number depends on the chosen adjacency. It also shows that there is not a uniquely best pair of adjacencies with respect to the estimation of the Euler number of a set in Euclidean space.
In this paper we study linear ill-posed problems Ax = y in a Hilbert space setting where instead of exact data y noisy data y^delta are given satisfying |y - y^delta| <= delta with known noise level delta. Regularized approximations are obtained by a general regularization scheme where the regularization parameter is chosen from Morozov's discrepancy principle. Assuming the unknown solution belongs to some general source set M we prove that the regularized approximation provides order optimal error bounds on the set M. Our results cover the special case of finitely smoothing operators A and extends recent results for infinitely smoothing operators.
In dieser Arbeit wurden Modelle entwickelt, an denen die noch weitgehend unbekannten zellulären Funktionen der epidermalen Lipoxygenasen (LOXn) untersucht werden können: 1. Mit Hilfe von GFP-LOX-Fusionsproteinen wurde die Bedeutung der katalytischen Aktivität und der Extradomäne, die bei den beiden Isoenzymen 12R-LOX und eLOX-3 vorkommt, für die intrazelluläre Verteilung der Enzyme nachgewiesen. 2. Die Herstellung LOX-überexprimierender Keratinozyten war möglicherweise wegen des Abschaltens des Promotors oder der Negativselektion LOX-exprimierender Zellen über eine Transfektion mit herkömmlichen Expressionsplasmiden nicht möglich. Für die virale Transduktion von Tetrazyklin-regulierbaren Expressionssystemen wurden die nötigen Vorarbeiten geleistet. 3. Es wurde der Knockout des 12R-LOX-Gens unter Verwendung des Cre/loxP-Systems bis zur Geburt chimärer Mäuse durchgeführt. 4. Bei der Charakterisierung von transgenen e12S-LOX-überexprimierenden Mäusen wurde eine gegenseitige Beeinflussung epidermaler 12S-LOXn in Bezug auf die mRNAExpression nachgewiesen. Die Wechselwirkungen führten dazu, daß bei Tieren mit starker l12S-LOX und schwacher e12S-LOX-Expression die Empfindlichkeit gegenüber chemischer Karzinogenese (Inititations-Promotions-Modell) herabgesetzt war. Dieses korrelierte mit einer massiven Akkumulation des Linolsäure-Derivats 13-HODE, dem eine antikarzinogene Wirkung zugeschrieben wird. Eine erhöhte Tumorbildung ging mit der Überexpression von p12S-LOX oder e12S-LOX einher. Dies wiederum korrelierte mit einer Akkumulation des Arachidonsäure-Derivats 12-HETE, für das eine prokarzinogene Wirkung postuliert wird. 5. Mit Hilfe des Comet-Assays konnte für primäre Keratinozyten eine gentoxische Wirkung von HPETEn und HETEn gezeigt werden.
Der direkte Einstieg in die Phosphorchemie ist durch Reaktion einer Rohlösung von [Cp=Ru(CO)2H] (1) (Cp= = C5H3(SiMe3)2) mit P4 möglich. Dabei erhält man den Komplex [Cp=Ru(CO)2PH2] (6a) mit freier Phosphanidogruppe, der selbst nicht isoliert, dessen Existenz jedoch spektroskopisch und durch Folgereaktionen eindeutig belegt werden kann. Das freie Elektronenpaar des Phosphors kann sowohl durch [M(CO)5(thf)] (M = Cr, Mo, W) (7,8,9) als auch durch [Cp*Re(CO)2(thf)] (14) nach Verlust von deren thf-Liganden komplexiert werden. Das bei der Reaktion mit 14 als Nebenprodukt entstandene [{Cp*(OC)2Re}2(µ-CO)] (17) konnte erstmals röntgenstrukturanalytisch untersucht werden. Die Cothermolyse von [{Cp=Ru(CO)2}2] (4) mit P4 liefert [Cp=Ru(Eta5-P5)] (18) und [{Cp=Ru}2(µ-Eta;2:2-P2)2] (19), die beide röntgenstrukturanalytisch charakterisiert werden konnten. 18 erweist sich als erstes Pentaphosphametallocen, das eine annähernd ideal ekliptische Konformation aufweist. Im Zweikernkomplex 19 konnte ein Komplex der 8. Gruppe mit zwei separaten P2-Brückenliganden eindeutig belegt werden. Die Cothermolyse von 4 mit [Cp*Fe(Eta5-P5)] liefert neben 18 und 19 die Homo- und Heterotrimetallcluster [{Cp=Ru}n{Cp*Fe}3-nP5] (n = 1, 2, 3) mit verzerrt dreiecksdodekaedrischen Gerüststrukturen. Die Röntgenstrukturanalysen von [{Cp=Ru}3P5] (24), [{Cp=Ru}2{Cp*Fe}P5] (25) und [{Cp*Fe}2{Cp=Ru}P5] (26) zeigen, daß die Metallfragmente {Cp*Fe} und {Cp=Ru} nahezu ohne Auswirkungen auf die Gerüststruktur ausgetauscht werden können. Der Vergleich zu den Cp-Derivaten zeigt die annähernde Identität der Verbindungen. Bei 26 bleibt die Stellung des Cp=-Liganden am Ruthenium nach Einbau eines Eisenfragmentes erhalten, während in [{Cp*Fe}2{CpRu}P5] (26a) ein Wechsel in der Stellung des Cp-Liganden stattfindet. Die Photolyse von [Cp=Ru(CO)2H] (1) in THF ergibt die spektroskopisch identifizierten Verbindungen [{Cp=Ru(CO)}2(µ-H)2] (28), [{Cp=Ru(CO)}2{Cp=Ru(CO)H}] (29) und [{Cp=Ru}4(µ3-CO)4] (30). Das in geringen Mengen anfallende 28 konnte als dimere Struktur mit zwei verbrückenden Wasserstoffatomen identifiziert werden. Für Komplex 29 wurde eine Struktur als triangularer Metalldreiring postuliert, der den Verbindungen 33 und 34 sehr ähnlich ist. Bei 29 handelt es sich um einen 46 VE-Komplex mit einer Ru-Ru-Doppelbindung im Dreiring. Verbindung 30 mit tetraedrischem Ru4-Gerüst kann in hoher Ausbeute dargestellt werden. 30 ist luft- und wasserstabil und überaus reaktionsträge. Führt man die Photolyse von 1 in Hexan als nichtkoordinierendem Lösungsmittel durch, so erhält man neben 28 und 29 die Komplexe [{Cp=Ru(µ-CO)}2{Cp=Ru(CO)H}] (33), [{{{Cp=Ru}2(µ-CO)}{Cp=RuH}}(µ3-CO)2] (34) sowie die unbekannte Verbindung 35. Die Röntgenstrukturanalysen von 33 und 34 zeigen zwei mit 46 VE elektronendefiziente, triangulare Ru3-Cluster mit einer M-M-Doppelbindung im Ring, welche beide der Vorgabe der Magischen Zahlen entsprechen. 33 reagiert bereitwillig mit P4 und ergibt [{Cp=Ru}(µ-Eta4:1:1-P4){Ru(CO)Cp=}] (40). Die RSA von 40 zeigt, daß Ru1 um 25,3° aus der Ebene der vier Phosphoratome P1-P4 abgewinkelt und kein planares Tetraphospharuthenol verwirklicht ist. Die Aufsicht auf die P4Ru-Ebene läßt jedoch deutlich das Bestreben erkennen, die Konstitution einer pentagonalen Pyramide auszubilden.
Inhalt dieser Arbeit ist der diastereoselektive Zugang zu den orthogonal Amingeschützten 6+ - und 6^2-6-Amino-3-azabicyclo[3.1.0]hexanen 1 und 2 (R, X=H). Diese können als Baustein für pharmazeutische Präparate wie dem Gyrasehemmer Trovafloxacin eingesetzt werden, oder in pharmakologischen Studien zur Imitation konformativ rigider 4-Amino-piperidine, einer ebenfalls häufig in Arzneimitteln auftretenden Struktureinheit, dienen. Die als Ausgangsverbindung benötigten Aminonitrile 1 und 2 (R=CN) werden aus cyclischen Chlorenaminen 3 durch 3,5-Ringschlußreaktion mit Alkalicyanid erhalten. Als Schutzgruppen fungieren ein Allyl- oder Benzylrest als PG1, sowie ein Ethoxycarbonyl-, ein Benzyl- oder Methylrest als PG2. Die erhaltenen Nitrile werden mit einer Lösung von Natrium in flüssigem Ammoniak bei 70°C reduktiv decyaniert. Beide Konfigurationsisomere reagieren bei diesen Bedingungen unter Retention der Konfiguration. Setzt man die 6beta-Aminonitrile in einer Lösung von Lithium in flüssigem Ethylamin bei erhöhter Temperatur (0°C) um, invertieren diese in die thermodynamisch stabilere 6alpha-Amin-Konfiguration.
Die Untersuchung der Löslichkeit basischer und saurer Gase in wässrigen Lösungen ist seit mehreren Jahren ein Schwerpunkt von Forschungsarbeiten am Lehrstuhl für Technische Thermodynamik der Universität Kaiserslautern. In Weiterführung dieser Arbeiten beschäftigt sich die vorliegende Arbeit einerseits mit Untersuchungen zur Löslichkeit von Kohlendioxid in wässrigen Lösungen von Kaliumchlorid und Kaliumhydroxid und andererseits sowohl mit der Löslichkeit von Schwefeldioxid bzw. Schwefeldioxid und Ammoniak in wässrigen Lösungen als auch mit kalorischen Effekten (Wärmetönungen), die beim Verdünnen solcher Lösungen auftreten. Ziel der Arbeiten war es, die bisher vorliegenden experimentellen Untersuchungen zu ergänzen und die zur Beschreibung der Thermodynamik solcher Systeme in früheren Arbeiten entwickelten Modelle weiter zu verbessern. Dazu wurden umfangreiche experimentelle Arbeiten sowohl zum Phasengleichgewicht als auch zur Enthalpie- änderung beim Verdünnen durchgeführt. Die neuen Ergebnisse wurden zunächst mit Vorhersagen des Modells verglichen und schließlich dazu benutzt, das Modell - insbesondere durch Neuanpassung/Erweiterung der Parameter - zu verbessern. Dies gelang für die kohlendioxidhaltigen Systeme mit einer - aufgrund der Erfahrun- gen aus früheren Arbeiten - erwarteten Qualität. Untersuchungen mit schwefeldioxidhaltigen Systemen wurden bisher nur in vergleichsweise geringem Umfang durchgeführt. Im experimentellen Teil der vor- liegenden Arbeit wurde deshalb einerseits die simultane Löslichkeit von Schwefel- dioxid und Ammoniak in wässrigen Lösungen der einzelnen Salze Natriumsulfat und Ammoniumsulfat und andererseits die Wärmetönung beim Verdünnen wässriger Lösungen von Schwefeldioxid mit reinem Wasser, wässriger Lösungen von Schwefeldioxid und Natriumsulfat bzw. Ammoniumsulfat mit der jeweiligen Salzlösung, wässriger Lösungen von Schwefeldioxid und Ammoniak mit reinem Wasser und wässriger Lösungen von Schwefeldioxid, Ammoniak und Natriumsulfat bzw. Ammoniumsulfat mit den jeweiligen Salzlösungen experimentell bestimmt. Die Untersuchungen zur Gaslöslichkeit erfolgten bei Temperaturen zwischen 40 °C und 130 °C und Drücken bis max. 10 MPa, die kalorimetrischen Untersuchungen bei 40 °C und 80 °C und Drücken bis ca 1 MPa. Die Salzkonzentration lag üblicherweise bei 1.0 mol/kg bis 4 mol/kg Wasser, die Konzentration von Schwefeldioxid bzw. Ammoniak im Bereich bis ca. 6 mol/kg Wasser. Ausgangspunkt der Modellerweiterung war ein auf der Basis experimenteller Untersuchungen einerseits zur Löslichkeit von Schwefeldioxid in reinem Wasser sowie in wässrigen Lösungen der einzelnen Salze Natriumsulfat bzw. Ammonium- sulfat und andererseits von Schwefeldioxid und Ammoniak in reinem Wasser in früheren Arbeiten erstelltes Modell, bei dem die Eigenschaften der flüssigen Phase mit einem ursprünglich von Pitzer vorgeschlagenen Ansatz beschrieben werden. Diese Modellierung berücksichtigt auch chemische Reaktionen wie die Bildung von Bisulfit und Sulfit aus Schwefeldioxid und die von Ammoniumionen aus Ammoniak. Beim Vergleich von Rechenwerten mit den experimentellen Ergebnissen zeigten sich, vor allem bei der Wärmetönung, teilweise beträchtliche Abweichungen. Bei der Überarbeitung des Modells wurden nur Modellparameter, die physikalische Wechsel- wirkungen beschreiben, neu bestimmt. Für diese Überarbeitung wurden keine experimentellen Ergebnisse für die "Vierkomponenten-Systeme" - also Ammoniak, Schwefeldioxid, Wasser mit Sulfatsalz - verwendet. Diese Ergebnisse wurden zum Test der überarbeiteten Modellierung herangezogen. Bei diesen theoretischen Arbeiten bestätigte sich die aus früheren Arbeiten bekannte Erfahrung, dass die zur Parameterbeschreibung verwendeten experimentellen Ergebnisse nahezu im Rahmen der experimentellen Genauigkeit korreliert werden können. Die Vorhersagen des so parametrierten Modells für die gleichzeitige Löslichkeit von Schwefeldioxid und Ammoniak in den sulfathaltigen, wässrigen Lösungen stimmen jedoch nur befriedigend - und damit schlechter als erwartet - mit den experimentellen Ergeb- nissen überein. Noch deutlich größere Abweichungen ergaben sich beim Vergleich von Messwerten und Modellvorhersagen für die Wärmetönung beim Verdünnen. Versuche, diese Abweichungen z. B. durch Neuanpassung der Wechselwirkungs- parameter oder Berücksichtigung weiterer Wechselwirkungsparameter deutlich zu verringern, waren nicht erfolgreich. Es wird deshalb vermutet, dass in den schwefeldioxidhaltigen, wässrigen Lösungen nicht nur die Bildung von Bisulfit und Sulfit, sondern auch diejenige weiterer Spezies (z. B. die in der Literatur kontrovers diskutierte Bildung von Pyrosulfit) berücksichtigt werden muss. Dies soll in weiter- führenden Arbeiten auch mit Einsatz weiterer Messmethoden, z. B. der IR-Spektroskopie, untersucht werden.
Zur Entwicklung und Planung energiesparender Gebäude, zum Entwurf geeigneter Regelungsalgorithmen benötigt man detailliertes Wissen über das thermische und energetische Verhalten eines Gebäudes, das in Wechselwirkung mit seiner Umgebung und seinen Bewohnern steht. Dies leistet ein mathematisches Modell. Die Beschreibung großer, komplexer technischer Systeme führt zu hoch komplexen, umfangreichen mathematischen Modellen, die - zur Simulation implementiert - große Softwaresysteme ergeben. Es liegt daher nahe, Konzepte der Informatik auch in der mathematischen Modellbildung zu nutzen. Neben der Dekomposition in Teilsysteme, den Strukturierungskonzepten zur Beherrschung der Komplexität ist hier ein aktueller Forschungsgegenstand der Informatik von besonderem Interesse. Es handelt sich um die Nutzung der Wiederverwendung als methodisches Element des Softwareentwicklungsprozesses großer Systeme. Es wurde eine Modellbibliothek zur Simulation thermischen Gebäudeverhaltens in Modelica erstellt. Sie untergliedert sich in die Abschnitte Gebäude-, Thermohydraulik-, Umgebungs- und Algorithmenbibliothek. Die objektorientiert implementierten, nicht berechnungskausalen Modellkomponenten sind hierarchisch strukturiert. Ihre Implementierung orientiert sich am intuitiven physikalischen Verständnis des zu beschreibenden technischen Prozesses. So aggregiert ein Gebäude einzelne Räume, Fenster, Wände und diese wiederum einzelne Wandschichten.
Based on the framework of continuum mechanics two different concepts to formulate phenomenological anisotropic inelasticity are developed in a thermodynamically consistent manner. On the one hand, special emphasis is placed on the incorporation of structural tensors while on the other hand, fictitious configurations are introduced. Substantial parts of this work deal with the numerical treatment of the presented theory within the finite element method.
Diese Arbeit stellt die erste exakte quantenchemische Behandlung eines chemischen Elementarprozesses dar, der durch eine Vielzahl elektronischer Potentialflächen und nichtadiabatischer Kopplungsgebiete geprägt ist.Motiviert durch die historische Bedeutung der Reaktion zur Entwicklung elementarer Reaktionsmechanismen (M. und J.Polanyi, Herschbach) sowie die experimentellen Arbeiten von Bergmann, dem es Mitte der 90er Jahre gelang, gezielt innere Schwingungsanregungen im Targetmolekül zu stimulieren (STIRAP), wurde die Dynamik der Radikalreaktion Na2(v,J) + Cl -> NaCl(v',J') + Na* quantenchemisch untersucht. Untersuchungsparameter waren in erster Linie die Schwingungs- und Rotationsabhängigkeit des Targetmoleküls sowie die Stoßenergieabhängigkeit im Bereich von 0.2-0.5eV. Auf der Basis von sehr genauen gekoppelten ab initio-MRCI-Potentialflächen - insgesamt wurden im Ein- und Ausgangskanal 32 diabatische Potential- und Koppelelementflächen berechnet und analytisch dargestellt - wurde ein nichtadiabatisches Surface-Hopping-Programm entwickelt, wobei die semiklassischen Trajektorien u.a. nach dem Fewest-Switches-Algorithmus von Tully propagiert wurden. Die Ergebnisse geben ein detailliertes Bild dieser Multikreuzungsreaktion wider: Die Schwingungsenergieabhängigkeit zeigte in Übereinstimmung mit dem Experiment eine kontinuierliche Zunahme des chemolumineszenten Reaktionsquerschnittes mit der Anregung des Targetmoleküls (v(Na2)=0-28). Die Stoßenergieabhängigkeit zeigt mit zunehmenden v(Na2) eine Inversion: Zunahme des chemolumineszenten Querschnittes mit zunehmender Stoßenergie bei v=0, Abnahme bei v>0. Die große freiwerdende Exothermizität (abzüglich der Na-Anregungsenergie) wird zu ca. 75% in innere Energie des Produktmoleküls überführt, wobei zusätzliche Energie durch Schwingungs- bzw. Stoßenergieanregung aufgrund des wachsenden Stoßparameterbereichs zu über 50% in Rotationsenergie des NaCl umgesetzt wird. Der differentielle Reaktionsquerschnitt zeigt bei einer Stoßenergie von 0.3eV eine deutliche Bevorzugung der Vorwärstsstreuung in Bezug auf die Richtung des stoßenden Cl-Atoms. Die statistische Phasenraumtheorie gibt zwar die Schwingungsabhängigkeit gut wider, allerdings nur unter der falschen - wie die Trajektorienrechnungen zeigen - Vorraussetzung, dass der strahlungslose Kanal (Na im Grundzustand) gemäß seines statistischen Gewichtes zur Reaktion beiträgt. Die Bedeutung der einzelnen Zustände im Eingangskanal wurde detailliert untersucht und es konnte ferner gezeigt werden, dass auch der Quenchprozess zwischen Grund- und erstem angeregten Zustand im Ausgangskanal von großer Bedeutung für das Chemolumineszenzverhalten ist. Abschließend wurde gezeigt, dass die Reaktion von heissem NaCl' (hohe innere Anregung des Targets) mit Na unter Bildung von Na* mit relativ geringem Querschnitt verläuft. Der von M.Polanyi in seinen legendären Flammenexperimentenursprünglich propagierte indirekte Reaktionsmechanismus - Na2+Cl -> NaCl'+Na; NaCl'+Na-> NaCl+Na* - erweist sich gegenüber dem obigen direkten Mechanismus somit als relativ ineffektiv.
Different aspects of geomagnetic field modelling from satellite data are examined in the framework of modern multiscale approximation. The thesis is mostly concerned with wavelet techniques, i.e. multiscale methods based on certain classes of kernel functions which are able to realize a multiscale analysis of the funtion (data) space under consideration. It is thus possible to break up complicated functions like the geomagnetic field, electric current densities or geopotentials into different pieces and study these pieces separately. Based on a general approach to scalar and vectorial multiscale methods, topics include multiscale denoising, crustal field approximation and downward continuation, wavelet-parametrizations of the magnetic field in Mie-representation as well as multiscale-methods for the analysis of time-dependent spherical vector fields. For each subject the necessary theoretical framework is established and numerical applications examine and illustrate the practical aspects.
Contributions to the application of adaptive antennas and CDMA code pooling in the TD CDMA downlink
(2002)
TD (Time Division)-CDMA is one of the partial standards adopted by 3GPP (3rd Generation Partnership Project) for 3rd Generation (3G) mobile radio systems. An important issue when designing 3G mobile radio systems is the efficient use of the available frequency spectrum, that is the achievement of a spectrum efficiency as high as possible. It is well known that the spectrum efficiency can be enhanced by utilizing multi-element antennas instead of single-element antennas at the base station (BS). Concerning the uplink of TD- CDMA, the benefits achievable by multi-element BS antennas have been quantitatively studied to a satisfactory extent. However, corresponding studies for the downlink are still missing. This thesis has the goal to make contributions to fill this lack of information. For near-to-reality directional mobile radio scenarios TD-CDMA downlink utilizing multi-element antennas at the BS are investigated both on the system level and on the link level. The system level investigations show how the carrier-to-interference ratio can be improved by applying such antennas. As the result of the link level investigations, which rely on the detection scheme Joint Detection (JD), the improvement of the bit er- ror rate by utilizing multi-element antennas at the BS can be quantified. Concerning the link level of TD-CDMA, a number of improvements are proposed which allow considerable performance enhancement of TD-CDMA downlink in connection with multi-element BS antennas. These improvements include * the concept of partial joint detection (PJD), in which at each mobile station (MS) only a subset of the arriving CDMA signals including those being of interest to this MS are jointly detected, * a blind channel estimation algorithm, * CDMA code pooling, that is assigning more than one CDMA code to certain con- nections in order to offer these users higher data rates, * maximizing the Shannon transmission capacity by an interleaving concept termed CDMA code interleaving and by advantageously selecting the assignment of CDMA codes to mobile radio channels, * specific power control schemes, which tackle the problem of different transmission qualities of the CDMA codes. As a comprehensive illustration of the advantages achievable by multi-element BS anten- nas in the TD-CDMA downlink, quantitative results concerning the spectrum efficiency for different numbers of antenna elements at the BS conclude the thesis.
The development of recombinant DNA techniques opened a new era for protein production both in scientific research and industrial application. However, the purification of recombinant proteins is very often quite difficult and inefficient. Therefore, we tried to employ novel techniques for the expression and purification of three pharmacologically interesting proteins: the plant toxin gelonin; a fusion protein of gelonin and the extracellular domain of the subunit of the acetylcholine receptor (gelonin-AchR) and human neurotrophin 3 (hNT3). Recombinant gelonin, acetylcholine receptor a subunit and their fusion product, gelonin-AchR were constructed and expressed. The gelonin gene, a 753 bp polynucleotide was chemically synthesized by Ya-Wei Shi et al. and was kindly provided to us. The gene was first inserted into the vector pUC118 yielding pUC-gel. It was subsequently transferred into pET28a and pET-gel was expressed in E. coli. The product, gelonin was soluble and was purified in two steps showing a homogeneous band corresponding to 28 kD on SDS-PAGE. The expression of the extracellular domain of the -subunit of AchR always led to insoluble aggregates and even upon coexpression with the chaperonin GroESL, very small and hardly reproducible amounts of soluble material were formed, only. Therefore, recombinant AchR- gelonin was cloned and expressed in the same host. The corresponding fusion protein, gelonin-AchR, again formed aggregates and it had to be solubilized in 6 M Gu-HCl for further purification and refolding. The final product, however, was recognized by several monoclonal antibodies directed against the extracellular domain of the -subunit of AchR as well as a polyclonal serum against gelonin. Expression and purification of recombinant hNT3 was achieved by the use of a protein self-splicing system. Based on the reported hNT3 DNA sequence, a 380 bp fragment corresponding to a 14 kD protein was amplified from genomal DNA of human whole blood by PCR. The DNA fragment was cloned into the pTXB1 vector, which contains a DNA fragment of intein and chintin binding domain (CBD). A further construct, pJLA-hNT3, is temperature-inducible. Both constructs expressed the target protein, hNT3-intein-CBD in E. coli by the induction with IPTG or temperature, however, as aggregates. After denaturation and renaturation, the soluble fusion protein was slowly loaded on an affinity column of chitin beads. A 14 kD hNT3 could be isolated after cleavage with DTT either at 4 °C or 25 °C for 48 h. Based on nerve fiber out-growth of the dorsal root ganglia of chicken embryos, both, hNT-3-intein-CBD and hNT3 itself exhibit almost the same biological activity.
Strict order relations are defined as strict asymmetric and transitive binary relations. For classes of so-called levelled strict orders it is analyzed, under which conditions the endomorphism monoids of two relations coincide; in particular the case of direct sums of strict antichains is studied. Further, it is shown that these orders differ in their sets of binary order preserving functions.
In vielen Ländern werden derzeit Simulationsmodelle miteinander gekoppelt, die zum einen Prozesse auf der Oberfläche und im Entwässerungssystem und zum anderen Prozesse in der Kläranlage nachbilden. Den Anlass hierfür stellte die Erkenntnis dar, dass eine getrennte Betrachtung und Optimierung der beiden Teile eines Abwassersystems nicht zwangsläufig zu aus Gewässersicht besten Lösungen führt. Da die Zusammenhänge sehr komplex sind, können Auswirkungen von Systemveränderungen, seien sie baulicher oder verfahrenstechnischer Art, nur mit Modellen im Vorfeld eingeschätzt werden. Die gemeinsame Simulation von Entwässerungssystem und Kläranlage wird mit dem Begriff "integrierte Modellierung" beschrieben. Da der Einsatz der integrierten Modellierung in den Anfängen steckt, gibt es eine Vielzahl an offenen Fragen und Defiziten. Stichworte sind hier insbesondere die erforderliche Detailliertheit der Modellansätze sowie die zu betrachtenden Stoffparameter und die damit einhergehenden Unsicherheiten bei den Simulationsergebnissen. Diese unbefriedigende Situation gab Anlass zu einer Zusammenstellung und Bewertung der Unsicherheiten, die bei der integrierten Modellierung bestehen. Im Vordergrund stand die Beurteilung unterschiedlicher Modellansätze und -parameter. Die Unsicherheiten wurden zunächst hinsichtlich der maßgebenden Größen Entlastungsverhalten und Kläranlagenablauf getrennt bewertet. Es zeigte sich, dass große Defizite hinsichtlich der Beurteilung der Auswirkungen von Modellansätzen und -parametern über die "Systemgrenze" hinweg bestehen. Unter System wird hier einerseits das Entwässerungssystem und andererseits die Kläranlage verstanden. Ausgewählte Unsicherheiten, wie z.B. die Auswirkungen unterschiedlicher Modellansätze und -parameter zur Simulation der stofflichen Prozesse auf der Oberfläche und im Kanal, wurden detailliert untersucht und beschrieben, was zu einem besseren Prozessverständnis beiträgt. Es wurde grundsätzlich nachgewiesen, dass eine Kopplung der verwendeten Modellansätze aus den Bereichen Entwässerungssystem und Kläranlage weitgehend zu nachvollziehbaren Ganglinien an allen maßgebenden Stellen im Abwassersystem führt. Es zeigten sich jedoch auch Schwächen bei der derzeitig häufig gewählten Vorgehensweise. Die Simulation des chemischen Sauerstoffbedarfs als ein Parameter im Entwässerungssystem und die konstante Fraktionierung an der Übergabestelle zum Kläranlagenmodell, welches verschiedene CSB-Fraktionen als Eingangsgrößen benötigt, führte zu teilweise unplausiblen Ganglinien im Kläranlagenablauf. Es wurden zwei Lösungsansätze untersucht und festgestellt, dass die getrennte Simulation von partikulärem und gelöstem CSB entscheidende Vorteile insbesondere bei stark ablagerungsbehafteten Kanalnetzen aufweist. Die Arbeit verdeutlicht, welche Modellansätze und -parameter gewässerökologisch relevante Emissionen und die Kläranlagenablaufkonzentrationen maßgebend beeinflussen. In Abhängigkeit von der Zielsetzung müssen bei zukünftigen Simulationsstudien bisher häufig vereinfacht modellierte Prozesse, wie z.B. die Verdrängung gelöster Stoffe im Entwässerungssystem, detaillierter nachgebildet werden. Verschiedene Modellansätze auf der Oberfläche (2-Komponenten-Methode/ Akkumulation-Abtrag) sowie verschiedene Modellparameter bei der Anwendung der Akkumulations-/Abtragsmethode führten zu extrem unterschiedlichen Ergebnissen bezüglich der stündlichen CSB-Entlastungswerte. Andere Prozesse dagegen können in bestimmten Anwendungsfällen vernachlässigt werden. So ist die detaillierte Nachbildung des Absetzverhaltens in den Regenbecken lediglich bei der Beurteilung langfristiger Wirkungen von Relevanz. Bezogen auf die maximalen CSB-Konzentrationen im Kläranlagenablauf erwiesen sich verschiedene Modellansätze im Entwässerungssystem und unterschiedliche Fraktionierungsansätze an der Schnittstelle als wenig sensitiv. Als wichtigste Einflussgröße stellte sich das Nachklärbeckenmodell heraus. Mit der Anwendung des Modells in einem kleinen Einzugsgebiet wurden die Probleme in einem konkreten Anwendungsfall deutlich. Eine Nachbildung der Zu- und Ablaufganglinien der Kläranlage war während Trockenwetterphasen möglich. Die Schwankungen der Stickstoffkonzentrationen im Ablauf der Belebung und im Ablauf der Nachklärung, die sich aufgrund der Betriebsweise der intermittierenden Belüftung ergeben, konnten zufrieden-stellend modelliert werden. Während Regenwetterphasen traten dagegen diverse Abweichungen der Simulations- gegenüber den Messergebnissen auf. Eine aufwändigere Beprobung während Regenwetter ist erforderlich. Die exemplarische Anwendung des Modells wie auch die Erkenntnisse aus den Sensitivitätsanalysen zeigten, dass die integrierte Modellierung von Entwässerungssystem und Kläranlage bei diversen Aufgabenstellungen ein sinnvolles Werkzeug ist. Vor dessen Einsatz sollten jedoch die jeweils maßgebenden Gewässerbelastungen identifiziert werden.
One crucial assumption of continuous financial mathematics is that the portfolio can be rebalanced continuously and that there are no transaction costs. In reality, this of course does not work. On the one hand, continuous rebalancing is impossible, on the other hand, each transaction causes costs which have to be subtracted from the wealth. Therefore, we focus on trading strategies which are based on discrete rebalancing - in random or equidistant times - and where transaction costs are considered. These strategies are considered for various utility functions and are compared with the optimal ones of continuous trading.
Die traditionelle anonyme Architektur der Tropen hat weltweit über lange Zeiträume hinweg intelligente Bauformen, Baukonstruktionen und Raumfolgen entwickelt für das Wohnen, die Arbeit, die Kultur und die Religion ihrer agrarisch geprägten Gesellschaftsformen unter harten klimatischen Bedingungen. Für die Dritte Welt in den Tropen führte die Begegnung mit der europäischen Zivilisation durch die Kolonisation im 19. Jahrhundert zu einem Zusammenbruch ihrer traditionellen Kulturformen. In den vergangenen 100 Jahren, vor allem seit der Unabhängigkeit der jungen Staaten, wurden grosse bauliche Investitionen geleistet, die jedoch selten unter Beachtung der besonderen Bedingungen des tropischen Klimas erfolgten. Die grosse Masse des Gebauten zeigt heute die stereotypen architektonischen Gestaltungsansätze des europäischen gemässigten Klimas mit nachteiligen Konsequenzen für die ökologische und hygienische Konzeption des Gebäudes. Von derzeit 6 Milliarden Menschen (im Jahre 2000) leben 5 Milliarden in der Dritten Welt. Die Bevölkerungsexplosion in diesen jungen Staaten wird in Zukunft grosse Bauaufgaben für den Wohnungsbau, Verwaltung, Kultur und Soziales erfordern, die mit den überholten europäischen Schematismen nicht mehr zu bewältigen sein werden. Vor diesem Hintergrund könnte ein Rückgriff auf die alten baulichen Erfahrungen der traditionellen anonymen Architektur der Tropen wesentliche und vorbildhafte Hilfestellung bieten für die Entwicklung einer neuen klimagerechten und menschenwürdigen Architektur. Die vorliegende Dissertation konzentriert sich auf die Herausarbeitung der Prinzipien des klimagerechten Bauens in den Tropen. Ihre Ergebnisse gründen auf der Forschung, welche die Fachhochschule Konstanz unter meiner Leitung in den vergangenen 15 Jahren im tropischen Klimaraum Afrikas durchgeführt hat.
Der kausale Zusammenhang zwischen der Dominanz von Mikroflechten gegen über Makroflechten in Tieflandregenwäldern war nicht bekannt und wird in vorliegender Studie erörtert. In der Literatur wird eine unvorteilhafte Kombination von hohen Temperaturen, niedrigen Lichtintensitäten und hoher Feuchtigkeit für die weitgehende Abwesenheit von Makroflechten in tropischen Tieflandregenwäldern verantwortlich gemacht. Aufgrund der hohen Abundanz in diesen Habitaten, kann diese Aussage für krustige Flechten nur bedingt zutreffen. Es wurden eine Reihe von Arbeitshypothesen entwickelt, die klären sollten, ob corticole Grünalgenflechten bestimmte funktionelle Lebensstrategie aufweisen, in welcher Weise das Mikroklima ihren Stoffwechselprozess beeinflusst, und warum sie im tropischen Tiefland-Regenwald dominieren. Die Fragenstellungen wurden unter Verwendung von ökophysiologischen Methoden in vivo und in situ in einem für die Flechten mikroklimatisch unvorteilhafte, tropischen immergrünen Tieflandregenwald im National Park Les Nouragues (Französisch-Guyana) untersucht. Aufgrund des intensiven Kontakts mit ihrem Substrat werden corticole Flechten stark von den mikroklimatischen Bedingungen des Phorophyten beeinflusst. Sie zeigen morphologisch-anatomische Anpassungen, die einen physiologisch vorteilhaften Zustand zwischen Wasserübersättigung und Austrocknung ermöglichen. Ihre Photosynthese ist an niedrige Lichtintensitäten angepasst und nutzt unterschiedliche Lichtqualitäten aufgrund physiologischer Strategien verschieden aus. Weitere Ergebnisse zeigten dass Krustenflechten neben funktionellen morphologisch-anatomischen und physiologischen Strategien, auch durch ein hohes Oberflächen zu Volumen Verhältnis, durch ein hohes Biomassenverhältnis des Photobionten zum Mycobionten und wahrscheinlich durch die Fähigkeit, saprophytisch Kohlenstoff zu gewinnen, befähigt sind, mikroklimatisch unvorteilhafte Habitate, wie die eines tropischen Tieflandregenwaldes, zu besiedeln
If an investor borrows money he generally has to pay higher interest rates than he would have received, if he had put his funds on a savings account. The classical model of continuous time portfolio optimisation ignores this effect. Since there is obviously a connection between the default probability and the total percentage of wealth, which the investor is in debt, we study portfolio optimisation with a control dependent interest rate. Assuming a logarithmic and a power utility function, respectively, we prove explicit formulae of the optimal control.
We consider some portfolio optimisation problems where either the investor has a desire for an a priori specified consumption stream or/and follows a deterministic pay in scheme while also trying to maximize expected utility from final wealth. We derive explicit closed form solutions for continuous and discrete monetary streams. The mathematical method used is classical stochastic control theory.
Elementare Finanzmathematik
(2002)
Im Rahmen dieser Arbeit soll eine elementar gehaltene Einführung in die Aufgabenstellungen und Prinzipien der modernen Finanzmathematik gegeben werden. Insbesondere werden die Grundlagen der Modellierung von Aktienkursen, der Bewertung von Optionen und der Portfolio-Optimierung vorgestellt. Natürlich können die verwendeten Methoden und die entwickelte Theorie nicht in voller Allgemeinheit für den Schuluntericht verwendet werden, doch sollen einzelne Prinzipien so heraus gearbeitet werden, dass sie auch an einfachen Beispielen verstanden werden können.
Image synthesis often requires the Monte Carlo estimation of integrals. Based on a generalized concept of stratification we present an efficient sampling scheme that consistently outperforms previous techniques. This is achieved by assembling sampling patterns that are stratified in the sense of jittered sampling and N-rooks sampling at the same time. The faster convergence and improved anti-aliasing are demonstrated by numerical experiments.
We present an algorithm for determining quadrature rules for computing the direct illumination of predominantly diffuse objects by high dynamic range images. The new method precisely reproduces fine shadow detail, is much more efficient as compared to Monte Carlo integration, and does not require any manual intervention.
A spectral theory for stationary random closed sets is developed and provided with a sound mathematical basis. Definition and proof of existence of the Bartlett spectrum of a stationary random closed set as well as the proof of a Wiener-Khintchine theorem for the power spectrum are used to two ends: First, well known second order characteristics like the covariance can be estimated faster than usual via frequency space. Second, the Bartlett spectrum and the power spectrum can be used as second order characteristics in frequency space. Examples show, that in some cases information about the random closed set is easier to obtain from these characteristics in frequency space than from their real world counterparts.
Im ersten Teil der Arbeit wurde die Cytotoxizität von drei Testsubstanzen (Digitonin, SDS und TritonX-100) mit Hilfe von vier verschiedenen Assays (NR, CV, LDH und WST) in der Rattenhepatozyten Primärkultur untersucht. Die Ergebnisse zeigten, dass WST und LDH aufgrund ihrer geringen Streuung und hohen Sensitivität die am besten geeigneten Methoden sind, um Cytotoxizität zu messen. Anschließend wurden mit diesen Assays die IC50-Konzentrationen von 16 Entwicklungssubstanzen der Firma Knoll AG bestimmt, um die ermittelten Konzentration in den folgenden Induktionsversuchen zu verwenden. Anschließend wurde der Einfluss der 16 Knoll-Substanzen auf Cytochrom P450-Isoenzyme in der Rattenhepatozyten Primärkultur untersucht. Dabei zeigte sich, das von den 16 Substanzen lediglich drei eine schwache CYP 1A-Induktion, die über EROD und MROD bestimmt wurde, bewirkten. Im Gegensatz dazu bewirkten acht der Knoll-Substanzen eine starke Induktion, im Vergleich zum Modellinduktor PB, der durch CYP1A und 2B katalysierten BROD-Aktivität. Dieses PB-ähnliche Induktionsmuster zeigte sich auch im Testosteron-Assay. Als herausragender Induktor, vom PB-Typ zeigte sich dabei die Substanz LU 135252. Die Konjugationsreaktionen (Phase II) mit den verschiedenen Substraten CDNB für GST und MUF, HOBI und PNP für verschiedene UGTs wurden durch die Knoll-Substanzen wenig beeinflusst. Im abschließenden Teil wurde der Einfluss von vier Knoll-Substanzen auf drei peroxisomale Enzyme (ACOX, CAT und Katalase) und auf Cytochrom P450 4A untersucht. Die beiden Substanzen 201640 und 418585 erhöhten die Aktivitäten aller vier Enzyme (wenn auch schwächer als die Modellinduktoren CLO und CIPRO) und könnten sich damit als Peroxisomen Proliferatoren erweisen. Der Vergleich von in vivo-Daten aus Toxizitätsstudien mit den in vitro-Daten zeigte eine sehr gute Übereinstimmung bei der qualitativen Einteilung der Substanzen in Nicht-Induktoren und Induktoren, des PB- bzw. des Clofibrat-Typs.
Die vorliegende Arbeit befasst sich mit der wirkmechanistischen Untersuchung substituierter Pteridine im Hinblick auf die Beeinflussung zentraler Regulationswege der Proliferation, der Apoptose und des Zytoskeletts. Im Besonderen sollte die Interaktion mit dem mitogen-aktivierten Protein Kinase (MAPK)- bzw. dem Phosphatidylinositol 3-Kinase (PI3K)-Signalweg erforscht werden, nachdem bereits gezeigt werden konnte, dass die cAMP-erhöhende und Protein Kinase A (PKA)-aktivierende Eigenschaft der Pteridine nicht alleine für die wachstumshemmende Wirkung verantwortlich sein kann. Als zentrales Element der Proliferationskontrolle reguliert der MAPK-Signalweg die Phosphorylierung des Transkriptionsfaktors ELK1. Anhand eines Reportergen-Assays sollte die Beeinflussung der ELK1-Phosphorylierung durch in Position 6 substituierte Derivate der Stammverbindung E481 (7-Benzylamino-6-chloro-2-piperazino-4-pyrrolidino-pteridin) untersucht werden. Alle Substanzen sind hinsichtlich einer Hemmung der ELK1-Phosphorylierung weniger wirksam als die Leitsubstanz E481. Zusätzlich erfolgt nur bei E481 die Hemmung der ELK1-Phosphorylierung und die des Zellwachstums in einem vergleichbaren Konzentrationsbereich. Ferner sollte die Relevanz des PI3K-Signalweges für morphologische und wachstumsregulierende Wirkungen substituierter Pteridine bestimmt werden, nachdem für E481 bereits in der Vulvakarzinomzelllinie A431 eine Hemmung der PI3K und Zytoskelettveränderungen nachgewiesen werden konnte. Die Untersuchungen ergaben, dass die PI3K als genereller Vermittler der wachstumshemmenden Eigenschaft substituierter Pteridine ausgeschlossen werden kann. Auch die morphologischen Effekte durch E481 scheinen nicht PI3K-vermittelt zu sein. Ein wesentlicher Schwerpunkt der Arbeit beschäftigte sich mit der Frage, ob die Hemmung der PI3K in A431 Zellen durch E481 eine Rolle spielt für die Arretierung im Zellzyklus und die Apoptoseinduktion. Diese Wirkungen können über den PI3K-Effektor PKB an das nachgeschaltete Signalelement Glycogen Synthase Kinase 3beta (GSK3b) und über das proapoptotisch wirkende BAD vermittelt werden, die allerdings zusätzlich mit dem PKA-Signalweg interagieren. Für die GSK3beta kann trotz einer verminderten PKB-Phosphorylierung keine verminderte Phosphorylierung festgestellt werden, was möglicherweise durch die gleichzeitig aktivierte PKA verursacht wird, die ebenfalls die GSK3beta phosphorylieren kann. Die Untersuchungen der BAD-Phosphorylierung deuten ab einer 18-stündigen E481-Inkubation eine verminderte PKA-abhängige Phosphorylierung an und lassen zudem eine verminderte PKB-abhängige Phosphorylierung vermuten. Möglicherweise trägt dies zu der E481-vermittelten Apoptoseinduktion in A431 Zellen bei. Ferner zeichnet sich nach 24-stündiger Inkubation mit E481 konzentrationsabhängig eine verringerte Phosphorylierung des Tumorsuppressorproteins pRb (Retinoblastoma) ab, was vermutlich wesentlich zum G1-Arrest beiträgt. Fluoreszenzmikroskopische Untersuchungen der E481-vermittelten Paxillinlokalisation sollten mögliche Wechselwirkungen zwischen dem cAMP-Signalweg und den morphologischen Veränderungen aufdecken. Es zeigt sich, dass eine E481 bedingte Abrundung der Zellen mit einer Paxillinabwanderung von der Plasmamembran einhergeht. Dieser Prozess findet unter Beteiligung einer Phosphatase statt- und ist nicht PKA-, vielleicht aber cAMP-vermittelt. Die Untersuchungen haben gezeigt, dass der Wirkmechanismus substituierter Pteridine, insbesondere von E481, wesentlich komplexer ist als bislang vermutet. Zusätzlich zu der potenten Hemmung der Phosphodiesterase 4 greift E481 in eine Reihe zentraler Signalübertragungswege (MAPK-, PI3K/PKB-Signalweg) ein. Darüber hinaus interagiert E481 wirkungsvoll mit Signalelementen, welche die Integrität des Zytoskeletts gewährleisten. Hierbei scheinen PKA-unabhängige, möglicherweise aber cAMP-vermittelte Phosphataseinduktionen eine bedeutende Rolle zu spielen.
Monte Carlo & Beyond
(2002)
Many rendering problems can only be solved using Monte Carlo integration. The noise and variance inherent with the statistical method efficiently can be reduced by stratification. So far only uncorrelated stratification methods were used that in addition depend on the dimension of the integration domain. Based on rank-1-lattices we present a new stratification technique that removes this dependency on dimension, is much more efficient by correlation, is trivial to implement, and robust to use. The superiority of the new scheme is demonstrated for standard rendering algorithms.
The immiscible lattice BGK method for solving the two-phase incompressible Navier-Stokes equations is analysed in great detail. Equivalent moment analysis and local differential geometry are applied to examine how interface motion is determined and how surface tension effects can be included such that consistency to the two-phase incompressible Navier-Stokes equations can be expected. The results obtained from theoretical analysis are verified by numerical experiments. Since the intrinsic interface tracking scheme of immiscible lattice BGK is found to produce unsatisfactory results in two-dimensional simulations several approaches to improving it are discussed but all of them turn out to yield no substantial improvement. Furthermore, the intrinsic interface tracking scheme of immiscible lattice BGK is found to be closely connected to the well-known conservative volume tracking method. This result suggests to couple the conservative volume tracking method for determining interface motion with the Navier-Stokes solver of immiscible lattice BGK. Applied to simple flow fields, this coupled method yields much better results than plain immiscible lattice BGK.
Reinigungsleistung von zentralen Anlagen zur Behandlung von Abflüssen stark befahrener Straßen
(2002)
Abflüsse von stark befahrenen Straßen sind mit Schwermetallen, PAK und MKW belastet. Bei zentraler Einleitung in ein empfindliches Gewässer ist nach dem ATV-DVWK Merkblatt 153 eine Behandlung mit Sedimentationsbecken (RiStWag-Abscheidern) bzw. Retentionsbodenfiltern erforderlich. Die Reinigungsleistung dieser Anlagentypen wird an halbtechnischen Bodenfiltern (Lysimetern) und an großtechnischen Sedimentationsbecken untersucht. Dabei wird auch ein hydraulisch schwach belastetes Regenrückhaltebecken mit Dauerstau untersucht, das als übliche Behandlungsmaßnahme an Straßen anzusehen ist. Bei den halbtechnischen Bodenfiltern wird eine deutliche Reinigungsleistung gegenüber partikulären und gelösten Schwermetallen festgestellt, wobei für adsorptionsschwache Substrate der Rückhalt an gelösten Schwermetallen deutlich geringer ist. Für Chlorid bzw. Phosphat wird keine bzw. nur eine geringfügige Reinigungsleistung erzielt. Die PAK werden durch die Filtration gut zurückgehalten. Ein vollständiger Rückhalt gegenüber AFS erfolgt nicht. Hier kommt es zu einem partikulären Transport durch den Filter bzw. zu einem Austrag aus dem Filteraufbau. Bei den Sedimentationsbecken werden beim RiStWag-Abscheider geringe Wirkungsgrade festgestellt. Bei AFS führen die Ereignisse mit der höchsten Oberflächenbeschickung zu einem hohen Frachtaustrag und somit zu einem geringen Gesamtwirkungsgrad. Das Regenrückhaltebecken mit Dauerstau weist überwiegend eine hohe Reinigungsleistung auf. Ursache sind die langen Aufenthaltszeiten, die von der Abfolge der Niederschlagsereignisse abhängig sind. Die im Vergleich zu den Retentionsbodenfilteranlagen praktisch gleich gute Bewertung der RiStWag-Abscheider als Behandlungsmaßnahme für Straßenabflüsse nach dem ATV-DVWK Merkblatt 153 kann mit dieser Untersuchung nicht bestätigt werden. Hier sollte eine Anpassung des Merkblattes erfolgen. Ebenfalls sollten Sedimentationsanlagen mit geringer hydraulischer Belastung als Behandlungsanlage mit aufgenommen werden. Die Datenbasis zur Reinigungsleistung von Behandlungsanlagen sollte durch weitere Untersuchungen vergrößert werden. Hier besteht Forschungsbedarf.
In this paper we consider short term storage systems. We analyze presorting strategies to improve the effiency of these storage systems. The presorting task is called Batch PreSorting Problem (BPSP). The BPSP is a variation of an assigment problem, i.e., it has an assigment problem kernel and some additional constraints. We present different types of these presorting problems, introduce mathematical programming formulations and prove the NP-completeness for one type of the BPSP. Experiments are carried out in order to compare the different model formulations and to investigate the behavior of these models.
Virtual Robot Programming for Deformable Linear Objects: System concept and Prototype Implementation
(2002)
In this paper we present a method and system for robot programming using virtual reality techniques. The proposed method allows intuitive teaching of a manipulation task with haptic feedback in a graphical simulation system. Based on earlier work, our system allows even an operator who lacks specialized knowledge of robotics to automatically generate a robust sensor-based robot program that is ready to execute on different robots, merely by demonstrating the task in virtual reality.
Untersuchungen zur Struktur und Funktion der lecithinabhängigen (R)-3-Hydroxybutyrat Dehydrogenase
(2002)
-Erste Differenzierung zwischen zwei Molekülmodellen. Welches dieser beiden Modelle beschreibt die strukturellen Besonderheiten der BDH besser? Dies wurde mit Hilfe von ESR und Fluoreszenz durchgeführt. Abstandsbestimmungen wurden mittels ESR-Simulationen durchgeführt. -Vergleich von BDH aus menschlichem Herz und Rinderherz. -Untersuchnugen zur C-terminalen Domäne.
Wesentliches Ziel der vorliegenden Arbeit war die Untersuchung der Umwandlung des Akarizids Dicofol zu Dichlorbenzophenon (DCBP). Literaturhinweise führten zu dem begründeten Verdacht, dass keine metabolische Transformation, sondern ein UV-Licht- bzw. alkali-induzierter Zerfall der Substanz stattfindet. Diese Hypothese wurde durch Inkubation von aktiven und inaktivierten Lebermikrosomen mit Dicofol bestätigt. Sowohl in Gegenwart aktiver und inaktivierter Mikrosomen, als auch in Ansätzen ohne Mikrosomen wurden nahezu vergleichbare Mengen an gebildetem DCBP beobachtet. Eine Erhöhung der Inkubationstemperatur führte anschliessend zu einer Verstärkung der DCBP-Bildung. Die in dieser Arbeit bestimmte Aktivierungsenergie der Degradation von Dicofol zu DCBP in Gegenwart aktiver Mikrosomen stimmt mit der Aktivierungsenergie derselben Reaktion in wässriger Umgebung überein. Der Abbau von Dicofol zu DCBP ist wahrscheinlich auch im Organismus ein nicht-enzymatisch katalysierter Prozess. Im Anschluss wurde die UV-Licht-induzierte Reaktion von Dicofol zu DCBP untersucht. Es wurde festgestellt, dass mit steigender Strahlungsdosis eine Verstärkung der DCBP-Bildung einhergeht, die in unpolaren Lösungsmitteln deutlich ausgeprägter ist als in polaren Lösungsmitteln. Es ist daher davon auszugehen, dass auch auf der wachsartigen, lipophilen Oberfläche von Zitrusfrüchten eine Umsetzung von Dicofol zu DCBP stattfindet. Die Abbaubarkeit von Dicofol in wässrigen Medien wurde durch Inkubation von Dicofol in methanolischen Lösungen unterschiedlichen Hydroxidionenkonzentrationen untersucht. Die Umsatzrate der Degradation stieg dabei mit zunehmender Hydroxidionenkonzentration und zunehmender Inkubationsdauer an. Die alkali-induzierte Reaktion wird wahrscheinlich durch Deprotonierung von Dicofol eingeleitet. Im Anschluss werden in der Literatur als mögliche Reaktionsmechanismen entweder eine Eliminierung von Chloroform unter DCBP-Bildung oder die Bildung eines 2,2-Dichlor-3,3-bis-(p-chlorphenyl)-oxirans diskutiert, aus dem DCBP und Dichlorcarben entstehen. In orientierenden Versuchen wurde Chloroform durch Headspace-GC annähernd äquimolar zur eingesetzten Dicofolmenge nachgewiesen, was auf ersteren Reaktionsmechanismus hindeutet. Bei der Untersuchung von Dicofol, DCBP und DCBH auf androgene bzw. antiandrogene Aktivität im Hefe-AR-Testsystem wurde nur DCBP eindeutig als antiandrogen aktiv erkannt. Die eingesetzten Hefezellen reagierten mit Anzeichen erheblicher Toxizität auf hohe Dicofol- bzw. DCBH-Konzentrationen, was eine Beurteilung ihrer antiandrogene Aktivität in diesem Testsystem erschwert. Die beobachtete antiandrogene Aktivität von Dicofol im transienten Transaktivierungssystem (COS-AR-Luc) beruht wahrscheinlich zum grössten Teil auf der alkali-induzierten Degradation von Dicofol zu DCBP im Inkubationsmedium. Die antiandrogene Aktivität von DCBH könnte auf die Oxidation von DCBH zu DCBP durch Luftsauerstoff oder auf enzymatische Katalyse zurückgeführt werden. Dicofol, DCBP und DCBH zeigten in der Mammakarzinomzelllinie MCF-7-Luc keine estrogene Aktivität. Auch Hefe-ER-Zellen reagierten auf die Exposition mit Dicofol und DCBH mit Anzeichen starker Toxizität. Die dargestellten Ergebnisse lassen den Schluss zu, dass die Reduktion der Alligatorpopulation des Lake Apopka nach Kontamination mit Dicofol und DDT nicht ausschliesslich auf estrogene Aktivität von DDT bzw. antiandrogene Aktivität von DDE zurückzuführen ist. Das aus Dicofol gebildete DCBP könnte einen wesentlichen Beitrag geleistet haben. Ein weiteres Ziel der vorliegenden Arbeit war die Untersuchung des Einfluss des Metabolismus auf die antiandrogene Aktivität des Phenylharnstoffherbizids Linuron (N-3,4-Dichlorphenyl-N'-methoxy-N'-methyl-harnstoff). Linuron wird durch Abspaltung der N'-Substituenten und Auflösung der Harnstoffstruktur zu 3,4-Dichloranilin (DCA) abgebaut. Die Linuronmetabolite N-3,4-Dichlorphenyl-harnstoff (Linuron M1) und DCA waren in den eingesetzten Testsystemen weder androgen noch antiandrogen aktiv. Linuron und der primäre gebildete Metabolit N-3,4-Dichlorphenyl-N'-methyl-harnstoff (Linuron M2) zeigten keine androgene, aber antiandrogene Aktivität. Der Metabolit Linuron M2 zeigte im stabil transfizierten Hefe-AR-System mit Linuron vergleichbare Aktivität, schien aber im COS-AR-Luc-System etwas stärker antiandrogen aktiv zu sein. Im Zuge des metabolischen Abbaus von Linuron kommt es zu einer Inaktivierung hinsichtlich antiandrogener Aktivität. Da die Metabolisierung insgesamt jedoch langsam abläuft und der primär gebildete Metabolit Linuron M2 starke antiandrogene Aktivität zeigt, kann aufgrund der vorliegenden Daten eine Gefährdung exponierter Organismen nicht ausgeschlossen werden. Des Weiteren sollte die endokrine Aktivität von Xanthohumol, dem prenylierten Hauptchalcon des Hopfens, untersucht werden. Xanthohumol zeigte keine estrogene aber starke antiestrogene Aktivität im Hefe-ER-System. Es wurde keine androgene, aber antiandrogene Aktivität in den Testsystemen COS-AR-Luc und Hefe-AR beobachtet. Der Einsatz von Hopfen als Nahrungsergänzungsmittel sollte insbesondere wegen möglicher hoher Exposition mit Xanthohumol und dem potenten Estrogen 8-Prenylnaringenin kritisch auf potentielle endokrine Effekte in vivo überprüft werden. Mit der Untersuchung von Xanthohumol sollte auch festgestellt werden, ob die Einführung einer Vinylbindung zwischen Ketofunktion und Phenylrest in die Diarylketonstruktur Einfluss auf die antiandrogene Aktivität hat. Legt man die vorliegenden Ergebnisse zu Grunde, hat diese Strukturänderung keinen Einfluss. Dies sollte aber in nachfolgenden Untersuchungen mit geeigneten Substanzen weiter geprüft werden.
In dem empirischen Forschungsprojekt werden Empfehlungen für die Gestaltung der Schnittstelle ÖPNV - CarSharing in der Kombinierten Mobilität gegeben. Im Rahmen von Modellprojekten in Mannheim und Aachen wurden der Annahmeprozess, das Mobilitätsverhalten und die Kundenzufriedenheit untersucht, um Effekte und Erfolgsfaktoren Kombinierter Angebote zu ermitteln. Die Ergebnisse zeigen, dass alle Beteiligten von der Zusammenarbeit profitieren. Der ÖPNV kann durch CarSharing vorhandene Kunden binden und neue Kundengruppen ansprechen. Bekanntheitsgrad und Kundenzahlen von CarSharing können gesteigert werden. CarSharing eignet sich als den ÖPNV ergänzendes Verkehrsmittel. Aufgabenträger und Verkehrsunternehmen müssen eine aktive Rolle in der Kooperation übernehmen und CarSharing in das ÖV-Angebot integrieren. Mit der Erweiterung des Umweltverbundes um die 4. Säule CarSharing und einer konsequenten Vernetzung der Verkehrsmittel wird ein wesentlicher Beitrag für einen umwelt- und umfeldverträglichen Stadtverkehr geleistet. Gleichzeitig wird der ÖPNV durch den innovativen Baustein CarSharing attraktiver.
Annual Report 2001
(2002)
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz ins-besondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der lateralen Schädelbasis an. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine kraftgeregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6*achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz ins-besondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der later-alen Schädelbasis an. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine kraftgeregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6*achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.
Scheduling and location models are often used to tackle problems in production, logistics, and supply chain management. Instead of treating these models independent of each other, as is usually done in the literature, we consider in this paper an integrated model in which the locations of machines define release times for jobs. Polynomial solution algorithms are presented for single machine problems in which the scheduling part can be solved by the earliest release time rule.
We study high dimensional integration in the quantum model of computation. We develop quantum algorithms for integration of functions from Sobolev classes \(W^r_p [0,1]^d\) and analyze their convergence rates. We also prove lower bounds which show that the proposed algorithms are, in many cases, optimal within the setting of quantum computing. This extends recent results of Novak on integration of functions from Hölder classes.
Das erste Ziel dieser Arbeit war es, Verbindungen aus imperfekten Pilzen zu selektieren und zu isolieren, die ueber die Hemmung des JAK2-STAT-1alpha-Signalweges die Induktion der iNOS-Expression in humanen A549/8-Zellen, humanen Lungen-Alveolarepithel-Karzinom-Zellen, negativ beeinflussen. Es konnten drei Verbindungen aus unterschiedlichen Penicillium-Staemmen isoliert werden, die durch Reportergen-Analysen betreffend der Wirkung der Rohfermentationsprodukte auf die iNOS-, eNOS-Promotor-Aktivitaet sowie der STAT-1alpha-abhaengigen Promotor-Aktivitaet selektiert wurden. Die Substanzen Sporogen-A01, S-Curvularin sowie S14-95 zeigten in den Reportergen-Analysen aehnliche Aktivitaeten, die sich nur in der Potenz unterschieden. Waehrend Sporogen-A01 und S-Curvularin eine, wenn auch konzentrationsunabhaengige, Hemmung auf die NF-kappaB-abhaengige Promotor-Aktivitaet in HeLa-S3-Zellen zeigten, so ergab sich fuer S14-95 kein Einfluss auf diesen Signaltransduktionsweg. Bei S14-95 scheint es sich um eine spezifisch die IFN-gamma-abhaengigen Wege der transkriptionellen Aktivierung der iNOS hemmende Verbindung zu handeln. Die Effekte dieser Substanz auf den humanen TNF-alpha-Promotor liegen wie auch fuer S-Curvularin bei 80% Hemmung und auch der humane COX-2-Promotor wurde durch alle drei Substanzen in Reportergen-Analysen stark gehemmt. In A549/8-Zellen zeigten die Substanzen keine (S14-95 und S-Curvularin) oder lediglich geringe (Sporogen-A01) Wirkung auf die Zellproliferation. Die Verbindungen stellen wichtige Strukturen dar, die bei der pharmakologischen Unterdrueckung der NO-Produktion in pathophysiologischen Situationen eine Rolle spielen koennten. Im zweiten Teil wurde in humanen DLD1-Zellen, Kolon-Adenokarzinom-Zellen, und A549/8-Zellen die Regulation der iNOS-Expression durch kleine G-Proteine der Rho-Familie, die bekanntermassen in den Signaltransduktionsweg von Cytokinen involviert sind, untersucht. Atorvastatin und Lovastatin (HMG-CoA-Reduktase-Hemmer), die Ras- und Rho-Proteine gleichermassen indirekt hemmen, indem sie ihre essentielle Membranverankerung verhindern, erhoehten die Cytokin-induzierte NO-Produktion und iNOS-mRNA-Expression in den untersuchten humanen Zellen auf das 2 bis 4-fache, ohne jedoch selbst die Expression der iNOS induzieren zu koennen. DLD1- und AKN1-Zellen, die stabil mit einem 16kb-Fragment des humanen iNOS-Promotors vor einem Luziferase-Reportergen transfiziert worden waren, zeigten in Gegenwart von Atorvastatin oder Lovastatin eine mehr als 2,5-fache Steigerung der Cytokin-induzierten Luziferaseaktivitaet, was fuer eine erhoehte Transkriptionsrate als Ursache der erhoehten iNOS-mRNA-Spiegel spricht. In A549/8piNOS(16)Luc-Zellen erhoehten die beiden Statine die Luziferaseaktivitaet dagegen in einem weitaus geringerem Masse, so dass in diesen Zellen eine Beteiligung posttranskriptioneller Mechanismen, im Sinne einer erhoehten iNOS-mRNA-Stabilitaet, anzunehmen ist. Die beobachtete Statin-vermittelte Verstaerkung der Cytokin-induzierten iNOS-mRNA-Expression und iNOS-Promotoraktivitaet konnte durch Substitution von Mevalonat und Geranylgeranylpyrophosphat wieder vollstaendig aufgehoben werden, waehrend die Koinkubation mit FPP nur eine geringfuegige Reduktion zur Folge hatte. Die Superinduktion war somit das Ergebnis einer spezifischen Hemmung der HMG-CoA-Reduktase und beruhte auf der Hemmung posttranslational geranylgeranylierter Proteine. Vor dem Hintergrund, dass die kleinen G-Proteine der Rho-Familie vorwiegend geranylgeranyliert und die der Ras-Familie hauptsaechlich farnesyliert werden, scheint die Cytokin-induzierte iNOS-Expression durch Rho-Proteine negativ reguliert zu werden. Diese Hypothese konnte dadurch verifiziert werden, dass auch Clostridium difficile Toxin B - das durch UDP-Glucosylierung saemtliche Rho-Proteine (Rho, Rac, Cdc42) direkt inaktiviert, Ras-Proteine jedoch unbeeinflusst laesst - die Cytokin-induzierte iNOS-mRNA-Expression in den humanen Zellen auf mehr als das Dreifache zu steigern vermochte.
In the present paper a kinetic model for vehicular traffic leading to multivalued fundamental diagrams is developed and investigated in detail. For this model phase transitions can appear depending on the local density and velocity of the flow. A derivation of associated macroscopic traffic equations from the kinetic equation is given. Moreover, numerical experiments show the appearance of stop and go waves for highway traffic with a bottleneck.
In der vorliegenden Arbeit wurden Flüssig-Flüssig-Gleichgewichte ternärer Systeme Polyelektrolyt / ungeladenes Polymer / Wasser experimentell bei 25°C und 50°C bestimmt und modelliert. Bei den experimentellen Untersuchungen wurden die Trübungskurven zwischen ein- und zweiphasigen Zuständen und - für ausgewählte Systeme und Konoden - die Zusammensetzung der koexistierenden Phasen bestimmt. Zu diesem Zweck wurde eine einfache Methode entwickelt, die lediglich die Kenntnis der Trübungskurve (als Näherung für die Phasengrenzkurve) und des Wassergehalts (bestimmt durch Gefriertrocknung) erfordert. Zur Kontrolle wurde für ausgewählte Konoden auch stichprobenartig die Konzentration einer weiteren Komponente gemessen. Konsistenztests (Massenbilanzen) zeigen, dass dieses Vorgehen zuverlässige Ergebnisse liefert. Es wurden die Polyelektrolyte Poly(natriumacrylat) (zwei Chargen mit unterschiedlicher Molmasse), Poly(ammoniumacrylat) (drei Molmassen), Poly(natriummethacrylat) (zwei Molmassen), Poly(natriumethensulfonat) (zwei Molmassen), Poly(natriumstyrolsulfonat) (eine Molmasse), Poly(diallyldimethylammoniumchlorid) (zwei Molmassen) in Kombination mit den ungeladenen Polymeren Poly(ethylenglykol) (bzw. Poly(ethylenoxid), je zwei Chargen mit zwei unterschiedlichen Molmassen) und Poly(vinylpyrrolidon) (zwei Molmassen) verwendet. Insgesamt wurde für fast 90 Systeme der Verlauf der Trübungskurve und für über 60 Systeme die Zusammensetzung der koexistierenden Phasen bestimmt. In fast allen Fällen findet man ein Flüssig-Flüssig-Gleichgewicht mit einer wässrigen, an ungeladenem Polymer angereicherten Phase, die nur wenig Polyelektrolyt enthält, und einer wässrigen, polyelektrolytreichen Phase, in der praktisch kein ungeladenes Polymer gelöst ist. Die Phasentrennung tritt bereits ab einem Gesamtpolymergehalt von etwa 10 bis 15 Massen-% auf, d. h. die Polymere sind stark inkompatibel. Die Molmasse der Polymere hat keinen grossen Einfluss auf das Flüssig-Flüssig-Gleichgewicht, in der Regel verschiebt sich bei praktisch gleicher Steigung der Konoden im Zweiphasengebiet bei Erhöhung der Molmasse die Mischungslücke geringfügig in die Wasserecke des Dreiecksdiagramms. Eine Erhöhung der Temperatur bewirkt ebenfalls eine geringfügige Verschiebung der Trübungskurve in die gleiche Richtung. Die Steigung der Konoden wird dabei jedoch deutlich verändert. Damit wurde eine zuverlässige Datenbasis geschaffen, auf deren Grundlage das Phasenverhalten in ternären Systemen Polyelektrolyt / ungeladenes Polymer / Wasser modelliert werden kann. Die experimentellen Daten wurden mit einem neuen Modell korreliert. Bei diesem Modell handelt es sich um eine Modifikation des VERS-Modells von Grossmann [44, 67] - ein GE-Modell auf Gruppenbeitragsbasis, das in der Struktur der Virialgleichung von Pitzer [68] zur Beschreibung von Elektrolytlösungen nachempfunden ist - bei dem die unvollständige Dissoziation des Polyelektrolyten über ein Dissoziationsgleichgewicht berücksichtigt wird. Die Dissoziation wird auf Monomerbasis betrachtet. Einflüsse der Konfiguration des Polyelektrolyten auf das Phasenverhalten werden vernachlässigt. Unter Berücksichtigung mehrerer Annahmen wurde die Anzahl der an die Messwerte anzupassenden Parameter auf drei binäre Wechselwirkungsparameter und die Gleichgewichtskonstante der Dissoziationsreaktion reduziert. Ein Wechselwirkungsparameter bzw. ein Wechselwirkungsparameter und die Gleichgewichtskonstante der Dissoziation werden an die Ergebnisse isopiestischer Messungen in den binären Randsystemen ungeladenes Polymer / Wasser bzw. Polyelektrolyt / Wasser angepasst, der Parameter für Wechselwirkungen zwischen den Gruppen des Polyelektrolyten und des ungeladenen Polymers wurde an die experimentellen Ergebnisse des Flüssig-Flüssig-Gleichgewichts angepasst. Mit diesem Modell kann das Flüssig-Flüssig-Gleichgewicht bei 25°C in der Regel im Rahmen der experimentellen Genauigkeit korreliert werden, in einigen Systemen gelingt auch die quantitative Vorhersage des (geringen) Einflusses der Molmasse auf das Phasenverhalten. Mangels isopiestischer Daten in den binären Randsystemen bei 50°C konnte keine Korrelation für diese Temperatur vorgenommen werden. Eine technische Anwendung der Ergebnisse z. B. für die Aufkonzentrierung von Polyelektrolyten ist in den untersuchten Systemen allenfalls in einer flüssigen Phase zu bewerkstelligen. Allerdings war die Anreicherung relativ gering. Abhilfe könnte die weitere Verringerung der Temperatur bringen, wobei jedoch die stark zunehmende Viskosität der Polymerlösung zu beachten ist. Eine weitere Alternative bietet die Zugabe niedermolekularer Salze, die einen starken Einfluss auf die Ausdehnung der Flüssig-Flüssig-Mischungslücke besitzen. Diese Untersuchungen bleiben weiterführenden Arbeiten vorbehalten.
The dissertation is concerned with the numerical solution of Fokker-Planck equations in high dimensions arising in the study of dynamics of polymeric liquids. Traditional methods based on tensor product structure are not applicable in high dimensions for the number of nodes required to yield a fixed accuracy increases exponentially with the dimension; a phenomenon often referred to as the curse of dimension. Particle methods or finite point set methods are known to break the curse of dimension. The Monte Carlo method (MCM) applied to such problems are 1/sqrt(N) accurate, where N is the cardinality of the point set considered, independent of the dimension. Deterministic version of the Monte Carlo method called the quasi Monte Carlo method (QMC) are quite effective in integration problems and accuracy of the order of 1/N can be achieved, up to a logarithmic factor. However, such a replacement cannot be carried over to particle simulations due to the correlation among the quasi-random points. The method proposed by Lecot (C.Lecot and F.E.Khettabi, Quasi-Monte Carlo simulation of diffusion, Journal of Complexity, 15 (1999), pp.342-359) is the only known QMC approach, but it not only leads to large particle numbers but also the proven order of convergence is 1/N^(2s) in dimension s. We modify the method presented there, in such a way that the new method works with reasonable particle numbers even in high dimensions and has better order of convergence. Though the provable order of convergence is 1/sqrt(N), the results show less variance and thus the proposed method still slightly outperforms standard MCM.
Lattice Boltzmann Model for Free-Surface flow and Its Application to Filling Process in Casting
(2002)
A generalized lattice Boltzmann model to simulate free-surface is constructed in both two and three dimensions. The proposed model satisfies the interfacial boundary conditions accurately. A distinctive feature of the model is that the collision processes is carried out only on the points occupied partially or fully by the fluid. To maintain a sharp interfacial front, the method includes an anti-diffusion algorithm. The unknown distribution functions at the interfacial region are constructed according to the first order Chapman-Enskog analysis. The interfacial boundary conditions are satisfied exactly by the coefficients in the Chapman-Enskog expansion. The distribution functions are naturally expressed in the local interfacial coordinates. The macroscopic quantities at the interface are extracted from the least-square solutions of a locally linearized system obtained from the known distribution functions. The proposed method does not require any geometric front construction and is robust for any interfacial topology. Simulation results of realistic filling process are presented: rectangular cavity in two dimensions and Hammer box, Campbell box, Sheffield box, and Motorblock in three dimensions. To enhance the stability at high Reynolds numbers, various upwind-type schemes are developed. Free-slip and no-slip boundary conditions are also discussed.
Optisches On-line-Verfahren zur Trockengewichtsbestimmung bei Fermentationen von filamentösen Pilzen
(2002)
In der vorgelegten Arbeit wurde eine neue Technik untersucht, mit deren Hilfe das Myzeltrockengewicht bei Fermentationen von filamentösen Pilzen im On-line-Verfahren über optische Messungen bestimmt werden kann. Das Verfahren beruht auf der Messung der Lichtstreuung resp. der diffusen Reflexion des Myzels in einem Fermenter. Eine theoretische Beschreibung der diffusen Reflexion resp. der Lichtstreuung großer und völlig unregelmäßiger Partikel, wie man sie bei den filamentösen Pilzen findet, kann im Augenblick nicht gegeben werden. Aus diesem Grund muss für die Anwendung das Verfahren über empirische Befunde abgesichert werden. Um externe Eichkurven erstellen zu können, wurde ein Probengefäß von der Form eines "Hornes" resp. der Form einer klassischen Lichtfalle und ein Rührsystem für die Off-line-Messungen entwickelt, in dem die Fehler der Eichmessungen durch die Reflexionen von den Glaswänden des Probengefäßes und des Rührsystems stark reduziert werden. Die Verfälschung der Intensität der Reflexion und der Lichtstreuung konnte dabei um den Faktor 62 vermindert werden. d.h. der Fehler bei kleinen Teilchenkonzentrationen wurde dadurch reproduzierbar um mehr als 100 % verringert. Die Einsatztauglichkeit des entwickelten Probengefäßes und des Rührsystems wurde mit Streulichtmessungen an Polystyrolteilchen der Firmen Duke Scientific Corporation und BASF mit einer den Pellets ähnlichen Größe überprüft. Für die Interpretation der gemessenen Intensitätstkurven ergab sich der wichtige Befund, dass bei diesen Polystyrolteilchen keine wesentliche Wellenlängenabhängigkeit der Streulichtintensität gefunden wurde. Es wurden sieben verschiedenen filamentöse Pilze mit der entwickelten Streulicht/diffusen Reflexionsmethode untersucht, um deren Verwendbarkeit zur Trockengewichtsbestimmungsmethode abzusichern. Die erhaltenen Ergebnisse zeigen, dass eine On-line-Trockengewichtsbestimmung bei Fermentationen von filamentösen Pilzen über Streulichtintensitäten/diffuse Reflexionsintensitäten möglich ist. Diese Methode ist nur anwendbar, wenn die Intensitätsveränderungen des Anregungslichtes sich während der Fermentation nicht wesentlich ändert, d.h. innerhalb der Fehler der Methode liegt. In einer Arbeit von Koch wurde bei Bakterien gezeigt, dass die Streulichtintensität proportional zum Volumen der Bakterien und nicht zur Bakterienanzahl ist. Die Analyse der Pelletgrößenverteilungen bei filamentösen Pilzen hat auch gezeigt, dass die Streulichtintensität proportional zum Myzeltrockengewicht unabhängig von der vorliegenden Größenverteilung ist. Trotz dieser Befunde bleiben die Ursachen der Intensitätsveränderungen bei der Fermentationen von verschiedenen Pilzen, d.h. die unterschiedlichen Steigungen im linearen Zusammenhang zwischen Myzeltrockengewicht und Intensität, ungeklärt.
Die Einmischung von Altgummipartikeln aus zerkleinerten Altreifen in Thermoplast-,
Elastomer- und Duromer-Matrizes im Sinne einer stofflichen Wiederverwertung führt
zu erheblichen Eigenschaftsverschlechterungen der altgummipartikelmodifizierten
Polymerblends. Vor diesem Hintergrund gewinnt die Modifizierung der Altgummipartikel
für eine Verbesserung der Verträglichkeit mit den Matrixmaterialien
zunehmend an Bedeutung.
Zur Modifizierung der Altgummipartikel wurden photochemische Pfropfungsreaktionen
mit Glycidylmethacrylat (GMA) und Methacrylsäure (MAA) nach einem
radikalischen Polymerisationsmechanismus durchgeführt.
Um Altgummipartikel erfolgreich chemisch modifizieren zu können, ist ein fundiertes
Wissen über die entscheidenden Parameter des Pfropfungsprozesses erforderlich.
So haben beispielsweise die Art und Konzentration der Pfropfungschemikalien wie
Monomer und Photoinitiator, die Art des Spülgases, die Temperatur sowie die
Bestrahlungszeit einen entscheidenden Einfluss auf das Pfropfungsergebnis. Der
Nachweis der Oberflächenmodifizierung erfolgte mit Hilfe chemischer Analytikmethoden
sowie mittels Kontaktwinkelmessungen.
Ein weiterer Schwerpunkt dieser Arbeit lag auf der Herstellung von altgummipartikelmodifizierten
Thermoplast-, Duromer- und Elastomer-Blends. Polyamid-6
(PA-6) und Polybutylenterephthalat (PBT) wurden als thermoplastische Matrixmaterialien
ausgewählt. Als Vertreter der Duromere wurde beispielhaft ein
Vinylester-Urethan-Hybridharz (VEUH) angewendet und als elastomeres
Matrixmaterial kam ein Polyurethan-Gießelastomer (PUR) zur Anwendung.
Bei höheren Gummipartikel-Konzentrationen zeigte sich, dass durch die Pfropfung
die Verträglichkeit zwischen Gummipartikeln und den o. g. Matrixmaterialien verbessert
wurde. Die Modifizierung von PA-6 und VEUH mit feinverteilten
Gummipartikeln bewirkte bei geringfügigen Einbußen an Festigkeit und Steifigkeit
deutliche Zähigkeitssteigerungen. Dieser Effekt war bei den GMA modifizierten
Gummipartikeln stärker ausgeprägt.
Bei der Anwendung von 10 Gew.% MAA gepfropften Gummipartikeln in PURElastomeren
konnten sehr gute mechanische Kennwerte erzielt werden. Damit
stellen altgummipartikelmodifizierte PUR-Blends eine interessante Recyclingoption für Altreifen und Altgummiabfälle dar.
Die Bestimmung des Erdgravitationspotentials aus den Meßdaten des Forschungssatelliten CHAMP lässt sich als Operatorgleichung formulieren (SST-Problem). Dieser Ansatz geht davon aus, dass ein geometrischer Orbit des Satelliten CHAMP vorliegt. Mittels numerischer Differentiation unter Einsatz eines geeigneten Denoising Verfahrens kann dann aus dem geometrischen Orbit der Gradient des Potentials längs der Bahn bestimmt werden. Damit sind insbesondere die Radialableitung (und der Flächengradient) auf einem Punktgitter auf der Bahn bekannt. In einem erdfesten System stellt sich dies als eine nahezu vollständige Überdeckung der Erde (bis auf Polar Gaps) mit einem ziemlich dichten Datengitter auf Flughöhe des Satelliten dar. Die Lösung der SST-Operatorgleichung (Bestimmung des Potentials auf der Erdoberfläche aus Kenntnis der Radialableitung auf einem Datengitter auf Flughöhe) ist ein schlecht gestelltes inverses Problem, das mit einer geeigneten Regularisierungstechnik gelöst werden muß. Im vorliegenden Fall wurde eine solche Regularisierung mit Hilfe von nicht-bandlimitierten Regularisierungsskalierungsfunktionen und Regularisierungswavelets umgesetzt. Diese sind stark ortslokalisierend und führen daher auf ein Potentialmodell, welches eine Linearkombination stark ortslokalisierender Funktionen ist. Ein solches Modell kann als Lokalmodell auch aus nur lokalen Daten berechnet werden und bietet daher gegenüber Kugelfunktionsmodellen wie EGM96 erhebliche Vorteile für die moderne Geopotentialbestimmung. Die Diskretisierung und numerische Umsetzung der Berechnung eines solchen Modells erfolgt mit Splines, die hier ebenfalls Linearkombinationen stark ortslokalisierender Funktionen sind. Die großen linearen Gleichungssysteme, die zur Berechnung der glättenden oder interpolierenden Splines gelöst werden müssen, können auf schnelle und effiziente Weise mit dem Schwarzschen alternierenden Algorithmus in Verbindung mit schnellen Summationsverfahren (Fast Multipole Methods) gelöst werden. Eine Kombination des Schwarzschen alternierenden Algorithmus mit solchen schnellen Summationsverfahren ermöglicht eine weitere erhebliche Beschleunigung beim Lösen dieser Gleichungssysteme. Zur Bestimmung von Glättungsparametern (Spline-Smoothing) und Regularisierungsparametern kann die L-Curve Method zum Einsatz kommen.
This survey paper deals with multiresolution analysis from geodetically relevant data and its numerical realization for functions harmonic outside a (Bjerhammar) sphere inside the Earth. Harmonic wavelets are introduced within a suit- able framework of a Sobolev-like Hilbert space. Scaling functions and wavelets are defined by means of convolutions. A pyramid scheme provides efficient implementation und economical computation. Essential tools are the multiplicative Schwarz alternating algorithm (providing domain decomposition procedures) and fast multipole techniques (accelerating iterative solvers of linear systems).
Spline functions that approximate (geostrophic) wind field or ocean circulation data are developed in a weighted Sobolev space setting on the (unit) sphere. Two problems are discussed in more detail: the modelling of the (geostrophic) wind field from (i)discrete scalar air pressure data and (ii) discrete vectorial velocity data. Domain decomposition methods based on the Schwarz alternating algorithm for positive definite symmetric matrices are described for solving large linear systems occuring in vectorial spline interpolation or smoothing of geostrophic flow.
To a network N(q) with determinant D(s;q) depending on a parameter vector q Î Rr via identification of some of its vertices, a network N^ (q) is assigned. The paper deals with procedures to find N^ (q), such that its determinant D^ (s;q) admits a factorization in the determinants of appropriate subnetworks, and with the estimation of the deviation of the zeros of D^ from the zeros of D. To solve the estimation problem state space methods are applied.
Es handelt sich um den Aufbau des ersten Roboter-gestützten Systems zum Fräsen an der lateralen Schädelbasis. Durch Rückkopplung der Sensordaten lässt sich ein menschähnliches Fräsen nachahmen. Mehr noch: Es besteht die Möglichkeit der automatisierten Detektion der Dura mater durch Analyse der Standardabweichung der Kräfte, da die Dura mater dämpfend auf den Fräser wirkt. Mit dem Roboter ist es möglich, ein exaktes Implantatbett im Bereich der lateralen Schädelbasis auszufräsen.
While there exist closed-form solutions for vanilla options in the presence of stochastic volatility for nearly a decade, practitioners still depend on numerical methods - in particular the Finite Difference and Monte Carlo methods - in the case of double barrier options. It was only recently that Lipton proposed (semi-)analytical solutions for this special class of path-dependent options. Although he presents two different approaches to derive these solutions, he restricts himself in both cases to a less general model, namely one where the correlation and the interest rate differential are assumed to be zero. Naturally the question arises, if these methods are still applicable for the general stochastic volatility model without these restrictions. In this paper we show that such a generalization fails for both methods. We will explain why this is the case and discuss the consequences of our results.
Multiobjective combinatorial optimization problems have received increasing attention in recent years. Nevertheless, many algorithms are still restricted to the bicriteria case. In this paper we propose a new algorithm for computing all Pareto optimal solutions. Our algorithm is based on the notion of level sets and level curves and contains as a subproblem the determination of K best solutions for a single objective combinatorial optimization problem. We apply the method to the Multiobjective Quadratic Assignment Problem (MOQAP). We present two algorithms for ranking QAP solutions and nally give computational results comparing the methods.
Dealing with problems from locational planning in schools can enrich the mathematical education. In this report we describe planar locational problems which can be used in mathematical lessons. The problems production of a semiconductor plate, design of a fire brigade building and the warehouse problem are from real-world. The problems are worked out detailed so that the usage for school lessons is possible.
La Teoría de localización abarca las posibilidades, para que con la ayuda de modelos matemáticos se busquen localizaciones teniendo en cuenta que los intereses económicos y administrativos sean óptimos. Así por ejemplo se encuentra la mejor localización para el almacén central de una empresa, cuando la suma de los gastos de transporte y de almacenaje sean mínimos y cuando se utilice el almacén óptimo. Si por otro lado, la administración busca la localización de una nueva estación de bomberos o de un hospital, hay que tener en cuenta un importante criterio para la localización óptima y es que la distancia mayor no sobrepase un valor dado.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das SIMERO-System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt. Die Leistungsfähigkeit des Systems und die weiteren Verbesserungen werden an einem Versuch exemplarisch gezeigt.
This paper analyzes the problem of sensor-based colli-sion detection for an industrial robotic manipulator. A method to perform collision tests based on images taken from several stationary cameras in the work cell is pre-sented. The collision test works entirely based on the im-ages, and does not construct a representation of the Carte-sian space. It is shown how to perform a collision test for all possible robot configurations using only a single set of images taken simultaneously.
We present a unified approach of several boundary conditions for lattice Boltzmann models. Its general framework is a generalization of previously introduced schemes such as the bounce-back rule, linear or quadratic interpolations, etc. The objectives are two fold: first to give theoretical tools to study the existing boundary conditions and their corresponding accuracy; secondly to design formally third- order accurate boundary conditions for general flows. Using these boundary conditions, Couette and Poiseuille flows are exact solution of the lattice Boltzmann models for a Reynolds number Re = 0 (Stokes limit). Numerical comparisons are given for Stokes flows in periodic arrays of spheres and cylinders, linear periodic array of cylinders between moving plates and for Navier-Stokes flows in periodic arrays of cylinders for Re < 200. These results show a significant improvement of the overall accuracy when using the linear interpolations instead of the bounce-back reflection (up to an order of magnitude on the hydrodynamics fields). Further improvement is achieved with the new multi-reflection boundary conditions, reaching a level of accuracy close to the quasi-analytical reference solutions, even for rather modest grid resolutions and few points in the narrowest channels. More important, the pressure and velocity fields in the vicinity of the obstacles are much smoother with multi-reflection than with the other boundary conditions. Finally the good stability of these schemes is highlighted by some simulations of moving obstacles: a cylinder between flat walls and a sphere in a cylinder.
In the present work, we investigated how to correct the questionable normality, linear and quadratic assumptions underlying existing Value-at-Risk methodologies. In order to take also into account the skewness, the heavy tailedness and the stochastic feature of the volatility of the market values of financial instruments, the constant volatility hypothesis widely used by existing Value-at-Risk appproches has also been investigated and corrected and the tails of the financial returns distributions have been handled via Generalized Pareto or Extreme Value Distributions. Artificial Neural Networks have been combined by Extreme Value Theory in order to build consistent and nonparametric Value-at-Risk measures without the need to make any of the questionable assumption specified above. For that, either autoregressive models (AR-GARCH) have been used or the direct characterization of conditional quantiles due to Bassett, Koenker [1978] and Smith [1987]. In order to build consistent and nonparametric Value-at-Risk estimates, we have proved some new results extending White Artificial Neural Network denseness results to unbounded random variables and provide a generalisation of the Bernstein inequality, which is needed to establish the consistency of our new Value-at-Risk estimates. For an accurate estimation of the quantile of the unexpected returns, Generalized Pareto and Extreme Value Distributions have been used. The new Artificial Neural Networks denseness results enable to build consistent, asymptotically normal and nonparametric estimates of conditional means and stochastic volatilities. The denseness results uses the Sobolev metric space L^m (my) for some m >= 1 and some probability measure my and which holds for a certain subclass of square integrable functions. The Fourier transform, the new extension of the Bernstein inequality for unbounded random variables from stationary alpha-mixing processes combined with the new generalization of a result of White and Wooldrige [1990] have been the main tool to establich the extension of White's neural network denseness results. To illustrate the goodness and level of accuracy of the new denseness results, we were able to demonstrate the applicability of the new Value-at-Risk approaches by means of three examples with real financial data mainly from the banking sector traded on the Frankfort Stock Exchange.
Ähnlich wie Data-Mining die Analyse strukturierter numerischer Daten bezeichnet, beschreibt der Begriff des Text-Mining eine Menge von Methoden zur (halb-) automatischen Auswertung großer Mengen natürlichsprachlicher Texte. Das Gebiet des Text Mining umfaßt vielfältige Methoden zur Extraktion von Informationen aus natürlichsprachlichen Texten. In diesem Gebiet bzw. in dem Forschungsgebiet der Namenserkennung und Namensklassifikation werden viele Algorithmen vorgestellt und dokumentiert. Bei diesen Namenerkennungssystemen, die Teile der sogenannten "Information-Extraction-Systems" sind, werden hauptsächlich zwei Ansätze verwendet und zwar der sogenannte "Knowledge-Engineering-Approach" und "Automatic-Training-Approach"
Schwerpunkt der vorliegenden Arbeit war die Etablierung von In-vitro-Testsystemen zur Erfassung hormoneller/antihormoneller Aktivität. Es gelang, vier neue, unterschiedliche In-vitro-Testsysteme zu etablieren und anhand bekannter Agonisten/Antagonisten zu validieren. Zunächst konnte ein Reportergenassay auf Basis des endogenen Reporters TRPM-2 aufgebaut werden. Für die Quantifizierung mittels kompetitiver RT-PCR wurde eine Deletionsmutante des zu amplifizierenden Gens als interner exogener Standard konstruiert. Dadurch wurden Untersuchungen von Testsubstanzen auf potentielle androgene/antiandrogene Aktivität in T-47D-Brustkrebszellen und auf estrogene/antiestrogene Aktivität in der Mammakarzinom-Zelllinie MCF-7 anhand eines einzigen Parameters ermöglicht. Analog zum TRPM-2-Assay wurde ein Testsystem zur kompetitiven Quantifizierung estrogenabhängiger pS2-Induktion in MCF-7-Zellen etabliert. Der TRPM-2-Assay in T-47D-Zellen wies mit den von Guth etablierten Transaktivierungsassays in COS-7- und T-47D-Luc-Zellen vergleichbare Sensitivität auf. Der von Guth etablierte Assay auf Basis des endogenen Reporters PSA erwies sich jedoch als deutlich präziser. Die weitergeführte Validierung des PSA-Assays zeigte andererseits aber deutlich geringere Selektivität gegenüber etablierten Antagonisten als in der Literatur beschrieben. (Guth, 2000; Rosenberg et al., 1998) In MCF-7-Zellen wurde für die endogenen Reporter TRPM-2 und pS2 mittels kompetitiver RT-PCR deutlich höhere Sensitivität erreicht als für bereits etablierte Assays. Ein Nachteil solcher endogener Reportergenassays auf RNA-Ebene ist die vergleichsweise aufwendige Versuchsdurchführung. in estrogensensitiven Transaktivierungsassays in Säugerzellen ermittelten, mitunter erhebliche Unterschiede. Im Hefe-Assay mit hER wurde beispielsweise für Daidzein keine estrogene, in niedrigen Konzentrationen dagegen antiestrogene Aktivität festgestellt. Für diese Differenzen werden säugerspezifische Mechanismen und Unterschiede bei der Fähigkeit zur Penetration der Zellwand diskutiert. (Dudley et al., 2000; Raun Andersen et al., 1999) In den von Guth etablierten Transaktivierungsassays (transienter Transaktivierungsassay in COS-7-Zellen, Transaktivierungsassay in stabilen T-47DLuc- Zellen) und dem endogenen PSA-Assay wurden in dieser Arbeit, ausgehend von zwei vorselektierten Leitstrukturen, die mittels online-Strukturdatenbank-Recherche identifizierten Benzophenon-Derivate Benzophenonimin, p,p'-Dimethylbenzophenon, Benzophenon-3,3',4,4'-tetracarbonsäuretetraundecylester (Selectophor() und Ketoprofen, die weiteren Pharmaka Imipramin und Ketoconazol, der natürliche Süßstoff aus Stevia rebaudiana Steviosid und sein Aglycon Steviol sowie 19- Nortestosteron und N-(2-Chlorethyl)-N-nitroso-carbamoyl-L-alanyl-17-nortestosteron (CNC-ala-NT, E173) auf potentielle androgene/antiandrogene Aktivität untersucht. (Guth, 2000) Um das Zusammenwirken estrogener Effekte von Verbindungen zu ermitteln, wurden Kombinationsexperimente im estrogensensitiven MCF-7-Luc-Reportergenassay durchgeführt. Ergebnisse aus Untersuchungen binärer Gemische repräsentativer Industriechemikalien bzw. dem Phytoestrogen Daidzein und dem physiologischen Hormon Estradiol zeigten rein additive Wirkungen. Insgesamt wurde mit dieser Arbeit ein Beitrag zur Identifizierung endokriner Disruptoren geleistet. Die in dieser Arbeit neu etablierte kompetitive RT-PCR auf endogene Reporter ermöglicht Untersuchungen früher Signale im natürlichen Hintergrund der Zelle. Bei der erweiterten Validierung des sensitiven PSA Assays jedoch wurde geringe Selektivität gegenüber etablierten Antagonisten festgestellt. Neue und bereits etablierte transgene Reportergenassays in Hefen und Säugerzellen ermöglichten effektive Untersuchungen potentiell hormonell aktiver Verbindungen. Die Anwendungsgebiete der sich ergänzenden Testsysteme liegen in der Charakterisierung möglicher toxikologisch relevanter Verbindungen wie auch in der Wirkstofffindung.
We consider the problem of locating a line with respect to some existing facilities in 3-dimensional space, such that the sum of weighted distances between the line and the facilities is minimized. Measuring distance using the l_p norm is discussed, along with the special cases of Euclidean and rectangular norms. Heuristic solution procedures for finding a local minimum are outlined.
Computersimulation der Dynamik von Schicht und Vorschicht bei der Plasmaimmersions-Ionenimplantation
(2002)
Das Ziel der vorliegenden Arbeit ist die Untersuchung der Prozesse, die sich bei der Plasmaimmersions-Ionenimplantation (PIII) im Plasma nahe eines Targets abspielen. Dazu wird das Particle-In-Cell/Monte Carlo-Verfahren (PIC/MC) eingesetzt, mit dem es möglich ist, Plasmen selbstkonsistent zu simulieren. Da das Augenmerk dieser Arbeit auf der Schicht und Vorschicht des Plasmas liegt, wird zunächst ein Verfahren entwickelt, das die Simulation einer planaren Plasmarandschicht ohne Plasmabulk erlaubt. Dabei muß der Wahl geeigneter Randbedingungen auf der Plasmaseite große Aufmerksamkeit geschenkt werden, um sowohl die Simulation einer statischen Floatingpotential-Randschicht als auch einer dynamischen Randschicht zu ermöglichen. Die Methode wird zuerst zur Untersuchung planarer statischer Randschichten bei Anliegen des Floatingpotentials sowie einer negativen Hochspannung an dem Target eingesetzt. Es wird gezeigt, daß das Child-Langmuir-Gesetz nur eine unbefriedigende Beschreibung der Potentialverteilung in der Plasmaschicht liefert. Durch eine Modifikation der Anfangswerte bei der Integration der Child-Langmuir-Gleichung wird in dem wandnahen Bereich der Schicht eine hervorragende Übereinstimmung zwischen dem modifizierten Gesetz und den simulierten Ergebnissen erzielt. Die Tatsache, daß sich bei der PIII in der Nähe eines Targets zunächst eine Floatingpotential-Randschicht entwickelt, in der die Ionen eine Driftgeschwindigkeit und ein Dichtegefälle aufweisen, wird in den Simulationen dieser Arbeit erstmals berücksichtigt. Die Dynamik von Schicht und Vorschicht wird durch die Simulation der Bewegung von Orten konstanter Ionendriftgeschwindigkeit analysiert. Dabei wird beobachtet, daß die Vorschicht bei der PIII mit einer zeitlichen Verzögerung auf das Anlegen einer negativen Hochspannung an das Target reagiert, die auf die Ausbreitung und das Eintreffen einer Ionenschallwelle zurückzuführen ist. Es wird ein einfaches analytisches Modell entwickelt, das die Reaktion der Vorschicht auf die Bewegung der Schichtkante erfolgreich beschreibt. In einem weiteren Schritt der Arbeit wird ein hybrides PIC/MC-Verfahren entwickelt, bei dem die lokale Dichte der isothermen Elektronen über einen Boltzmann-Ansatz nur noch vom elektrischen Potential abhängt. Die dadurch erreichte Beschleunigung des Verfahrens macht es möglich, das Verhalten des Plasmas bei periodisch angelegten Hochspannungspulsen mit verschiedenen Pulsparametern zu untersuchen. Dabei wird gezeigt, daß der Erholung des Plasmas zwischen den Pulsen und der Ionensättigungsstromdichte, die in bisherigen Arbeiten unbeachtet blieb, eine große Bedeutung für die PIII zukommen. Der zweite Teil der Arbeit befaßt sich mit Plasmarandschichten in der Nähe von zweidimensional strukturierten Targets. Als Simulationsverfahren kommt eine zweidimensionale Version des entwickelten hybriden PIC/MC-Verfahrens zur Anwendung. An einem Target, bestehend aus Doppelstegen mit dazwischen liegenden Gräben, wird erstmals eine Plasmarandschicht bei Anliegen des Floatingpotentials an dem Target simuliert. Dabei zeigt sich eine Verletzung des Bohmkriteriums, bei der die Ionen an der Schichtkante in einem Graben die Bohmgeschwindigkeit bereits weit überschritten haben. Als Ursache für dieses Verhalten kann die Auffächerung der Ionentrajektorien im Grabeninneren und die dadurch verursachte Divergenz des Ionenstroms identifiziert werden. Die fokussierende Wirkung der Kantenfelder und die Auffächerung der Ionentrajektorien in den Gräben verursachen starke Inhomogenitäten in der Stromdichteverteilung. Der lokale Aufschlagwinkel der Ionen auf dem Target zeigt sich ebenfalls sehr inhomogen verteilt. Während in allen bisher durchgeführten zweidimensionalen PIII-Simulationen immer homogene driftfreie Plasmaverteilungen benutzt wurden, wird in dieser Arbeit erstmals eine PIII-Simulation ausgehend von einer Floatingpotential-Randschicht durchgeführt. Dabei zeigen sich gegenüber bisherigen Simulationen große Unterschiede in der Implantationsstromdichte. Die simulierte Dosisverteilung der implantierten Ionen ist auf dem Target infolge der Kantenfelder wieder sehr inhomogen verteilt. Die Dynamik der Schicht und Vorschicht, die einen Übergang von einer zylindrischen Matrixschicht zu einer planaren Hochspannungsschicht zeigt, wird wieder erfolgreich durch ein analytisches Modell beschrieben. Die Potentialverteilung in der sich einstellenden stationären Hochspannungsschicht kann durch die Hinzunahme einer Stromdivergenz oder -konzentration in das modifizierte Child-Langmuir-Gesetz verstanden werden. Schließlich werden in mehreren Simulationen an verschiedenen zweidimensionalen Targets, die auf Floatingpotential liegen, die Eigenschaften des Plasmas hinsichtlich einer technischen Nutzung zur plasmaunterstützten Schichtabscheidung studiert.
Im Mittelpunkt der vorliegenden Arbeit standen Untersuchungen, die zu einem besseren Verständnis der Desoxyribonukleotid-Synthese, des Eisenstoffwechsels und der Differenzierung von Trypanosomen beitragen sollten. Aus diesem Grund umfasste die Arbeit drei Untersuchungsschwerpunkte. Die Ribonukleotid-Reduktase katalysiert die Umsetzung von Ribonukleotiden zu Desoxyribonukleotiden und spielt somit eine wichtige Rolle bei der DNA- Synthese. Mit immunologischen Methoden konnte gezeigt werden, dass die R1- Untereinheit des Enzyms in der schlanken und gedrungenen Blutform, sowie in der prozyklischen Insektenform vorhanden ist. Im Gegensatz dazu kommt die R2-Untereinheit nur in der proliferierenden schlanken Blutform und der prozyklischen Insektenform vor, nicht jedoch bei den im Zellarrest befindlichen gedrungenen Bluttrypanosomen. Mit molekularbiologischen Methoden konnte die mRNA der R1- und R2-Proteine in allen drei Entwicklungsstadien des Parasiten in etwa gleicher Menge nachgewiesen werden. Somit lässt sich folgern, dass die Ribonukleotid-Reduktase in T. brucei durch eine posttranskriptionale Regulation der R2-Untereinheit kontrolliert wird. Eine Regulation der Ribonukleotid-Reduktase im Zellzyklus von T. brucei konnte nicht nachgewiesen werden. Eisen stellt für Bluttrypanosomen einen essentiellen Wachstumsfaktor dar. Mit dem Eisenchelator Deferoxamin wurde der Einfluss einer Störung des Eisenhaushaltes auf Bluttrypanosomen untersucht. Deferoxamin-behandelte Trypanosomen zeigten gegen uber unbehandelten Parasiten eine deutlich geringere DNA- Syntheserate und Atmung. Die Wirkung des Chelators scheint jedoch nicht auf eine Komplexierung Enzym-gebundenen Eisens zurückzuführen zu sein. Die Behandlung der Holoenzyme (Ribonukleotid-Reduktase, Alternative Oxidase, Superoxid-Dismutase) mit Deferoxamin zeigte keinen Einfluss auf deren Aktivität. Die Wirkung des Chelators beruht vermutlich auf einer Depletierung intrazelären Eisens, das somit nicht mehr für den Einbau in neu-synthetisiertes Apoenzym zur Verfügung steht. Monomorphe Trypanosomenstämme haben im Gegensatz zu pleomorphen Stämmen die Fähigkeit verloren, sich zu differenzieren. Der Grund dafür ist vermutlich ein Defekt des cAMP-Signaltransduktionsweges. Im Rahmen der Arbeit konnte durch die Inkubation kulturadaptierter monomorpher Bluttrypanosomen mit dem membranpermeablen cAMP-Derivat 8-(4-Chlorphenylthio)-cAMP(pCPTcAMP) die Differenzierung der Parasiten zur gedrungenen Blutform erreicht werden. Die auf diese Weise erzeugte gedrungene Blutform besaß die Fähigkeit, sich zur prozyklischen Insektenform weiterzuentwickeln. Dieses Ergebnis deutet darauf hin, dass die Unfähigkeit monomorpher Trypanosomen, sich zu differenzieren, in einem Defekt in der Perzeption oder Transduktion des Differenzierungssignals liegt, nicht aber in der anschließenden Signalweiterleitung.
Lung cancer, mainly caused by tobacco smoke, is the leading cause of cancer mortality. Large efforts in prevention and cessation have reduced smoking rates in the U.S. and other countries. Nevertheless, since 1990, rates have remained constant and it is believed that most of those currently smoking (~25%) are addicted to nicotine, and therefore are unable to stop smoking. An alternative strategy to reduce lung cancer mortality is the development of chemopreventive mixtures used to reduce cancer risk. Before entering clinical trails, it is crucial to know the efficacy, toxicity and the molecular mechanism by which the active compounds prevent carcinogenesis. 4-(methylnitrosamino)-1-(3-pyridyl)-1-butanone (NNK), N-nitrosonornicotine (NNN) and benzo[a]pyrene (B[a]P) are among the most carcinogenic compounds in tobacco smoke. All have been widely used as model carcinogens and their tumorigenic activities are well established. It is believed that formation of DNA adducts is a crucial step in carcinogenesis. NNK and NNN form 4-hydroxy-1-(3-pyridyl)-1-butanone releasing and methylating adducts, while B[a]P forms B[a]P-tetraol-releasing adducts. Different isothiocyanates (ITCs) are able to prevent NNK-, NNN- or B[a]P-induced tumor formation, but relative little is know about the mechanism of these preventive effects. In this thesis, the influence of different ITCs on adduct formation from NNK plus B[a]P and NNN were evaluated. Using an A/J mouse lung tumor model, it was first shown that the formation of HPB-releasing, O6-mG and B[a]P-tetraol-releasing adducts were not affected when NNK and B[a]P were given individually or in combination, of by gavage. Using the same model, the effects of different mixtures of PEITC and BITC, given by gavage or in the diet, on DNA adduct formation were evaluated. Dietary treatment with phenethyl isothiocyanate (PEITC) or PEITC plus benzyl isothiocyanate (BITC) reduced levels of HPB-releasing adducts by 40*50%. This is consistent with a previously shown 40% inhibition of tumor multiplicity for the same treatment. In the gavage treatments with ITCs it seemed that PEITC reduced HPB-releasing DNA adducts, while levels of BITC counteracted these effects. Levels of O6-mG were minimally affected by any of the treatments. Levels of B[a]P-tetraol releasing adducts were reduced by gavaged PEITC Summary Page XII and BITC, 120 h after the last carcinogen treatment, while dietary treatment had no effects. We then extended our investigation to F-344 rats by using a similar ITC treatment protocol as in the mouse model. NNK was given in the drinking water and B[a]P in diet. Dietary PEITC reduced the formation of HPB-releasing globin and DNA adducts in lung but not in liver, while levels of B[a]P-tetraol-releasing adducts were unaffected. Additionally, the effects of PEITC, 3-phenlypropyl isothiocyanate, and their N-acetylcystein conjugates in diet on adducts from NNN in drinking water were evaluated in rat esophageal DNA and globin. Using a protocol known to inhibit NNNinduced esophageal tumorigenesis, the levels of HPB-releasing adduct levels were unaffected by the ITCs treatment. The observations that dietary PEITC inhibited the formation of HPB-releasing DNA adducts only in mice where the control levels were above 1 fmol/µg DNA and adduct levels in rat lung were reduced to levels seen in liver, lead to the conclusion that in mice and rats, there are at least two activation pathway of NNK. One is PEITC-sensitive and responsible for the high adduct levels in lung and presumably also for higher carcinogenicity of NNK in lung. The other is PEITC-insensitive and responsible for the remaining adduct levels and tumorigenicity. In conclusion, our results demonstrated that the preventive mechanism by which ITCs inhibit carcinogenesis is only in part due to inhibition of DNA adduct formation and that other mechanisms are involved. There is a large body of evidence indicating that induction of apoptosis may be a mechanism by which ITCs prevent tumor formation, but further studies are required.
eta3- und eta3:2-koordinierte Manganverbindungen wurden mit Alkinen umgesetzt - Übergangsmetallkomplexe unterschiedlicher Struktur und Koordination mit Vinylcyclopropan. Ziel der Arbeit war die Isolierung und Charakterisierung der neu gebildeten Verbindungen. Die Reaktionen lieferten ein unerwartet breites Produktbild.
Endless fibre reinforced thermoplastic sheets (organic sheets) are significantly gaining
in importance due to their outstanding characteristics. In comparison to common
thermoplastic press moulding composites with random reinforcement like GMT and
LFRT they offer remarkably better specific mechanical properties (stiffness, strength).
And different from endless fibre reinforced thermosets, they also possess high
toughness and show good impact behaviour. Furthermore, they enable welding and
have an appreciable recycling potential.
The manufacturing steps, beginning from impregnation and consolidation of the
semi-finished sheets up to thermoforming and welding to obtain the final part, represent
a closed processing chain. This results in short cycle times and the potential for
mass production.
However, this material class is rarely used because of its cost and surface quality
problems. Therefore, only a few applications exist as demanding functional or structural
parts.
High costs emerge in consequence of either expensive raw materials (carbon fibres,
technical thermoplastics) or the sophisticated processing technique concerning the
impregnation and consolidation step (double belt press). The surface quality problem
is mainly caused by the print-through of reinforcing fibres, which therefore precludes
applications in visible regions, especially in the field of automotive exterior panels.
The aim of the thesis was to enhance the chances of application by improving the
surface quality of endless fibre reinforced thermoplastics. Thus the surface characteristics
and possibilities for reproducible quantitative measuring were identified. Surface
roughness, gloss rate, profile amplitude and wavelength as well as short (sw)
and long term (lw) waviness were chosen as appropriate values. By varying the type of fibre, matrix, fabric and coating the influence of material parameters on the surface
appearance could then be investigated.
It became obvious that the fibre print-through is a result of the significantly higher
volume shrinkage of the thermoplastic resin (higher coefficient of linear thermal expansion)
in comparison to that of the reinforcement during the cooling process, combined
with an uneven distribution of resin and fibres. Thus, amorphous matrices that
have no shrinkage due to crystallisation and a preferably small thermal induced density
growth lead to significantly better surface qualities (from lw = 60 to lw = 20). Qualitatively the texture is dominated by the reinforcing architecture. The kind of textile
weaving and fineness of the fibre bundles determine the wavelength of the profile
deflection.
It was found that the coating has the largest influence on the surface appearance. A
common varnish layer with a thickness of only 40 μm enhances the gloss of the substrate
which makes the surface waviness even more clearly visible. However, optimising
the varnish system with additional base coat or filling layers drastically reduced
the waviness but did not raze it completely (lw = 10). Only the application of a
thermoplastic varnish layer could diminish the waviness to the desired range below
10 (lw = 4).
Besides the experimental work a theoretical analysis of the consolidation and solidification
step was carried out. A finite element model has been created representing a
semi-finished sheet with four layers of a 2/2 twill textile reinforcement. Based on this
geometry various matrix characteristics as well as alterations of the global reinforcement
structure (more or less horizontal ply off-set) have been analysed.
The simulations supported the experimental results. They indicated the strong influence
of the matrix and showed that the off-set of the reinforcing layers plays an important
role concerning the resulting surface profile. Because the off-set of the plies
can not be controlled in the real material and therefore is at random, the profile
depths show a remarkable standard deviation (30 %). In the example considering a
2/2-twill reinforcement the optimum off-set could reduce the profile depth up to 40 %.
Furthermore, the influence of the process parameters (pressure and cooling rate)during the consolidation process was experimentally and theoretically investigated. In
addition to the non-isotropic characteristics of the textile, the time and temperature
dependent mechanical behaviour of the thermoplastic matrix had to be ascertained
and transferred into the model.
A rapid cooling rate was identified to reduce the surface profile of the substrate. The
profile depth of the simulated GF-PC could be decreased from 5 - 3 μm. However,
experimental tests concerning temperature changes and weathering showed that this
advantageous effect decreases with time due to the viscoelastic behaviour of the
polymer and resetting forces of the reinforcement.
The pressure can influence the texture phenomenon only by affecting the fibre volume
content of the sample. In case of static isobaric press processing a certain matrix
flow across the margins of the tool can not be totally averted. With a rising pressure the outflow becomes stronger and leads to a growing fibre volume content and
stronger surface waviness.
By carrying out several simulations with systematically varying material data a nomogram
could be created that represents a tool to predict the surface profile of comparable
composites (2/2 twill reinforcement, FVC around 50 %) just in dependence of
the matrix. It takes into account the specific matrix volume shrinkage and the pitch
from its solidification to usage temperature. Thus, the possibilities but also limitations
of a certain material combination concerning surface waviness can easily be estimated.
In order to reduce the heterogeneity of the fibre matrix distribution common textile
fabrics were substituted by unidirectional (UD) non-crimped structures and UD fabrics.
A newly established processing method was used to manufacture a noncrimped
and non-sewed endless fibre reinforced thermoplastic sheet by direct combination
of a multiaxial weft insertion machine and a continuous rotocure press. The
resulting product proved the potential for an improved surface quality. Despite the
use of relatively heavy rovings and not yet optimised fibre placement the surface profile
of this new kind of organic sheets is comparable with the one of those samples
having the fine 8-H-satin fabric reinforcement (lw = 20).
Finally it could be shown that the method of thermoplastic varnish layer lamination
which has successfully been used for semi-finished parts can also be integrated in a
thermoforming step to create three-dimensional components. The best results of this trial (lw = 10, sw = 14) do not reach the level of the flat sheets but almost meet the
requirements of the automotive “Class A” standard. With regard to economical and
weight saving aspects this material option can be considered a competitive alternative
to common car body panels.
In conclusion the investigations showed a notable feasibility to improve the surface
quality of endless fibre reinforced thermoplastic sheets. Therefore, this thesis represents
a contribution to amplify the application potential of this material class, particularly
in the fields of leisure and sports goods, and in the range of commercial vehicles.
The tape placement technique is of particular importance for the production of large
and weight optimized structural components especially in the aeronautic industry.
The components are produced independently of size and load directions by placing
single unidirectional fiber reinforced tapes automatically. Moreover, very large component
dimensions enable a reduction of joining processes.
In comparison to the thermoset tape placement, additional potentials can be set up
through the usage of thermoplastic semi-finished materials, as beside the high degree
of integration und the defined laminate construction less material specific problems
and a non-autoclave production can be realized. This thesis follows an allembracing
analyses and development of the thermoplastic tape placement process
to provide knowledge to overcome the deficits concerning semi-finished materials,
systems engineering and available models for the process description.
First, the process is described and differentiated. Within the scope of a strategic
process analyses, the potentials and strength of this process are worked out.
Through a succeeding operational process analyses, the process is pictured in detail
and further developments of the process and the control are made possible.
All aspects of the process in terms of quality of the semi-finished material, systems
engineering, process control, and quality assurance are considered for the process
development. Innovative concepts to solve the first layer problem and a new tape
placement head are worked out.
A new model is developed to support strategic decisions on basis of component specific
cycle times. A measure for the component shape complexity is derived and integrated
into a continuous approach. The model is based on the process physics and
can be applied to any component without a need for empiric data.
Finally, new process potentials are presented through a combination of thermoforming
and thermoplastic tape placement.
Cyclo-(PhAs)6 als Edukt für Übergangsmetallcyclopentadienyl-Komplexe mit Asn- und (PhAs)n-Liganden
(2002)
In der Chemie der (RAs)n-Heterocyclen, R = Alkyl, Aryl, hat sich cyclo-(PhAs)6 als besonders wertvolles Ausgangsmaterial für Komplexe mit Asn- bzw. (PhAs)n-Liganden bewährt. Die Cothermolyse von Hexaphenylcyclohexaarsan mit verschiedenen Übergangsmetallcyclopentadienyl-Komplexen liefert eine Reihe von neuartigen Verbindungen mit substituentenfreien As-Liganden und substituentenhaltigen As-Liganden, welche zum Teil in guten Ausbeuten hergestellt und in einigen Fällen durch eine Röntgenstrukturanalyse charakterisiert wurden. Bei den Komplexen mit As1- und As2-Liganden verdienen besondere Beachtung das dreiecksdodekaedrische [{Cp=Fe}4As4] sowie das aus der trigonalen Bipyramide bestehende [{CpRCo}3(µ3-As)2], dessen Spitzen von jeweils einem dreibindigen Arsenatom besetzt sind. Bei [{Cp-Co}3(µ3-As)2] ist das freie Elektronenpaar am Arsen noch zusätzlich durch ein {M(CO)5}-Fragment (M = Mo, W) komplexierbar ([{Cp-Co}3{(µ4-As)M(CO)5}2]). Verbindungen mit substituentenhaltigen As-Liganden sind in der Literatur nur vereinzelt beschrieben. Bei [{Cp=Rh}3(µ-CO)(AsPh2)As] wurde offensichtlich eine PhAs-Gruppe unter Ph-Wanderung in einen Ph2As-Liganden umgewandelt. Bemerkenswert ist der PhAs-Ligand in [{Cp=Rh(CO)}2(AsPh)W(CO)5], dessen freies Elektronenpaar noch zusätzlich an ein {W(CO)5}-Fragment koordiniert ist. In [{Cp=Rh}3(Rh(CO)2)(AsPh)(AsO)] sind ein PhAs- und AsO-Ligand realisiert.
Solid particle erosion is usually undesirable, as it leads to development of cracks and
holes, material removal and other degradation mechanisms that as final
consequence reduce the durability of the structure imposed to erosion. The main aim
of this study was to characterise the erosion behaviour of polymers and polymer
composites, to understand the nature and the mechanisms of the material removal
and to suggest modifications and protective strategies for the effective reduction of
the material removal due to erosion.
In polymers, the effects of morphology, mechanical-, thermomechanical, and fracture
mechanical- properties were discussed. It was established that there is no general
rule for high resistance to erosive wear. Because of the different erosive wear
mechanisms that can take place, wear resistance can be achieved by more than one
type of materials. Difficulties with materials optimisation for wear reduction arise from
the fact that a material can show different behaviour depending on the impact angle
and the experimental conditions. Effects of polymer modification through mixing or
blending with elastomers and inclusion of nanoparticles were also discussed.
Toughness modification of epoxy resin with hygrothermally decomposed polyesterurethane
can be favourable for the erosion resistance. This type of modification
changes also the crosslinking characteristics of the modified EP and it was
established the crosslink density along with fracture energy are decisive parameters
for the erosion response. Melt blending of thermoplastic polymers with functionalised
rubbers on the other hand, can also have a positive influence whereas inclusion of
nanoparticles deteriorate the erosion resistance at low oblique impact angles (30°).
The effects of fibre length, orientation, fibre/matrix adhesion, stacking sequence,
number, position and existence of interleaves were studied in polymer composites.
Linear and inverse rules of mixture were applied in order to predict the erosion rate of
a composite system as a function of the erosion rate of its constituents and their
relative content. Best results were generally delivered with the inverse rule of mixture
approach.
A semi-empirical model, proposed to describe the property degradation and damage
growth characteristics and to predict residual properties after single impact, was
applied for the case of solid particle erosion. Theoretical predictions and experimental
results were in very good agreement.
Strahlerosionsverschleiß (Erosion) entsteht beim Auftreffen von festen Partikel
auf Oberflächen und zeichnet sich üblicherweise durch einen Materialabtrag aus, der
neben der Partikelgeschwindigkeit und dem Auftreffwinkel stark vom jeweiligen
Werkstoff abhängt. In den letzten Jahren ist die Anwendung von Polymeren und
Verbundwerkstoffen anstelle der traditionellen Materialien stark angestiegen.
Polymere und Polymer-Verbundwerkstoffe weisen eine relativ hohe Erosionsrate
(ER) auf, was die potenzielle Anwendung dieser Werkstoffe unter erosiven
Umgebungsbedingungen erheblich einschränkt.
Untersuchungen des Erosionsverhaltens anhand ausgewählter Polymere und
Polymer-Verbundwerkstoffe haben gezeigt, dass diese Systeme unterschiedlichen
Verschleißmechnismen folgen, die sehr komplex sind und nicht nur von einer
Werkstoffeigenschaft beeinflusst werden. Anhand der ER kann das
Erosionsverhalten grob in zwei Kategorien eingeteilt werden: sprödes und duktiles
Erosionsverhalten. Das spröde Erosionsverhalten zeigt eine maximale ER bei 90°,
während das Maximum bei dem duktilen Verhalten bei 30° liegt. Ob ein Material das
eine oder das andere Erosionsverhalten aufweist, ist nicht nur von seinen
Eigenschaften, sondern auch von den jeweiligen Prüfparametern abhängig.
Das Ziel dieser Forschungsarbeit war, das grundsätzliche Verhalten von
Polymeren und Verbundwerkstoffen unter dem Einfluss von Erosion zu
charakterisieren, die verschiedenen Verschleißmechanismen zu erkennen und die
maßgeblichen Materialeigenschaften und Kennwerte zu erfassen, um Anwendungen
dieser Werkstoffe unter Erosionsbedingungen zu ermöglichen bzw. zu verbessern.
An einer exemplarischen Auswahl von Polymeren, Elastomeren, modifizierten Polymeren und Faserverbundwerkstoffen wurden die wesentlichen Einflussfaktoren
für die Erosion experimentell bestimmt.
Thermoplastische Polymere und thermoplastische- und vernetzte- Elastomere
Die Versuche, den Erosionswiderstand ausgewählter Polymere (Polyethylene
und Polyurethane) mit verschiedenen Materialeigenschaften zu korrelieren, haben
gezeigt, dass es weder eine klare Abhängigkeit von einzelnen Kenngrößen noch von
Eigenschaftskombinationen gibt. Möglicherweise führt die Bestimmung der
Materialeigenschaften unter den gleichen experimentellen Bedingungen wie bei den Erosionsversuchen zu einer besseren Korrelation zwischen ER und
Materialkenngröße.
Modifiziertes Epoxidharz
Am Beispiel eines modifizierten Epoxidharzes (EP) mit verschiedener
Vernetzungsdichte wurde eine Korrelation zwischen Erosionswiderstand und
Bruchenergie bzw. Erosionswiderstand und Vernetzungsdichte gefunden. Die
Modifizierung erfolgte mit verschiedenen Anteilen von einem hygrothermisch
abgebauten Polyurethan (HD-PUR). Der Zusammenhang zwischen ER und
Vernetzungsparametern steht im Einklang mit der Theorie der Kautschukelastizität.
Modifizierungseffizienz in Duromeren, Thermoplasten und Elastomeren
Des weiteren wurde der Einfluss von Modifizierungen von Polymeren und
Elastomeren untersucht. Mit dem obenerwähnten System (d.h. EP/HD-PUR) läßt sich
auch der Einfluss der Zähigkeitsmodifizierung des Epoxidharzes (EP) auf das
Erosionsverhalten untersuchen. Es wurde gezeigt, dass für HD-PUR Anteile von
mehr als 20 Gew.% diese Modifizierung einen positiven Einfluss auf die
Erosionsbeständigkeit hat. Durch Variation der HD-PUR-Anteile können für dieses
EP Materialeigenschaften, die zwischen den Eigenschaften eines üblichen
Duroplasten und eines weniger elastischen Gummis liegen, erzeugt werden.
Deswegen stellt der modifizierte EP-Harz ein sehr gutes Modellmaterial dar, um den
Einfluss der experimentellen Bedingungen zu studieren, und zu untersuchen, ob
verschiedene Erodenten zu gleichen Erosionsmechanismen führen. Der Übergang
vom duroplastischen zum zähen Verhalten wurde anhand von vier Erodenten
untersucht. Aus den Versuchen ergab sich, dass ein solcher Übergang auftritt, wenn
sehr feine, kantige Partikel (Korund) als Erodenten dienen. Die Partikelgröße und -form ist von entscheidender Bedeutung für die jeweiligen Verschleißmechanismen.
Die Effizienz neuartiger thermoplastischer Elastomere mit einer cokontinuierlichen
Phasenstruktur, bestehend aus thermoplastischem Polyester und
Gummi (funktionalisierter NBR und EPDM Kautschuk), wurde in Bezug auf die
Erosionsbeständigkeit untersucht. Große Anteile von funktionalisiertem Gummi (mehr
als 20 Gew.%) sind vorteilhaft für den Erosionswiderstand. Weiterhin wurde
untersucht, ob sich die herausragende Erosionsbeständigkeit von Polyurethan (PUR)
durch Zugabe von Nanosilikaten eventuell noch steigern läßt. Das Ergebnis war,
dass die Nanopartikel sich vor allem bei einem kleinen Verschleißwinkel (30°) negativ
auswirken. Die schwache Adhäsion zwischen Matrix und Partikeln erleichtert den
Beginn und das Wachsen von Rissen. Dies führt zu einem schnelleren
Materialabtrag von der Materialoberfläche.
Faserverbundwerkstoffe
Ferner wurden Faserverbundwerkstoffe (FVW) mit thermoplastischer und
duromerer Matrix auf ihr Verhalten bei Erosivverschleiß untersucht. Es war von
großem Interesse, den Einfluss von Faserlänge und -orientierung zu untersuchen.
Kurzfaserverstärkte Systeme haben einen besseren Erosionswiderstand als die
unidirektionalen (UD) Systeme. Die Rolle der Faserorientierung kann man nur in
Verbindung mit anderen Parametern, wie Matrixzähigkeit, Faseranteil oder Faser-
Matrix Haftung, berücksichtigen. Am Beispiel von GF/PP Verbunden weisen die
parallel zur Verstreckungsrichtung gestrahlten Systeme den geringsten Widerstand
auf. Andererseits findet bei einem GF/EP System die maximale ER in senkrechter
Richtung statt. Eine Verbesserung der Grenzflächenscherfestigkeit beeinflusst die
Erosionsverschleißrate nachhaltig. Wenn die Haftung der Grenzfläche ausreichend
ist, spielt die Erosionsrichtung eine unbedeutende Rolle für die ER. Weiterhin wurde
gezeigt, dass die Präsenz von zähen Zwischenschichten zu einer deutlichen
Verbesserung des Erosionswiderstands von CF/EP- Verbunden führt.
Eine weitere Aufgabenstellung war es, die Rolle des Faservolumenanteils zu
bestimmen. „Lineare, inverse und modifizierte Mischungsregeln“ wurden
angewendet, und es wurde festgestellt, dass die inversen Mischungsregeln besser
die ER in Abhängigkeit des Faservolumenanteils beschreiben können.
Im Anwendungsbereich von Faserverbundwerkstoffen ist nicht nur die Kenntnis
der ER, sondern auch die Kenntnis der Resteigenschaften erforderlich. Ein
halbempirisches Modell für die Vorhersage des Schlagenergieschwellwertes (Uo) für den Beginn der Festigkeitsabnahme und der Restzugfestigkeit nach einer
Schlagbelastung wurde bei der Untersuchung des Erosionsverschleißes
angewendet. Experimentelle Ergebnisse und theoretische Vorhersagen stimmten
nicht nur für duromere CF/EP-Verbundwerkstoffe, sondern auch für
Verbundwerkstoffe mit einer thermoplastischen Matrix (GF/PP) sehr gut überein.
In this work the investigation of a (Ti, Al, Si) N system was done. The main point of investigation was to study the possibility of getting the nanocomposite coatings structures by deposition of multilayer films from TiN, AlSiN, . This tries to understand the relation between the mechanical properties (hardness, Young s modulus), and the microstructure (nanocrystalline with individual phases). Particularly special attention was given to the temperature effects on microstructural changes in annealing at 600 °C for the coatings. The surface hardness, elastic modulus, and the multilayers diffusion and compositions were the test tools for the comparison between the different coated samples with and without annealing at 600 °C. To achieve this object a rectangular aluminum vacuum chamber with three unbalanced sputtering magnetrons for the deposition of thin film coatings from different materials was constructed The chamber consists mainly of two chambers, the pre-vacuum chamber to load the workpiece, and the main vacuum chamber where the sputtering deposition of the thin film coatings take place. The workpiece is moving on a car travel on a railway between the two chambers to the position of the magnetrons by step motors. The chambers are divided by a self constructed rectangular gate controlled manually from outside the chamber. The chamber was sealed for vacuum use using glue and screws. Therefore, different types of glue were tested not only for its ability to develop an uniform thin layer in the gap between the aluminum plates to seal the chamber for vacuum use, but also low outgassing rates which made it suitable for vacuum use. A epoxy was able to fulfill this tasks. The evacuation characteristics of the constructed chamber was improved by minimizing the inner surface outgassing rate. Therefore, the throughput outgassing rate test method was used in the comparisons between the selected two aluminum materials (A2017 and A5353) samples short time period (one hour) outgassing rates. Different machining methods and treatments for the inner surface of the vacuum chamber were tested. The machining of the surface of material A (A2017) with ethanol as coolant fluid was able to reduce its outgassing rate a factor of 6 compared with a non-machined sample surface of the same material. The reduction of the surface porous oxide layer on the top of the aluminum surface by the pickling process with HNO3 acid, and the protection of it by producing another passive non-porous oxides layer using anodizing process will protect the surface for longer time and will minimize the outgassing rates even under humid atmosphere The residual gas analyzer (RGA) 6. Summary test shows that more than 85% of the gases inside the test chamber were water vapour (H2O) and the rests are (N2, H2, CO), so liquid nitrogen water vapor trap can enhance the chamber pumping down process. As a result it was possible to construct a chamber that can be pumped down using a turbo molecular pump (450 L/s) to the range of 1x10-6 mbar within one hour of evacuations where the chamber volume is 160 Litters and the inner surface area is 1.6 m2. This is a good base pressure for the process of sputtering deposition of hard thin film coatings. Multilayer thin film coating was deposited to demonstrate that nanostructured thin film within the (Ti, Al, Si) N system could be prepared by reactive magnetron sputtering of multi thin film layers of TiN, AlSiN. The (SNMS) spectrometry of the test samples show that a complete diffusion between the different deposited thin film coating layers in each sample takes place, even at low substrate deposition temperature. The high magnetic flux of the unbalanced magnetrons and the high sputtering power were able to produce a high ion-toatom flux, which give high mobility to the coated atoms. The interactions between the high mobility of the coated atoms and the ion-to-atom flux were sufficient to enhance the diffusion between the different deposited thin layers. It was shown from the XRD patterns for this system that the structure of the formed mixture consists of two phases. One phase is noted as TiN bulk and another detected unknown amorphous phase, which can be SiNx or AlN or a combination of Ti-Al-Si-N. As a result we where able to deposit a nanocomposite coatings by the deposition of multilayers from TiN, AlSiN thin film coatings using the constructed vacuum chamber
A geoscientifically relevant wavelet approach is established for the classical (inner) displacement problem corresponding to a regular surface (such as sphere, ellipsoid, actual earth's surface). Basic tools are the limit and jump relations of (linear) elastostatics. Scaling functions and wavelets are formulated within the framework of the vectorial Cauchy-Navier equation. Based on appropriate numerical integration rules a pyramid scheme is developed providing fast wavelet transform (FWT). Finally multiscale deformation analysis is investigated numerically for the case of a spherical boundary.
Congress Report 2002.01
(2002)