Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
Im Rahmen der vorliegenden Arbeit wurde erstmalig die Verarbeitungstechnik zur
Entwicklung und Herstellung von Microfibrillaren Composites (MFCs) im Bereich der
resorbierbaren Polymeren angewandt. Ziel war die Herstellung eines polymeren
MFC-Knochennagel-Implantats aus den zwei biodegradierbaren Werkstoffen
Polylaktid und Polyglykolid, um eine Verbesserung der mechanischen Eigenschaften
gegenüber den Ausgangswerkstoffen zu erzielen. Die biodegradierbaren MFCs
wurden schließlich bzgl. ihres mechanischen Leistungspotentials gegenüber der
alternativen Herstellungstechnik „Solid-State-Extrusion“ bewertet.
Die vier verschiedenen Polylaktide, Poly-L-laktid (PLLA), Polylaktid (PLA), Poly-DLlaktid
(PLDLA), Poly-LDL-laktid (PLDLLA) und der Werkstoff Polyglykolid (PGA)
bildeten vier Werkstoffpaarungen für die MFC-Versuchsreihen. Für die Solid-State-
Extrusion standen die vier Polylaktide aus der MFC-Serie sowie mehrere kompatible
Polylaktidmischungen zur Verfügung.
Innerhalb der Untersuchungen wurde zuerst das Verfahren der Solid-State-Extrusion
optimiert, da es hier auch Überschneidungen in den MFC-Verarbeitungsetappen gab.
Um den MFC-Prozess optimieren zu können, wurden theoretische Überlegungen
und schematische Modellansätze aufgestellt, die dann durch mikroskopische
Beobachtungen bestätigt und verifiziert wurden. Aus der entwickelten
Modellvorstellung konnten Lösungsansätze hergeleitet werden, welche die von
Fakirov et al. aufgestellten MFC-Bedingungen erweiterten und eine Herstellung von
resorbierbaren Microfibrillaren Composites ermöglichten.
Die 3-Punkt-Biegeuntersuchungen der MFC-Werkstoffpaarung zeigten für eine PGA/PLA 30:70-Mischung eine Erhöhung der mechanischen Steifigkeit um 30 % und
der Festigkeit um 20 % gegenüber dem reinen Polylaktid. Die initiale
Leistungssteigerung mittels der Solid-State-Extrusion fällt mit über 120 % Steigerung
deutlich stärker aus als die der MFCs, jedoch reduziert sich der Gewinn unter
Berücksichtigung eines Umformprozesses auf ca. 50 %. Weiterhin konnten die MFCs
mittels dem Spritzgießverfahren in komplexe Geometrien geformt werden.
Abschließend wurde für den MFC-Prozeß ein Verarbeitungsfenster hergeleitet.
This thesis aimed at developing and producing bioresorbable Microfibrillar
Composites (MFCs) for polymer bone nails. The main goal was to create a complete
resorbable Microfibrillar Composite made from the two common commercial
polymers polylactide (PLA) and polyglycolide (PGA). The mechanical strength and
stiffness of this new composite should be significantly higher in comparison to the
native materials. To evaluate their mechanical potential, the produced MFCs were
compared to the alternative technique of solid-state-extrusion.
Four different polymer blends in different component ratios were developed and
investigated for the MFC series. These blends werde made of four different
polylactides, two amorphous and two partially crystalline polylactides, together with
polyglycolide as the reinforcing material. For the solid-state-extrusion, four native
polylactides from the MFC series and several miscible polylactide blends were
produced.
Following the experimental studies, the process of solid-state-extrusion was
optimized first. Furthermore a theoretical model was developed for optimizing the
MFC process. This model was prooved by experimental data and microscopy
investigations. Due to the model it was possible to develop solutions for the MFCprocessing.
In addition the basic rules developed by Fakirov et al. were extended.
The mechanical properties were evaluated by 3 point bending tests. An increase of
30 % for the stiffness and 20 % for the bending strength in comparison to the native
polylactide was reached by a MFC-PGA/PLA 30:70. For the solid-state-extrusion, a
significant increase of 120 % was possible. But considering an additional forming
process, the mechanical properties dropped to 50 % of the initial values.
Furthermore, regarding the MFC-process, it was possible to get complex shapes like
the bone nails by injection molding. In conclusion a processing window was
established for the MFC-process.
Die effektive Nutzung der attraktiven Materialeigenschaften von Verbundwerkstoffen,
insbesondere die der langfaserverstärkten Polymere in Großserienbauteilen, macht
nicht nur die Entwicklung entsprechender Fertigungsverfahren sondern einhergehend
prognosefähige Berechnungsmethoden für Werkstoff und Bauweise notwendig.
Praxistaugliche Berechnungsmodelle beschränken sich in der Regel auf bewusst einfach
gehaltene analytische Modelle zur Grobdimensionierung oder auf Finite-Elemente-
Analysen. Letztere erlauben, lokale Konstruktionsaspekte darzustellen und
detaillierte Einsicht in das Strukturverhalten zu nehmen.
Am Beispiel von mit der Wickeltechnik hergestellter zylindrischer Vollkunststoff-
Druckbehälter wurden Auslegungsmethoden für unidirektional verstärkte FKV-Strukturen
erörtert, experimentell validiert und zusammen mit analytisch formulierten
Randbedingungen bzw. Modellen zu Geometrie, Werkstoff und Fertigung in ein vollparamtrisches,
dreidimensionales FE-Auslegungsmodul implementiert. Durch die
Auflösung der tragenden Tankstruktur in die einzelnen Wickellagen und der parametrischen
Variation von Lagenaufbau und Domgeometrie gestattet dieses eine effektive
Bauweisenoptimierung hinsichtlich Gewicht und Werkstoffausnutzung. Insbesondere
die neuartige, experimentell verifizierte Beschreibung der einzelnen Wickellagendicken
im Behälterdom erlaubt eine der Fertigung entsprechende, im jeweiligen
Wicklungslagenende wulstfreie Behältermodellgenerierung.
Gewebeverstärkte thermoplastische Halbzeuge können oberhalb ihrer Verformungstemperatur
wiederholt mittels Stempelumformprozess in aufeinander abgestimmten
Werkzeughälften umgeformt werden. Für eine effektivere Auslegung solcher Bauweisen
durch Verbesserung der Werkstoffmodellierung wird erstmalig die Prozesssimulation
mit der Strukturanalyse gekoppelt. Die hierfür entwickelte Schnittstelle vollzieht neben der Datenübersetzung die automatisierte Aufbereitung des Simulationsschalennetzes
zum voluminösen Strukturmodell nebst Modellbeschneidung und beinhaltet
erste Ansätze zur Abschätzung der Werkstoffkennwerte des infolge der Drapierung
nicht mehr orthogonal gewebeverstärkten FKV. Die Berücksichtigung von
Fadenorientierung, Dickenverteilung und auftretenden Falten durch Übertragung des
Simulationsnetzes erlaubt eine im Vergleich zum Stand der Technik realitätsnähere,
durch Bauteilprüfungen validierte Abbildung des mechanischen Strukturverhaltens.
The effective use of the attractive material properties of fiber reinforced plastics
(FRP), especially of long fiber reinforced polymers in mass production, requires an
advanced development of suitable manufacturing processes and prognostic design
and analysis methods for the material and structural behavior. This paper resulted
out of two research projects, accompanied by industrial, close to series development
tasks. The objective was to increase the efficiency of the material, structure and
manufacturing aspects of the prototype development through improved modeling
methods in analysis and simulation in close relationship with the design, material
development and testing facilities.
Mass production capability of thermoforming processing in combination with weight
saving potentials on the one hand and thermal and electrical insulation advantages of
thermoplastics in comparison to steel on the other hand was the motivation for the
development of a safety toe cap for safety shoes made of canvas reinforced thermoplastics.
An innovative analysis method for structures made of canvas reinforced
plastics which was initiated by this development program focus on a realistic
reproduction of the non-orthogonal fiber reinforcement of the woven fabric after the
thermoforming process. Canvas reinforced thermoplastics can be simplified as an
alignment of small unidirectional fiber reinforced sections in weft and warp direction.
The underlying design theories for unidirectional FRP were rehashed and advanced
in the framework of a full plastic high pressure vessel development program. To
improve the effectiveness of the pressure vessel design work, the mentioned design
theories and further specific manufacturing models were implemented in an innovative,
full-parametric design module validated by burst pressure vessel tests.
Of importance for the dimensioning and wide application of FRP-structures is the
ability to forecast the material behavior, particularly with regard to the frequent lack of measured material properties in practical design work. The conceptual formulation
was augmented for the quality assessment of the accomplished design work with a
systematic evaluation of the most well known estimations in regards to stiffness and
strength properties of unidirectional and canvas reinforced plastics. For non-orthogonal
canvas reinforced FRP, as in case of thermoformed components, no appropriate material model is available. A relative easy handling material model for orthogonal
canvas reinforced FRP known in literature was augmented to non-orthogonal.
This paper is not dealing with lightweight construction methods but in fact with the
objective to improve the praxis relevant design methods of unidirectional and bidirectional
fiber reinforced plastics; i.e. including estimations for material properties
and manufacturing influences.
The fundamentals of the presented analyses are the consideration of fiber orientation
and ply thickness close to reality by analytical models implemented in the FEA like
the description of the fiber deposition in a filament winding process.
A significant improvement of the design and analyses methods for unidirectional FRP
exemplarity in the case of high pressure vessels made of full plastic has been done
by the comprehension of relevant manufacturing parameters, especially through the
improved description of the ply thickness in the vessel domes. This was achieved by
combining two models, each separately known in literature, to level the bulges at the
end of each ply due to increasing fiber coverage and their mathematical description.
This leveling meets the practical corrections that also have to be done in a filament
winding program in the manufacturing process. Validating measurements on pressure
vessel prototypes were performed and showed excellent accordance.
Beyond it, the developed parametric FE analysis tool for cylindrical pressure vessels
produced with the filament winding technique enables a time efficient design optimization vessels in the analysis tool were set back to future work due to the unsufficient amount of vessel tests and for the benefit of a challenging design
analysis concept for canvas reinforced FRP.
For thermoformed canvas reinforced FRP the fiber orientation and play thickness can
be determined by process simulation. Interfaces to the structural analysis that particularly
include the theoretical estimation of material properties and the material
modeling are not available in the commercial market. Hence, even the structural
analysis of such constructions can not be assumed to be state of the art. Previous
analyses of thermoformed constructions depend on material isotropy or neglect the
canvas shearing during draping; i.e. the thermoformed woven fabric material is
modeled with orthogonal fiber orientation and constant ply thickness. The objective of
this paper is to combine forming simulation and structural analysis in a way, that
beside the pure data translation, the interface performs an automated transformation
of the shell based process simulation FE net to a volumetric structure model including
the model trimming and the estimation of the non-orthogonal material properties.
The consideration of fiber orientation, thickness distribution and eventually occurring
crinkles transferred with the FE net of the process simulation into the structural
analysis allows a much more reliable reproduction of the mechanical structure behavior
as in comparison to the traditional state of the art analysis which has been
validated by extensive prototype tests.
The static, non-linear analysis of the toe cap made of canvas reinforced thermoplastic
is accompanied by very successful prototype tests, which in turn pushed this
toe cap design ahead. This series are closely linked to material development, as well
as new manufacturing technology.
and analysis because of it's automated model generation. The analysis or
evaluation of variants of the load bearing FRP lay-up, the influence of different valve
geometry and dome contours necessitates now solely the modification of the input
parameters.
For a specific forecast of the achievable burst pressure of a pressure vessel design
additional work has to be done. A degradation model has to be implemented in the
analysis tool to evaluate the increasing local ply failures until the vessel burst. The
main objective for the unidirectional FRP essay of the paper was to improve the
model generation and to increase the time effectiveness of the design analysis,
which has been achieved. The originally planed implementation of a strength evaluation
of pressure
Die Luftfahrtindustrie und die meeresgestützte ölfördernde Industrie, die so genannte
Off-Shore Industrie, streben die Einführung bzw. Weiterverbreitung von faserverstärkten
Kunststoffen mit thermoplastischer Matrix an. Sowohl Leistungsverbesserung
aber auch Kosten- und Gewichtsreduktion sind die Treiber für diese Entwicklung.
Der sehr hohe Anspruch an die Qualität der Bauteile bedingt die Verfügbarkeit
geeigneter Herstellungsverfahren. Beispiele hierfür sind das Tapelege- und das Wickelverfahren.
Beide Prozesse sind allerdings bis heute nur in den Varianten für die
Verarbeitung duroplastischer Matrizes industriell umgesetzt und etabliert. Die Bauteilherstellung
geschieht bei Anwendung von Duroplasten für Hochtemperatur- oder
Primärstrukturanwendungen durch eine, dem formgebenden Prozess nachgeschaltete
Aushärtung im Ofen oder Autoklav. Thermoplaste bieten jedoch die Möglichkeit
zur Einsparung dieses Prozessschrittes durch die in-situ Konsolidierung, d.h. endkonturnahes,
formgebendes Ablegen und Verschweißen in einem Schritt. Die Komplexität
der Thermoplastprozesse ist jedoch durch die simultane Durchführung zweier
Aufgaben erhöht. Deshalb besteht ein großer Bedarf, die theoretischen Hintergründe,
das physikalische, thermodynamische und chemische Prozessverständnis stetig
grundlegend zu erarbeiten bzw. zu verbessern. Die rein experimentelle Prozessentwicklung
an Anlagen industriellen Maßstabs ist aus Kostengründen und dem Problem
der mangelhaften Auflösung einzelner Prozessphänomene dafür ungeeignet.
Daher wird seit vielen Jahren am Verständnis, der Abstraktion und der Simulation
dieser Prozesse gearbeitet. Die dabei entstandenen theoretischen Modellierungen
können allerdings nur selten einen Bezug zum realen Prozess nachweisen.Die vorliegende Arbeit schließt deshalb die Lücke zwischen Simulation und experimenteller
Prozessentwicklung. Auf Basis einer vielfach verwendeten mathematischen
Beschreibung der thermodynamischen Verhältnisse im Prozess, einer Energiebilanzgleichung,
die erstmals in diesem Zusammenhang um die Möglichkeit zur
Berechnung von Strahlungsrandbedingungen erweitert wird, beschreibt die Arbeit die
Entwicklung eines Prozesssimulationssystems. Das dazu neu entwickelte Finite-
Elemente-Methode Programm ProSimFRT, das auf der nicht-linearen Diskretisierung
der Energiebilanzgleichung basiert, bildet der Kern eines modularen Prozesssimulationspaketes, welches die ganzheitliche parametrische Berechnung der Temperatur
während des gesamten Prozesses und für alle Prozessteilnehmer erlaubt. Thermodynamische
Teilaspekte der Verfahren und somit auf rein theoretischem Weg unzugängliche
Prozessparameter, wie z.B. konvektive Randbedingungen oder durch eine
Wasserstoff-Sauerstoffflamme erzeugte Wärmeströme können mit ProSimFRT semiempirisch
ermittelt werden. Die hierfür angewandte Methodik der Simulationskalibrierung
bedarf jedoch einer experimentellen Verifikationsmöglichkeit. Daher wird eine
neu entwickelte Experimentalplattform vorgestellt. Ein spezieller Thermodynamikprüfstand
erlaubt die Ermittlung der Prozessparameter und eine flexible Möglichkeit
zum Nachweis der Funktionsfähigkeit der Simulation. Die Integration dieser Parameter
zu einem ganzheitlichen Prozessmodell am Beispiel des Thermoplasttapelegens
mit kohlenstofffaserverstärktem Polyetheretherketon und die ableitbaren Hinweise für
die Prozessentwicklung bilden abschließend die Grundlage für die zukünftige Integration
der Simulation in die Gesamtprozesskette.
The aerospace industry and the off-shore oil industry are facing the introduction and
evolution of fiber reinforced thermoplastics. Performance enhancements as well as
cost and weight savings are the drivers behind this development. The high level of
requirements concerning the quality of components leads to a need for applicable
manufacturing technologies. Filament winding and tape placement are examples for
such processes. Both have been successfully industrialized for thermoset materials.
Thermoset components for high temperature or primary structure applications are
typically manufactured in a multi-step approach. After a geometry determining step
consolidation and curing are introduced as further processing steps towards the final
component, often using ovens or autoclaves. Being weldable, thermoplastics give the
possibility to integrate this multi-step thermoset processes. Hence the complexity of
thermoplastic processing is increased, but the potential of saving manufacturing time
is obvious. This leads to the need of theoretic background know how about the
physical, thermodynamical and chemical phenomena behind the thermoplastic
manufacturing technologies. Due to that, since many years worldwide efforts are carried
out concerning the understanding, abstraction and simulation of this processes.
But, the developed models hardly have a direct relation to real processes.
The present work overcomes the gap between simulation and experimental process
development. Based on a widely used mathematical description of the thermodynamics
within the processes, an energy balance equation, which is enhanced with radiative
boundary conditions for the first time in this context, the present work describes
the development of a process simulation tool. The newly developed finite-element
program ProSimFRT, which is based on a non-linear discretization of the energy balance
equation, serves as kernel of a modular process simulation environment. This
package allows the parametric calculation of the temperature fields throughout the whole process and for all process participants. Thermodynamic aspects, hardly
available by analytical theory as convective boundary conditions or heat fluxes generated
by oxygen-hydrogen flames can be determined semi-empirically with
ProSimFRT. The method used for that needs a possibility for experimental investigations.
Hence, a thermodynamic test rig is introduced.This test rig allows the determination of process parameters and delivers a flexible
possibility for the validation and verification of the simulation. The integration of this
parameters into an overall process model for the thermoplastic tape placement process
using carbon fiber reinforced polyetheretherketone and derivable hints for the
process development conclude the present work. They are a baseline for the future
integration of the simulation into the manufacturing process.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
We propose several algorithms for efficient Testing of logical Implication in the case of ground objects. Because the problem of Testing a set of propositional formulas for (un)satisfiability is \(NP\)-complete there's strong evidence that there exist examples for which every algorithm which solves the problem of testing for (un)satisfiability has a runtime that is exponential in the length of the input. So will have our algorithms. We will therefore point out classes of logic programs for which our algorithms have a lower runtime. At the end of this paper we will give an outline of an algorithm for theory refinement which is based on the algorithms described above.
UML and SDL are languages for the development of software systems that have different origins, and have evolved separately for many years. Recently, it can be observed that OMG and ITU, the standardisation bodies responsible for UML and SDL, respectively, are making efforts to harmonise these languages. So far, harmonisation takes place mainly on a conceptual level, by extending and aligning the set of language concepts. In this paper, we argue that harmonisation of languages can be approached both from a syntactic and semantic perspective. We show how a common syntactical basis can be derived from the analysis of the UML meta-model
and the SDL abstract grammar. For this purpose, conceptually sound and well-founded mappings from meta-models to abstract grammars and vice versa are defined and applied. On the semantic level, a comparison between corresponding language constructs is performed.
This report explains basic notions and concepts of Abstract State Machines (ASM) as well as notation for defining ASM models. The objective here is to provide an intuitive understanding of the formalism; for a rigorous definition of the mathematical foundations of ASM, the reader is referred to [2] and [3]. Further references on ASM-related material can be found on the ASM Web Pages [1].
Jahresbericht
(2003)
Congress Report 2003.12
(2003)
Congress Report 2003.11
(2003)
Congress Report 2003.10
(2003)
Congress Report 2003.09
(2003)
Congress Report 2003.07-08
(2003)
Congress Report 2003.06
(2003)
Congress Report 2003.05
(2003)
Congress Report 2003.04
(2003)
Congress Report 2003.03
(2003)
Congress Report 2003.02
(2003)
Congress Report 2003.01
(2003)
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
In recent years a considerable attention was paid to an investigation of finite orders relative to different properties of their isotone functions [2,3]. Strict order relations are defined as strict asymmetric and transitive binary relations. Some algebraic properties of strict orders were already studied in [6]. For the class K of so-called 2-series strict orders we describe the partially ordered set EndK of endomorphism monoids, ordered by inclusion. It is obtained that EndK possesses a least element and in most cases defines a Boolean algebra. Moreover, every 2-series strict order is determined by its n-ary isotone functions for some natural number n.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für die Jahre 2001 und 2002.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.
In der vorliegenden Arbeit wird die Beständigkeit geklebter, hochfester Glasverbunde unter natürlicher Bewitterung untersucht. Ziel der vorliegenden Arbeit ist es, die Anforderungen an einen Klebstoff zum hochfesten und witterungsbeständigen Fügen von Glas für Anwendungen im Bauwesen zu spezifizieren und die Tauglichkeit geeignet erscheinender Systeme anhand dieser Anforderungen zu prüfen und zu bewerten. Feuchtigkeit sowie die UV- und Lichteinstrahlung sind die Hauptschädigungsfaktoren für Glasklebungen. Ein Klebstoff für die Befestigung von Punkthaltern an Glas muss unter diesen Belastungen dauerhafte Verbindungen zur Glasoberfläche aufbauen und im Vergleich zu den in linienförmigen Verbindungen eingesetzten Silikonen deutlich höhere Spannungen übertragen können. Als aussichtsreiche Klebstoffkonzepte zur Erfüllung dieser Forderungen werden ein epoxidverstärkter Silyl-Klebstoff und ein Zweikomponenten-Epoxidharzklebstoff mit Haftvermittler ausgewählt. Diese Klebstoffe können der Theorie nach -ebenso wie Silikone- über Si-O-Si-Bindungen an die Glasoberfläche anbinden. Ein in der Praxis bewährter Silikondichtstoff dient als Bewertungsmaßstab für das Alterungsverhalten der gewählten Systeme. Die Untersuchung des Alterungsverhaltens der Klebstoffe erfolgt an Glas-Glas-Modellverbunden in Druckscher- und in Zugschergeometrie. Der Einfluss von Feuchtigkeit auf die Verbindung wird durch eine Wasserlagerung der Modellverbunde bei 40 °C simuliert, eine künstliche Bewitterung belastet die Proben zusätzlich durch UV- und sichtbares Licht. Durch eine parallel zu diesen Versuchen durchgeführte Freibewitterung kann die Aussagekraft der gewonnenen Ergebnisse bewertet werden. Die Wasserlagerung führt bei den mit GD 823 N hergestellten Modellverbunden nach relativ kurzer Zeit zu einem deutlichen Abfall der Verbundfestigkeit und zu einem Wechsel des im ungealterten Zustand kohäsiven Bruchbildes zu adhäsivem Versagen. Die künstliche Bewitterung zeigt die Unempfindlichkeit gegenüber der Einwirkung von Sonnenlicht, erhöhter Temperatur und zeitweiliger Feuchtebelastung. Sie führt zu keiner relevanten Änderung der Festigkeit oder des Bruchbildes der Modellverbunde. Die natürliche Bewitterung der Verbunde führt nach fünf Jahren zu keiner erkennbaren Schädigung des Klebstoffes oder der Grenzfläche. Die ermittelten mechanischen Kennwerte unterscheiden sich nur geringfügig von den im ungealterten Zustand ermittelten Werten. Bei den mit MOS 7 hergestellten Verbunden führt die Wasserlagerung zu einem moderaten Festigkeitsverlust, der durch Trocknung der Proben teilweise rückgängig gemacht werden kann. Dabei ändert sich das Bruchbild vom kohäsiven Versagen im ungealterten Zustand zu einem adhäsiven Versagen nach Wasserlagerung. Nach Rücktrocknung treten bei kürzeren Alterungsdauern wieder Kohäsionsbrüche auf, nach längerer Wasserlagerung bleibt das Bruchbild adhäsiv. Die Ergebnisse der mechanischen Prüfungen deuten auf eine signifikante Nachvernetzung des Klebstoffs im Verlauf der Alterungen hin, die nicht nur durch das Wasser, sondern auch durch die erhöhte Temperatur verursacht wird. Dies kann durch FTIR-Messungen gezeigt werden. Die künstliche Bewitterung führt zu einer deutlichen Schädigung der Verbindung, die sowohl in den mechanischen Kennwerten als auch im Wechsel des Bruchbildes sichtbar wird. Dieses Verhalten zeigen die Proben auch bei Freibewitterung. Längere Lagerung der Proben unter Lichtabschluss bei Umgebungsbedingungen führt zu einer starken Zunahme von Scherfestigkeit und E-Modul durch die langsam ablaufende Nachvernetzung der Epoxidharzphase. Der Klebstoff MOS 7 ist trotz der mit ihm zu erzielenden gut feuchtigkeitsbeständigen Verbunde aufgrund der nicht ausreichenden Beständigkeit bei Bewitterung und der sich stark ändernden mechanischen Eigenschaften für eine direkte UV-Belastung der Grenzfläche und einen Einsatz in feucht-warmer Umgebung weniger geeignet. Die mit dem Epoxidharz Sichel Metallon FL verklebten Modellverbunde werden sowohl bei Raumtemperatur als auch bei 120 °C ausgehärtet. Nach beiden Aushärtebedingungen zeigen die Verbunde nach Alterung in 40 °C warmem Wasser nur geringe Verluste der Festigkeit. Erst die Erhöhung der Alterungstemperatur auf 70 °C führt zu einem deutlichen Festigkeitsverlust mit erkennbaren Vorteilen der Heißaushärtung. Bei künstlicher Bewitterung lassen sich geringfügige Unterschiede der verklebten Glasseite erkennen. Die Ergebnisse deuten darauf hin, dass die Verklebung der Ofenseite zu einer etwas besseren Beständigkeit führt. Technisch sind die ermittelten Unterschiede nur von geringer Bedeutung. Die Freibewitterung hinterlässt nach fünf Jahren keine erkennbaren Schäden an der Klebung.
Im Rahmen der vorliegenden Doktorarbeit wurde das Protein AtMSBP1 (Arabidopsis thaliana Monosaccharid Binding Protein 1) aus der Familie der Zuckertransporter auf molekularer und biochemischer Ebene untersucht. Dieses Protein weist sowohl strukturelle, als auch funktionelle Besonderheiten im Vergleich zu anderen bisher untersuchten Zuckertransportern aus Arabidopsis thaliana auf. Die MSBP-Proteine stellen eine eigene Gruppe innerhalb der Monosaccharid-Transporter der Pflanzen dar. Sie haben wie andere Zuckertransporter 12 transmembrane Helices, die zwischen Helix 6 und 7 durch einen großen zentralen Loop miteinander verbunden sind. Dieser hydrophile Loop ist bei den MSBP-Proteinen 4 bis 5 mal so lang wie bei anderen Zuckertransportern und spielt für die Funktion der MSBP-Proteine wahrscheinlich eine wichtige Rolle. Die MSBP-Proteine weisen mehr Ähnlichkeit zu bakteriellen als zu plasmamembranständigen pflanzlichen Monosaccharidtransportern auf. Die Proteine des MSBP-Typs wurden in verschiedenen Spezies der Angiospermen identifiziert. In Arabidopsis thaliana kommen drei Isoformen der MSBP-Proteine vor, die auf mRNA-Ebene in verschieden Geweben nachgewiesen wurden und ein spezifisches Expressionsmuster zeigen. Der AtMSBP1 ist in der äußeren Plastidenmembran lokalisiert, trägt dort aber nicht signifikant zum Glukosetransport bei. Bei der Anzucht von AtMSBP1::T-DNA- und AtMSBP2::T-DNA-"knock out"-Mutanten auf Erde gibt es keine signifikanten phänotypischen Unterschiede im Vergleich zu Wildtyppflanzen. Bei erhöhten Konzentrationen verschiedener Zucker zeigen aber die "knock out"-Mutanten auf morphologischer und molekularer Ebene einen sensitiveren Phänotyp im Vergleich zu Wildtyppflanzen. Die Ergebnisse lassen auf eine Verknüpfung der MSBP-Proteine mit den "Zuckersensing-Wegen" der Pflanzen schließen.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
Die cytogenetische Manifestation von Genamplifikation in humanen Zellen wurde in einem Fall von akuter myeloischer Leukämie (AML) sowie an der humanen Cervixcarcinomzelllinie HeLa S3 untersucht. In dem AML-Fall ergab die Karyotypisierung der Leukämiezellen neben dem Verlust eines X-Chromosoms das Vorliegen einer extrachromosomalen Genamplifikation in Form von Double Minutes. Mit Hilfe der Comparativen Genomischen Hybridisierung (CGH) und der Fluoreszenz-in situ-Hybridisierung (FISH) wurde die Herkunft der amplifizierten Sequenz aus der chromosomalen Region 8q24 ermittelt und eine Amplifikation des Protoonkogens MYC in den Double Minutes nachgewiesen. Die FISH-Analyse zeigte zudem den Verlust von einem der beiden chromosomalen MYC-Loci an, der auf einen Deletionsmechanismus der Genamplifikationsentwicklung schliessen ließ. Die Induktion der Amplifikation des Dihydrofolat-Reduktase-Gens (DHFR) durch Selektion mit Methotrexat (MTX) diente als Modellsystem zur Analyse der frühen Stadien der Genamplifikationsentwicklung. Durch mehrmonatige Mehrschrittselektionen von zwei HeLa-Zellpopulationen wurden unabhängig voneinander zwei HeLa-Sublinien mit jeweils extrachromosomaler DHFR-Amplifikation in Form von Double Minutes erzeugt. Die Veränderungen der 5q-Trägerchromosomen und der intrachromosomalen DHFR-Kopienanzahl, die im Verlauf der MTX-Selektionen in den HeLa-Zellen auftraten, wiesen auf das Zusammenwirken unterschiedlicher Mechanismen zur DHFR-Amplifikation hin. Niedrige MTX-Konzentrationen wirkten in Richtung einer Anreicherung von intrachromosomalen DHFR-Kopien, die hauptsächlich auf den Zugewinn eines Chromosoms 5 zurückzuführen waren. Daneben wies das Auftreten von neuen derivativen DHFR-haltigen Chromosomen auf Bruchereignisse in Chromosom 5 hin. Das Erscheinen eines derivativen Chromosoms mit zwei invertiert angeordneten 5q und drei DHFR-Kopien ließ auf das Ablaufen von Breakage-Fusion-Bridge (BFB)-Zyklen schliessen. Bei höheren MTX-Konzentrationen (ab 0.25 µM) trat dagegen eine Anreicherung von extrachromosomalen DHFR-Kopien in Double Minutes bei gleichzeitigem Rückgang der derivativen DHFR-haltigen Chromosomen in den Vordergrund. Die Sublinien aus Selektion 1 waren in diesem Stadium durch den Verlust eines Chromosoms 5 gekennzeichnet, der auf eine Generierung von extrachromosomalen DHFR-Kopien aus 5q-Bruchstücken hinwies. Im Gegensatz dazu trat bei den Sublinien von Selektion 2 in diesem Stadium zunächst noch eine Zunahme von intrachromosomalen DHFR-Kopien auf, die nachfolgend durch eine sprunghafte Erhöhung von extrachromosomalen DHFR-Kopien in Double Minutes in der Zellpopulation abgelöst wurde. In den Sublinien von Selektion 2 kann daher eine Generierung von extrachromosomalen DHFR-Kopien durch Bruchereignisse an einem zuvor hinzugewonnenen Chromosom 5 angenommen werden. Die letzten Sublinien aus beiden Selektionen wiesen wieder den 5q-Trägerchromosomen- und intrachromosomalen DHFR-Status der Parentallinie auf, der offenbar in den HeLa-Zellen eine besondere Stabilität besitzt. Die unterschiedlichen Veränderungen im 5q- und DHFR-Status in den untersuchten HeLa-Sublinien zeigen, dass eine DHFR-Amplifikation in HeLa-Zellen unter MTX-Selektionsdruck auf verschiedenen Wegen erfolgen kann. In mehrmonatiger Kultivierung ohne Selektionsdruck entwickelte die verwendete HeLa-Zelllinie unter den vorliegenden Kultivierungsbedingungen keine der in den MTX-selektionierten Sublinien beobachteten Veränderungen, so dass diese als selektionsspezifische Prozesse angesehen werden können.
Das Internet ist kein statisches Objekt, das keinen Veränderungen ausgesetzt ist. Ständig werden neue Informationsmaterialien hinzugefügt, bestehende Inhalte verändert oder ganz entfernt. Das Verändern und Entfernen von Materialien ist ein Problem, das von META-AKAD nicht außer Acht gelassen werden darf. Es ist notwendig die erschlossenen Lehr- und Lernmaterialien ständig auf Veränderung und auf ihre Verfügbarkeit hin zu prüfen. Im Rahmen dieser Projektarbeit soll eine Aktualisierungskomponente entwickelt werden, die es ermöglicht die gesammelten und bereits erschlossenen Lehr- und Lernmaterialien in festgelegten Zyklen automatisch auf ihre Aktualität und Verfügbarkeit hin zu überprüfen. Dies erleichtert es, die gesammelten Materialien zu kontrollieren und zu verwalten. Weiterhin soll die Aktualisierungskomponente dabei helfen nicht mehr verfügbare oder veraltete Dokumente aus der Menge der erfassten Materialien ausfindig zu machen, um diese eventuell entfernen zu können.
Das Projekt Meta-Akad hat das Ziel, Lernenden und Lehrenden den möglichst einfachen, umfassenden und schnellen Zugriff auf Lehrmaterial zu ermöglichen. Dabei werden verschiedene, über die Aspekte einer reinen Internet- Suchmaschine hinausgehende Aspekte berücksichtigt: Neben dem Aufbau einer umfangreichen und repräsentativen Sammlung von Lerndokumenten sollen diese mittels bibliothekarischer Methoden erschlossen und mit umfangreichen Metadaten, wie beispielsweise einer inhaltlichen Einordnung, versehen werden. Um dem Problem der fraglichen Qualität von Dokumenten aus dem Internet gerecht zu werden, bietet Meta-Akad die Möglichkeit diese durch Beguchtachtungsverfahren sicherzustellen. Aufgrund dieses Mehrwerts versteht sich das Projekt als virtuelle, über das Internet erreichbare Bibliothek. Der Zugriff auf die erfassten Dokumente ist durch eine Web-basierte Schnittstelle realisiert: Diese soll sowohl die Möglichkeit einer Suche durch Angabe von Schlüsselwörtern, als auch das Blättern in der Dokumentsammlung erlauben. Eine Suche nach Schlüsselwörtern soll neben den Meta-Daten auch den gesamten textuellen Inhalt der Dokumente betreffen. Die Integration der Volltextsuche in den bereits vorhandenen Meta-Daten Suchvorgang ist das Kernthema dieser Projektarbeit.
Diese Projektarbeit beschreibt die Anforderungen, den Aufbau und die Implementierung der Anfrageverarbeitung (Query-Engine). Im diesem Kapitel werden die Zielsetzungen des Meta-Akad Projekts und die Realisierungsmöglichkeiten mit dem Java 2 Enterprise Edition Framework erörtert. Ferner wird die Einordnung der Anfrageverarbeitung in das Gesamtsystem gezeigt. Das zweite Kapitel erläutert grob Anforderungen sowie Ablauf der Anfrageverarbeitung und stellt das Implementierungskonzept dar. In den Nachfolgenden Kapitel wird dann näher auf die einzelnen Phasen der Verarbeitung und die auftretenden Probleme eingegangen. Am Ende werden im Kapitel Ausblick Möglichkeiten für Erweiterungen und Verbesserungen der Anfrageverarbeitung des Meta-Akad Suchdienstes dargelegt.
Die wesentlichste Veränderung durch Basel II, mit der kreditsuchende Unternehmen konfrontiert sein werden, ist das Rating als wesentlicher Bestandteil des Kreditvergabeprozesses. Auf das Unternehmenscontrolling werden in diesem Zusammenhang, insbesondere im Be-reich der Kommunikation mit externen Adressaten, Neuerungen zukommen. Kommunikation mit Stakeholdern außerhalb des Unternehmens war bisher nur im Rahmen der Investor Relations und eingeschränkt bei der Kreditvergabe anzutreffen. Durch Basel II muss sich das Unternehmenscontrolling jedoch sehr viel offener und kooperativer gegenüber von Ratingagenturen oder der entsprechenden Abteilung der Bank zeigen. In der Ausgestaltung des Risikocontrollings sind für eine Ausrichtung nach Basel II keine gestalterischen Innovationen notwendig. Die risikoadäquatere Bildung des Zinssatzes bietet lediglich einen monetären Anreiz, die Anforderungen, die beispielsweise schon größtenteils durch das KonTraG aufgestellt wurden, innerhalb der Unternehmen zu implementieren.
We present new algorithms and provide an overall framework for the interaction of the classically separate steps of logic synthesis and physical layout in the design of VLSI circuits. Due to the continuous development of smaller sized fabrication processes and the subsequent domination of interconnect delays, the traditional separation of logical and physical design results in increasingly inaccurate cost functions and aggravates the design closure problem. Consequently, the interaction of physical and logical domains has become one of the greatest challenges in the design of VLSI circuits. To address this challenge, we propose different solutions for the control and datapath logic of a design, and show how to combine them to reach design closure.
Ziel dieser Arbeit war es, die Rolle der PDE1C-Isoform in ZNS-Zellen zu untersuchen. Es sollte vor allem die Bedeutung der PDE1C als mögliches Target für die anti-neoplastische Therapie von ZNS-Tumoren näher beleuchtet werden. Die humanen Glioblastomzellinien SNB75, SF295, SF539 und SF268 wurden bezüglich ihrer PDE1- und PDE4-Isoenzymausstattung näher charakterisiert. Es zeigte sich, daß die Zellinien SNB75 und SF295 in ihrem PDE-Expressionsmuster sehr unterschiedlich sind: In der Zellinie SNB75 liegt die cAMP-hydrolytische Aktivität deutlich über jener in SF295-Zellen. Darüber hinaus weisen die SNB75-Zellen einen hohen Anteil Ca2+/CaM-stimulierbarer PDE1-Aktivität bei niedriger PDE4-Aktivität auf. Im Gegensatz dazu zeigt die Zellinie SF295, welche keine Ca2+/CaM-stimulierbare PDE-Aktivität besitzt, einen hohen prozentualen Anteil an Rolipram-hemmbarer PDE4-Aktivität. Darüber hinaus verhalten sich die beiden Zellinien auch bezüglich ihrer Gehalte an den „second messengern“ cAMP und cGMP komplementär. In den SNB75-Zellen ist der cAMP-Spiegel etwa um 2/3 niedriger als in den SF295-Zellen; der cGMP-Spiegel ist etwa doppelt so hoch wie der cAMP-Gehalt. In SF295-Zellen hingegen liegt der Gehalt an cGMP um etwa die Hälfte niedriger als der cAMP-Spiegel und ist somit vergleichbar mit dem cGMP-Gehalt der SNB75-Zellen. Auch die intrazelluläre Konzentration von Ca2+ ist in der Zellinie SNB75 höher als in SF295-Zellen. Die Untersuchung ausgelöster Ca2+-Transienten – mit besonderem Augenmerk auf den capacitativen Ca2+-Einstrom (CCE) – ergab, daß in SNB75-Zellen die Kapazität der intrazellulären Ca2+-Speicher und die Geschwindigkeit der Speicherentleerung größer sind als in SF295-Zellen. Auch der CCE ist in SNB75-Zellen größer als in der Zellinie SF295. An den beiden humanen Glioblastomzellinien SNB75 und SF295 wurden mittels Cytotoxizitätstests verschiedene PDE-Hemmstoffe auf ihr wachstumshemmendes Potential untersucht. Für den PDE4-Inhibitor DC-TA-46 konnte ein IC50-Bereich von 3-4.5 µM für die Hemmung des Zellwachstums ermittelt werden. Der als PDE1-Hemmstoff eingesetzte CaM-Antagonist Calmidazoliumchlorid wies einen IC50-Wert für die Wachstumshemmung von 2-3 µM auf. Ein Zusammenhang zwischen PDE1 bzw. PDE4-Expression der Zellinien und dem wachstumshemmenden Potential der eingesetzten Substanzen war nicht erkennbar. Zur weiteren Charakterisierung der Zellinie SNB75 wurden der Karyotyp und die Verdopplungszeit der Zellinie bestimmt. Weiterhin wurde die cDNA der PDE1C aus der humanen Biopsieprobe TB1365 (anaplastisches Astrocytom) kloniert und das rekombinante Protein transient überexprimiert. An der rekombinanten PDE1C wurden – neben der Stimulierbarkeit des Proteins durch Ca2+/CaM (+ 130 %) – die beiden PDE-Hemmstoffe DC-TA-46 und Vinpocetin getestet. Diese beiden Substanzen hemmten die Aktivität der rekombinanten PDE1C um durchschnittlich 42 % (DC-TA-46) bzw. 28 % (Vinpocetin). Ein in vitro-Tiermodell zur näheren Untersuchung der PDE-Ausstattung und cAMP-Homöostase von nicht-malignen ZNS-Zellen und Glioblastomzellen sollte aus subkultivierten Ratten-Astrocyten und der Ratten-Glioblastomzellinie C6 entwickelt werden. Die Untersuchungen der vorliegenden Arbeit zeigen, entgegen Daten für Keratinocyten (Marko et al., 1998), daß die PDE-Aktivität in nicht-malignen Ratten-Astrocyten deutlich höher liegt als in der Glioblastomzellinie C6. Die Ratten-Astrocyten zeigen eine höhere Ca2+/CaM-stimulierbare PDE1-Aktivität. In der Zellinie C6 hingegen ist der PDE4-Anteil im Vergleich zu Ratten-Astrocyten höher. Diese Ergebnisse werden durch RT-PCR-Versuche gestützt. Die Gehalte der „second messenger“ cAMP, cGMP und Ca2+ sind in nicht-malignen Ratten-Astrocyten und malignen C6-Zellen vergleichbar. Allerdings weisen die C6-Zellen einen größeren CCE auf. Der Einsatz von DC-TA-46 in Cytotoxizitätstests weist sowohl in Ratten-Astrocyten als auch in C6-Tumorzellen vergleichbare Hemmwirkungen (IC50-Wert ~ 1.5 µM) auf. Der CaM-Antagonist Calmidazoliumchlorid wirkt in subkultivierten Ratten-Astrocyten bereits in geringsten Konzentrationen wachstumshemmend; der IC50-Wert der Wachstumshemmung von C6-Zellen liegt bei 2.3 µM. Ergebnisse dieser Arbeit zeigen allerdings, daß das untersuchte Ratten-Zellmodell – auch aufgrund der unterschiedlichen Kulturbedingungen, welche die PDE-Expression beeinflussen – nur mit Einschränkungen einsetzbar ist. Aufgrund der aktuellen Daten scheint die PDE1C als Target für eine anti-neoplastischen Therapie von ZNS-Tumoren kaum geeignet. Der Vergleich von nicht-malignen und malignen ZNS-Zellen deutet eher auf eine „down“-Regulation der PDE1C und eine „up“-Regulation der PDE4 hin. Dies konnte sowohl in humanen als auch in Rattenzellen gezeigt werden und müßte in weiteren Untersuchungen vertiefend untersucht werden.
The present thesis deals with coupled steady state laminar flows of isothermal incompressible viscous Newtonian fluids in plain and in porous media. The flow in the pure fluid region is usually described by the (Navier-)Stokes system of equations. The most popular models for the flow in the porous media are those suggested by Darcy and by Brinkman. Interface conditions, proposed in the mathematical literature for coupling Darcy and Navier-Stokes equations, are shortly reviewed in the thesis. The coupling of Navier-Stokes and Brinkman equations in the literature is based on the so called continuous stress tensor interface conditions. One of the main tasks of this thesis is to investigate another type of interface conditions, namely, the recently suggested stress tensor jump interface conditions. The mathematical models based on these interface conditions were not carefully investigated from the mathematical point of view, and also their validity was a subject of discussions. The considerations within this thesis are a step toward better understanding of these interface conditions. Several aspects of the numerical simulations of such coupled flows are considered: -the choice of proper interface conditions between the plain and porous media -analysis of the well-posedness of the arising systems of partial differential equations; -developing numerical algorithm for the stress tensor jump interface conditions, coupling Navier-Stokes equations in the pure liquid media with the Navier-Stokes-Brinkman equations in the porous media; -validation of the macroscale mathematical models on the base of a comparison with the results from a direct numerical simulation of model representative problems, allowing for grid resolution of the pore level geometry; -developing software and performing numerical simulation of 3-D industrial flows, namely of oil flows through car filters.
Wesentliches Ziel dieser Arbeit war ein verbessertes Verständnis der Autoionisationsdynamik in ausgewählten angeregten und anionischen atomaren Stoßkomplexen. Dazu wurden die Energiespektren der in diesen Prozessen freigesetzten Elektronen, zum Teil in Abhängigkeit vom Emissionswinkel, mit hoher Auflösung untersucht und mit quantenmechanischen Rechnungen (die in Kooperation mit Theoretikern durchgeführt wurden) verglichen. Ein Schwerpunkt lag dabei auf Experimenten zur assoziativen Ionisation in Stößen metastabiler Argonatome mit Wasserstoffatomen. In diesem System liegt die Anregungsenergie der metastabilen Argonatome (11.7232eV für den Ar*(3P0)- und 11.5484eV für den Ar*(3P2)-Zustand) niedriger als die Ionisierungsenergie von atomarem Wasserstoff (13.5984eV), und so kann bei thermischen Stoßenergien nur assoziative Ionisation unter Bildung von ArH+-Molekülionen gemäß dem Prozess Ar*(4s 3P2,3P0) + H(1s) --> ArH+(v+,J+) + e-(E) auftreten, welche über Kurvenkreuzungen ablaufen muss. Erstmals wurden die Energieverteilungen der in diesem Prozess emittierten Elektronen für verschiedene Nachweiswinkel gemessen, wobei die Messungen bei einem Nachweiswinkel zustandsselektiert durchgeführt wurden. Die Elektronenenergiespektren zeigen eine deutliche Variation der auftretenden Vibrationsstufen mit dem Nachweiswinkel, wobei verschiedene Winkelabhängigkeiten bei den Stufen zu kleinen und zu großen Vibrationsquantenzahlen v+ beobachtet wurden. Zur Durchführung der winkelabhängigen Messungen wurde ein hochauflösendes Elektronenspektrometer konstruiert, welches an den bereits vorhandenen apparativen Aufbau angepasst und mit einer Option für positionsempfindlichen Elektronennachweis versehen wurde. Charakterisierungs-Messungen haben gezeigt, dass mit dem neuen Elektronenanalysator bei Spaltbreiten von 0.2mm Spektrometerbreiten bis hinab zu 6meV erreicht werden können. Im Rahmen weiterer Experimente mit metastabilen Edelgasatomen wurden erstmals zustandsselektiv die Energieverteilungen der in den Stoßkomplexen Ar*(4s 3P2,3P0) + Hg und Kr*(5s 3P2,3P0) + Hg emittierten Elektronen gemessen. Bei diesen Systemen kann bei thermischen Stoßenergien sowohl Penning-Ionisation gemäß dem Prozess Rg* + Hg --> Rg + Hg+ + e-(E) als auch assoziative Ionisation gemäß Rg* + Hg --> RgHg+ + e-(E) (Rg = Ar oder Kr) auftreten. Diese Messungen wurden unter einem festen Nachweiswinkel (90° relativ zur Richtung des Metastabilenstrahls) durchgeführt. Es wurde beobachtet, dass im Ar*(3P0)+Hg-Spektrum im Vergleich zum Ar*(3P2)+Hg-Spektrum eine zusätzliche Struktur bei geringerer Elektronenenergie auftritt, welche sich nur durch Kopplung an einen tiefer liegenden Autoionisationskanal erklären lässt. Für das System Ar*(3P2) + Hg wurden parallel zu dieser Arbeit quantenmechanische Modellrechnungen von L. Thiel durchgeführt. Aus dem gemessenen Elektronenenergiespektrum konnte unter Verwendung eines ab initio Potentials für den Ausgangskanal ein komplexes Modellpotential für den Eingangskanal gewonnen werden, mit welchem das gemessene Elektronenenergiespektrum gut reproduziert wird. Neben den Experimenten zur assoziativen und zur Penning-Ionisation wurden in Kooperation mit auswärtigen Gruppen Untersuchungen zum assoziativen Detachment in anionischen Stoßkomplexen durchgeführt. Gemeinsam mit M. Cizek und J. Horacek (Prag, Tschechische Republik) wurden die in einem simulierten Experiment zu erwartenden Elektronenenergieverteilungen aus dem Prozess X- + H --> XH(v,J) + e-(E) (X = Cl oder Br) zum einen unter Verwendung einer nichtlokalen Resonanztheorie und zum anderen unter Verwendung einer lokalen Näherung berechnet. Dabei sagten die nichtlokalen Rechnungen deutliche zusätzliche, durch Kanalkopplungseffekte hervorgerufene Strukturen voraus. Deren energetische Positionen im Elektronenenergiespektrum sind annähernd unabhängig von der Stoßenergie und sollten deshalb auch bei relativ breiter Stoßenergieverteilung gut beobachtbar sein. Motiviert durch diesen Befund wurden in Kooperation mit S. Zivanov und M. Allan (Fribourg, Schweiz) erstmals elektronenspektrometrische Untersuchungen an den anionischen Stoßkomplexen Cl- + H und Br- + H durchgeführt. Die gemessenen Elektronenenergieverteilungen zeigen für beide Systeme die im Rahmen der nichtlokalen Resonanztheorie vorhergesagten zusätzlichen Strukturen und dokumentieren damit die starken Kanalkopplungseffekte sowie die für diese Systeme unzureichende Beschreibung durch lokale komplexe Potentiale.
In this paper we focus on the strategic design of supply chain networks. We propose a mathematical modeling framework that captures many practical aspects of network design problems simultaneously but which have not received adequate attention in the literature. The aspects considered include: dynamic planning horizon, generic supply chain network structure, external supply of materials, inventory opportunities for goods, distribution of commodities, facility configuration, availability of capital for investments, and storage limitations. Moreover, network configuration decisions concerning the gradual relocation of facilities over the planning horizon are considered. To cope with fluctuating demands, capacity expansion and reduction scenarios are also analyzed as well as modular capacity shifts. The relation of the proposed modeling framework with existing models is discussed. For problems of reasonable size we report on our computational experience with standard mathematical programming software. In particular, useful insights on the impact of various factors on network design decisions are provided.
The question of how to model dependence structures between financial assets was revolutionized since the last decade when the copula concept was introduced in financial research. Even though the concept of splitting marginal behavior and dependence structure (described by a copula) of multidimensional distributions already goes back to Sklar (1955) and Hoeffding (1940), there were very little empirical efforts done to check out the potentials of this approach. The aim of this thesis is to figure out the possibilities of copulas for modelling, estimating and validating purposes. Therefore we extend the class of Archimedean Copulas via a transformation rule to new classes and come up with an explicit suggestion covering the Frank and Gumbel family. We introduce a copula based mapping rule leading to joint independence and as results of this mapping we present an easy method of multidimensional chi²-testing and a new estimate for high dimensional parametric distributions functions. Different ways of estimating the tail dependence coefficient, describing the asymptotic probability of joint extremes, are compared and improved. The limitations of elliptical distributions are carried out and a generalized form of them, preserving their applicability, is developed. We state a method to split a (generalized) elliptical distribution into its radial and angular part. This leads to a positive definite robust estimate of the dispersion matrix (here only given as a theoretical outlook). The impact of our findings is stated by modelling and testing the return distributions of stock- and currency portfolios furthermore of oil related commodities- and LME metal baskets. In addition we show the crash stability of real estate based firms and the existence of nonlinear dependence in between the yield curve.
The objective of the present article is to give an overview of an application of Fuzzy Logic in Regulation Thermography, a method of medical diagnosis support. An introduction to this method of the complementary medical science based on temperature measurements – so-called thermograms – is provided. The process of modelling the physician’s thermogram evaluation rules using the calculus of Fuzzy Logic is explained.
One of the main goals of an organization developing software is to increase the quality of the software while at the same time to decrease the costs and the duration of the development process. To achieve this, various decisions e.ecting this goal before and during the development process have to be made by the managers. One appropriate tool for decision support are simulation models of the software life cycle, which also help to understand the dynamics of the software development process. Building up a simulation model requires a mathematical description of the interactions between di.erent objects involved in the development process. Based on experimental data, techniques from the .eld of knowledge discovery can be used to quantify these interactions and to generate new process knowledge based on the analysis of the determined relationships. In this paper blocked neuronal networks and related relevance measures will be presented as an appropriate tool for quanti.cation and validation of qualitatively known dependencies in the software development process.
In first part of this work, summaries of traditional Multiphase Flow Model and more recent Multiphase Mixture Model are presented. Attention is being paid to attempts include various heterogeneous aspects into models. In second part, MMM based differential model for two-phase immiscible flow in porous media is considered. A numerical scheme based on the sequential solution procedure and control volume based finite difference schemes for the pressure and saturation-conservation equations is developed. A computer simulator is built, which exploits object-oriented programming techniques. Numerical result for several test problems are reported.
A non-linear multigrid solver for incompressible Navier-Stokes equations, exploiting finite volume discretization of the equations, is extended by adaptive local refinement. The multigrid is the outer iterative cycle, while the SIMPLE algorithm is used as a smoothing procedure. Error indicators are used to define the refinement subdomain. A special implementation approach is used, which allows to perform unstructured local refinement in conjunction with the finite volume discretization. The multigrid - adaptive local refinement algorithm is tested on 2D Poisson equation and further is applied to a lid-driven flows in a cavity (2D and 3D case), comparing the results with bench-mark data. The software design principles of the solver are also discussed.
We consider the problem of pricing European forward starting options in the presence of stochastic volatility. By performing a change of measure using the asset price at the time of strike determination as a numeraire, we derive a closed-form solution based on Heston’s model of stochastic volatility.
On a Multigrid Adaptive Refinement Solver for Saturated Non-Newtonian Flow in Porous Media A multigrid adaptive refinement algorithm for non-Newtonian flow in porous media is presented. The saturated flow of a non-Newtonian fluid is described by the continuity equation and the generalized Darcy law. The resulting second order nonlinear elliptic equation is discretized by a finite volume method on a cell-centered grid. A nonlinear full-multigrid, full-approximation-storage algorithm is implemented. As a smoother, a single grid solver based on Picard linearization and Gauss-Seidel relaxation is used. Further, a local refinement multigrid algorithm on a composite grid is developed. A residual based error indicator is used in the adaptive refinement criterion. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Several results from numerical experiments are presented in order to examine the performance of the solver.
This paper concerns numerical simulation of flow through oil filters. Oil filters consist of filter housing (filter box), and a porous filtering medium, which completely separates the inlet from the outlet. We discuss mathematical models, describing coupled flows in the pure liquid subregions and in the porous filter media, as well as interface conditions between them. Further, we reformulate the problem in fictitious regions method manner, and discuss peculiarities of the numerical algorithm in solving the coupled system. Next, we show numerical results, validating the model and the algorithm. Finally, we present results from simulation of 3-D oil flow through a real car filter.
In this paper, we present a novel multicriteria decision support system (MCDSS), called knowCube, consisting of components for knowledge organization, generation, and navigation. Knowledge organization rests upon a database for managing qualitative and quantitative criteria, together with add-on information. Knowledge generation serves filling the database via e.g. identification, optimization, classification or simulation. For “finding needles in haycocks”, the knowledge navigation component supports graphical database retrieval and interactive, goal-oriented problem solving. Navigation “helpers” are, for instance, cascading criteria aggregations, modifiable metrics, ergonomic interfaces, and customizable visualizations. Examples from real-life projects, e.g. in industrial engineering and in the life sciences, illustrate the application of our MCDSS.
A new stability preserving model reduction algorithm for discrete linear SISO-systems based on their impulse response is proposed. Similar to the Padé approximation, an equation system for the Markov parameters involving the Hankel matrix is considered, that here however is chosen to be of very high dimension. Although this equation system therefore in general cannot be solved exactly, it is proved that the approximate solution, computed via the Moore-Penrose inverse, gives rise to a stability preserving reduction scheme, a property that cannot be guaranteed for the Padé approach. Furthermore, the proposed algorithm is compared to another stability preserving reduction approach, namely the balanced truncation method, showing comparable performance of the reduced systems. The balanced truncation method however starts from a state space description of the systems and in general is expected to be more computational demanding.
The Discrete Ordered Median Problem (DOMP) generalizes classical discrete location problems, such as the N-median, N-center and Uncapacitated Facility Location problems. It was introduced by Nickel [16], who formulated it as both a nonlinear and a linear integer program. We propose an alternative integer linear programming formulation for the DOMP, discuss relationships between both integer linear programming formulations, and show how properties of optimal solutions can be used to strengthen these formulations. Moreover, we present a specific branch and bound procedure to solve the DOMP more efficiently. We test the integer linear programming formulations and this branch and bound method computationally on randomly generated test problems.
We present two heuristic methods for solving the Discrete Ordered Median Problem (DOMP), for which no such approaches have been developed so far. The DOMP generalizes classical discrete facility location problems, such as the p-median, p-center and Uncapacitated Facility Location problems. The first procedure proposed in this paper is based on a genetic algorithm developed by Moreno Vega [MV96] for p-median and p-center problems. Additionally, a second heuristic approach based on the Variable Neighborhood Search metaheuristic (VNS) proposed by Hansen & Mladenovic [HM97] for the p-median problem is described. An extensive numerical study is presented to show the efficiency of both heuristics and compare them.
Asymptotic homogenisation technique and two-scale convergence is used for analysis of macro-strength and fatigue durability of composites with a periodic structure under cyclic loading. The linear damage accumulation rule is employed in the phenomenological micro-durability conditions (for each component of the composite) under varying cyclic loading. Both local and non-local strength and durability conditions are analysed. The strong convergence of the strength and fatigue damage measure as the structure period tends to zero is proved and their limiting values are estimated.
Industrial analog circuits are usually designed using numerical simulation tools. To obtain a deeper circuit understanding, symbolic analysis techniques can additionally be applied. Approximation methods which reduce the complexity of symbolic expressions are needed in order to handle industrial-sized problems. This paper will give an overview to the field of symbolic analog circuit analysis. Starting with a motivation, the state-of-the-art simplification algorithms for linear as well as for nonlinear circuits are presented. The basic ideas behind the different techniques are described, whereas the technical details can be found in the cited references. Finally, the application of linear and nonlinear symbolic analysis will be shown on two example circuits.
Radiation therapy planning is always a tight rope walk between dangerous insufficient dose in the target volume and life threatening overdosing of organs at risk. Finding ideal balances between these inherently contradictory goals challenges dosimetrists and physicians in their daily practice. Today’s planning systems are typically based on a single evaluation function that measures the quality of a radiation treatment plan. Unfortunately, such a one dimensional approach cannot satisfactorily map the different backgrounds of physicians and the patient dependent necessities. So, too often a time consuming iteration process between evaluation of dose distribution and redefinition of the evaluation function is needed. In this paper we propose a generic multi-criteria approach based on Pareto’s solution concept. For each entity of interest - target volume or organ at risk a structure dependent evaluation function is defined measuring deviations from ideal doses that are calculated from statistical functions. A reasonable bunch of clinically meaningful Pareto optimal solutions are stored in a data base, which can be interactively searched by physicians. The system guarantees dynamical planning as well as the discussion of tradeoffs between different entities. Mathematically, we model the upcoming inverse problem as a multi-criteria linear programming problem. Because of the large scale nature of the problem it is not possible to solve the problem in a 3D-setting without adaptive reduction by appropriate approximation schemes. Our approach is twofold: First, the discretization of the continuous problem is based on an adaptive hierarchical clustering process which is used for a local refinement of constraints during the optimization procedure. Second, the set of Pareto optimal solutions is approximated by an adaptive grid of representatives that are found by a hybrid process of calculating extreme compromises and interpolation methods.
In this article, we consider the problem of planning inspections and other tasks within a software development (SD) project with respect to the objectives quality (no. of defects), project duration, and costs. Based on a discrete-event simulation model of SD processes comprising the phases coding, inspection, test, and rework, we present a simplified formulation of the problem as a multiobjective optimization problem. For solving the problem (i.e. finding an approximation of the efficient set) we develop a multiobjective evolutionary algorithm. Details of the algorithm are discussed as well as results of its application to sample problems.
Chemische und sensorische Auswirkungen physikalischer Konzentrierungsverfahren auf Most und Wein
(2003)
In dieser Arbeit wurden die Auswirkungen weinbaulicher und kellerwirtschaftlicher Anreicherungsverfahren mit der traditionellen Anreicherung durch Saccharose und der unbehandelten Variante verglichen. Die Auswirkungen wurden analytisch und sensorisch erfasst. Die physikalischen Mostkonzentrierungsverfahren zeichnen sich dadurch aus, dass nicht flüchtige Mostinhaltsstoffe mit einem Molekulargewicht größer als 80g/Mol in erwartetem Maße angereichert werden. Diese Anreicherung ist auch im Wein sowohl analytisch als auch sensorisch feststellbar. Ausnahmen von diesem Anreicherungsverhalten bilden Kalium und Weinsäure, die während des Konzentrierungsvorganges als Weinstein ausfallen. Somit steigt auch die titrierbare Säure nicht in theoretisch erwartbarem Maße und der pH-Wert bleibt nahezu gleich wie beim unbehandelten Most bzw. Wein. Die üblicherweise angewendeten, weil kostengünstigeren und auch für Qualitätswein b.A. zugelassenen physikalischen Konzentrierungsverfahren sind Umkehrosmose (UO) und Vakuumverdampfung (VD). Beide Verfahren eignen sich gleichermaßen zur Anwendung an geklärten Weiß- und Rotmosten. Das Wasser (Permeat bzw. Destillat) wird schonend dem Most entzogen. Dabei treten Verluste von maximal 2% der nicht flüchtigen Inhaltsstoffe auf. Bei den Rotweinen zeigen beide Verfahren die gleichen Effekte. Nach Maischeerwärmung werden die Moste durch die physikalische Konzentrierung in ihrem Phenolgehalt sofort angereichert. Auch bei der Maischegärung werden die Phenolgehalte gegenüber der Saccharoseanreicherung angehoben, aber indirekt über ein reduziertes Saft/Maische-Verhältnis. Mit einem Saftentzug von der Maische können vergleichbare Effekte erzielt werden. Dies führt im Vergleich zur Saccharoseanreicherung zu analytisch reicheren und sensorisch signifikant besser bewerteten Rotweinen. Bei den Weißweinen nach UO- bzw. VD-Mostkonzentrierung im Vergleich zur Saccharosekontrolle besticht vor allem die Aromaintensität dadurch, dass glycosidisch gebundene Vorläufersubstanzen aufkonzentriert und die Aglyca verstärkt freigesetzt werden. Die Weine werden fruchtiger und vollmundiger. In der sensorischen Gesamtbeurteilung der konzentrierten Weißweine im Vergleich zur traditionellen Saccharoseanreicherung werden die genannten positiven Effekte durch die meist zu spitze Säure und einem als unharmonisch, eindimensional und zu breit empfundenen Geschmack überlagert. Deswegen werden nur selten signifikante Verbesserungen erreicht. Von UO werden auch im Most frei vorliegende Aromastoffe mit einem Molekulargewicht größer 80g/Mol angereichert, während bei der VD flüchtige Inhaltsstoffe bereits zu Beginn des Konzentrierungsvorganges zum Großteil ins Destillat übergehen. Bei VD werden deutliche Verluste der freien Terpene, C6-Alkohole und 2-Phenylethanol festgestellt. Das führt bei den Estern, die diese Verbindungen als Alkoholkomponente enthalten zu einer stark eingeschränkten Bildung während der Gärung. Daher ist die Konzentrierung von aromaintensiven Mosten mittels VD nicht ratsam. Die Anwendung der Gefrierkonzentrierung (Kryoextraktion) zeigt die höchste Verlustrate an Mostinhaltsstoffen in das abgetrennte Eiswasser (3% Zucker und 9-11% organische Säuren). Bei den Weißweinen erbringt die Gefrierkonzentrierung sowohl im Aromabereich (Terpenanreicherung) als auch bei der Sensorik der jungen Weine deutliche Vorteile gegenüber der traditionellen Saccharoseanreicherung. Im Rotweinbereich haben sich die Verfahren nicht bewährt. Die Mostkonzentrierung von unreifem oder nicht gesundem Material ist nicht ratsam. Zum einen ist die Mostkonzentrierung beschränkt auf eine Anhebung im Gesamtalkoholgehalt von 2%vol. Dies führt bei Mostgewichten zwischen 50°Oe und 70°Oe nicht zu selbstständigen Weinen. Zum anderen werden Unreifefaktoren und Fäulnisparameter zumindest mit dem UO-Verfahren (hier am Beispiel von C6-Alkohlen und 1-Octen-3-ol nachgewiesen) analytisch angereichert, was in Grenzfällen zu einer Intensivierung dieser unerwünschten Eigenschaften führen kann. Durchschnittlich ist mit Mehrkosten von 50 Cent pro Liter mostkonzentriertem Wein gegenüber herkömmlicher Saccharoseanreicherung zu rechnen. Die bislang noch nicht erlaubte Weinkonzentrierung mittels UO bringt gute Ergebnisse bei der Verdichtung von qualitativ hochwertigen Weinen. Dieses Verfahren kann aber nicht als nachträgliches Alkoholanreicherungsverfahren dienen, da der Alkohol zu einem Großteil permeirt und die Anreicherung im Wein nur etwa halb so stark ist wie die der übrigen Inhaltsstoffe.
As the sustained trend towards integrating more and more functionality into systems on a chip can be observed in all fields, their economic realization is a challenge for the chip making industry. This is, however, barely possible today, as the ability to design and verify such complex systems could not keep up with the rapid technological development. Owing to this productivity gap, a design methodology, mainly using pre designed and pre verifying blocks, is mandatory. The availability of such blocks, meeting the highest possible quality standards, is decisive for its success. Cost-effective, this can only be achieved by formal verification on the block-level, namely by checking properties, ranging over finite intervals of time. As this verification approach is based on constructing and solving Boolean equivalence problems, it allows for using backtrack search procedures, such as SAT. Recent improvements of the latter are responsible for its high capacity. Still, the verification of some classes of hardware designs, enjoying regular substructures or complex arithmetic data paths, is difficult and often intractable. For regular designs, this is mainly due to individual treatment of symmetrical parts of the search space by backtrack search procedures used. One approach to tackle these deficiencies, is to exploit the regular structure for problem reduction on the register transfer level (RTL). This work describes a new approach for property checking on the RTL, preserving the problem inherent structure for subsequent reduction. The reduction is based on eliminating symmetrical parts from bitvector functions, and hence, from the search space. Several approaches for symmetry reduction in search problems, based on invariance of a function under permutation of variables, have been previously proposed. Unfortunately, our investigations did not reveal this kind of symmetry in relevant cases. Instead, we propose a reduction based on symmetrical values, as we encounter them much more frequently in our industrial examples. Let \(f\) be a Boolean function. The values \(0\) and \(1\) are symmetrical values for a variable \(x\) in \(f\) iff there is a variable permutation \(\pi\) of the variables of \(f\), fixing \(x\), such that \(f|_{x=0} = \pi(f|_{x=1})\). Then the question whether \(f=1\) holds is independent from this variable, and it can be removed. By iterative application of this approach to all variables of \(f\), they are either all removed, leaving \(f=1\) or \(f=0\) trivially, or there is a variable \(x'\) with no such \(\pi\). The latter leads to the conclusion that \(f=1\) does not hold, as we found a counter-example either with \(x'=0\), or \(x'=1\). Extending this basic idea to vectors of variables, allows to elevate it to the RTL. There, self similarities in the function representation, resulting from the regular structure preserved, can be exploited, and as a consequence, symmetrical bitvector values can be found syntactically. In particular, bitvector term-rewriting techniques, isomorphism procedures for specially manipulated term graphs, and combinations thereof, are proposed. This approach dramatically reduces the computational effort needed for functional verification on the block-level and, in particular, for the important problem class of regular designs. It allows the verification of industrial designs previously intractable. The main contributions of this work are in providing a framework for dealing with bitvector functions algebraically, a concise description of bounded model checking on the register transfer level, as well as new reduction techniques and new approaches for finding and exploiting symmetrical values in bitvector functions.
Die Tyrosinphosphorylierung von Proteinen ist ein wichtiges Schlüsselelement bei der Regulation zellulärer Signalwege und wird durch antagonistisch wirkende Proteintyrosin-kinasen und Proteintyrosinphosphatasen in einem dynamischen Gleichgewicht gehalten. Trotz der Erkenntnis, dass Phosphatasen an der Regulation essentieller zellulärer Vorgänge beteiligt sind, ist über die Funktion und Regulation individueller Phosphatasen nur wenig bekannt. In der vorliegenden Arbeit sollte die physiologische Rolle der Proteintyrosinphosphatase BDP1 untersucht werden. Einen Schwerpunkt bildete hierbei die Negativregulation der Rezeptortyrosinkinase HER2 sowie der HER2-vermittelten Signaltransduktion durch BDP1. Es konnte gezeigt werden, dass die Überexpression von BDP1 die Liganden-induzierte Tyrosinphosphorylierung von HER2 und des Adaptorproteins Gab1 inhibierte und die Aktivierung von MAP-Kinasen reduzierte. Dagegen erhöhte die Unterdrückung der endogenen BDP1-Expression den Phosphorylierungsstatus von HER2. Die Koexpression von BDP1 und HER2 in Brustkrebszelllinien sowie die Assoziation von HER2 mit einer Substrat-bindenden Mutante von BDP1 deuten zusätzlich darauf hin, dass BDP1 ein Regulator der Aktivität von HER2 ist und damit die erste Phosphatase, die mit der Kontrolle des HER-Signals in Verbindung gebracht wird. Weiterhin wurde die BDP1-Expression während der schwangerschaftsinduzierten Differenzierung der murinen Brustdrüse analysiert. Die Untersuchungen zeigten, dass BDP1 in duktalen und alveolaren Brustepithelzellen exprimiert wird. Die Expression der Phosphatase konnte während der Differenzierung der Brustepithelzelllinie HC11 durch Prolaktin und Dexamethason induziert werden. Zusammen mit der Existenz von Stat5- und Glukokortikoidrezeptor-Bindestellen in der Promotorregion von bdp1 sowie der verminderten Expression der Phosphatase im Brustgewebe Stat5-defizienter Mäuse weist dies auf eine Expressionskontrolle des BDP1-Gens durch Schwangerschaftshormone hin und suggeriert eine Rolle der Phosphatase im Differenzierungsprozess der Brustdrüse. Im letzten Teil der Arbeit wurde die Bindung von BDP1 an das Adaptorprotein Grb2 untersucht. Es konnte gezeigt werden, dass die Interaktion zur Hyperphosphorylierung der Phosphatase führte. Dies konnte zumindest teilweise auf eine Grb2-vermittelte Wechselwirkung von BDP1 mit der Tyrosinkinase c-Abl zurückgeführt werden. Zusammengenommen liefern die vorgestellten Ergebnisse neue Daten zur Funktion, Expression und Regulation von BDP1 und tragen entscheidend zur Charakterisierung der biologischen Funktion dieser Phosphatase bei.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.
Die enorme Reaktivität des Tetrahedrans [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) konnte durch die Komplexierung eines der beiden Phosphoratome mit dem 16VE-Übergangsmetall-Fragment {W(CO)5}herabgesetzt werden. Die Oxidation von [{Cp'''Fe}2(µ-CO)(µ-eta2:2-P2)] (1) mit Schwefel und Selen führt bereits bei Raumtemperatur zu den pseudo-Tripeldeckerkomplexen vom Typ [{Cp'''Fe}2(µ-eta4:4-P2X2)] (2,3) mit einem P2X2-Mitteldeck (X = S, Se). Die vier Hauptgruppenelemente liegen als trapezoid angeordnete Kette vor (RSA), ähnlich der P4-Kette in den Komplexen vom Typ [{CpRFe}2(µ-eta4:4-P4)] (4). Unter Photolyse-Bedingungen erhält man durch Abspaltung der verbrückenden CO-Gruppe aus 1 den bereits von Eichhorn [11,38] charakterisierten Bicyclus [{Cp'''Fe}2(µ-P)2] (5), der in situ mit Schwefel und Selen zu den selben Oxidationsprodukten 2 beziehungsweise 3 reagiert (vgl. voranstehend). Die Komplexierung beider Phosphoratome in den pseudo-Tripeldeckerkomplexen 2 und 3 mit [W(CO)6] ist möglich, wobei die einfach komplexierte Verbindung [{Cp'''Fe}2(µ3-eta4:4:1-P2X2){W(CO)5}] (6,7) (X = S, Se) die P2X2-Struktureinheit des Eduktes beibehält, wäh-rend bei der Zweifachkomplexierung ein stark verzerrtes trigonales Prisma entsteht. Die beiden {W(CO)5}-Fragmente sind in [Cp'''2Fe2P2X2{W(CO)5}2] (8,9) (X = S, Se) symmetrisch an dieses Polyedergerüst koordiniert. Im Fall des Selens entsteht noch eine dritte Verbindung, deren zentrales Strukturelement ein P2Se2Fe-Fünfring ist, in welchem das Fe-Atom etwas nach unten abknickt und neben einem η5-koordinierten Cp'''-Ring eine terminale CO-Bindung aufweist. In Verbindung [Cp'''Fe(µ4-eta4:2:1:1-P2Se2)Fe(CO) Cp'''{W(CO)5}2] (10) sind die beiden Phosphoratome zusätzlich komplexiert. Die Langzeitthermolyse des [{In''(OC)2Fe}2(µ-eta1:1-P4)]-Butterfly-Komplexes (11) mit dem zweikernigen [{Cp'''Fe(CO)2}2] (12) liefert drei pseudo-Tripeldeckerkomplexe [{Cp'''Fe}2(µ-eta4:4-P4)] (4a), [{In''Fe}2(µ-eta4:4-P4)] (4b) und [{Cp'''Fe}{In''Fe}(µ-eta4:4-P4)] (4c). Bei der Umsetzung des Cp'''-Derivates 4a mit [W(CO)6] können zwei strukturisomere Komplexierungsprodukte 31P-NMR-spektroskopisch nachgewiesen werden. Durch fraktionierende Kristallisation gelangt man zu einer analysenreinen Substanz, die röntgenstrukturanalytisch als der alternierend koordinierte Komplex [{Cp'''Fe}2(µ4-eta4:4:1:1-P4){W(CO)5}2] (13) charakterisiert werden kann. Bei dem Versuch, ein Ruthenium-Dimer vom Typ [{CpRRu(CO)2}2] (14) mit dem Tri-tert-butyl-Cyclopentadienylliganden zu synthetisieren, erhält man nur Verbindung [{Cp'''Ru}2(µ-CO)(µ-O)] (15), dessen thermische Umsetzung mit weißem Phosphor zu einem weiteren pseudo-Tripeldeckerkomplex [{Cp'''Ru}2(µ-eta4:4-P4)] (16) mit einem P4-Mitteldeck führt.
Mit dem sterisch anspruchsvollen Di-tert-butyl-Indenylliganden kann alternativ zu den bisher verwendeten alkyl-und silylsubstituierten Cyclopentadienylen der komplette Syntheseweg für die P4-Butterflykomplexe vom Typ [{CpR(OC)2Fe}2(µ-eta1:1-P4)] (2) durchgeführt werden. Die Langzeitthermolyse von [{In''(OC)2Fe}2(µ-eta1:1-P4)] (2b) liefert neben den seit langem bekannten Decarbonylierungsprodukten [{In''Fe}2(µ-eta4:4-P4)] (10b) und [In''Fe(eta5-P5)] (1b) auch den erst seit kurzem bekannten tetrahedranähnlichen Komplex 9b als äußerst instabile Verbindung. Die photolytisch induzierte Decarbonylierung von 9a führt zu einer strukturell außergewöhnlichen Verbindung mit zwei gewinkelten µ-P-Liganden im nahezu planaren Fe2P2-Vierring und einem Signal für beide Phosphoratome im extremen Tieffeld bei delta = 1406.9 ppm. Thermische Umsetzungen des Tetraphosphabicyclobutan-Komplexes 2b mit einem vierfachen Überschuß an Alkin oder Phosphaalkin liefern in Abhängigkeit vom Substituentenmuster interessante Polyphospholyl-Verbindungen. Symmetrisch substituierte Alkine führen nahezu ausschließlich zur Bildung der Sandwichkomplexe [In''Fe(eta5-{P3(CR)2})] (14b,15b) mit einem eta5-koordinierten 1,2,3-Triphospholylliganden in sehr guten Ausbeuten. Bei unsymmetrisch substituierten Alkinen tritt im Fall von elektronenziehenden Substituenten am Kohlenstoff-Atom die Synthese von Sandwichkomplexen mit einem Monophospholylliganden 17 dazu in Konkurrenz. Desweiteren entsteht das phosphorfreie, verzerrte Tetrahedran [{In''Fe}2(µ-CO)(µ-C2PhH)] (19). Donor-Substituenten am Kohlenstoff-Atom wie tert-Butyl- oder Trimethylsilylgruppen dagegen verhindern die Bildung der Monophosphaferrocene 17 vollständig. Die Reaktion von 2b mit einem Phosphaalkin beruht auf dem gleichen Prinzip und führt ebenfalls zu Sandwichkomplexen mit einem Polyphospholylliganden. Neben dem 1,2,4-Triphospha- 28 und dem 1,2,3,4-Tetraphosphaferrocen 29 wird die Bildung des Komplexes 27 mit einem 1,3-Diphosphet als eta^4-koordiniertem Ligand beobachtet. Dieser ist auf die Cycloaddition zweier Phosphaalkin-Einheiten zurückzuführen, während [In''Fe(eta5-{P3(C2{(C6H10)CH3}2)})] (28) und [In''Fe(eta5-{P4(C{C6H10}CH3)})] (29) durch den Einbau von P=C-R in das Tetraphosphabicyclobutan-Gerüst entstehen. Die Komplexierung eines oder mehrerer Phosphoratome im Mono- oder 1,2,3-Triphosphaferrocen mit ÜM-Fragmenten vom Typ {M(CO)5} (M = W, Cr) gelingt problemlos bei Raumtemperatur. Versuche zur Oxidation von 14b oder 17b mit Schwefel und Reduktion mit Kalium führten ausnahmslos zur unspezifischen Zersetzung des Eduktes. Das Aufstockungsverfahren nach Rybinskaya zur Bildung von 30 VE-Tripeldeckerkomplexen hat Hilt schon 1999 am 1,2,3-Triphosphaferrocen erfolgreich durchgeführt. Diese Reaktion konnte ebenso auf den Monophospholyl-Eisen(II)-Komplex 17b übertragen werden.
Clusters bridge the gap between single atoms or molecules and the condensed phase and it is the challenge of cluster science to obtain a deeper understanding of the molecular foundation of the observed cluster specific properties/reactivities and their dependence on size. The electronic structure of hydrated magnesium monocations [Mg,nH2O]+, n<20, exhibits a strong cluster size dependency. With increasing number of H2O ligands the SOMO evolves from a quasi-valence state (n=3-5), in which the singly occupied molecular orbital (SOMO) is not yet detached from the metal atom and has distinct sp-hybrid character, to a contact ion pair state. For larger clusters (n=17,19) these ion pair states are best described as solvent separated ion pair states, which are formed by a hydrated dication and a hydrated electron. With growing cluster size the SOMO moves away from the magnesium ion to the cluster surface, where it is localized through mutual attractive interactions between the electron density and dangling H-atoms of H2O ligands forming "molecular tweezers" HO-H (e-) H-OH. In case of the hydrated aluminum monocations [Al,nH2O]+,n=20, different isomers of the formal stoichiometry [Al,20H2O]+ were investigated by using gradient-corrected DFT (BLYP) and three different basic structures for [Al,20H2O]+ were identified: (a) [AlI(H2O)20]+ with a threefold coordinated AlI; (b) [HAlIII(OH)(H2O)19]+ with a fourfold coordinated AlIII; (c) [HAlIII(OH)(H2O)19]+ with a fivefold coordinated AlIII. In ground state [AlI(H2O)20]+ (a) which contains aluminum in oxidation state +1 the 3s2 valence electrons remain located at the aluminium monocation. Different than for open shell magnesium monocations no electron transfer into the hydration shell is observed for closed shell AlI. However, clusters of type (a) are high energy isomers (DE»+190 kJ mol-1) and the activation barrier for reaction into cluster type (b) or (c) is only approximately 14 kJ mol-1. The performed ab initio calculations reveal that unlike in [Mg,nH2O]+, n=7-17, for which H atom eliminiation is found to be the result of an intracluster redoxreaction, in [Al,nH2O]+,n=20, H2 is formed in an intracluster acid-base reaction. In [Mg,nH2O]+, n>17, the magnesium dication was found to coexist with a hydrated electron in larger cluster sizes. This proves that intermolecular electron delocalization - previously almost exclusively studied in (H2O)n- and (NH3)n- clusters - can also be an important issue for water clusters doped with an open shell metal cation or a metal anion. Structures and stabilities of hydrated magnesium water cluster anions with the formal stoichiometry [Mg,nH2O]-, n=1-11, were investigated by application of various correlated ab initio methods (MP2, CCSD, CCSD(T)). Metal cations surely have high relevance in numerous biological processes, and as most biological processes take place in aqueous solution hydrated metal ions will be involved. However, in biological systems solvent molecules (i.e. water) compete with different solvated chelate ligands for coordination sites at the metal ion and the solvent and chelate ligands are in mutual interactions with each other and the metal ion. These interactions were investigated for the hydration of ZnII/carnosine complexes by application of FT-ICR-MS, gas-phase H/D exchange experiments and supporting ab initio calculations. In the last chapter of this work the Free Electron Laser IR Multi Photon Dissocition (FEL-IR-MPD) spectra of mass selected cationic niobium acetonitrile complexes with the formal stoichiometry [Nb,nCH3CN]+, n=4-5, in the spectral range 780 – 2500 cm-1 are reported. In case of n=4 the recorded vibrational bands are close to those of the free CH3CN molecule and the experimental spectra do not contain any evident indication of a potential reaction beyond complex formation. By comparison with B3LYP calculated IR absorption spectra the recorded spectra are assigned to high spin (quintet, S=2), planar [NbI(NCCH3)4]+. In [Nb,nCH3CN]+, n=5, new vibrational bands shifted away from those of the acetonitrile monomer are observed between 1300 – 1550 cm-1. These bands are evidence of a chemical modification due to an intramolecular reaction. Screening on the basis of B3LYP calculated IR absorption spectra allow for an assignment of the recorded spectra to the metallacyclic species [NbIII(NCCH3)3(N=C(CH3)C(CH3)=N)]+ (triplet, S=1), which has formed in a internal reductive nitrile coupling reaction from [NbI(NCCH3)5]+. Calculated reaction coordinates explain the experimentally observed differences in reactivity between ground state [NbI(NCCH3)4]+ and [NbI(NCCH3)5]+. The reductive nitrile coupling reaction is exothermic and accessible (Ea=49 kJ mol-1) only in [NbI(NCCH3)5]+, whereas in [NbI(NCCH3)4]+ the reaction is found to be endothermic and retarded by significantly higher activation barriers (Ea>116 kJ mol-1).
Das Projekt META-AKAD beschäftigt sich mit dem automatisierten Sammeln und bibliothekarischen Erschließen von Lehr- und Lernmaterialien. Es ist unterteilt in drei zentrale Säulen (Anfrageverarbeitung, Ergebnisverarbeitung und XML-Dokument-Management). Die vorliegende Arbeit beschäftigt sich mit dem XML-Dokument-Management. Es stellt eine generische Schnittstelle bereit, um neue XML-Dokumente in das System einzufügen und bestehende Daten zu aktualisieren oder zu löschen. Hierbei wurden Konzepte entwickelt und umgesetzt, um vom verwendeten Datenbank- und Metadatenschema abstrahieren zu können.
Dieses Szenario ist eine Erweiterung eines Teilszenarios von Human Centered Manufacturing. Dabei geht es um die Montage der Energieelektrik für industrielle Anlagen. Im Jahr 2015 enthält die Ausrüstung eines Elektromonteurs bei der Verdrahtung von Schaltschränken u.a. einen Schutzhelm mit integrierter Farbkamera, integriertem Mikrofon und einem Lautsprecher im Ohrbereich sowie einen automatisch gesteuerten Laserpointer. Auf der Baustelle sind keine Pläne mehr erforderlich. Der Monteur benötigt keinen Plan während der Montage.
In Anbetracht der ständig steigenden Nachfrage nach Mobilkommunikation einerseits und der nur begrenzt zur Verfügung stehenden Ressource Frequenzspektrum andererseits müssen Mobilfunksysteme der dritten Generation (3G) eine hohe Frequenzökonomie haben. Dies trifft insbesondere auf die Abwärtsstrecken dieser Systeme zu, in denen auch paketorientierte Dienste mit hohen Datenraten angeboten werden sollen. Seitens der Basisstationen kann die spektrale Effizienz der Abwärtsstrecke durch das Verwenden mehrelementiger adaptiver Sendeantennen erhöht werden. Hierzu sind leistungsfähige Signalverarbeitungskonzepte erforderlich, die die effektive Kombination der adaptiven Antennen mit der eingesetzten Sendeleistungsregelung ermöglichen. Die wichtigsten Aspekte beim Entwerfen von Signalverarbeitungskonzepten für adaptive Sendeantennen sind das Gewährleisten mobilstationsspezifischer Mindestdatenraten sowie das Reduzieren der aufzuwendenden Sendeleistungen. Die vorliegende Arbeit trägt dazu bei, den Einsatz mehrantennenelementiger adaptiver Sendeantennen in Mobilfunksystemen der dritten Generation voranzutreiben. Existierende Konzepte werden dargestellt, vereinheitlicht, analysiert und durch eigene Ansätze des Autors erweitert. Signalverarbeitungskonzepte für adaptive Antennen benötigen als Wissensbasis zumindest einen gewissen Grad an Kenntnis über die Mobilfunkkanäle der Abwärtsstrecke. Beim für den FDD-Modus angedachten 3G-Teilstandard WCDMA ergibt sich das Problem, daß wegen des Frequenzversatzes zwischen der Auf- und der Abwärtsstrecke die Ergebnisse der Kanalschätzung in der Aufwärtsstrecke nicht direkt zum Einstellen der adaptiven Sendeantennen verwendet werden können. Eine Möglichkeit, in FDD-Systemen an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, besteht im Ausnutzen der an den Basisstationen ermittelbaren räumlichen Korrelationsmatrizen der Mobilfunkkanäle der Aufwärtsstrecke. Diese Vorgehensweise ist nur dann sinnvoll, wenn die relevanten Einfallsrichtungen der Aufwärtsstrecke mit den relevanten Abstrahlungsrichtungen der Abwärtsstrecke übereinstimmen. Für diesen Fall wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Anpassen der adaptiven Sendeantennen erarbeitet, das nicht auf komplexen Richtungsschätzalgorithmen beruht. Eine verläßlichere Methode, an den Basisstationen ein gewisses Maß an Kenntnis über die räumlichen Eigenschaften der Mobilfunkkanäle der Abwärtsstrecke verfügbar zu machen, ist das Signalisieren von Kanalzustandsinformation, die an den Mobilstationen gewonnen wird, über einen Rückkanal an die versorgende Basisstation. Da dieses Rücksignalisieren zeitkritisch ist und die Übertragungskapazität des Rückkanals begrenzt ist, wird in der vorliegenden Arbeit ein aufwandsgünstiges Verfahren zum Vorverarbeiten und Rücksignalisieren von Kanalzustandsinformation erarbeitet.
The following three papers present recent developments in multiscale gravitational field modeling by the use of CHAMP or CHAMP-related data. Part A - The Model SWITCH-03: Observed orbit perturbations of the near-Earth orbiting satellite CHAMP are analyzed to recover the long-wavelength features of the Earth's gravitational potential. More precisely, by tracking the low-flying satellite CHAMP by the high-flying satellites of the Global Positioning System (GPS) a kinematic orbit of CHAMP is obtainable from GPS tracking observations, i.e. the ephemeris in cartesian coordinates in an Earth-fixed coordinate frame (WGS84) becomes available. In this study we are concerned with two tasks: First we present new methods for preprocessing, modelling and analyzing the emerging tracking data. Then, in a first step we demonstrate the strength of our approach by applying it to simulated CHAMP orbit data. In a second step we present results obtained by operating on a data set derived from real CHAMP data. The modelling is mainly based on a connection between non-bandlimited spherical splines and least square adjustment techniques to take into account the non-sphericity of the trajectory. Furthermore, harmonic regularization wavelets for solving the underlying Satellite-to-Satellite Tracking (SST) problem are used within the framework of multiscale recovery of the Earth's gravitational potential leading to SWITCH-03 (Spline and Wavelet Inverse Tikhonov regularized CHamp data). Further it is shown how regularization parameters can be adapted adequately to a specific region improving a globally resolved model. Finally we give a comparison of the developed model to the EGM96 model, the model UCPH2002_02_0.5 from the University of Copenhagen and the GFZ models EIGEN-1s and EIGEN-2. Part B - Multiscale Solutions from CHAMP: CHAMP orbits and accelerometer data are used to recover the long- to medium- wavelength features of the Earth's gravitational potential. In this study we are concerned with analyzing preprocessed data in a framework of multiscale recovery of the Earth's gravitational potential, allowing both global and regional solutions. The energy conservation approach has been used to convert orbits and accelerometer data into in-situ potential. Our modelling is spacewise, based on (1) non-bandlimited least square adjustment splines to take into account the true (non-spherical) shape of the trajectory (2) harmonic regularization wavelets for solving the underlying inverse problem of downward continuation. Furthermore we can show that by adapting regularization parameters to specific regions local solutions can improve considerably on global ones. We apply this concept to kinematic CHAMP orbits, and, for test purposes, to dynamic orbits. Finally we compare our recovered model to the EGM96 model, and the GFZ models EIGEN-2 and EIGEN-GRACE01s. Part C - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, EGM96: Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise and these shall be made available to other interested groups. These wavelet coefficients allow the reconstruction of the wavelet approximations. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.
Unter Ambient Intelligence (AmI) wird die Integration verschiedener Technologien zu einer den Menschen umgebenden, (nahezu) unsichtbaren Gesamtheit verstanden. Diese Intelligente Umgebung wird möglich durch die Miniaturisierung hochintegrierter Bauteile (Sensoren, Aktuatoren und Rechnern), deren zunehmende Intelligenz und vor allem deren lokale und globale zunehmend drahtlose Vernetzung. Unter dem Titel Man-u-Faktur 2012 (man and factoring in 2012) wurde an der Technischen Universität Kaiserslautern im Rahmen des Forschungsschwerpunkts Ambient Intelligence ein Szenario entwickelt, das ein beeindruckendes Gesamtbild einer Technik, die den Menschen in den Mittelpunkt rückt, beschreibt. Man-u-Faktur 2012 steht dabei für ein Weiterdrehen des Rads der Industrialisierung von der heute üblichen variantenreichen, technologiezentrierten Massenfertigung hin zu einer kundenindividuellen, mitarbeiterzentrierten Maßfertigung. Im Speziellen wird hierunter der Aufbau massiv verteiler kunden- aber auch mitarbeiterfreundlicher Produktionsanlagen verstanden, die sich im hochdynamischen Umfeld entsprechend der jeweiligen Gegebenheiten anzupassen wissen. Der Mensch ist überall dort präsent, wo flexibles Arbeiten oder flexible Entscheidungen im Vordergrund stehen. In diesem Bericht wird der Einfluss von Ambient Intelligence beispielhaft auf die Vision einer Fahrradproduktion in der Man-u-Faktur 2012 angewandt. Aus diesem Szenario werden anschließend sowohl die zu entwickelnden Schlüsseltechnologien als auch die Einflüsse auf Wirtschaft und Gesellschaft abgeleitet.
Sepsis ist eine lebensbedrohliche Infektion, welche eine der häufigsten Todesursachen bei Patienten der Intensivstation ist. Die Mortalität des septischen Schocks hat sich während der letzten 25 Jahre trotz Verbesserung lebenserhaltender Maßnahmen nicht wesentlich verringert. Bei der Sepsis lösen externe Faktoren (die invadierenden Mikroorganismen) die Erkrankung aus, körpereigene Reaktionskaskaden jedoch entscheiden letztlich über den Verlauf, der in der Sepsis ein sehr heterogenes Erscheinungsbild zeigen kann. Darum führt eine allein gegen den Mikroorganismus gerichtete Therapie bei der Sepsis häufig nicht zum Erfolg. Eine therapeutische Intervention in körpereigene Abläufe setzt jedoch voraus, dass diese Vorgänge, die involvierten Proteine sowie die molekularen Mechanismen bekannt sind. Da klinische Studien darauf hinweisen, dass während der Pathogenese der Sepsis eine aktivierungsabhängige, exzessive Verminderung der T-Lymphozyten im Blutbild (Lymphopenie) infolge verstärkter Apoptose auftritt und damit die Abwehr der Pathogene negativ beeinträchtigt wird, bildeten Untersuchungen an aktivierten T-Zellen den Schwerpunkt der vorliegenden Arbeit. Aktivierte T-Lymphozyten sind wichtige Zellen der natürlichen Immunantwort und spielen eine entscheidende Rolle im Verlauf von Infektionserkrankungen. Eine therapeutische Modulation ihrer Apoptose könnte die Ereigniskaskade früh unterbrechen und möglicherweise den dramatischen klinischen Verlauf der Sepsis dämpfen. Der Befund der Lymphopenie in Sepsis führte mich zu der Hypothese dieser Arbeit, dass PPARg hierfür verantwortlich sein könnte, da eine Aktivierung von PPARg nicht nur antiinflammatorisch, sondern auch proapoptotisch wirken kann. Eine diesbezügliche Verbindung zwischen Lymphopenie bei Sepsis und PPARg-Expression wurde noch nicht untersucht. Deshalb habe ich im Rahmen dieser Arbeit analysiert, inwieweit PPARg zur Lymphopenie von T-Zellen septischer Patienten beiträgt. Den Ausgangspunkt bildeten dabei Untersuchungen an aktivierten T-Zellen. Sowohl an der T-Zelllinie Jurkat, als auch an primären CD3+ T-Zellen konnte ich Folgendes zeigen: 1. Die Aktivierung von humanen T-Zellen mit dem T-Zell-Mitogen PHA induziert die Expression des Liganden-abhängigen Transkriptionsfaktors PPARg, führt jedoch nicht autokrin zu dessen Aktivierung. 2. Physiologische Mediatoren wie Stickstoffmonoxid oder synthetische PPARg-Liganden wie Ciglitazon bewirken eine Aktivierung von PPARg in den PHA-aktivierten T- Zellen. 3. Der durch spezifische Agonisten aktivierte Transkriptionsfaktor PPARg ruft in aktivierten T-Zellen Apoptose hervor. 4. SR-202 greift in die PPARg-vermittelte Apoptose ein. Die Vorinkubation mit diesem spezifischen PPARg-Antagonist führt zu einer verminderten Apoptose der aktivierten T-Zellen. 5. Fas-vermittelte Apoptose ist der am besten untersuchte Apoptose-auslösende Reaktionsweg in T-Zellen. Vorliegende Untersuchungen mit einem anti-Fas-neutralisierenden Antikörper zur näheren Charakterisierung der PPARg-vermittelten Apoptose verweisen jedoch auf Fas-unabhängige Mechanismen. Um die klinische Relevanz der Daten zu prüfen, versuchte ich, die Ergebnisse auf das Modell der Sepsis zu übertragen. Folgende Zusammenhänge ließen sich dabei erkennen: 1. Es ist bekannt, dass die T-Lymphozyten im septischen Geschehen im Vergleich zum gesunden Spender deutlich vermindert sind. Dies ist in Übereinstimmung mit meinen Befunden. Zusätzlich bestätigte sich die Annahme, dass der Zelltod apoptotisch, also gerichtet, verläuft. 2. In den T-Zellen der septischen Patienten ist im Gegensatz zu den T-Zellen gesunder Probanden die Expression von PPARg erhöht, so dass, aufbauend auf die Vorversuche an aktivierten T-Zellen, eine PPARg-vermittelte Apoptose postuliert werden konnte. 3. Die Zugabe von PPARg-Agonisten zu den septischen T-Zellen erhöht die Apoptose, während die Vorinkubation mit dem Antagonisten SR-202 vor der Agonisten-Behandlung die Apoptose hemmt. 4. Basierend auf Untersuchungen mit einem Fas-neutralisierenden Antikörper, ist davon auszugehen, dass die zugrundeliegenden Mechanismen der PPARg-vermittelten Apoptose in septischen T-Zellen ebenfalls Fas-unabhängig sind. In Erkrankungen, deren Verlauf wie bei der Sepsis durch Lymphopenie gekennzeichnet ist, könnte der hier aufgezeigte Mechanismen der PPARg-vermittelten Apoptose von pathophysiologischer Signifikanz sein. Das bessere Verstehen der Signaltransduktionswege, die zu der PPARg-Expression sowie der PPARg-abhängigen Apoptose in aktivierten T-Zellen führen, könnten eine Basis für neue therapeutische Strategien im Kampf gegen die Sepsis bilden. Erste Anhaltspunkte dafür liefert der Nachweis der Modulation der T-Zell-Apoptose durch den spezifischen PPARg-Antagonist SR-202.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
Im Rahmen der vorliegenden Arbeit wurden ausgewählte weit- bis superweitporige Molekularsiebe mit unbekannter bzw. ungewöhnlicher Porenarchitektur hergestellt, chemisch-physikalisch charakterisiert und in sauer sowie bifunktionell katalysierten Testreaktionen erprobt. Untersucht wurde Zeolith ZSM-25, der zu den 12-Ring-Molekularsieben gezählt wird, dessen genaue Struktur aber bis heute unbekannt ist. Es konnte gezeigt werden, dass dieses Molekularsieb nur eine sehr kleine innere spezifische Oberfläche besitzt. Weiterhin wurden die Synthese und die Eigenschaften von Zeolith NU-87, der aus einem Porensystem von sich kreuzenden 10- und 12-Ring-Kanälen aufgebaut ist, untersucht. Sowohl im Produktspektrum der Ethylbenzol-Disproportionierung als auch bei der bifunktionell katalysierten n-Decan-Isomerisierung konnten Bestätigungen für die ungewöhnliche Porenarchitektur gefunden werden. Für Zeolith ZSM-12 wurde der Aluminiumgehalt variiert und die erhaltenen Katalysatoren in der Ethylbenzol-Disproportionierung getestet. Dabei konnte anhand der Veränderungen in den Selektivitäten für die drei Diethylbenzol-Isomere gezeigt werden, dass das eindimensionale Porensystem dieses Zeoliths mit zunehmender Katalysators-Laufzeit immer stärker verkokt. Zeolith SSZ-24 ist isostrukturell zum Alumophosphat AlPO4-5 und wurde in der vorliegenden Arbeit erstmals direkt (d.h. über Hydrothermalsynthese) hergestellt. Der Zeolith zeigt in der Disproportionierung von Ethylbenzol nur eine geringe katalytische Aktivität. Einen Schwerpunkt der vorliegenden Arbeit stellte die Synthese und Charakterisierung von Molekularsieben mit IFR-Topologie (Silikat-Polymorph ITQ-4, Alumosilikat MCM-58, Gallosilikat [Ga] MCM-58, Borosilikat SSZ 42) dar. In der Disproportionierung von Ethylbenzol erwiesen sich HMCM-58 und [Ga] HMCM-58 als hochaktive Katalysatoren mit Umsätzen nahe dem berechneten thermodynamischen Gleichgewicht. Bifunktionelle Katalysatoren mit IFR-Struktur wurden in der Isomerisierung von n-Decan untersucht. Der superweitporige Zeolith UTD-1 (DON-Topologie) konnte mit einer selbst modifizierten Literaturvorschrift als Borosilikat hergestellt werden. Dieses wurde anschließend in das entsprechende Alumo- bzw. Gallosilikat überführt. In der Disproportionierung von Ethylbenzol und der Isomerisierung von n-Decan zeigten die Alumo- und das Gallosilikat-Katalysatoren nur eine sehr geringe katalytische Aktivität.
We generalize the classical shortest path problem in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a traversal time on each arc. The resulting problem, called time-dependent bicriteria shortest path problem (TdBiSP) has several interesting practical applications, but has not attained much attention in the literature.
In this paper we discuss an earliest arrival flow problem of a network having arc travel times and capacities that vary with time over a finite time horizon T. We also consider the possibility to wait (or park) at a node before departingon outgoing arc. This waiting is bounded by the value of maximum waiting time and the node capacity which also vary with time.
In this paper we consider set covering problems with a coefficient matrix almost having the consecutive ones property, i.e., in many rows of the coefficient matrix, the ones appear consecutively. If this property holds for all rows it is well known that the set covering problem can be solved efficiently. For our case of almost consecutive ones we present a reformulation exploiting the consecutive ones structure to develop bounds and a branching scheme. Our approach has been tested on real-world data as well as on theoretical problem instances.
The Earth's surface is an almost perfect sphere. Deviations from its spherical shape are less than 0,4% of its radius and essentially arise from its rotation. All equipotential surfaces are nearly spherical, too. In consequence, multiscale modelling of geoscientifically relevant data on the sphere involving rotational symmetry of the trial functions used for the approximation plays an important role. In this paper we deal with isotropic kernel functions showing local support and (one-dimensional) polynomial structure (briefly called isotropic finite elements) for reconstructing square--integrable functions on the sphere. Essential tool is the concept of multiresolution analysis by virtue of the spherical up function. The main result is a tree algorithm in terms of (low--order) isotropic finite elements.
A new class of locally supported radial basis functions on the (unit) sphere is introduced by forming an infinite number of convolutions of ''isotropic finite elements''. The resulting up functions show useful properties: They are locally supported and are infinitely often differentiable. The main properties of these kernels are studied in detail. In particular, the development of a multiresolution analysis within the reference space of square--integrable functions over the sphere is given. Altogether, the paper presents a mathematically significant and numerically efficient introduction to multiscale approximation by locally supported radial basis functions on the sphere.
We study a possiblity to use the structure of the regularization error for a posteriori choice of the regularization parameter. As a result, a rather general form of a selection criterion is proposed, and its relation to the heuristical quasi-optimality principle of Tikhonov and Glasko (1964), and to an adaptation scheme proposed in a statistical context by Lepskii (1990), is discussed. The advantages of the proposed criterion are illustrated by using such examples as self-regularization of the trapezoidal rule for noisy Abel-type integral equations, Lavrentiev regularization for non-linear ill-posed problems and an inverse problem of the two-dimensional profile reconstruction.
Der oxidative Stress wurde in Patienten mit unterschiedlichen Erkrankungen / Therapien nachgewiesen, bei denen ein erhöhter oxidativer Stress aus der Literatur zum Teil bereits bekannt ist,. Patienten mit chronischem Nierenversagen, die mit der Nierenersatztherapie Hämodialyse (HD) behandelt wurden, wurden sowohl vor als auch während der Behandlung untersucht und mit gesunden Probanden verglichen: Hierzu wurden die Konzentrationen von Harnsäure (photometrisch) und MDA im Plasma (HPLC / Fluoreszenz, Thiobarbitursäurederivat), sowie das Ausmaß des MDA-dG-Adduktes M1dG (Immunoslotblot) und (oxidativer) DNA-Schäden mit dem Comet Assay in Leukozyten untersucht. Der Gehalt an Glutathion wurde im Vollblut mit einem kinetischen, photometrischen Test bestimmt. Der Einfluss verschiedener Dialysemembranen und der Anämiebehandlung mit einem Eisen-Präparat auf den oxidativen Stress wurde mit den Markern oxidative DNA-Schädigung und MDA-Bildung im Plasma geprüft. Ein Faktor für die Biokompatibilität der speziell modifizierten MARS-Membran zur Therapie von Patienten mit akutem Leberversagen wurde mit der herkömmlicher Dialysemembranen mit Hilfe des Comet Assay verglichen. Das Ausmaß (oxidativer) DNA-Schäden durch das Nierenersatzverfahren Transplantation wurde dem der HD gegenübergestellt. In einer Pilotstudie wurde die antioxidative Wirksamkeit eines Mischfruchtsaftes an gesunden Probanden anhand der Endpunkte DNA-Schädigung und MDA-Bildung geprüft. Vor HD zeigte sich im Vergleich zu den gesunden Kontrollen ein starker oxidativer Stress in den Blutzellen, hauptsächlich auf DNA-Ebene. Während der HD wurde in den Blutzellen eine Belastung der antioxidativen Abwehr beobachtet, die sich aber weder auf DNA-Ebene noch in einer verstärkten LPO im Plasma äußerte. Die starke Elimination der Harnsäure wirkte sich ebenfalls nicht auf die anderen Marker im Plasma oder den Blutzellen aus. Somit hatte der Verlust der Harnsäure im Plasma keinen messbaren oxidativen Effekt. Die Untersuchung der oxidativen DNA-Schäden mit dem Comet Assay war der empfindlichste Marker zum Nachweis des oxidativen Stress. Die Untersuchung des Einflusses der Dialysemembran zeigte eine geringere Induktion von oxidativem Stress und damit eine höhere Biokompatibilität der synthetischen Polysulfonmembran (Fresenius F8) und der halbsynthetischen, Vitamin E-beschichteten Cellulosemembran (Terumo E15) im Vergleich zur halbsynthetischen, diacetylierten Cellulosemembran (Baxter DICEA170). Die Infusion eines Eisen-Präparates beeinflusste das Ausmaß der Plasma-MDA-Bildung und der oxidativen DNA-Schädigung stärker als die HD-Membran. Der oxidative Stress wurde bei diesen dialyseassoziierten Einflussfaktoren über unterschiedliche Wege ausgelöst: Die Eisen-Infusion kann über die Fentonreaktion die Generierung von ROS induzieren, die dann weitere Zellbestandteile – zuerst im Plasma, dann in den Leukozyten – schädigen. Die Dialysemembranen stimulieren die Leukozyten in unterschiedlichem Maße zur ROS-Produktion, die sich hauptsächlich auf Ebene der DNA auswirkt. Diese Ergebnisse bestätigten sowohl den in der Literatur beschriebenen erhöhten oxidativen Stress in HD-Patienten im Vergleich zu gesunden Probanden, als auch die modulierenden Eigenschaften der Dialysemembran und der Anämiebehandlung. Um die langfristige Konsequenz dieser dialysebedingten Einflüsse für die Folgeerkrankungen besser verstehen zu können, sollten sie in prospektiven Studien weiter untersucht und mit der Morbidität für Atherosklerose und Krebs korreliert werden. Die Membran der MARS-Therapie löste keine zusätzlichen oxidativen DNA-Schäden aus. Hier könnte der Comet Assay klinische prognostische / diagnostische Parameter ergänzen, was in weiteren Untersuchungen noch abgeklärt werden muss. Die Nierentransplantation verstärkte den oxidativen Stress im Vergleich zur Ersatztherapie HD. Die ersten Ergebnisse zeigten nach Intervention mit dem Mischfruchtsaft leicht verringerte oxidative DNA-Schäden. Diese Wirkung sollte an einem größeren Kollektiv mit verschiedenen Dosierungen überprüft werden. Zusammenfassend sind HD-Patienten eine Population, deren erhöhter oxidativer Stress mit unterschiedlichen Markern verfolgt werden kann. Erstmals wurde die besondere Eignung des Comet Assays zur Erfassung oxidativer DNA-Schäden in HD-Patienten nachgewiesen. Zwei Arten von oxidativen Ereignissen scheinen bei diesen Patienten eine Rolle zu spielen: ein latenter dialysemembranabhängiger, leukozytenvermittelter oxidativer Stress und eine aus den Eiseninfusionen resultierende Überlastung der antioxidativen Abwehr.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das vorgestellte SIMERO-System realisiert eine globale Ganzarmkollisionsvermeidung auf der Basis von Bildern stationärer Kameras. Das System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt.
In this thesis the combinatorial framework of toric geometry is extended to equivariant sheaves over toric varieties. The central questions are how to extract combinatorial information from the so developed description and whether equivariant sheaves can, like toric varieties, be considered as purely combinatorial objects. The thesis consists of three main parts. In the first part, by systematically extending the framework of toric geometry, a formalism is developed for describing equivariant sheaves by certain configurations of vector spaces. In the second part, homological properties of a certain class of equivariant sheaves are investigated, namely that of reflexive equivariant sheaves. Several kinds of resolutions for these sheaves are constructed which depend only on the configuration of their associated vector spaces. Thus a partially positive answer to the question of combinatorial representability is given. As a particular result, a new way for computing minimal resolutions for Z^n - graded modules over polynomial rings is obtained. In the third part a complete classification of the simplest nontrivial sheaves, equivariant vector bundles of rank two over smooth toric surfaces, is given. A combinatorial characterization is given and parameter spaces (moduli spaces) are constructed which depend only on this characterization. In appendices a outlook on equivariant sheaves and the relation of Chern classes to their combinatorial classification is given, particularly focussing on the case of the projective plane. A classification of equivariant vector bundles of rank three over the projective plane is given.
We construct and study two surface measures on the space C([0,1],M) of paths in a compact Riemannian manifold M embedded into the Euclidean space R^n. The first one is induced by conditioning the usual Wiener measure on C([0,T],R^n) to the event that the Brownian particle does not leave the tubular epsilon-neighborhood of M up to time T, and passing to the limit. The second one is defined as the limit of the laws of reflected Brownian motions with reflection on the boundaries of the tubular epsilon-neighborhoods of M. We prove that the both surface measures exist and compare them with the Wiener measure W_M on C([0,T],M). We show that the first one is equivalent to W_M and compute the corresponding density explicitly in terms of the scalar curvature and the mean curvature vector of M. Further, we show that the second surface measure coincides with W_M. Finally, we study the limit behavior of the both surface measures as T tends to infinity.
Empfängerorientierte Übertragungsverfahren sind dadurch gekennzeichnet, daß der im Sender zu verwendende Signalverarbeitungsalgorithmus an den im Empfänger verwendeten Signalverarbeitungsalgorithmus angepaßt ist. Dies geschieht meist mit zusätzlicher Kanalinformation, die nur am Sender und nicht am Empfänger verfügbar ist. In empfängerorientierten Systemen kann man besonders einfache Algorithmen in den Empfängern realisieren, die im Falle einer Abwärtsstreckenübertragung eines Mobilfunksystems, in den Mobilstationen sind. Dies ist mit geringen Produktionskosten und geringem Energieverbrauch der Mobilstationen verbunden. Um dennoch eine gewisse Güte der Datenübertragung zu gewährleisten, wird bei der Empfängerorientierung mehr Aufwand in der Feststation des Mobilfunksystems betrieben. Die derzeit verwendeten und für die dritte Mobilfunkgeneration (UMTS) vorgesehenen Übertragungsverfahren sind senderorientiert. Das bedeutet, daß der Signalverarbeitungsalgorithmus im Empfänger an den Signalverarbeitungsalgorithmus des Senders angepaßt ist. Auch bei der Senderorientierung wird meist die Kanalinformation in den Anpassungsprozeß im Empfänger einbezogen. Zum Gewinnen der Kanalinformation sind Testsignale notwendig, anhand der die Kanalinformation geschätzt werden kann. Solche Testsignale können in der Abwärtsstrecke eines empfängerorientierten Mobilfunksystems entfallen. Anstelle der Testsignale kann man Daten übertragen und somit die Datenrate im Vergleich zu senderorientierten Systemen erhöhen. Um die Performanz von Übertragungsverfahren beurteilen zu können, sind geeignete Kriterien notwendig. Meist werden zur Beurteilung Bitfehlerwahrscheinlichkeiten oder Signal-Stör-Verhältnisse verwendet. Da die Höhe der aufzuwendenden Sendeenergie nicht nur technisch, sondern auch gesellschaftlich ein wichtiger Aspekt zukünftiger Mobilfunksysteme ist, wird vom Verfasser das Kriterium der Energieeffizienz vorgeschlagen. Die Energieeffizienz beurteilt das Zusammenspiel von Signalverarbeitungsalgorithmen des Senders und des Empfängers unter Berücksichtigung der Kanaleigenschaften. Dabei wird die nutzbare Empfangsenergie auf die investierte Sendeenergie bezogen. Anhand der ermittelten energieeffizienzen und analytischen Betrachtungen in der vorliegenden Arbeit kann man den Schluß ziehen, daß empfängerorientierte Übertragungsverfahren für die Abwärtsstreckenübertragung in Mobilfunksystemen den senderorientierten vorzuziehen sind, wenn an der Feststation relativ viele und an den Mobilstationen relativ wenige Antennen zur Verfügung stehen. Dies ist bereits heute der Fall und auch in zukünftigen Mobilfunksystemen zu erwarten. Ferner eröffnet das am Rande untersuchte kanalorientierte Übertragungsverfahren, bei dem die Signalverarbeitungsalgorithmen des Sender und des Empfängers an die Kanalinformation angepaßt werden, ein weites Feld für zukünftige Forschungsvorhaben.
The thesis is concerned with the modelling of ionospheric current systems and induced magnetic fields in a multiscale framework. Scaling functions and wavelets are used to realize a multiscale analysis of the function spaces under consideration and to establish a multiscale regularization procedure for the inversion of the considered operator equation. First of all a general multiscale concept for vectorial operator equations between two separable Hilbert spaces is developed in terms of vector kernel functions. The equivalence to the canonical tensorial ansatz is proven and the theory is transferred to the case of multiscale regularization of vectorial inverse problems. As a first application, a special multiresolution analysis of the space of square-integrable vector fields on the sphere, e.g. the Earth’s magnetic field measured on a spherical satellite’s orbit, is presented. By this, a multiscale separation of spherical vector-valued functions with respect to their sources can be established. The vector field is split up into a part induced by sources inside the sphere, a part which is due to sources outside the sphere and a part which is generated by sources on the sphere, i.e. currents crossing the sphere. The multiscale technqiue is tested on a magnetic field data set of the satellite CHAMP and it is shown that crustal field determination can be improved by previously applying our method. In order to reconstruct ionspheric current systems from magnetic field data, an inversion of the Biot-Savart’s law in terms of multiscale regularization is defined. The corresponding operator is formulated and the singular values are calculated. Based on the konwledge of the singular system a regularzation technique in terms of certain product kernels and correponding convolutions can be formed. The method is tested on different simulations and on real magnetic field data of the satellite CHAMP and the proposed satellite mission SWARM.
The thesis deals with the subgradient optimization methods which are serving to solve nonsmooth optimization problems. We are particularly concerned with solving large-scale integer programming problems using the methodology of Lagrangian relaxation and dualization. The goal is to employ the subgradient optimization techniques to solve large-scale optimization problems that originated from radiation therapy planning problem. In the thesis, different kinds of zigzagging phenomena which hamper the speed of the subgradient procedures have been investigated and identified. Moreover, we have established a new procedure which can completely eliminate the zigzagging phenomena of subgradient methods. Procedures used to construct both primal and dual solutions within the subgradient schemes have been also described. We applied the subgradient optimization methods to solve the problem of minimizing total treatment time of radiation therapy. The problem is NP-hard and thus far there exists no method for solving the problem to optimality. We present a new, efficient, and fast algorithm which combines exact and heuristic procedures to solve the problem.
The central theme in this thesis concerns the development of enhanced methods and algorithms for appraising market and credit risks and their application within the context of standard and more advanced market models. Generally, methods and algorithms for analysing market risk of complex portfolios involve detailed knowledge of option sensitivities, the so-called "Greeks". Based on an analysis of symmetries in financial market models, relations between option sensitivities are obtained, which can be used for the efficient valuation of the Greeks. Mainly, the relations are derived within the Black Scholes model, however, some relations are also valid for more general models, for instance the Heston model. Portfolios are usually influenced by lots of underlyings, so it is necessary to characterise the dependencies of these basic instruments. It is usual to describe such dependencies by correlation matrices. However, estimations of correlation matrices in practice are disturbed by statistical noise and usually have the problem of rank deficiency due to missing data. A fast algorithm is presented which performs a generalized Cholesky decomposition of a perturbed correlation matrix. In contrast to the standard Cholesky algorithm, an advantage of the generalized method is that it works for semi-positive, rank deficient matrices as well. Moreover, it gives an approximative decomposition when the input matrix is indefinite. A comparison with known algorithms with similar features is performed and it turns out, that the new algorithm can be recommended in situations where computation time is the critical issue. The determination of a profit and loss distribution by Fourier inversion of its characteristic function is a powerful tool, but it can break down when the characteristic function is not integrable. In this thesis, methods for Fourier inversion of non-integrable characteristic functions are studied. In this respect, two theorems are obtained which are based on a suitable approximation of the unknown distribution with known density and characteristic function. Further it will be shown, that straightforward Fast Fourier inversion works, when the according density lives on a bounded interval. The above techniques are of crucial importance to determine the profit and loss distribution (P&L) of large portfolios efficiently. The so-called Delta Gamma normal approach has become industrial standard for the estimation of market risk. It is shown, that the performance of the Delta Gamma normal approach can be improved substantially by application of the developed methods. The same optimization procedure also applies to the Delta Gamma Student model. A standard tool for computing the P&L distribution of a loan portfolio is the CreditRisk+ model. Basically, the CreditRisk+ distribution is a discrete distribution which can be computed from its probability generating function. For this a numerically stable method is presented and as an alternative, a new algorithm based on Fourier inversion is proposed. Finally, an extension of the CreditRisk+ model to market risk is developed, which distribution can be obtained efficiently by the presented Fourier inversion methods as well.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
Las matemáticas son atribuidas en general a algo no claro y sólo para matemáticos. La imagen de las matemáticas para los escolares, es la de una ciencia, la cual se sirve sólo de si misma. Es importante hacer frente al prejuicio de que las matemáticas distan lejos de toda utilidad práctica. La matemática es una ciencia al servicio de todas las dem´as ciencias, de cuya ayuda se necesita en casi todos los campos de la vida. La matemática de la escuela debería despertar en cualquier ámbito de la vida de los escolares el interés sobre ...
Linear Optimization is an important area from applied mathematics. A lot of practical problems can be modelled and solved with this technique. This publication shall help to introduce this topic to pupils. The process of modelling, the reduction of problems to their significant attributes shall be described. The linear programms will be solved by using the simplex method. Many examples illustrate the topic.
A mediados del año 1997 la publicación de los denominados TIMMS-Estudios (Third International Mathematics and Science Study) causó un importante impacto en el público alemán. El motivo de esto fue el rendimiento escolar conseguido en la rama de matemáticas y ciencias naturales del octavo curso, el cual estaba situado en un campo internacional, donde particularmente en el ámbito matemático el conjunto de los estados del norte-, oeste-, y del este de Europa que forman parte del TIMSS - sin mencionar a la mayoría de los paises asiáticos - habían conseguido claramente mejores rendimiento. En definitiva mostraban un peor rendimiento los escolares alemanes con respecto a los paises vecinos y con los ....
This publication tries to develop mathematical subjects for school from realistic problems. The center of this report are business planning and decision problems which occur in almost all companies. The main topics are: Calculation of raw material demand for given orders, consumption of existing stock and the lot sizing.
The focus of this work has been to develop two families of wavelet solvers for the inner displacement boundary-value problem of elastostatics. Our methods are particularly suitable for the deformation analysis corresponding to geoscientifically relevant (regular) boundaries like sphere, ellipsoid or the actual Earth's surface. The first method, a spatial approach to wavelets on a regular (boundary) surface, is established for the classical (inner) displacement problem. Starting from the limit and jump relations of elastostatics we formulate scaling functions and wavelets within the framework of the Cauchy-Navier equation. Based on numerical integration rules a tree algorithm is constructed for fast wavelet computation. This method can be viewed as a first attempt to "short-wavelength modelling", i.e. high resolution of the fine structure of displacement fields. The second technique aims at a suitable wavelet approximation associated to Green's integral representation for the displacement boundary-value problem of elastostatics. The starting points are tensor product kernels defined on Cauchy-Navier vector fields. We come to scaling functions and a spectral approach to wavelets for the boundary-value problems of elastostatics associated to spherical boundaries. Again a tree algorithm which uses a numerical integration rule on bandlimited functions is established to reduce the computational effort. For numerical realization for both methods, multiscale deformation analysis is investigated for the geoscientifically relevant case of a spherical boundary using test examples. Finally, the applicability of our wavelet concepts is shown by considering the deformation analysis of a particular region of the Earth, viz. Nevada, using surface displacements provided by satellite observations. This represents the first step towards practical applications.
In dieser Arbeit wurden neue hocheffiziente photorefraktive Gläser auf Basis des Chromophors IDOP20 entwickelt. Der Chromophor wurde zunächst anhand der Kerr-Gütezahl auf seine Eignung für PR-Anwendungen überprüft. Es konnte eine relativ große Kerr-Gütezahl bestimmt werden. Durch die sterisch anspruchsvollen 3,3’-Dimethylmethylen-Gruppen wird in diesem Chromophor die Neigung zur Dimerenbildung weitgehend unterdrückt. Für mehrere photorefraktive Gläser mit IDOP20 als elektrooptischem Chromophor konnten sehr hohe Verstärkungskoeffizienten Gamma erzielt werden. Für das Glas der Zusammensetzung IDOP20:2BNCM:DPP:TPD:TNFM 30:25:20:24:1 Gew.-% wurde mit einer Nettoverstärkung von Gamma_net = 178 1/cm ein der bisher größten Werte bei einer Feldstärke von E = 45 V/µm erzielt. Weiterhin konnte der Polymeranteil in den photorefraktiven Gläsern vollständig durch glasbildende Co-Chromophore ersetzt werden. Dadurch wurde die Phasenseparation und Kristallbildung in den photorefraktiven Gläsern unterdrückt und die Stabilität und die optische Qualität der Gläser verbessert. Die glasbildenden Eigenschaften von IDOP20 wurden durch dynamische Differenz-Kalorimetrie-Messungen nachgewiesen werden. Der Chromophor bildet einen Charge-Transfer-Komplex mit dem Sensibilisator TNFM. Weitere quasistationäre und zeitabhängige holographische und ellipsometrische Messungen wurden an einem Glas mit zugesetztem Weichmacher DPP (zur Herabsetzung der Glasübergangstemperatur) der Zusammensetzung IDOP20:DPP:TNFM 69:30:1 Gew.-% durchgeführt. Dabei konnte eine Brechungsindexmodulation von Delta n = 0.009 bei einer Feldstärke 60 V/µm ermittelt werden. In zeitabhängigen Messungen wurde ein monoexponentieller Verlauf des photorefraktiven Gitteraufbaus beobachtet. Weiterhin wurde eine sehr starke Temperaturabhängigkeit der Antwortzeiten festgestellt und die Dynamik der Molekülorientierung als zeitbestimmender Prozess identifiziert. Die photorefraktive Leistung der IDOP20-Gläser wurde im Vergleich zu ATOP1-Gläsern diskutiert.
Hyperquasivarieties
(2003)
We define a class of topological spaces (LCNT-spaces) which come together with a nuclear Frechet algebra. Like the algebra of smooth functions on a manifold, this algebra carries the differential structure of the object. We compute the Hochschild homology of this object and show that it is isomorphic to the space of differential forms. This is a generalization of a result obtained by Alain Connes in the framework of smooth manifolds.
In der vorliegenden Arbeit wurde zunächst der potentielle Einfluss makroskopischer Oberflächentopographieunterschiede auf die Langzeitbeständigkeit geklebter Aluminiumverbunde untersucht. Fokussiert wurde hierbei auf die durch Vorbehandlungsverfahren induzierte Veränderung technischer Rauhigkeitsgrade sowie die damit einhergehende Vergrößerung der adhäsiv wirksamen Oberfläche. Die Trennung der sich infolge der eingesetzten Vorbehandlungsverfahren überlagernden Einflussfaktoren Oberflächentopographie und Oberflächenchemie konnte durch die Generierung unterschiedlicher Rauheitsgrade bei gleichzeitiger Nivellierung der chemischen Oberflächenzustände sichergestellt werden. Erreicht wurde dies durch einen chemisch einheitlichen, die Haftgrundvorbereitung abschließenden Nachbehandlungsprozess. Ein signifikanter Einfluss der im µm-Bereich detektierten, makroskopischen Topographieunterschiede auf die technischen Eigenschaften adhäsiv gefügter Aluminium-Epoxidharzverbunde kann ausgeschlossen werden. Die Resultate der Untersuchungen zur Wirkungsweise der durch Alterungssimulationen induzierten Schädigungsmechanismen zeigten, dass für eine sinnvolle Beurteilung der Langzeitbeständigkeit unterschiedlich vorbehandelter Aluminium-Epoxidharz-Klebungen die Anwendung einzelner, standardisierter Alterungstests oftmals nicht ausreicht. Die Auswirkungen der simulierten Alterungsprozesse auf die technischen Eigenschaften der geklebten Aluminiumverbunde sind sowohl abhängig von der Art, Dauer und Intensität der dominierenden Schädigungsmechanismen, als auch von den durch die jeweilige Vorbehandlung generierten Zuständen der Substratoberflächen. Die jeweilige Haftgrundvorbereitung hat somit einen erheblichen Einfluss auf die Sensitivität der Klebung gegenüber unterschiedlichen Alterungsprozessen. Die phänomenologischen Betrachtungen in Form der durchgeführten Festigkeitsuntersuchungen deuten an, dass die Kinetik der korrosiven Klebschichtunterwanderung weder von der Art des Epoxidharzsystems, noch von den Spezifikationen der im Rahmen dieser Untersuchungen verwendeten Aluminiumlegierungen maßgeblich abhängt. Die Sensitivität dieser Klebungen, insbesondere gegenüber korrosiven Schädigungsmechanismen, wird von den durch die Haftgrundvorbereitung generierten Oberflächenzuständen dominiert. Die Ergebnisse der parallel durchgeführten oberflächenanalytischen Untersuchungen lieferten zur Erklärung der phänomenologischen Resultate ein weitgehend uneinheitliches Bild. Lediglich anhand der Analysen zur submikroskopischen Morphologie unterschiedlich vorbehandelter Fügeteiloberflächen konnte eine Korrelation mit den phänomenologischen Untersuchungen zur Langzeitbeständigkeit geklebter Aluminium-Epoxidharz-Verbunde in korrosiven Medien hergestellt werden. Die daraus abgeleitete Hypothese hinsichtlich eines signifikanten Einflusses der "Nanomorphologie" von Fügeteiloberflächen auf die Kinetik der korrosiven Klebschichtunterwanderung wurde durch zusätzliche Untersuchungen überprüft und bekräftigt. Hierbei erwies sich der entwickelte beschleunigte Korrosionstest als durchaus nützlich, da die unterschiedlich vorbehandelten Klebungen im Vergleich zu dem wesentlich zeitintensiveren Salzsprühtest innerhalb relativ kurzer Zeit phänomenologisch vergleichbare Schadensbilder aufweisen. Das aus den vorliegenden Untersuchungen abgeleitete Erkärungsmodell baut auf der Theorie der oberflächengesteuerten, grenzschichtnahen Polymerbeeinflussung auf. Dieses Postulat der sich in Abhängigkeit des chemischen Oberflächenzustandes verändernden Polymerisationsgrade in der Interphase zwischen Festkörperoberfläche und Klebstoff wird erweitert um den Einfluss sogenannter Nanomorphologien, also einer in submikroskopischen Dimensionen vorliegenden Feinstrukturierung der Fügeteiloberfläche. Eine durch Festkörperoberflächen induzierte selektive Adsorption von Klebstoffbestandteilen, die Entstehung schwacher Polymerzonen (weak boundary layers) oder andere potentielle Heterogenitäten innerhalb der Adhäsionszone werden somit in Richtung Substratbulk verschoben. Anstatt einer scharf ausgeprägten Phasengrenze zwischen Polymer und Substratoberfläche entsteht somit eine Grenzzone, die aufgrund ihrer fein verteilten Zusammensetzung aus Oxid und Klebstoff zusätzlich Verbundwerkstoffeigenschaften aufweisen kann. Die Frage nach dem aus ingenieurwissenschaftlicher Sicht höchsten Effizienz von Wirkmechanismen bei der Oberflächenvorbehandlung zur Erzielung langzeitbeständiger Aluminiumklebungen wird hier - im Rahmen der in der vorliegenden Arbeit betrachteten Parameter und unter der Prämisse chemisch reaktiver Festkörperoberflächen - mit der Generierung dünner, nanoskopisch strukturierter Oberflächenmorphologien beantwortet.
Marker für oxidativen Streß in unterschiedlichen Testsystemen wurden etabliert bzw. entwickelt, um eine Schädigung durch Ozon in vitro und in vivo zu untersuchen. Durch den Plasmid-Relaxations-Assay wurde an isolierter Plasmid-DNA eine zeitabhängige Schädigung durch Ozon nachgewiesen. Das durch zusätzliche Inkubation mit Reparaturenzymen erhaltene Schadensprofil unterscheidet sich von bisher beschriebenen Profilen dahingehend, daß es überwiegend zur Induktion von FPG- und Endonuklease III sensitiven Läsionen kommt. Dies deutet auf eine Reaktion von Ozon per se in diesem Testsystem hin. An isolierten HL-60 Zellen, die gegenüber 8 mg/m³ Ozon für 30 min exponiert waren, wurde die Induktion von Strangbrüchen und FPG-sensitiven Läsionen mittels eines mit Reparaturenzymen modifizierten Comet-Assays nachgewiesen. Das Verhältnis zwischen Strangbrüchen und FPG-sensitven Läsionen betrug 1 : 2, was auch in diesem Testsystem auf die Reaktion von Ozon per se hindeutet. Zur Messung von 8-oxodG im Urin wurde eine Methode mit hoher Präzision (VK 3,5 % für Wiederholanalysen) entwickelt, welche auf Immunoaffinitätschromatographie am bisher für diesen Einsatz nicht beschriebenen Antikörper 1F7 kombiniert mit HPLC-ECD (Gradientenelution) basiert. Zur Validierung der Methode wurden Vergleichsmessungen im Rahmen eines internationalen Ringversuchs durchgeführt. Die Ergebnisse belegen die prinzipielle Vergleichbarkeit des hier beschriebenen Verfahrens mit LC-MS-MS, Carbon Column HPLC-ECD und ELISA, wobei es mit ELISA zu einer bis zu fünffachen Überschätzung der Meßwerte kam, die jedoch gut mit den anderen Methoden korrelierten. Zum Nachweis von 8-oxodG in DNA wurde eine Methode entwickelt, welche die Artefakt-bildung während der DNA-Isolierung mittels Isopropanolfraktionierung in Anwesenheit von NaI sowie während der DNA-Hydrolyse minimiert und die Quantifizierung mittels HPLC-ECD erlaubt. Die für humane Kontrollproben (Blut) erhaltenen Werte lagen in einer Größenordnung, welche auf Basis eines Vergleichs mit Daten aus einem internationalen Ringversuch die Richtigkeit der Werte belegt. Die Richtigkeit der chromatographischen Analysenergebnisse für 8-oxodG wurde durch Teil-nahme an einem internationalen Ringversuch mit Vergleichsmessungen von Standards gezeigt. Zum Nachweis von Malondialdehyd im Blutplasma wurde ein spezifisches Verfahren entwic-kelt, welches die Messung durch HPLC-FlD nach Derivatisierung mit Thiobarbitur-säure erlaubt. Um die Induktion von oxidativem Streß durch Ozon in vivo zu untersuchen, wurde ein Tierexperiment an Ratten durchgeführt, welche gegenüber unterschiedlichen Ozonkonzentrationen für max. 12 Wochen exponiert wurden. Für die Ausscheidung von 8-oxodG im wöchentlich gewonnen 24-Stundenurin konnte kein Unterschied zwischen den verschiedenen Expositionsgruppen nachgewiesen werden. Dies ist möglicherweise auch auf die hohe Streuung der Einzelwerte zurückzuführen, die nicht methodisch begründet ist. Der Nachweis von 8-oxodG in lymphozytärer DNA schlug fehl, was auf die schlechte Qualität der Blutproben zurückzuführen ist. Im terminal gewonnen Lungengewebe wurde ein dosisabhängiger Anstieg der 8-oxodG Konzentration ab einer Ozonkonzentration von 500 µg/m³ beobachtet, der für eine Expositionskonzentration von 1000 µg/m³ gegenüber Raumluft und 200 µg/m³ statistisch signifikant war (p < 0,05). Für Malondialdehyd im Blutplasma konnte keine dosisabhängige Zunahme durch Ozonexposition nachgewiesen werden. Die gegenüber 1000 µg/m³ Ozon exponierten Tiere zeigten jedoch eine gegenüber den anderen Gruppen signifikant niedrigere Malondialdehydkonzentration im Plasma (p < 0,05). Dies ist vermutlich auf die Induktion der antioxidativen Abwehr zurückzuführen, wie sie für ozonexponierte Ratten bereits beschrieben wurde. Die Induktion von Nitrotyrosin im Lungengewebe ozonexponierter Tier konnte nicht nachgewiesen werden. Dies ist auf die Abwesenheit der Entzündungsreaktion, die für akute Ozon-exposition beschrieben ist, zurückzuführen. Der nicht- oder minimal-invasive Nachweis dieser Effekte in vivo in Körperflüs-sigkeiten war mit den untersuchten Biomarkern nicht möglich.
In many robotic applications, the teaching of points in space is necessary to register the robot coordinate system with the one of the application. Robot-human interaction is awkward and dangerous for the human because of the possibly large size and power of the robot, so robot movements must be predictable and natural. We present a novel hybrid control algorithm which provides the needed precision in small scale movements while allowing for fast and intuitive large scale translations.