Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Universität (1)
Mechanische Eigenschaften von Nanoverbundwerkstoffen aus Epoxydharz und keramischen Nanoparktikeln
(2006)
Diese Arbeit zielt auf die Entwicklung duroplastischer Nanoverbundwerkstoffe mit hoher
mechanischer und tribologischer Leistungsfähigkeit. Die Basismaterialien sind
Epoxydharz als Matrix sowie keramische Nanopartikel aus Aluminiumoxid und Titandioxid
als Verstärkungsmaterial. Die systematische Variation von Partikelvolumengehalten
und die Herstellung von Nanoverbundwerkstoffen in Serien führen zum Ziel.
Aus diesen Serien lassen sich die für ein gewünschtes Eigenschaftsprofil optimalen
Partikelgehalte ableiten.
Die praxisorientierte Herstellung von Nanoverbundwerkstoffen erfordert die Anwendung
industrienaher und skalierbarer Methoden zur Einarbeitung der pulverförmigen,
agglomerierten Nanopartikel in das flüssige Harz, gefolgt von deren Dispergierung. Dazu
wurden mechanische Dispergiertechnologien ausgewählt und eingesetzt, welche
die Agglomerate durch Einwirkung hoher Kräfte zerkleinern. Dissolver und Tauchmühlen
erwiesen sich als geeignete Maschinen, denn sie erlauben die Dispergierung unter
exakt kontrollierbaren Prozessbedingungen und bewirken eine homogene Verteilung
kleiner Teilchen im flüssigen Epoxydharz, ein Zustand, der auch im ausgehärteten
Material erhalten bleibt. Diese Arbeit stellt geeignete Dispergierprozesse für Dissolver
und Tauchmühle zur Verfügung.
Die so hergestellten Serien an Nanoverbundwerkstoffen wurden umfangreich materialwissenschaftlich
charakterisiert und nach Ursachen für die Wirkung der eingebrachten
Nanopartikel gesucht. Es ergeben sich bei guter Dispergierung deutliche Verbesserungen
der mechanischen Eigenschaften, wobei geringe Nanopartikelgehalte (<5 Vol.%)
bereits ausreichen, um diese zu erzielen. Abhängig vom Partikelgehalt demonstrieren
die Materialien Steigerungen des Elastizitätsmoduls und der Festigkeit bei sehr geringen
Einbußen an Duktilität. Die eingehende Untersuchung der bruchmechanischen
Eigenschaften mittels LEBM liefert Zähigkeitsanstiege (KIc, GIc, CTOD), die mit einer
üblichen Kautschuk-Modifizierung durchaus vergleichbar sind, ohne jedoch deren
Nachteile in Form eines Modulabfalles in Kauf nehmen zu müssen. Keramische Nanopartikel
leisten damit die Auflösung des Steifigkeit-/Zähigkeits-Paradigmas, wodurch
nun Werkstoffe entwickelbar sind, die sich durch verbesserte Bruchzähigkeit bei gleichzeitiger
Steifigkeits- und Festigkeitserhöhung auszeichnen. Mit diesen Charakteristiken
geht auch die Erhöhung der Glasübergangstemperatur und Temperaturstabilität einher.
Unter dynamischer Belastung behindern Nanopartikel sogar die Ausbreitung von
Rissen im Kunststoff und heben damit den Widerstand gegen Ermüdungsrissausbreitung
auf ein höheres Niveau. Weiterhin verbessern geringe Nanopartikelgehalte (0,5-2
Vol%) den Verschleißwiderstand von Epoxydharz unter Gleitverschleißbedingungen.
Fraktographische Untersuchungen ergaben Hinweise auf die verantwortlichen Verstärkungsmechanismen.
Die Nanopartikel bewirken eine Superposition verschiedener
energiedissipativer Mechanismen im Epoxydharz, z.B. Crack pinning, Debonding,
plastische Deformation der Matrix, Mikrorissbildung, Rissablenkung und Ausrundung
der Riss-Spitze. Diese stehen in engem Zusammenhang zur Mikrostruktur der Materialien.
Den Fingerabdruck dieser Mikrostruktur lieferten mikroskopische Methoden
(REM, TEM, AFM). Sie beweisen, dass bereits das Epoxydharz eine komplexe Struktur
aufweist, die sich freilich durch den Einfluss der Nanopartikel und die resultierenden
Grenzflächenwechselwirkungen stark ändert. Um Zusammenhänge zu verdeutlichen,
wurden mikrostrukturelle und mechanische Eigenschaften korreliert, und teilweise
analytisch modelliert (Young’scher Modul). Als hilfreich erwiesen sich hier ergänzende
Untersuchungen der mikromechanischen Eigenschaften in kleinsten Bereichen der
Werkstoffe mittels Nanoindentation.
Im Hinblick auf traditionelle und seit langem bewährte Verbundwerkstoff-Rezepturen
hat sich gezeigt, dass Nanopartikeln ihre Verstärkungswirkung auch in Kombination
mit Mikropartikel (Glaskugeln, CaSiO3) bewahren, sodass bei vergleichbarem oder
erhöhtem Nutzen der Mikropartikelanteil reduziert werden kann.
Aufgrund der überzeugenden Eigenschaften bieten duroplastische Nanoverbundwerkstoffe
ein großes Anwendungspotenzial. Sie sind als tribologisch und mechanisch widerstandsfähige
Beschichtungen, als Matrizes in faserverstärkten Kompositen oder per
se einsetzbar.
This work focuses on the development of thermosetting nanocomposites with high
mechanical and tribological performance. The materials were chosen to be epoxy
resin as a matrix and ceramic nanoparticles (aluminium oxide and titanium dioxide)
as modifiers. The method of choice for reaching the aim is the systematic variation of
particle volume amounts and the manufacturing of series of nanocomposites, which
allow deducing the wished formulations.
The application oriented manufacturing of nanocomposites necessitates the use of
scalable industrial Methods for working the powdery nanoparticle agglomerates into
the liquid resin, followed by dispersion processes. For this purpose, mechanical dispersion
technologies have been chosen and applied, which break the agglomerates
under high shear forces. The Dissolver and the Torus Mill turned out to be suitable
devices allowing to disperse the particles under controlled processing conditions. This
results in a homogeneous distribution of particles in the liquid epoxy. In fact, the state
of well distributed the particles is preserved also in the cured resin. This work provides
suitable dispersion processes for both the Dissolver and the Torus Mill.
The newly developed nanocomposites were extensively characterized with respect to
their mechanical performance, and also with special attention to the reinforcing effects.
Provided that nanoparticles are well dispersed within the polymer, the mechanical
properties have proved to be strongly enhanced by the particles. Low filler amounts
(< 5 Vol.%) are already sufficient to gain the wished effects. Depending on the filler
volume fraction, the materials demonstrate improvements in modulus and strength
without reducing ductility. The detailed examination of fracture mechanical properties
by means of LEFM revealed toughness increases (KIc, GIc, CTOD) which are comparable
to that of rubber tougheners in epoxy. However, the traditional loss in modulus
in the latter systems is avoided by the use of nanoparticles. Accordingly, the ceramic
nanofillers are able to overcome the stiffness-toughness paradigm, so that materials
feature improved fracture toughness, stiffness and strength simultaneously can now be
developed. These characteristics are accompanied at the same time by an increase in
the glass transition temperature and the temperature stability. Besides, the nanoparticles hinder the propagation of small cracks within the matrix and increase the resistance
to fatigue crack propagation. As a matter of fact, one finds also the wear resistance
being improved under sliding wear conditions.
Examinations on fractured specimen surfaces provided information about the mechanisms
responsible for reinforcement. The nanoparticles generate a superposition of several energy dissipating mechanisms in the epoxy, e.g. crack pinning, debonding,
plastic deformation of the matrix, microcracking, crack deflection and crack tip blunting.
These are closely related to the microstructure of the materials. The characteristic
finger prints of the microstructure could be verified by microscopy methods (SEM,
TEM, AFM). It was proved true, that even in neat epoxy resin a complex microstructure
exists, which is, however, strongly influenced by the nanoparticles and the resulting
interfacial interactions. In order to clarify the relevant relationships, the microstructural
and mechanical properties were correlated. On the basis of the latter, the Young’s
modulus was modelled analytically. It proved to be helpful to supplementary conduct
micromechanical properties examinations by nanoindentation in small areas of the
material.
With respect to traditional and approved composite formulations, it was shown that the
nanoparticles preserve their reinforcing capabilities if combined with micro-fillers (glass
spheres, CaSiO3). Therefore, the absolute amount of micro-fillers might now be reduced
at comparable or even improved level of the material’s mechanical performance.
The persuasive properties of epoxy nanocomposites offer a great potential to be applied
in parts and components. They serve well as coatings with high wear resistance,
as matrices in fibre reinforced composites, and as bulk materials.
Long fiber reinforced plastics with thermoplastic resin were steadily growing with an
ongoing success over many industries mainly automotive. Even during economically
difficult periods, they increased their output and their market share.
In addition to flow compression molding, semi-finished LFRT in form of granules were
introduced to new processes like injection molding.
This work covers two major topics to enlarge the performance of LFRTs. Firstly, it
shows a material development, which leads to flame retarded LFRT. Secondly, it
presents a new process method to improve especially dynamic mechanical properties
by laminating two compression molded sheets with no additional equipment.
One major restriction for further applications is represented by flammability of thermoplastics.
This thesis gains for a new potential. Encountering future legislative restrictions
a combination of halogen-free flame retardant and LFRT based on polypropylene
has been developed. Test results match the requirements in accordance to
flammability test UL 94 V0 (2.6 mm). Furthermore the mechanical properties
achieved a similar performance as standard-LFRTs. The polymer flow in compression
molding provokes a fiber orientation parallel to the direction of the flow front development.
A x-ray analysis in combination with a fiber orientation analysis show, that
rheology has a strong influence on the flow front development, fiber orientation and
compression work needed.
One advantage of flow compression molding is the free option in placing the polymer
melts in the cavity. The common mold design with male and female mold without slides
allows changing part thickness by different polymer melt volumes charged in the
cavity. This allows to proceed the compression molding process twice without demolding the first part. On a flat panel, the process of laminating two sheets by compression
molding is demonstrated. A first panel gets over molded by a second polymer
melt. This laminate provides a better performance than a singular molded panel
of the same thickness.
The higher substrate’s temperature the better is the adhesion of the first to the second
layer. Additionally, the best adhesion is achieved in the area of the second polymer
melt cavity placement. Furthermore an optimum in mechanical properties can be
obtained utilizing the same resin for the first and the second layer. A more advanced
material is shown with the combination of a standard-LFRT layer and a flame retarded
layer.
Calculations show, that the flame retardancy of LFRT on polypropylene can be economically
advantageous in comparison to the utilization of higher flame resistant polymer
for large parts. Nevertheless for each specific geometry as well as for certain
mechanical demands an evaluation on the best material to fit has to be carried out.
This work shows economically reasonable options either to improve the mechanical
performance and to enlarge materials properties by flame retardancy or to combine
both.
Adaptive Strukturoptimierung von Faserkunststoffverbunden unter Berücksichtigung bionischer Aspekte
(2006)
Es finden immer häufiger Faserverbundmaterialien in Strukturbauteilen Anwendung,
da bei konventionellen Materialien die Zielkriterien, wie definierte Festigkeit, Steifigkeit,
etc. nicht mehr bzw. nicht mit hinreichend geringem Bauteilgewicht erreicht werden
können. Angesichts der hohen Kosten ist es verständlich, dass Faserkunststoffverbunde
(FKV) vorzugsweise in den Bereichen eingesetzt werden, wo die eingangs
erwähnten Optimierungsziele hohe Priorität haben. Besonders hervorzuheben ist
hierbei die Luft- und Raumfahrt. Zunehmende Bedeutung gewinnt der Einsatz von
Faserverbundwerkstoffen aber auch in der Automobil- bzw. Maschinenbauindustrie.
Mit fortschreitender Verbesserung der Optimierungsmethoden sowie der Fertigungstechnologien
und der damit verbundenen Kostenreduktion, werden heute bereits
komplexe Module hergestellt. Das zieht wiederum eine lastgerechte und werkstoffspezifische
Konstruktion nach sich. Gegenstand der Arbeit ist die Entwicklung eines
Topologieoptimierungswerkzeuges zur werkstoffgerechten Auslegung von FKVStrukturen.
Ziel ist, FKV - eine Klasse von Hochleistungswerkstoffen, deren Potenzial
sich nur mit geeigneten Modellen zur Nutzung ihrer anisotropen Eigenschaften ausschöpfen
lässt - unter Berücksichtigung der technischen Realisierbarkeit zu optimieren.
Dabei werden natürliche Wachstumsprinzipien in einen iterativen Prozess überführt.
Als Ziel dieses Algorithmus kann entweder eine gezielte Steifigkeit oder eine
gewichtsoptimale Lösung bei hinreichender Festigkeit mit möglichst gleichmäßiger
Spannungsverteilung im Bauteil definiert werden. Erreicht wird dies durch eine effektive
Lastverteilung von hoch belasteten auf geringer belastete Bereiche und somit
auch die Optimierung der Materialverteilung. In diesem Designvorschlag wird die
Grundorientierung der Basisschicht, die kraftflussgerechte Orientierung der Laminateinzellagen
sowie die Topologie von Zulagenschichten bzw. des Gesamtlaminates
optimiert. Besonders interessant ist die adaptive Strukturoptimierung von FKVStrukturen
bei lokalen Zulagen an hoch belasteten Krafteinleitungsstellen bzw. allgemein
in Bereichen hoher Spannungen. Wie weiterhin gezeigt wird, ist die entwickelte
adaptive Topologie- und Faserwinkeloptimierung in Kombination aus technologischer,werkstoffmechanischer sowie wirtschaftlicher Sicht vorteilhaft und kann
problemlos in der Praxis angewandt werden.
More and more fibre-reinforced composite materials are being used in structural building
components because with conventional materials, the target criteria, such as
defined strength, rigidity etc. can no longer be achieved with a sufficiently low weight
of the structural components, if at all. In view of the high costs, it is understandable
that fibre-reinforced plastic composites tend to be used in technical areas where the
optimization goals mentioned above have a high priority. The aviation and aerospace
industry deserves special mention here. The use of fibre composite materials is also
gaining significance in the automotive and mechanical engineering industry. Thanks
to increasing improvements in optimization methods and manufacturing technologies
and the reduction in costs that this brings with it, complex modules are being produced
even today. This in turn ensures specific-material construction with the necessary
load-bearing properties. The objective of the presentation is the development of
a topology optimization tool for designing Fibre-plastic-composite (FPC)-structures
which is appropriate for each material involved. The objective is to optimize FPC – a
class of high-performance materials the potential of which can only be exploited with
suitable models for the utilization of their anisotropic properties – under consideration
of their capability for technical realization. In doing so, natural growth principles are
implemented into an iterative process, thereby enabling computer simulation. The
main goal of this algorithm is maximum rigidity with as even a distribution of tension
as possible throughout the component, which is achieved by distributing the load
from high-load to lower load bearing areas, thereby optimizing the material distribution.
The weight optimization of specific components is possible in this way. The basic
orientation of the base layer, the orientation of the individual laminate layers in a
manner appropriate to the power flux, as well as the topology of bonding layers
and/or the entire laminate are optimized in this design recommendation. Of particular
interest here is the adaptive structural optimization of FPC structures with localized
bonding to high-load bearing load introduction points or generally, in areas with high
stresses. As continues to be shown, the developed adaptive topology and fibre angle optimization is beneficial from a technological, material-mechanical and economical
point of view, and can be applied in everyday practice without any problems.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
The popularity of composite materials is constantly growing, which can be verified by
the rising number of composite parts in our everyday life. Examples of composite
parts can be found in the Airbus A 380 or the constantly increasing number of wind
turbines which contain composite rotor blades of over 50m length. Because of the
main features of composites, which are light weight combined with high strength and
the possibility of tailoring the strength and the stiffness of the composite according to
the requirements, their application is highly efficient and economic.
In order to manufacture a composite part by employing a Liquid Composite Molding
Process (LCM), it is first necessary to select an appropriate manufacturing process
such as the Resin Transfer Molding Process (RTM) and to design a mold which corresponds
to the requirements of the selected process. Then the stacking sequence of
the individual fibrous reinforcements is designed to withstand the loads on the final
part. To achieve an efficient composite manufacturing process, pre-shaped, handable,
dry reinforcing structures, so called preforms, need to be applied. Such preforms
can be assembled either by using conventional binder technologies or by the
recently developed “cut and sew approach”. A variety of available software simulation
tools support the design engineer in this task. These tools are, on the one hand, a
fast way of gaining information about the expected loads the mold has to endure during
the injection process. On the other hand, they provide the possibility to optimize
the injection process and its process parameters and to identify critical points of incomplete
saturation. With this information at hand, the design of the mold can be adjusted
in order to obtain optimal processing conditions for a slim and efficient production
cycle.
A prerequisite for employing these powerful simulation tools is to obtain thorough
knowledge of the required input parameters concerning the fibrous reinforcement to
be used. The most important input parameters are the compaction behavior and the
permeability of the fibrous stacking sequence. Because of the absence of modelbased
tools to provide this input information experimental determination methods
have to be employed.
This work introduces two semi-automated measurement cells which determine the inplane
permeability of fibrous reinforcements in an efficient manner, i.e. the dielectrical permeability work cell and the optical compaction and permeability work cell. The
latter of which can determine both the required compaction and the permeability information
in one single experiment. The design and manner of operating of the optical
compaction and permeability work cell is described and its functionality is validated
by a comparison of experimental results.
Ökonomische Prozessanalyse und Modellintegration zur Kostenberechnung von Faser-Kunststoff-Verbunden
(2006)
The introduction to the topic is a description of the techno-economic evolution of
composites. Apart from this, today’s market state of the art of composites is also explained.
As a conclusion, the principal trend towards the higher quality by the increased
application of carbon fibers is ascertained. In particular, it is pointed out that
the restraints of the market growth are mainly caused by the high price, most notably,
of the fiber materials. This situation, in connection with the maturation of the composite
manufacturing processes, demands the need of a cost calculation tool.
In the second step, former composite cost models and their implementations into
software – if available – are described and benchmarked. As a result it is proposed to
combine, different approaches because of their fundamental potential as well as the
deficits. It is suggested to use a resource-based methodology combined with the
PBKM (prozessbasierte Kostenmodellierung = process-based cost modelling) and to
implement the models in a cost calculation software.
The first aim is an economic process analysis which is carried out to receive an abstract
and modular system. Thereby, it is possible to describe the production processes
by successive refinement more and more detailed. The process is divided in
multiple steps which are itself subdivided in technical activities or handlings. The
relevant cost objects with the identifiable cost positions are assigned to those handlings.
This approach assures modularity and offers the possibility of an easy software
implementation. In addition, the functionality of this methodology is demonstrated
considering the two examples “thermoplastic tape placement” and “continuous
pressing”. For that reason these composite manufacturing techniques are analyzed
and the structure is mapped within the use of suggested methodology.
The next topic deals with the modelling of the cycle time for the thermoplastic tape
placement with the use of the PBKM. Within this methodology the derivation of the
cycle time depends only on physical process parameters, which results in a geometrical
complexity based model. The developed model is verified by comparing of the
theoretically derived values with practical experiments. Along with this, the assumptions
for this model are revised and verified. As a technical enhancement of the tape
placement process, different designs of a geometry-adaptive consolidation role are introduced. This technical extension of the process technology is necessary for the
final verification of the model. The new consolidation unit enables to move all geometrical
degrees of freedom and complexities with the same laminate quality. Finally,
a possibility to transfer the methodology of the PBKM to other technologies is proved.
Therefore, it is offered a modus operandi how the continuous pressing technique can
be modelled with the help of the PBKM.
The last chapter deals with the cost calculation tool concerning the structural configuration,
design, and functionality of the software. It is the consequential synthesis of
the results of the economic process analysis and the cycle time models. The practicability
of the modularity is proved by its application in the design phase of the software
and by the integration of the modelling into the tool. The developed cost calculation
software for composite manufacturing processes offers a standardization of the
inputs and calculation algorithms by the use of introduced process analysis, the subdivision
into smallest units. The cycle time calculation models are process specific
know-how which can easily be used unlike an expert's system. The separation of the
single functional entities assures a stringent data management, possibilities for the
advancement, and furthermore, the variableness of representation and reuse of the
derived data. The functionality of the cost tool concerning evaluations and comparisons
are pointed out with two case studies. Plus, the postulated transferability of the
methodology on other composite technologies is demonstrated. The main advantage
of this system is that the modelling offers economical statements of different process
variations without experimentation. Besides, the values ascertained by the PBKM are
more precise compared to other existing models. Therefore, the PBKM can be the
basis for investment decisions like technology change or modifications and helps to
identify techno-economic limitations and potentials.
This version of the cost calculation software offers only the standard repertoire of
cost evaluations and comparisons which turn out to be upgradeable. Thus, there exists
potential to enhance the functionality concerning sensitivity analyses, the integration
of cycle time models for other composite processing technologies, and further
possibilities for the graphic processing. As a conclusion the software with the combination
of different attempts offers a good starting position with respect to the current
evolution status and should be extended.
In the Iranian public media, it was widely reported that by the end of 2004, 380 hectares of the eastern farthest end of the Peninsula Mianqala (northern part of Iran, located in the southeastern coasts of Caspian Sea) were sold to an organisation – the result is that "Asurada" Island will be turned into a so-called “Tourist Village”. The decision has been made and civil works are to begin. The village planned as a new settlement is specifically considered to work with Mianqala, which since June 1976 is an international biosphere reserve and since 1969, an Iranian nature protected area. Considering the special condition of the region as a biosphere reserve, this paper introduces the current situation of the Island Āŝūrāda and the suggested program by the aforementioned organisation. Subsequently, it tries to find an optimal answer to the question of whether "Āŝūrāda" is appropriate for such a purpose and how far it is allowed to be interfered with, through this new settlement. The paper asserts for this development, there is consideration of the settlement’s urban and architectural concept; subsequently analysis is conducted for the spatial development of the settlement, in terms of its influences on the ecological sources, the rural structure and the financial as well as social aspects. Such study is required, particularly due to the chain of tourist influences, which certainly will introduce a new pattern of urban character in terms of quality and quantity. Finally, with the assistance of the case presented, this paper poses the question of whether a new urban pattern like this can endanger a traditional and above all a nature protected context or not.
Das Recycling von Automobilen leistet einen wesentlichen Beitrag zur Schonung der natürlichen Ressourcen und Reduzierung der entstehenden Abfallmengen. Dabei kommt dem Automobilhersteller eine zentrale Rolle zu, da nur durch die frühzeitige Berücksichtigung der Recyclinganforderungen bei der Entwicklung der Produkte sichergestellt werden kann, dass diese zukünftig auch in umweltgerechter und wirtschaftlicher Weise einer erneuten Nutzung zugeführt werden können.
Im Rahmen dieser Arbeit wird ein Konzept vorgestellt, welches die Recycling-anforderungen systematisch in die Ablauf- und Aufbauorganisation von Fahrzeug-entwicklungsprojekten integriert. Die Grundlage bildet ein Prozessmodell, welches in den frühen Phasen der Entwicklung die Ableitung von Recyclingzielen mit Hilfe der Szenario-Technik ermöglicht und in den nachfolgenden Phasen der Entwicklung die Zielerreichung durch einen formalisierten Recycling-Problemlösezyklus sicherstellt. Das zentrale Element stellt ein Planungsinstrument dar, welches mögliche Demontage- und Recyclingprozesse bereits innerhalb der Produktentwicklung simuliert und dadurch eine ganzheitliche Optimierung des Fahrzeuges unterstützt.
Die Auswertung verschiedener Recyclingszenarien am Beispiel eines Mittelklasse- PKW hat gezeigt, dass mit der heutigen Prozesskette der Altfahrzeugverwertung eine Reduzierung der Abfallmengen nicht kostendeckend erreichbar ist. Erst unter Berücksichtigung neuer Verwertungstechnologien für die heute zu entsorgenden Restmengen kann die wirtschaftliche Situation verbessert werden. Gleichzeitig konnte durch die Bewertung unterschiedlicher Rohbaukonzepte nachgewiesen werden, dass der Ersatz konventioneller Materialsysteme durch innovative Leichtbauwerkstoffe das Recycling am Lebensende des Fahrzeuges zunehmend erschwert.
Um bereits innerhalb der Produktentwicklung die Voraussetzung für ein hochwertiges Fahrzeugrecycling zu schaffen ist somit das Zusammenführen und Ausbalancieren von produkt- und prozessbezogenen Maßnahmen unabdingbar. Die organisa-torische Umsetzung erfolgt dabei durch ein Recyclingteam, welches es ermöglicht das Recyclingwissen in die komplexen Entwicklungsabläufe zu integrieren und mit allen Prozessbeteiligten zeitlich und inhaltlich abzustimmen.
Jahresbericht 2005
(2006)
Congress Report 2006.07-08
(2006)
Congress Report 2006.PersReg
(2006)
Congress Report 2006.11-12
(2006)
Congress Report 2006.09-10
(2006)
Congress Report 2006.05
(2006)
Congress Report 2006.06
(2006)
Congress Report 2006.04
(2006)
Congress Report 2006.03
(2006)
Congress Report 2006.02
(2006)
Congress Report 2006.01
(2006)
Im Zusammenhang mit dem Präventivkrieg der Vereinigten Staaten gegen den Irak ist von einem Versagen der parlamentarischen Kontrolle die Rede. Analog zur Tonkin-Gulf-Resolution von 1964, mit der das amerikanische Parlament Präsident Lyndon B. Johnson praktisch eine Blankovollmacht für den Vietnamkrieg erteilt hatte, sei der US-Kongress im Oktober 2002 davor zurückgeschreckt, seiner verfassungs-rechtlichen Verantwortung, welche ihm vor allem aus dem alleinigen Recht zur Kriegserklärung erwächst, auch nur in Ansätzen nachzu-kommen. Häufig wird dieses Verhalten auf die Bedrohungslage und das politische Klima nach dem 11. September zurückgeführt. Wie eine kur-sorische Durchsicht der einschlägigen Literatur zeigt, handelt es sich bei der mangelnden institutionellen Selbstbehauptung des Kongresses im Zusammenhang mit Militäreinsätzen jedoch um kein neues Phänomen: Die Interventionspolitik galt auch schon vor den Terroranschlägen von New York und Washington als ein Politikfeld, in dem es der Legislative allenfalls partiell gelungen ist, die Exekutive nach den Auswüchsen der so genannten imperialen Präsidentschaft wieder stärker zu kontrollieren. Eine Deutung, die in den vergangenen Jahren verstärkt Zulauf erfahren hat, versucht den Ausnahmecharakter der Interventionspolitik mit dem sozialkonstruktivistisch grundierten Konzept einer Kultur der Unterordnung zu erklären. Es existiert aber auch eine rationalistisch argumentie-rende These, wonach politische Kalküle und Zwänge, die aus einem medial erzeugten Wählerdruck resultieren, das Parlament veranlassen, sich dem Präsidenten in der militärischen Interventionspolitik unterzuord-nen. Die Studie will anhand von zwei Fallbeispielen aus den 1990er Jahren, dem zweiten Golfkrieg und dem Kosovokrieg, klären, welcher Stellenwert diesen beiden Faktoren für die mangelnde institutionelle Selbstbehauptung des Kongresses in der militärischen Interventionspolitik zukommt. Unser Befund deutet darauf hin, dass eine separate, besonders stark ausgeprägte Teilkultur der Unterordnung auf Seiten der Republikaner existiert, die ceteris paribus dazu führt, dass sich eine von der Grand Old Party kontrollierte Legislative in Fragen, die Krieg und Frieden betreffen, institutionell grundsätzlich weniger stark behaupten kann als ein demokratisch dominierter Kongress.
In this thesis we present the implementation of libraries center.lib and perron.lib for the non-commutative extension Plural of the Computer Algebra System Singular. The library center.lib was designed for the computation of elements of the centralizer of a set of elements and the center of a non-commutative polynomial algebra. It also provides solutions to related problems. The library perron.lib contains a procedure for the computation of relations between a set of pairwise commuting polynomials. The thesis comprises the theory behind the libraries, aspects of the implementation and some applications of the developed algorithms. Moreover, we provide extensive benchmarks for the computation of elements of the center. Some of our examples were never computed before.
In dem Forschungsvorhaben “Schubtragverhalten des Stahlbetongurtes von Verbundträgern im Bereich von großen Stegöffnungen“ wurden umfangreiche experimentelle und rechnerische Untersuchungen zum Querkrafttragverhalten und zur Querkrafttragfähigkeit des Betongurts im Bereich von großen Stegöffnungen durchgeführt. Anhand von 21 großmaßstäblichen Traglastversuchen, die erstmals so konzipiert waren, dass im Öffnungsbereich nahezu die gesamte Querkraft durch den Betongurt übertragen werden musste, konnte die Querkrafttragfähigkeit des Betongurts bestimmt werden. Neue Erkenntnisse über den Lastabtragungs- und Versagensmechanismus im Öffnungsbereich konnten durch die Auswertung der Dehnungen der Kopfbolzendübel im Öffnungsbereich und das nachträgliche Aufsägen des Betongurts der Versuchsträger gewonnen werden. Im rechnerischen Teil wurden ein dreidimensionales FE-Modell erstellt, das die Versuche in ihren wesentlichen Teilen abbildete, und Vergleichsberechnungen durchgeführt. Durch den Vergleich der rechnerischen mit den experimentell ermittelten Werten wurde das Modell überprüft. Auf dieser Grundlage wurden anschließend Parameteruntersuchungen durchgeführt. Schließlich wurde auf der Basis der experimentellen und rechnerischen Untersuchungen ein Ingenieurmodell zur Bestimmung der Querkrafttragfähigkeit im Öffnungsbereich entwickelt, mit dem sich die Querkrafttragfähigkeit des Betongurts im Öffnungsbereich nachweisen lässt. Ferner stellte sich heraus, dass die Querkrafttragfähigkeit des Betongurts im Öffnungsbereich durch Dübelleisten erheblich gesteigert werden kann, was wirtschaftliche Vorteile eröffnet.
During the recent years, multiobjective evolutionary algorithms have matured as a flexible optimization tool which can be used in various areas of reallife applications. Practical experiences showed that typically the algorithms need an essential adaptation to the specific problem for a successful application. Considering these requirements, we discuss various issues of the design and application of multiobjective evolutionary algorithms to real-life optimization problems. In particular, questions on problem-specific data structures and evolutionary operators and the determination of method parameters are treated. As a major issue, the handling of infeasible intermediate solutions is pointed out. Three application examples in the areas of constrained global optimization (electronic circuit design), semi-infinite programming (design centering problems), and discrete optimization (project scheduling) are discussed.
This paper analyzes and solves a patient transportation problem arising in several large hospitals. The aim is to provide an efficient and timely transport service to patients between several locations on a hospital campus. Transportation requests arrive in a dynamic fashion and the solution methodology must therefore be capable of quickly inserting new requests in the current vehicle routes. Contrary to standard dial-a-ride problems, the problem under study contains several complicating constraints which are specific to a hospital context. The paper provides a detailed description of the problem and proposes a two-phase heuristic procedure capable of handling its many features. In the first phase a simple insertion scheme is used to generate a feasible solution, which is improved in the second phase with a tabu search algorithm. The heuristic procedure was extensively tested on real data provided by a German hospital. Results show that the algorithm is capable of handling the dynamic aspect of the problem and of providing high quality solutions. In particular, it succeeded in reducing waiting times for patients while using fewer vehicles.
It is commonly believed that not all degrees of freedom are needed to produce good solutions for the treatment planning problem in intensity modulated radiotherapy treatment (IMRT). However, typical methods to exploit this fact have either increased the complexity of the optimization problem or were heuristic in nature. In this work we introduce a technique based on adaptively refining variable clusters to successively attain better treatment plans. The approach creates approximate solutions based on smaller models that may get arbitrarily close to the optimal solution. Although the method is illustrated using a specific treatment planning model, the components constituting the variable clustering and the adaptive refinement are independent of the particular optimization problem.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Selbstorganisation ist eine interessante und vielversprechende Möglichkeit, um die Komplexität verteilter Systeme beherrschbar zu machen. In diesem Beitrag schlagen wir ein leistungsfähiges Rechnersystem auf Basis von rekonfigurierbarer Hardware vor, welches aufgrund seiner Flexibilität in vielen Bereichen eingesetzt werden kann. Es wird die geplante Systemarchitektur und Systemsoftware beschrieben und ein intelligentes, verteiltes Kamerasystem vorgestellt, welches wir als Anwendung mit dem vorgeschlagenen System realisieren wollen, um Selbstorganisation in verteilten Systemen näher zu untersuchen.
Die Computerisierung der Gesellschaft bedingt ein ständiges Zunehmen der Geschwindigkeit, mit der neue Daten erzeugt werden. Parallel zu dieser Entwicklung steigt der Bedarf an geeigneten Analyseverfahren, die in diesen großen und oftmals heterogenen Datenmengen Muster finden, Zusammenhänge entdecken und damit Wissen erzeugen. Das in dieser Arbeit entwickelte Verfahren findet die passende Struktur in einer ungeordneten, abstrakten Datenmenge, ordnet die zugrunde liegenden Informationen und bündelt diese somit für eine gezielte Anwendung. Dieser Prozess des Information Clustering ist zweistufig, es erfolgt zuerst ein generelles Clustering, an das sich eine interpretierende Visualisierung anschliesst. Für das Clustering wird das Verfahren der Voronoidiagramme erweitert. Durch den Einsatz einer generellen Distanzfunktion wird die Modellierung der durch die großen Datenmengen entstehenden multidimensionalen Parameter sowie weiterer Gewichte ermöglicht. Eine anschließende Visualisierung aus dem Bereich der Informationsvisualisierung unterstützt die Interpretation der neu gewonnenen Informationen. Für die praktische Anwendung wird die Stadtplanung betrachtet. In der Stadtplanung wird das Modell des Planungsablaufes eingesetzt, mit dem verschiedene Planungsalternativen erzeugt werden. Dieses Modell ist jedoch zu starr, um den dynamischen Anforderungen in der Realität gerecht zu werden. Das Information Clustering erweitert den klassischen Planungsablauf, die Flexibilität des Modells wird dadurch erhöht und die Komplexität reduziert. Das Ergebnis der Berechnung ist genau eine Planungsalternative, die sämtliche Eingabeparameter kanalisiert.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
This thesis introduces so-called cone scalarising functions. They are by construction compatible with a partial order for the outcome space given by a cone. The quality of the parametrisations of the efficient set given by the cone scalarising functions are then investigated. Here, the focus lies on the (weak) efficiency of the generated solutions, the reachability of effiecient points and continuity of the solution set. Based on cone scalarising functions Pareto Navigation a novel, interactive, multiobjective optimisation method is proposed. It changes the ordering cone to realise bounds on partial tradeoffs. Besides, its use of an equality constraint for the changing component of the reference point is a new feature. The efficiency of its solutions, the reachability of efficient solutions and continuity is then analysed. Potential problems are demonstrated using a critical example. Furthermore, the use of Pareto Navigation in a two-phase approach and for nonconvex problems is discussed. Finally, its application for intensity-modulated radiotherapy planning is described. Thereby, its realisation in a graphical user interface is shown.
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.
Zusammenfassung Im Rahmen dieser Arbeit wurde ein Konzept für ein kapazitives Messsystem entwickelt und als Prototyp realisiert. Um realistische Rahmenbedingungen zu schaffen wurde der Prototyp auf einer Ultrapräzisionsmaschine des Lehrstuhls für Feinwerktechnik montiert und getestet. Für die Auswertung eines kapazitiven Sensors wurde das Trägerfrequenzmessverfahren gewählt. Um die gestellten Anforderungen erfüllen zu können musste das TF-Verfahren zunächst entscheidend modifiziert werden. Die klassischen Verfahren zur Demodulation, wie z.B. wie die synchrone Demodulation oder die Hüllkurvendemodulation sind ungeeignet, da sie zunächst das analoge modulierte Signal ins Basisband verschieben und dann erst für weitere Verarbeitung das Ausgangssignal zur Verfügung stellen. Dieser Zwischenschritt ist besonders anfällig für Signalverzerrungen und Phasenfehlern zwischen Trägerschwingung und moduliertem Signal. Um nun diese Nachteile zu umgehen erfolgt die Demodulation direkt durch die Abtastung des modulierten Signals mittels eines sehr schnellen AD-Wandlers. Das modulierte Signal wird so direkt ins Basisband zurückgefaltet. Da es sich bei dem modulierten Signal um ein bandbegrenztes Signal handelt kann die Abtastrate des AD-Wandlers an die Bandbreite des modulierten Signals angepasst werden, es findet eine Unterabtastung statt. Nachteilig ist hierbei, dass die hochfrequenten Anteile des thermischen Rauschens durch die Unterabtastung in das Basisband zurückgefaltet werden und so den Signal/Rauschabstand verschlechtern. Durch den Einsatz einer rauscharmen Sensorelektronik und der Optimierung der Messbrückenparameter konnte dieser Nachteil streckenweise wieder kompensiert werden. Aufgrund der geringen Kapazitäten von kapazitiven Sensoren spielt der Einfluss von parasitären Effekten eine besonders große Rolle und muss daher vermieden werden. Als Gegenmaßnahmen wurde neben einem kapazitätsarmen Aufbau der Schaltung die Guardtechnik zur Unterdrückung parasitärerer Kapazitäten eingesetzt. Die aktive Abschirmung der empfindlichen signalführenden Leitungen auf Leiterplatte, Sensor und Anschlusskabel bietet einen wirksamen Schutz gegen den negativen Einfluss parasitäre Kapazitäten. Der Einfluss dieser aktiven Schaltung hinsichtlich des Rauschen und des Verstärkungsfehlers auf die Performance des Messsystems wurde bewertet. Anhand von Modellen wurden der Verstärkungsfehler und die Rauschspannung quantifiziert. Neben diesen zentralen Störgrößen wurde weiter der Einfluss der Temperatur untersucht und quantifiziert Das verstärkte Messsignal wird durch einen schnellen AD-Wandler in einen digitalen Datenstrom umgesetzt. Obwohl die Datenrate des Messsystems durch Unterabtastung deutlich gesenkt werden konnte, fällt dennoch eine recht große weiterzuverarbeitende Datenmenge von einigen Megabyte pro Sekunde an, die auf einen PC gespeichert wird. Damit eine fehlerfreie Datenübertragung an den PC erfolgen kann ist eine Zwischenspeicherung der gewonnenen Daten in einem Puffer notwendig. Die Zwischenspeicherung erfolgt mit einem insgesamt 12k-Byte großen und 16 Bit breiten Fifo-Speicher, der zusammen mit der AD-Wandlerelektronik auf einer Platine untergebracht werden konnte. Diese Elektronik ist neben der Sensorelektronik und der Signalerzeugung für die Trägerfrequenz ein zentraler Bestandteil des Prototyps. Der Prototyp wird durch einen handels-üblichen PC angesteuert. Der Aufbau des gesamten Messsystems und die abschließenden Untersuchungen erfolgten auf einer Ultrapräzisionsdrehmaschine. Diese Maschine bot aufgrund ihrer bekannten mechanischen Eigenschaften eine präzise Grundlage für die Untersuchungen am Messsystem. Hierbei zeigte sich, dass neben den deterministischen Störgrößen eine Vielzahl von weiteren unvorhersehbaren Störungen negativen Einfluss auf die Gesamtperformance des Messsystems nehmen kann. Diese Störgrößen wie z.B. Netzstörungen konnten durch verschiedene Abschirmmaßnahmen deutlich verbessert werden. So enthielten die ersten Messungen deutliche Zeichen dieser Störanteile die nur unzureichend durch eine softwareseitige digitale Filterung unterdrückt werden konnten. Mit weiteren Messungen konnte dann die deutliche Abnahme des Störpegels verifiziert werden.
We present a constructive theory for locally supported approximate identities on the unit ball in \(\mathbb{R}^3\). The uniform convergence of the convolutions of the derived kernels with an arbitrary continuous function \(f\) to \(f\), i.e. the defining property of an approximate identity, is proved. Moreover, an explicit representation for a class of such kernels is given. The original publication is available at www.springerlink.com
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
In this thesis, we have dealt with two modeling approaches of the credit risk, namely the structural (firm value) and the reduced form. In the former one, the firm value is modeled by a stochastic process and the first hitting time of this stochastic process to a given boundary defines the default time of the firm. In the existing literature, the stochastic process, triggering the firm value, has been generally chosen as a diffusion process. Therefore, on one hand it is possible to obtain closed form solutions for the pricing problems of credit derivatives and on the other hand the optimal capital structure of a firm can be analysed by obtaining closed form solutions of firm's corporate securities such as; equity value, debt value and total firm value, see Leland(1994). We have extended this approach by modeling the firm value as a jump-diffusion process. The choice of the jump-diffusion process was a crucial step to obtain closed form solutions for corporate securities. As a result, we have chosen a jump-diffusion process with double exponentially distributed jump heights, which enabled us to analyse the effects of jump on the optimal capital structure of a firm. In the second part of the thesis, by following the reduced form models, we have assumed that the default is triggered by the first jump of a Cox process. Further, by following Schönbucher(2005), we have modeled the forward default intensity of a firm as a geometric Brownian motion and derived pricing formulas for credit default swap options in a more general setup than the ones in Schönbucher(2005).
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
Retentionsbodenfilter dienen der weitergehenden Behandlung von Entlastungsabflüssen konventioneller Regenüberlaufbecken. Sie kommen zum Einsatz, wenn der Schutz des betroffenen Gewässers eine Reduzierung der Belastung durch Mischwassereinleitungen erfordert. Verschiedene Untersuchungen an Pilotanlagen belegen zwar grundsätzlich eine hohe Reinigungsleistung der Filterpassage, eine gesicherte Prognose der Wirksamkeit und eine Optimierung des Verfahrens erfordern jedoch eine Weiterentwicklung des vorhandenen Kenntnisstandes. Die vorliegende Arbeit soll einen Beitrag zu einem besseren Verständnis der bei der Filterpassage in RBF ablaufenden Reinigungsprozesse liefern. Im Vordergrund stehen dabei Rückhalt und Umsatz organischer Kohlenstoffverbindungen und Stickstoffverbindungen. An einer großtechnischen Anlage wurden über zwei mehrmonatige Messphasen zu- und abfließende Stoffströme erfasst. Durch die gezielte Beeinflussung des Beschickungsverhaltens wurde ein breites Spektrum unterschiedlicher Belastungszustände realisiert. Ergänzend hierzu wurden bodenkundliche Versuche durchgeführt, die der Untersuchung des Stoffumsatzes während der Trockenphasen zwischen den Beschickungsereignissen dienten. In Laborversuchen wurden darüber hinaus einzelne Teilprozesse des Stoffrückhaltes isoliert und unter definierten Randbedingungen betrachtet. Die Ergebnisse belegen, dass die Reinigungswirkung von Retentionsbodenfiltern in Bezug auf NH4 überwiegend auf einem zweistufigen Prozess beruht. Während der Durchströmung wird NH4 im Filterkörper sorbiert, um in der anschließenden Trockenphase nitrifiziert zu werden. Dauerhafte Beschickungen, wie sie unter starkem Fremdwassereinfluss auftreten, können zu einem Durchbruch der NH4-Konzentration führen. Unmittelbar nach dem Ende der Durchströmung setzt mit der Wiederbelüftung des Filterkörpers eine intensive Nitrifikation ein. Das Sorptionsvermögen regeneriert sich innerhalb weniger Tage annähernd vollständig. Bei der Prognose der Wirksamkeit von Retentionsbodenfilter mit Hilfe von Simulationsmodellen kann der NH4-Rückhaltes vereinfacht als Speicher dargestellt werden. Organische Kohlenstoffverbindungen – repräsentiert durch den CSB – weisen ein weniger eindeutiges Verhalten auf. Die partikuläre Fraktion wird während des Betriebs weitgehend an der Filteroberfläche zurückgehalten und in den Trockenphasen mineralisiert. Diese Wirkung kann als unbegrenzter Speicher modelliert werden. Hinsichtlich der gelösten Anteile konnte nicht eindeutig ermittelt werden, ob der unmittelbare Abbau während der Durchströmung dominiert oder ob auch diese Anteile wie das NH4 zunächst sorbiert werden. Die Wirkung der Filterpassage auf die gelösten und feindispersen Anteile des CSB kann annähernd durch einen konstanten Wirkungsgrad beschrieben werden.
We show the numerical applicability of a multiresolution method based on harmonic splines on the 3-dimensional ball which allows the regularized recovery of the harmonic part of the Earth's mass density distribution out of different types of gravity data, e.g. different radial derivatives of the potential, at various positions which need not be located on a common sphere. This approximated harmonic density can be combined with its orthogonal anharmonic complement, e.g. determined out of the splitting function of free oscillations, to an approximation of the whole mass density function. The applicability of the presented tool is demonstrated by several test calculations based on simulated gravity values derived from EGM96. The method yields a multiresolution in the sense that the localization of the constructed spline basis functions can be increased which yields in combination with more data a higher resolution of the resulting spline. Moreover, we show that a locally improved data situation allows a highly resolved recovery in this particular area in combination with a coarse approximation elsewhere which is an essential advantage of this method, e.g. compared to polynomial approximation.
We introduce a method to construct approximate identities on the 2-sphere which have an optimal localization. This approach can be used to accelerate the calculations of approximations on the 2-sphere essentially with a comparably small increase of the error. The localization measure in the optimization problem includes a weight function which can be chosen under some constraints. For each choice of weight function existence and uniqueness of the optimal kernel are proved as well as the generation of an approximate identity in the bandlimited case. Moreover, the optimally localizing approximate identity for a certain weight function is calculated and numerically tested.
In this thesis diverse problems concerning inflation-linked products are dealt with. To start with, two models for inflation are presented, including a geometric Brownian motion for consumer price index itself and an extended Vasicek model for inflation rate. For both suggested models the pricing formulas of inflation-linked products are derived using the risk-neutral valuation techniques. As a result Black and Scholes type closed form solutions for a call option on inflation index for a Brownian motion model and inflation evolution for an extended Vasicek model as well as for an inflation-linked bond are calculated. These results have been already presented in Korn and Kruse (2004) [17]. In addition to these inflation-linked products, for the both inflation models the pricing formulas of a European put option on inflation, an inflation cap and floor, an inflation swap and an inflation swaption are derived. Consequently, basing on the derived pricing formulas and assuming the geometric Brownian motion process for an inflation index, different continuous-time portfolio problems as well as hedging problems are studied using the martingale techniques as well as stochastic optimal control methods. These utility optimization problems are continuous-time portfolio problems in different financial market setups and in addition with a positive lower bound constraint on the final wealth of the investor. When one summarizes all the optimization problems studied in this work, one will have the complete picture of the inflation-linked market and both counterparts of market-participants, sellers as well as buyers of inflation-linked financial products. One of the interesting results worth mentioning here is naturally the fact that a regular risk-averse investor would like to sell and not buy inflation-linked products due to the high price of inflation-linked bonds for example and an underperformance of inflation-linked bonds compared to the conventional risk-free bonds. The relevance of this observation is proved by investigating a simple optimization problem for the extended Vasicek process, where as a result we still have an underperforming inflation-linked bond compared to the conventional bond. This situation does not change, when one switches to an optimization of expected utility from the purchasing power, because in its nature it is only a change of measure, where we have a different deflator. The negativity of the optimal portfolio process for a normal investor is in itself an interesting aspect, but it does not affect the optimality of handling inflation-linked products compared to the situation not including these products into investment portfolio. In the following, hedging problems are considered as a modeling of the other half of inflation market that is inflation-linked products buyers. Natural buyers of these inflation-linked products are obviously institutions that have payment obligations in the future that are inflation connected. That is why we consider problems of hedging inflation-indexed payment obligations with different financial assets. The role of inflation-linked products in the hedging portfolio is shown to be very important by analyzing two alternative optimal hedging strategies, where in the first one an investor is allowed to trade as inflation-linked bond and in the second one he is not allowed to include an inflation-linked bond into his hedging portfolio. Technically this is done by restricting our original financial market, which is made of a conventional bond, inflation index and a stock correlated with inflation index, to the one, where an inflation index is excluded. As a whole, this thesis presents a wide view on inflation-linked products: inflation modeling, pricing aspects of inflation-linked products, various continuous-time portfolio problems with inflation-linked products as well as hedging of inflation-related payment obligations.
Der Bedarf an Spenderlebern für die Behandlung akuter und chronischer Lebererkrankungen kann zurzeit nicht gedeckt werden. Insbesondere für metabolische Lebererkrankungen hat sich die Transplantation von Hepatozyten als Alternative zur Lebertransplantation erwiesen. Diese Therapie wird wegen Mangel an Hepatozyten ausreichender Qualität nicht flächendeckend eingesetzt. Falls es möglich wäre, Stammzellen zu Hepatozyten zu differen-zieren, könnte dies für die Behandlung von Lebererkrankungen einen erheblichen Fortschritt bedeuten. Eine von vielen Arbeitsgruppen verfolgte Strategie zur Beurteilung des Differenzie-rungspotentials hepatischer Vorläuferzellen ist die Transplantation in die Leber immundefi-zienter Mäuse. Die in der vorliegenden Arbeit verfolgte Strategie bestand darin, zunächst 750.000 zu beurteilende Zellen entweder direkt in das Parenchym des linken Leberlappens oder in die Milz zu injizieren. Die anschließende Analytik verfolgte folgende Ziele: i) Identi-fikation der transplantierten Zellen. Dies wurde durch den kombinierten Einsatz von CM-DiI und Sonden gegen humane Alu-Sequenzen erreicht. Hierbei markierte CM-DiI lediglich grob die Areale, in die transplantiert wurde. Die in situ Hybridisierung mit Alu-Sonden ermöglichte die konkrete Identifikation humaner Kerne. ii) Analyse der Expression hepatischer Faktoren, die von den ursprünglichen Stammzellen nicht gebildet wurden. Hierzu wurde ein für huma-nes Albumin spezifischer Antikörper eingesetzt. iii) Überprüfung, ob die human Albumin-positiven Zellen menschlichen Ursprungs sind. Hierzu wurde eine Kombination aus in situ Hybridisierung mit Alu-Sonden und Immunhistochemie gegen humanes Albumin etabliert. Als Positivkontrolle dienten in der vorliegenden Arbeit primäre humane Hepatozyten. Das Ergebnis nach Transplantation humaner Hepatozyten wurde mit dem Ergebnis nach Trans-plantation adhärent proliferierender Nabelschnurblutzellen, hepatopankreatischen Vorläufer-zellen und aus peripheren humanen Blutmonozyten in vitro ausdifferenzierten Neohepatozy-ten verglichen. Anhand positiver Rotfluoreszenz wurden bereits im paraffinisierten Schnitt die Be-reiche der transplantierten CM-DiI-markierten Stammzellen identifiziert. Durch die in situ Hybridisierung mit Mensch-spezifischen Alu-Sonden wurden in den CM-DiI-positiven Area-len Menschkerne nachgewiesen. Immunhistochemisch wurde in diesen Bereichen eine Ex-pression humanen Albumins gezeigt. Vom umgebenden Gewebe waren die identifizierten Zellen durch einen kleinen dezentral gelegenen Zellkern, geringe Zellgröße und einer Hepato-zyten unähnlichen Morphologie zu unterschieden. Diese Zellen traten in der Regel als kleine-re Zellagglomerate auf, die entweder in Gefäßen oder ohne Endothelabgrenzung im Gewebe zu finden waren. Bei der Auswertung weiterer auf humanes Albumin untersuchter Gewebe-schnitte wurde ein zweiter morphologisch unterschiedlicher Typ humanes Albumin-exprimierender Zellen gefunden. Dieser war durch eine perfekte Hepatozytenmorphologie mit großem, zentral gelegenem Kern und polygonaler Form der Zelle charakterisiert. Im Gewebe lagen diese Zellen vereinzelt, ohne immunhistochemische Detektion wäre eine Unterschei-dung von Maushepatozyten nicht möglich gewesen. Mit der in situ Hybridisierung wurde für diese Zellen ein Mauskern nachgewiesen. Der seltener auftretende Zelltyp mit perfekter He-patozytenmorphologie wurde als Typ I und der kleinzellige Zelltyp als Typ II bezeichnet. Bemerkenswert hierbei ist, dass die beobachteten Typen human Albumin-positiver Zellen nach Transplantation aller drei miteinander verglichenen Zelltypen nachweisbar waren. Eine mögliche Erklärung des Befundes der Typ II-Zellen besteht in einer teilweisen Differenzie-rung in Richtung Hepatozyte. Die menschlichen Zellen exprimieren zwar Albumin, nicht aber andere Faktoren wie CYP3A4, und nehmen keine hepatozelluläre Morphologie an. Ein über-raschender Befund war die Typ I-Zelle. Der Mechanismus, der in diesen Zellen zur Expressi-on humanen Albumins führt, ist zurzeit ungeklärt. Mithilfe des EROD-Assays wurde die metabolische Aktivität der CYP1A-Isoenzyme bei in vitro differenzierten Neohepatozyten bestimmt. Hierbei wurde ein zeitabhängiger Um-satz von EROD zu Resorufin beobachtet, der aber nicht durch 3-Methylcholanthren induzier-bar war. Damit fehlt den Neohepatozyten in diesem Punkt eine wichtige Eigenschaft primärer Hepatozyten. Allerdings sind durch publizierte Untersuchungen an Neohepatozyten weitere Hepatozyten-spezifische Parameter wie Harnstoffzyklus und Albuminproduktion belegt. Zusammenfassend kann festgestellt werden, dass nach Transplantation humaner Vor-läuferzellen verschiedenen Ursprungs ein qualitativ ähnliches Ergebnis mit zwei unterschied-lichen Typen human Albumin-positiver Zellen beobachtet wurde. Ob diese Zelltypen thera-peutisch nutzbar sind, bedarf weiterer Untersuchungen, beispielsweise mit Tiermodellen für menschliche Lebererkrankungen.
Die vorliegende Arbeit liefert zutreffende zyklische Lastverformungs- und Rissfortschrittsbeziehungen für Trägerverbundfugen mit Kopfbolzendübel 22mm (Durchmesser) anhand derer man in der Lage ist, den Schädigungs- und Lastverformungszustand in einem Verbundträger unter zyklischer Belastung zu bestimmen. Die Modelle wurden auf Grundlage einer hohen Anzahl von weggeregelten Push-Out-Versuchen abgeleitet und an einigen zyklischen Trägerversuchen verifiziert. Mit den gefundenen Zusammenhängen ist es möglich, sehr genaue Lebensdauerprognosen für Kopfbolzendübel in Trägerverbundfugen abzugeben. Weiter wird ein einfaches Bemessungskonzept für Kopfbolzenermüdung vorgeschlagen.
In this study, 27 marine bacteria were screened for production of bioactive metabolites. Two strains from the surface of the soft coral Sinularia polydactyla, collected from the Red Sea, and three strains from different habitats in the North Sea were selected as a promising candidates for isolation of antimicrobial substances. A total of 50 compounds were isolated from the selected bacterial strains. From these metabolites 25 substances were known from natural sources, 10 substances were known as synthetic chemical and herein are reported as new natural products, and 13 metabolites are new. Two substances are still under elucidation. All new compounds were chemically and biologically characterized. Pseudoalteromonas sp. T268 produced simple phenol and oxindole derivatives. Production of homogentisic acid and WZ 268S-6 from this bacteria was affected by the salinity stress. WZ 268S-6 shows antimicrobial and cytotoxic activities. Its target is still unclear. Isolation of isatin from this strain points out for the possibility of using this substance as a chemotaxonomical marker for Alteromonas-like bacteria. A large number of nitro-substituted aromatic compounds were isolated from both Salegentibacter sp. T436 and Vibrio sp. WMBA1-4. They may be derived from metabolism of phenylalanine or tyrosine. From Salegentibacter sp. T436, 24 compounds were isolated, of which four compounds are new and six compounds were known as synthetic chemicals. WZ 436S-16 (dinitro-β-styrene) is the most potent antimicrobial and cytotoxic compound. It inhibits the oxygen uptake by N. coryli and causes apoptosis in the human promyelocytic leukaemia (HL-60 cells). From Vibrio sp. WMBA1-4, 13 new alkaloids were isolated, of which four were known as synthetic products and herein are reported as new substances from natural sources. The majority of these compounds show antimicrobial and cytotoxic activities. The cytotoxic activity of WMB4S-11 against the mouse lymphocytic leukaemia (L1210 cells) is due to the inhibition in the protein biosynthesis, while the remaining cytotoxic alkaloids have no effect on the synthesis of macromolecules in this cell line. The antibacterial activity of WMB4S-2, -11, -12, -13 and the antifungal activity of WMB4S-9 are not due to the inhibition in the macromolecules biosynthesis or in the oxygen uptake by the microorganisms. The biological activity of these nitro-aromatic compounds from Salegentibacter sp. T436 and Vibrio sp. WMBA1-4 is influenced by the presence of a nitro group and its position in respect to the hydroxyl group, number of the nitro groups, and the type of substitutions on the side chain. In diaryl-maleimide derivatives, types and position of substitution on the aryl rings, on the maleimide moity, and the hydrophobicity of the aryl ring itself lead to variations in the extent of the bioactivity of these derivatives. This is the first time that vibrindole (WMB4S-14) and turbomycin B or its noncationic form (WMB4S-15), isolated from Vibrio sp., are reported as cytotoxic compounds. WMB4S-15 inhibits the biosynthesis of macromolecules in L1210 cells. The structural similarity between some of the metabolites in this study and previously reported compounds from sponges, ascidians, and bryozoan indicates that the microbial origin of these compounds must be considered.
In this paper we present and investigate a stochastic model for the lay-down of fibers on a conveyor belt in the production process of nonwovens. The model is based on a stochastic differential equation taking into account the motion of the ber under the influence of turbulence. A reformulation as a stochastic Hamiltonian system and an application of the stochastic averaging theorem lead to further simplications of the model. Finally, the model is used to compute the distribution of functionals of the process that might be helpful for the quality assessment of industrial fabrics.
Die Kanzerogenität von Dioxinen ist bisher am besten an der Prototyp“-Verbindung 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD) untersucht worden. TCDD wurde im Jahr 1997 von der International Agency for Research on Cancer (IARC) als Klasse I Kanzerogen eingestuft, obwohl bislang die Mechanismen der kanzerogenen Wirkung von TCDD noch nicht hinreichend geklärt werden konnten. Im Rahmen dieser Arbeit wurde von der Arbeitshypothese ausgegangen, dass TCDD über die durch den Arylhydrocarbon Rezeptor (AhR) massiv vermittelte Induktion von fremdstoffmetabolisierenden Phase I Enzymen, vor allem von CYP1A1, eine erhöhte Bildung reaktiver Sauerstoffspezies verursacht, welche die DNA schädigen können und potenziell mutagen sind. Im Rahmen der vorliegenden Arbeit wurde ein System entwickelt, das ausreichend große Mengen an CYP1A1 exprimieren sollte ohne dass zuvor eine das Studienergebnis möglicherweise verfälschende Behandlung mit einem AhR-Agonisten (z.B. TCDD) stattgefunden hat. Erstes Ziel war die Etablierung eines geeigneten in-vivo Systems, nämlich die Erzeugung einer transgenen, humanes CYP1A1 überexprimierenden Maus. Das humane CYP1A1 Transgen wurde in den generierten, transgenen Mauslinien nicht wie erwartet exprimiert, obwohl die Integration in das Genom der Mäuse zweifelsfrei nachgewiesen werden konnte. Zwar konnte eine Induktion von hCYP1A1 in verschiedenen Organen der Mäuse auf mRNA Ebene nachgewiesen werden, allerdings wurde im Vergleich zu Wildtyp Tieren weder eine Steigerung der CYP1A1 Proteinmenge noch deren katalytischer Aktivität erzielt. Im zweiten Teil der Arbeit wurden in-vivo Untersuchungen hinsichtlich oxidativem Stress und DNA-Schädigung an TCDD behandelten C57B6 Mäusen und Sprague-Dawley Ratten bzw. an deren entsprechenden Kontrollen, sowie an transgenen Mäusen mit konstitutiv aktivem AhR (CA-AhR) durchgeführt. Die CA-AhR Linie bot eine weitere Möglichkeit, die Auswirkungen der AhR-vermittelten Genexpression ohne Verwendung eines AhR-Liganden in-vivo zu untersuchen. Als Messparameter für oxidativen Stress wurde der auf Fluoreszenz basierende H2DCFDA Assay im 96 Well Format etabliert. Als Marker für oxidative DNA-Schäden wurde der Gehalt an 8-oxo dG in genomischer DNA individueller Proben mittels HPLC-MS quantifiziert. Ob evtl. erhöhte ROS Gehalte bzw. DNA Schäden nach TCDD Expostition in einen direkten Zusammenhang mit AhR-regulierten CYP1A Induktion stehen wurde durch die Analyse der katalytischen CYP1A Aktivität mittels EROD-Assay überprüft. Die gefundenen Ergebnisse wiesen darauf hin, dass die ROS Bildung möglicherweise auch im in-vivo Experiment davon abhängt, wie stark TCDD als Induktor von CYP1A Enzymen wirkt. Die Daten zeigten aber auch, dass es sich in-vivo bei der TCDD vermittelten Induktion von oxidativen DNA-Schäden vermutlich um einen chronischen Langzeiteffekt handelt, der nicht ausschließlich von TCDD Leberlast oder CYP1A Enzyminduktion abzuhängen scheint. Mit Hilfe von Mikrosomen (SupersomesTM) aus stabil transfizierten Insektenzellen wurde des weiteren das individuelle ROS-Bildungspotenzial einzelner, AhR-regulierter CYP-Enzyme mittels H2DCFDA Assay untersucht. Die SupersomesTM Experimente bestätigten generell die Hypothese, dass TCDD induzierte CYPs eine potenzielle Quelle für ROS darstellen. Generell konnte die Hypothese bestärkt werden, dass die ROS Bildung nach TCDD Exposition eine Konsequenz der AhR vermittelten CYP Induktion darstellt. Isolierte RNA aus den Lebern von Mäusen wurde mit Hilfe von Microarrays auf Veränderungen der Genexpressionsmuster untersucht, die Hinweise auf gentoxischen bzw. oxidativen Stress und andere prokarzinogene Veränderungen als Konsequenz einer TCDD Exposition bzw. der konstitutiven Aktivität des AhR geben sollten. Die (permanente) Aktivierung des AhR führte einerseits in der Leber von Mäusen generell zu einem erhöhten oxidativen Stress. Andererseits konnte gezeigt werden, dass pro- und antiapoptotische Signalwege an diesem Prozess beteiligt zu sein scheinen, möglicherweise als Konsequenz des induzierten oxidativen Stresses.
Connectedness of efficient solutions is a powerful property in multiple objective combinatorial optimization since it allows the construction of the complete efficient set using neighborhood search techniques. In this paper we show that, however, most of the classical multiple objective combinatorial optimization problems do not possess the connectedness property in general, including, among others, knapsack problems (and even several special cases of knapsack problems) and linear assignment problems. We also extend already known non-connectedness results for several optimization problems on graphs like shortest path, spanning tree and minimum cost flow problems. Different concepts of connectedness are discussed in a formal setting, and numerical tests are performed for different variants of the knapsack problem to analyze the likelihood with which non-connected adjacency graphs occur in randomly generated problem instances.
This thesis discusses methods for the classification of finite projective planes via exhaustive search. In the main part the author classifies all projective planes of order 16 admitting a large quasiregular group of collineations. This is done by a complete search using the computer algebra system GAP. Computational methods for the construction of relative difference sets are discussed. These methods are implemented in a GAP-package, which is available separately. As another result --found in cooperation with U. Dempwolff-- the projective planes defined by planar monomials are classified. Furthermore the full automorphism group of the non-translation planes defined by planar monomials are classified.
A translation contract is a binary predicate corrTransl(S,T) for source programs S and target programs T. It precisely specifies when T is considered to be a correct translation of S. A certifying compiler generates --in addittion to the target T-- a proof for corrTransl(S,T). Certifying compilers are important for the development of safety critical systems to establish the behavioral equivalence of high-level programs with their compiled assembler code. In this paper, we report on a certifying compiler, its proof techniques, and the underlying formal framework developed within the proof assistent Isabelle/HOL. The compiler uses a tiny C-like language as input, has an optimization phase, and generates MIPS code. The underlying translation contract is based on a trace semantics. We investigate design alternatives and discuss our experiences.
Web-based authentication is a popular mechanism implemented by Wireless Internet Service Providers (WISPs) because it allows a simple registration and authentication of customers, while avoiding the high resource requirements of the new IEEE 802.11i security standard and the backward compatibility issues of legacy devices. In this work we demonstrate two different and novel attacks against web-based authentication. One attack exploits operational anomalies of low- and middle-priced devices in order to hijack wireless clients, while the other exploits an already known vulnerability within wired-networks, which in dynamic wireless environments turns out to be even harder to detect and protect against.
Der Begriff ‚Risiko’ ist heutzutage durch Gesetzesänderungen, wie das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich [KonTraG] und Verordnungen wie Basel II sowie spektakuläre Unternehmenszusammenbrüche, aber auch verstärkt wahrgenommene alltägliche Gefahren, in aller Munde. In der betriebswirtschaftlichen Forschung ist der Begriff schon seit vielen Jahrzehnten bekannt und findet eine häufige Anwendung. Immer wieder wird festgestellt, dass dieser langjährige Risikodiskurs nicht zu einer Präzisierung der Begrifflichkeit geführt hat. Da die Risikodefinition Ausgangspunkt der betriebswirtschaftlichen Beschäftigung mit Risiko darstellt, Begriffsklarheit Grundlage jeder ernsten Forschung ist und Aussagen über die Realität voraussetzen, dass ein Zusammenhang zwischen Sprache und Realität gebildet wurde, bildet die Festlegung eines Risikobegriffes einen essentiellen Anfangspunkt für das weitere Vorgehen in Wissenschaft und Praxis. Bei der hier gewählten Vorgehensweise ist es nicht das Ziel, über die Sezierung jedes einzelnen Begriffes und der Ansicht der einzelnen Autoren den ‚wahren’ Risikobegriff zu finden. Dies ist darauf zurückzuführen, dass keine ‚wahren’ Definitionen existieren, sondern eine Definition immer nur mehr oder weniger zweckmäßig sein kann. Damit ist die Grundlage dieser Analyse, dass die meisten Definitionen aus dem Blickwinkel ihres Zweckes eine bestimmte Relevanz haben und folglich die Perspektive wesentlich für die Aufstellung der Risikodefinition ist. Infolgedessen liegt das Hauptziel der Ausführungen darin, die Breite der existierenden Begrifflichkeiten in strukturierter Art und Weise darzustellen und damit eine Hilfestellung beim Auffinden der adäquaten Definition für jeden Anwendungsfall zu geben. Zur Strukturierung wird auf das Hilfsmittel des semantischen Kastens zurückgegriffen. Zur Analyse der Verwendung der einzelnen Begriffsmerkmale des gebildeten semantischen Kastens wird die breite Basis an existierenden Risikodefinitionen verwendet, um eine quantitativ-deskriptive Publikationsanalyse auf Basis der Inhaltsanalyse durchzuführen.
Multileaf Collimators (MLC) consist of (currently 20-100) pairs of movable metal leaves which are used to block radiation in Intensity Modulated Radiation Therapy (IMRT). The leaves modulate a uniform source of radiation to achieve given intensity profiles. The modulation process is modeled by the decomposition of a given non-negative integer matrix into a non-negative linear combination of matrices with the (strict) consecutive ones property.
Over a period of 30 years, ITU-T’s Specification and Description Language (SDL) has matured to a sophisticated formal modelling language for distributed systems and communication protocols. The language definition of SDL-2000, the latest version of SDL, is complex and difficult to maintain. Full tool support for SDL is costly to implement. Therefore, only subsets of SDL are currently supported by tools. These SDL subsets - called SDL profiles - already cover a wide range of systems, and are often suffcient in practice. In this report, we present our approach for extracting the formal semantics for SDL profiles from the complete SDL semantics. We then formalise the approach, present our SDL-profile tool, and report on our experiences.
Die Inhalte der in zwei verschiedenen Bundesländern angebotenen Weiterbildungsveranstaltungen für Lehrer und Lehrerinnen aus dem psychologischen Themenfeld wurden den Themenbereichen des Rahmencurriculums "Psychologie in den Lehramtsstudiengängen" der Deutschen Gesellschaft für Psychologie (DGPs, 2002) zugeordnet. Sodann wurden die Angebote der Weiterbildungsinstitute mit Relevanzeinschätzungen derselben Themenbereiche durch Lehrkräfte aller Schularten verglichen. Diese Relevanzeinschätzungen waren in einer Fragebogenstudie (Dutke & Singleton, 2006a,b) von 233 Lehrkräften erhoben worden. Angebots- und Relevanzprofile waren korreliert. Im Vergleich zu den Relevanzurteilen unterrepräsentiert waren Themen wie motivationale und emotionale Bedingungen des Lernens und Lehrens, Interventionsmöglichkeiten bei Lern- und Leistungsauffälligkeiten oder der Umgang mit sozial-emotional auffälligem Verhalten. Im Angebot eher überrepräsentiert schienen Grundlagenfragen der Beratung und Intervention zu sein. Implikationen einer nachfrageorientierten Gestaltung der Weiterbildungsangebote sowie Konsequenzen für die Positionierung der Psychologie im Weiterbildungssektor für Lehrkräfte werden diskutiert.
Die Raumplanung als das Instrument der Gestaltung und Steuerung der Raumentwicklung sieht sich aufgrund gesellschaftlicher Entwicklungen in Richtung einer zunehmenden Ökonomisierung gesellschaftlicher Bereiche, einer verstärkten Individualisierung der Gesellschaft, der anhaltenden Ausdifferenzierung der Lebensstile und einer stetig zunehmende Skepsis bzw. Ablehnung staatlicher Vorgaben, einem zunehmenden Rechtfertigungsdruck gegenüber. Die Flächennutzungsplanung als örtliche Gesamtplanung steht mit ihrer Stellung zwischen zunehmend „schlankeren“ Regionalplänen und zunehmend Vorhaben- und projektorientierten Bebauungsplänen dabei in einem besonderen Spannungsfeld. Einerseits wird die Bedeutung einer zeitgemäßen städtebaulichen Gesamtplanung als Steuerungsinstrument für die Entwicklung der Gemeinde angesichts dieser Trends immer wichtiger und die Flächennutzungsplanung als Instrument in seiner Funktion vom Gesetzgeber mit den letzten zwei Baurechtsnovellen gestärkt. Andererseits kommt gerade der Flächennutzungsplanung in der Praxis nicht die vom Gesetzgeber vorgesehene strategische Bedeutung zu. Dabei fehlt es bisher an einer systematischen Erhebung der Steuerungswirkung der Flächennutzungsplanung und damit auch ihrer Leistungsfähigkeit als Steuerungsinstrument. Mit dem EAG Bau 2004 wurde eine „Überprüfungsregelung“ eingeführt, die vorsieht, dass Flächennutzungspläne spätestens alle 15 Jahre nach ihrer Aufstellung überprüft und wenn nötig an neue städtebauliche Entwicklungen angepasst werden. Diese Regelung zusammen mit der Pflicht zur Durchführung eines Monitoring im Rahmen der Umweltprüfung sollte den Gemeinden die Anregung gegeben, sich regelmäßig Rechenschaft darüber abzulegen, was aus der bisherigen Flächennutzungsplanung geworden ist, welche Planungen zwischenzeitlich realisiert wurden und wie sie sich auf die städtebauliche Gesamtordnung ausgewirkt haben. Die in dieser Arbeit entwickelten konzeptionellen und methodischen Vorschläge für eine umfassende Evaluation der Flächennutzungsplanung mit den Bausteinen „Evaluation der Formerfordernisse“, „Evaluation der Inhalte des FNPs“ und „Evaluation der Effizienz des Planverfahrens“ bedürfen weiterer praktischer Erprobungen, bevor weitergehende Folgerungen für Lernprozesse und Verbesserungsvorschläge hinsichtlich der Steuerungswirkung der Flächennutzungsplanung und der Effizienz des Planverfahrens zur Aufstellung eines FNPs gezogen werden können. Deutlich wurde anhand des ersten Praxistests aber bereits, dass mit der entwickelten Evaluationsmethode auf der einen Seite der gesetzlichen Forderung nach einer Überprüfung der Flächennutzungsplanung nachgekommen werden kann und auf der anderen Seite nützliche Bausteine für das Monitoring und die planerische Berücksichtigung der Ergebnisse des Monitoring liefern kann. Zudem ergab der Praxistest erste Hinweise auf neuralgische Punkte in den Bereichen Steuerungswirkung der Darstellungen, der Beteiligungsphasen sowie der Effizienz des Planverfahrens, auf deren Basis Verbesserungsvorschläge formuliert werden konnten.
For the last decade, optimization of beam orientations in intensitymodulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity proles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity proles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity proles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity proles for every selection of beam orientations, making the dependence between beam orientations and its intensity proles less important. We take advantage of this property to present a dynamic algorithm for beam orientation in IMRT which is based on multicriteria inverse planning. The algorithm approximates beam intensity proles iteratively instead of doing it for every selection of beam orientation, saving a considerable amount of calculation time. Every iteration goes from an N-beam plan to a plan with N + 1 beams. Beam selection criteria are based on a score function that minimizes the deviation from the prescribed dose, in addition to a reject-accept criterion. To illustrate the eciency of the algorithm it has been applied to an articial example where optimality is trivial and to three real clinical cases: a prostate carcinoma, a tumor in the head and neck region and a paraspinal tumor. In comparison to the standard equally spaced beam plans, improvements are reported in all of the three clinical examples, even, in some cases with a fewer number of beams.
Testing a new suspension based on real load data is performed on elaborate multi channel test rigs. Usually wheel forces and moments measured during driving maneuvers are reproduced on the rig. Because of the complicated interaction between rig and suspension each new rig configuration has to prove its efficiency with respect to the requirements and the configuration might be subject to optimization. This paper deals with modeling a new rig concept based on two hexapods. The real physical rig has been designed and meanwhile built by MOOG-FCS for VOLKSWAGEN. The aim of the simulation project reported here was twofold: First the simulation of the rig together with real VOLKSWAGEN suspension models at a time where the design was not yet finalized was used to verify and optimize the desired properties of the rig. Second the simulation environment was set up in a way that it can be used to prepare real tests on the rig. The model contains the geometric configuration as well as the hydraulics and the controller. It is implemented as an ADAMS/Car template and can be combined with different suspension models to get a complete assembly representing the entire test rig. Using this model, all steps required for a real test run such as controller adaptation, drive file iteration and simulation can be performed. Geometric or hydraulic parameters can be modified easily to improve the setup and adapt the system to the suspension and the load data.
In this article, we consider the quasistatic boundary value problems of linear elasticity and nonlinear elastoplasticity, with linear Hooke’s law in the elastic regime for both problems and with the linear kinematic hardening law for the plastic regime in the latter problem. We derive expressions and estimates for the difference of the solutions of both models, i.e. for the stresses, the strains and the displacements. To this end, we use the stop and play operators of nonlinear functional analysis. Further, we give an explicit example of a homotopy between the solutions of both problems.
Die Simulation von Prüfständen und insbesondere von Baugruppen und Gesamtfahrzeugen auf Prüfständen durch Kopplung von Mehrkörpersimulation mit Modellen für Regelung und Aktuatorik leistet einen wesentlichen Beitrag zur Entwicklungszeitverkürzung. In diesem Beitrag wird ein Kooperationsprojekt vorgestellt, in dem ein Co- Simulationsmodell für die beweglichen Massen sowie die Regelung und Hydraulik eines Gesamtfahrzeugprüfstands erstellt wurde. Es wird sowohl auf die Validierung des Fahrzeugmodells durch Straßenmessungen als auch auf die Identifikation und Validierung des Prüfstandsmodells einschließlich Servohydraulik und Regelung eingegangen.
Reliable methods for the analysis of tolerance-affected analog circuits are of great importance in nowadays microelectronics. It is impossible to produce circuits with exactly those parameter specifications proposed in the design process. Such component tolerances will always lead to small variations of a circuit’s properties, which may result in unexpected behaviour. If lower and upper bounds to parameter variations can be read off the manufacturing process, interval arithmetic naturally enters the circuit analysis area. This paper focuses on the frequency-response analysis of linear analog circuits, typically consisting of current and voltage sources as well as resistors, capacitances, inductances, and several variants of controlled sources. These kind of circuits are still widely used in analog circuit design as equivalent circuit diagrams for representing in certain application tasks Interval methods have been applied to analog circuits before. But yet this was restricted to circuit equations only, with no interdependencies between the matrix elements. But there also exist formulations of analog circuit equations containing dependent terms. Hence, for an efficient application of interval methods, it is crucial to regard possible dependencies in circuit equations. Part and parcel of this strategy is the handling of fill-in patterns for those parameters related to uncertain components. These patterns are used in linear circuit analysis for efficient equation setup. Such systems can efficiently be solved by successive application of the Sherman-Morrison formula. The approach can also be extended to complex-valued systems from frequency domain analysis of more general linear circuits. Complex values result here from a Laplace transform of frequency-dependent components like capacitances and inductances. In order to apply interval techniques, a real representation of the linear system of equations can be used for separate treatment of real and imaginary part of the variables. In this representation each parameter corresponds to the superposition of two fill-in patterns. Crude bounds – obtained by treating both patterns independently – can be improved by consideration of the correlations to tighter enclosures of the solution. The techniques described above have been implemented as an extension to the toolbox Analog Insydes, an add-on package to the computer algebra system Mathematica for modeling, analysis, and design of analog circuits.
A unified approach to Credit Default Swaption and Constant Maturity Credit Default Swap valuation
(2006)
In this paper we examine the pricing of arbitrary credit derivatives with the Libor Market Model with Default Risk. We show, how to setup the Monte Carlo-Simulation efficiently and investigate the accuracy of closed-form solutions for Credit Default Swaps, Credit Default Swaptions and Constant Maturity Credit Default Swaps. In addition we derive a new closed-form solution for Credit Default Swaptions which allows for time-dependent volatility and abitrary correlation structure of default intensities.1
In this paper we propose a finite volume discretization for the threedimensional Biot poroelasticity system in multilayered domains. For the stability reasons, staggered grids are used. The discretization accounts for discontinuity of the coefficients across the interfaces between layers with different physical properties. Numerical experiments, based on the proposed discretization showed second order convergence in the maximum norm for the primary as well as flux unknowns of the system. A certain application example is presented as well.
Histondeacetylase-Inhibitoren (HDACi) stehen im Mittelpunkt zahlreicher Forschungsinteressen, seit gezeigt werden konnte, dass sie Onkoprotein-vermittelte Genrepression von bedeutenden Differenzierungsgenen in Leukämiezellen, aufheben können. Es hat sich herausgestellt, dass HDACi in vielen Tumorzellen Proliferationsstopp und Apoptose sowie teilweise Differenzierung induzieren. Gesundes Gewebe ist von diesen Auswirkungen kaum betroffen. Viele strukturell verschiedene HDACi, darunter auch die auf Grund ihrer anti-epileptischen Wirkung weltweit eingesetzte Valproinsäure (VPA), werden gegenwärtig in klinischen Studien getestet. Der therapeutische Nutzen dieser Inhibitoren scheint besonders hoch zu sein, wenn man sie mit weiteren Chemotherapeutika kombiniert. Die Ergebnisse dieser Arbeit zeigen, dass VPA den anti-leukämischen Effekt von Dexamethason in vitro und in vivo synergistisch verstärkt. Glucocorticoide (GCs) werden seit Jahrzehnten für die Therapie von Krebserkrankungen mit lymphatischem Ursprung eingesetzt. Die Glucocorticoide Prednisolon bzw. Dexamethason spielen eine Schlüsselrolle bei der Induktionstherapie gegen Akute Lymphatische Leukämie (ALL). Ein Großteil der Untersuchungen wurde an Nalm-6 Zellen durchgeführt, ursprünglich etabliert aus dem Blut eines jungen Mannes mit rezidivierender ALL. An Nalm-6 Zellen konnte gezeigt werden, dass die Behandlung mit VPA, Dexamethason und der Kombination der beiden Wirkstoffe zum programmierten Zelltod führt. Weiterhin wiesen die durchflusszytometrisch durchgeführten Messungen der Zelltodraten darauf, dass VPA und Dexamethason bezüglich der Apoptose-Induktion positiv zusammenwirken. Mit Hilfe der Calcusyn Software konnte aus den gemessenen Apoptoseraten die Stärke der Wechselwirkung zwischen den zwei Wirkstoffen berechnet werden. Die Analyse ergab einen stark synergistischen Effekt, für die kombinierte Behandlung von Nalm-6 Zellen mit VPA und Dexamethason, über den gesamten untersuchten Konzentrationsbereich. Die eingesetzten VPA-Konzentrationen deckten dabei den Bereich ab, der erfahrungsgemäß im Serum von Patienten erreicht werden kann. Auch in vier weiteren prä-B-Zelllinien führte die Behandlung mit VPA und Dexamethason zur synergistischen Apoptose-Induktion. SUP-B15 und BV-173 Zellen reagierten dabei, wie Nalm-6 Zellen, sehr sensitiv auf Dexamethason-Behandlung. Die Zelllinien SD-1 und SEM zeigten eine deutlich ausgeprägte Resistenz gegenüber dem Glucocorticoid, reagierten aber sehr stark auf VPA- und Kombinationsbehandlung. Trotz intensiver Untersuchungen ist über den molekularen Mechanismus der GC-vermittelten Apoptose nur wenig bekannt. Das ausreichende Vorhandensein eines funktionierenden Glucocorticoidrezeptors (GR) wird aber als essentiell, für das Ansprechen der Zelle auf GC-Behandlung, angesehen. Da der GR ein Transkriptionsfaktor ist, werden die Ursachen für den GC-induzierten Zelltod vornehmlich in einer veränderten Genexpression gesucht. Da HDACi ebenfalls großen Einfluss auf die Genregulation ausüben, wurden im Rahmen dieser Arbeit Genexpressionsanalysen an den behandelten Nalm-6 Zellen durchgeführt, um die Ursachen für den gefundenen Synergismus zwischen VPA und Dexamethason aufzuklären. Die Ergebnisse dieser Untersuchungen zeigten eine verstärkte Hochregulation von Proteinen, die Zellzyklusstopp und Apoptose bewirken sowie eine verstärkte Repression von Faktoren, die anti-apoptotisch bzw. wachstumsfördernd wirken, in Folge der Kombinationsbehandlung. Die starke Herunterregulierung des pro-apoptotischen Proteins Aven, durch die Wirkstoffkombination, konnte in Nalm-6 Zellen auch mittels Westernblot-Analyse auf Proteinebene nachgewiesen werden. Der potentielle Nutzen einer Kombinationstherapie mit VPA und Dexamethason konnte an einem Tiermodell für ALL überprüft werden. Das Tiermodell wurde über das Einbringen von Nalm-6 Zellen in immundefiziente SCID Mäuse generiert. Die Behandlung mit der Wirkstoffkombination führte zu einer signifikant reduzierten Infiltration von Knochenmark und Milz durch die humanen Blasten, im Vergleich zur Behandlung mit Dexamethason oder PBS als Kontrolle. Weiterhin wurde für die Tiere, die mit der Wirkstoffkombination behandelt wurden, eine signifikante Erhöhung der Überlebenswahrscheinlichkeit beobachtet. Auch für Vincristin, L Asparaginase und Daunorubicin, weitere Wirkstoffe der Induktionstherapie bei pädiatrischer ALL, konnte ein synergistisches Zusammenwirken mit VPA bezüglich der Apoptose-Induktion in Nalm-6 Zellen gezeigt werden. Die Ergebnisse der vorliegenden Arbeit zeigen, dass VPA die Effektivität der Polychemotherapie gegen ALL erhöhen könnte. Auf Grund des stark synergistischen Zusammenwirkens mit Dexamethason könnte VPA möglicherweise auch eine potentielle Alternative für schlecht verträgliche bzw. risikobehaftete Chemotherapeutika der Induktionstherapie darstellen.
This thesis deals with modeling aspects of generalized Newtonian and of non-Newtonian fluids, as well as with development and validation of algorithms used in simulation of such fluids. The main contribution in the modeling part are the introduction and analysis of a new model for the generalized Newtonian fluids, where constitutive equation is of an algebraic form. Distinction between shear and extensional viscosities leads to anisotropic viscosity model. It can be considered as a natural extension of the well known (isotropic viscosity) Carreau model, which deals only with shear viscosity properties of the fluid. The proposed model takes additionally into account extensional viscosity properties. Numerical results show that the anisotropic viscosity model gives much better agreement with experimental observations than the isotropic one. Another contribution of the thesis consists of the development and analysis of robust and reliable algorithms for simulation of generalized Newtonian fluids. For such fluids the momentum equations are strongly coupled through mixed derivatives appearing in the viscous term (unlike the case of Newtonian fluids). It is shown in this thesis, that a careful treatment of those derivatives is essential in deriving robust algorithms. A modification of a standard SIMPLE-like algorithm is given, where all the viscous terms from the momentum equations are discretized in an implicit manner. Moreover, it is shown that a block diagonal preconditioner to the viscous operator is good enough to be used in simulations. Furthermore, different solution techniques, namely projection type methods (consists of solving momentum equations and pressure correction equation) and fully coupled methods (momentum and continuity equations are solved together), are compared. It is shown, that explicit discretization of the mixed derivatives lead to stability problems. Further, analytical estimates of eigenvalue distribution for three different preconditioners, applied to the transformed system arising after discretization and linearization of the momentum and continuity equations, are provided. We propose to apply a block Gauss-Seidel preconditioner to the transformed system. The analysis shows, that this preconditioner is able to cluster eigenvalues around unity independent of the transformation step. It is not the case for other preconditioners applied to the transformed system as discussed in the thesis. The block Gauss-Seidel preconditioner has also shown the best behavior (among all preconditioners discussed in the thesis) in numerical experiments. Further contribution consists of comparison and validation of numerical algorithms applied in simulations of non-Newtonian fluids modeled by time integral constitutive equations. Numerical results from simulations of dilute polymer solutions, described by the integral Oldroyd B model, have shown very good quantitative agreement with the results obtained by differential Oldroyd B counterpart in 4:1 planar contraction domain at low Weissenberg numbers. In this case, the Weissenberg number is changed by changing the relaxation time. However, contrary to the differential Oldroyd B model, the integral one allows to perform stable simulations also in the range of high Weissenberg numbers. Moreover, very good agreement with experimental observations has been achieved. Simulations of concentrated polymer solutions (polystyrene and polybutadiene solutions), modeled by the integral Doi Edwards model, supplemented by chain length fluctuations, have shown very good qualitative agreement with the results obtained by its differential approximation in 4:1:4 constriction domain. Again, much higher Weissenberg numbers can be achieved when the integral model is used. Moreover, very good quantitative results with experimental data of polystyrene solution for the first normal stress difference and shear viscosity defined here as the quotient of a shear stress and a shear rate. Finally, comparison of the two methods used for approximating the time integral constitutive equation, namely Deformation Field Method (DFM) and Backward Lagrangian Particle Method (BLPM), is performed. In BLPM the particle paths are recalculated at every time step of the simulations, what has never been tried before. The results have shown, that in the considered geometries both methods give similar results.
Selection of new projects is one of the major decision making activities in any company. Given a set of potential projects to invest, a subset which matches the company's strategy and internal resources best has to be selected. In this paper, we propose a multicriteria model for portfolio selection of projects, where we take into consideration that each of the potential projects has several - usually conflicting - values.
Die vorliegende Arbeit beschäftigt sich mit der Synthese neuer C4,C5-funktionalisierter N-heterozyklische Carbenliganden. Der Aufbau der Liganden erfolgte über einen mehrstufigen Syntheseweg ausgehend von Glyoxyl und Trimethylamin. Das erhaltene 1,2-Diamin wurde mit Allymagnesiumchlorid in einer Additionsreaktion funktionalsiert. Anschließend erfolgte ein Ringschluß durch Umsetzung mit Triethylorthoformiat und NH4X (X = Cl, BF4, I). In einer RCM mit Grubbs 1 wurde aus den eingeführten Allylgruppen ein Cyclohexenring unter Abspaltung von Ethen gebildet. Durch eine Bromaddition bzw. Oxidation an der intramolekularen Doppelbindung wurden zwei weitere funktionalisierte Derivate synthetisiert. Das durch Oxidation entstandene trans-Diol wurde mit 3-(Triethoxysilyl)propyl- isocyanat umgesetzt, so dass ein funktionalsiertes Imidazoliumsalz synthetisiert wurde, welches eine Möglichkeit zur Immobilisierung an Kieselgel bietet. Die neu synthetisierten funktionalisierten NHC-Ligandenvorstufen wurden mit geeigneten Metallkomplexen zu NHC-Metallkomplexen umgesetzt. Dafür wurden Silber-, Rhodium-, Palladium- und Rutheniumkomplexe verwendet. Die neu hergestellten NHC-Palladium- und NHC-Rutheniumkomplexe wurden in Anwendungsreaktionen auf ihre Aktivität untersucht. Der NHC-Rutheniumkomplex besitzt eine Struktur vom Typ Hoveyda. Er wurde in einer RCM mit N,N-Diallyl-4-toluolsulfonamid als Substrat eingesetzt. Die erhaltenen Umsätze wurden mit Hoveyda II verglichen. Die NHC-Palladiumkomplexe wurden zunächst in einer Standardaminierung auf ihre Aktivität getestet. Als Testreaktion wurde die Umsetzung von p-Bromtolul mit Morpholin audgewählt. Es erfolgte ein Vergleich mit anderen Palladiumkatalysatoren: SIMes*HCl/Pd2dba3/KOtBu, Pd(OAc)2/BINAP/CsCO3. Weiterhin wurden die NHC-Palladiumkatalysatoren in der Synthese von Wirkstoffkandidaten für die präklinische Forschung eingesetzt. Bei den durchgeführten Reaktionen handelt es sich an allen Fällen um Aminierungen. Die auf diesen Weg erhalötnen neuen Verbindungen wurden in Folgereaktionen zu weiteren Testkandidaten umgesetzt. Die Wirkstoffkandidaten wurden in biologischen Assays auf ihre Wirksamkeit als Kinaseinhibitoren getestet.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2005.
Katja is a tool generating order-sorted recursive data types as well as position types for Java, from specifications using an enhanced ML like notation. Katja’s main features are its conciseness of specifications, the rich interface provided by the generated code and the Java atypical immutability of types. After several stages of extending and maintaining the Katja project, it became apparent many changes had to be done. The original design of Katja wasn’t prepared for the introduction of several backends, the introduction of position sorts and constant feature enhancements and bug fixes. By supplying this report Katja reaches release status for the first time.
Im ersten Teil der vorliegenden Arbeit wurde Knochenmarksmaterial von 110 Leukämiepatienten auf das Vorliegen von p53-Gen-Deletionen untersucht. Zu diesem Zweck wurden sowohl Interphasezellkerne als auch Metaphasen der Leukämiezellen mittels der Fluoreszenz-in-situ-Hybridisierungstechnik (FISH) mit der p53-Gen-Sonde untersucht. Dabei konnte in keinem der 55 untersuchten Patienten mit lymphatischer Leukämie eine Alleldeletion des p53-Gens nachgewiesen werden. Da die p53-Gen-Deletion nach den Literaturangaben bei etwa 7% der Patienten mit lymphatischer Leukämie vorkommt, widersprechen die eigenen Ergebnisse diesen Angaben. Als Grund kann die zu geringe Anzahl der untersuchten Fälle genannt werden. Bei den 55 hier untersuchten Patienten, die an myeloischer Leukämie erkrankt waren, konnte in 7 Fällen (13%) eine Deletion im p53-Gen mittels FISH nachgewiesen werden. Der Anteil der gefundenen p53-Gen-Deletionen war deutlich höher als aufgrund der Literaturangaben erwartet. Die sieben Patienten, bei denen eine p53-Gen-Deletion nachgewiesen wurde, waren alle an akuter myeloischer Leukämie (AML) erkrankt. Alle Patienten, die eine p53-Gen-Deletion aufwiesen, zeigten auch einen numerisch und strukturell aberranten Karyotyp. Im zweiten Arbeitsabschnitt wurden Knochenmarkszellen von 21 Patienten mit hämatologischen Erkrankungen mittels spektraler Karyotypisierung (SKY) untersucht und mit dem zytogenetischen Routinebefund verglichen. Ziel der Untersuchung war die Identifizierung von numerischen und strukturellen Chromosomenaberrationen, die durch die konventionelle zytogenetische Untersuchung nicht identifiziert werden konnten. Bei 17 (81%) der Fälle wurden durch SKY zusätzliche Chromosomenaberrationen festgestellt. Nur bei 4 (19%) der Fälle wurde der zytogenetische Befund bestätigt. Im dritten Arbeitsabschnitt wurden Meningeome untersucht. Bei 22 Meningeomen (17 benigne und 5 atypische Meningeomen) wurde mittels Interphase-FISH nach einer Alleldeletion des p53-Gens gesucht. Es konnte jedoch in keinem Fall eine solche Deletion nachgewiesen werden. Weiterhin wurden bei 24 Meningeomen 96 frische Biopsieproben von verschiedenen Tumorarealen mit G-Bänderungstechnik zytogenetisch analysiert. Zur besseren Aufklärung komplex aberranter Karyotypen wurden zwei Fälle (Nr. 1 und Nr. 7) auch mittels SKY-Analyse untersucht. Ziel der vorliegenden Arbeit war es festzustellen, ob zytogenetische Unterschiede zwischen den unterschiedlichen Arealen innerhalb eines Tumors vorliegen. Es gab bei 13 von 24 Meningeomen (54%) zytogenetische Unterschiede zwischen den verschiedenen Arealen innerhalb eines Tumors. 24 (83%) von 29 Meningeomen wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft und 5 (17%) von 29 Meningeomen in den Tumorgrad II. Die Tumorgradverteilung in dieser Arbeit entspricht den Literaturangaben. 13 von 24 Tumoren wiesen entweder einen normalen Karyotyp oder nur eine Monosomie 22 auf. Alle 13 Tumoren wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft. Vier Meningeome wiesen stark aberrante Karyotypen auf, was vermutlich ein Zeichen für die Tumorprogression darstellt. Es wurde auch untersucht, ob eine Korrelation zwischen dem zytogenetischen und histologischen Befunden vorliegt. In der vorliegenden Arbeit hat bei sechs Fällen der histologische Befund nicht mit dem zytogenetischen Befund übereingestimmt, da die Tumore in den Tumorgrad I eingestuft wurden, der zytogenetische Befund aber einen aberranten Chromosomensatz aufwies, der normalerweise nicht bei niedriggradigen Meningeomen, sondern bei atypischen und anaplastischen Meningeomen vorkommt. Die Untersuchungsergebnisse deuten darauf hin, dass die Kombination verschiedener zytogenetischer und molekularzytogenetischer Methoden zur Charakterisierung Chromosomaler Aberrationen bei Meningeomen sinnvoll ist.
For the last decade, optimization of beam orientations in intensity-modulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity profiles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity profiles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity profiles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity profiles for every selection of beam orientations, making the dependence between beam orientations and its intensity profiles less important. This thesis takes advantage of this property to accelerate the optimization process through an approximation of the intensity profiles that are used for multiple selections of beam orientations, saving a considerable amount of calculation time. A dynamic algorithm (DA) and evolutionary algorithm (EA), for beam orientations in IMRT planning will be presented. The DA mimics, automatically, the methods of beam's eye view and observer's view which are recognized in conventional conformal radiation therapy. The EA is based on a dose-volume histogram evaluation function introduced as an attempt to minimize the deviation between the mathematical and clinical optima. To illustrate the efficiency of the algorithms they have been applied to different clinical examples. In comparison to the standard equally spaced beams plans, improvements are reported for both algorithms in all the clinical examples even when, for some cases, fewer beams are used. A smaller number of beams is always desirable without compromising the quality of the treatment plan. It results in a shorter treatment delivery time, which reduces potential errors in terms of patient movements and decreases discomfort.
With the UML 2.0 standard, the Unified Modeling Language took a big step towards SDL, incorporating many features of the language. SDL is a mature and complete language with formal semantics. The Z.109 standard defines a UML Profile for SDL, mapping UML constructs to corresponding counterparts in SDL, giving them a precise semantics. In this report, we present a case study for the formalisation of the Z.109 standard. The formal definition makes the mapping precise and can be used to derive tool support.
Die am Fraunhofer-Institut für Experimentelles Software Engineering entwickelte MARMOT-Methode beschreibt einen Ansatz für die komponentenbasierte Entwicklung eingebetteter Systeme. Sie baut auf der ebenfalls am IESE entwickelten KobrA-Methode auf und erweitert diese um spezielle Anforderungen für eingebettete Systeme. Die Idee dahinter ist es, einzelne Komponenten zu modellieren, implementieren und zu testen um später auf vorhandene qualitätsgesicherte Komponenten zurückgreifen zu können, und zu Applikationen zu komponieren ohne diese immer wieder neu entwickeln und testen zu müssen. Im Rahmen dieser Projektarbeit sollte mit Hilfe der MARMOT-Methode ein Antikollisionssystem für ein Modellauto entwickelt werden. Nach Auswahl der hierfür geeigneten Hardware wurde zunächst ein Grundkonzept für die Sensorik entwickelt. Die vom verwendeten RADAR-Sensor gelieferten Signale müssen für die weitere Verwendung durch einen Mikrocontroller aufbereitet werden. Vor der eigentlichen Systemmodellierung musste deshalb zu diesem Zweck eine Sensorplatine entwickelt werden. Anschließend folgte die Modellierung des Antikollisionssystems in UML 2.0 und die Implementierung in C. Zum Abschluss wurde das Zusammenspiel der Hard- und Software getestet.
This paper presents a method for approximating spherical functions from discrete data of a block-wise grid structure. The essential ingredients of the approach are scaling and wavelet functions within a biorthogonalisation process generated by locally supported zonal kernel functions. In consequence, geophysically and geodetically relevant problems involving rotation-invariant pseudodifferential operators become attackable. A multiresolution analysis is formulated enabling a fast wavelet transform similar to the algorithms known from one-dimensional Euclidean theory.
The stationary heat equation is solved with periodic boundary conditions in geometrically complex composite materials with high contrast in the thermal conductivities of the individual phases. This is achieved by harmonic averaging and explicitly introducing the jumps across the material interfaces as additional variables. The continuity of the heat flux yields the needed extra equations for these variables. A Schur-complent formulation for the new variables is derived that is solved using the FFT and BiCGStab methods. The EJ-HEAT solver is given as a 3-page Matlab program in the Appendix. The C++ implementation is used for material design studies. It solves 3-dimensional problems with around 190 Mio variables on a 64-bit AMD Opteron desktop system in less than 6 GB memory and in minutes to hours, depending on the contrast and required accuracy. The approach may also be used to compute effective electric conductivities because they are governed by the stationary heat equation.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
Die vorliegende Arbeit befasst sich mit dem Tragverhalten eines belasteten quadratischen Fundamentes, das durch nachträglich oder gleichzeitig hergestellte Bohrpfähle unterfangen wird. Die Auswirkungen nachträglich unter Fundamenten hergestellter Pfähle auf das Tragverhalten des Gesamtsystems Fundament und Pfähle werden untersucht. Es sind sowohl numerische Untersuchungen als auch Versuche an einem großmaßstäblichen Labor-Modell durchgeführt worden. Die Einflüsse einer nachträglichen Herstellung von Bohrpfählen auf das Fundamenttragverhalten sowie Herstellungseinflüsse werden numerisch simuliert und mit Hilfe der Methode der Finiten Elemente (FEM) untersucht. Als Untergrund ist Sand angenommen. Es sind sowohl die unterfangenen Fundamente als auch zum Vergleich eine Fundamentplatte untersucht. Für die Fundamentplatte sowie die Pfähle wird ein linear elastisches Materialverhalten angenommen. Das Materialverhalten des Sandes ist durch ein elasto-plastisches Stoffmodell beschrieben. Die numerische Berechnungen sind mit dem 3D-Finite Elemente Programm NONSAP durchgeführt, in das das Stoffmodell für trockenen Sand implementiert wurde. Zur Überprüfung der Güte des verwendeten numerischen Rechenverfahrens einschließlich Stoffgesetz sind die Ergebnisse aus Modellversuche herangezogen. In den Parameterstudien wird das Tragverhalten des Pfahl-Fundamentes in Abhängigkeit verschiedener Parameter, z.B. Pfahllänge, Pfahldurchmesser, Porenzahl des Sands sowie Überlagerungsdruck numerisch berechnet. Anhand dieser Ergebnisse werden geschlossene analytische Beziehungen hergeleitet, mit denen das Tragverhalten des untersuchten Modells prognostiziert werden kann. Weiter sind die Widerstände des Fundamentes und der Pfähle getrennt ermittelt und es ist das Interaktionsverhalten beider Gründungselemente aufgezeigt worden.
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Molekulare Analyse der Aktivierung des Kalium-Chlorid-Cotransporters KCC2 in reifenden Neuronen
(2006)
Das Ziel dieser Arbeit lag in der Aufklärung zellulärer Wirkmechanismen von Apfelpolyphenolen und deren möglicher Relevanz im Hinblick auf die Chemoprävention, insbesondere des kolorektalen Karzinoms. Die Untersuchungen haben gezeigt, dass polyphenolreiche Apfelextrakte in vitro das Wachstum der humanen Kolonkarzinomzelllinie HT29 hemmen, wobei die Induktion von Apoptose eine Rolle zu spielen scheint. Die Ergebnisse dieser Arbeit deuten darauf hin, dass polyphenolreiche Apfelsaftextrakte modulierend in Signalübertragungswege eingreifen, die wesentlich sind für die Regulation von Zellwachstum und Differenzierung. In erster Linie zeichnen sich dabei Effekte auf wachstumsfaktorvermittelte Signalwege ab. Als herausragende Wirkqualität des polyphenolreichen Apfelsaftextraktes AE02 bzw. des Apfeltresterextraktes AE03B ist ihre hocheffektive Hemmung der Proteintyrosinkinase (PTK)-Aktivität des epidermalen Wachstumsfaktorrezeptors (EGFR) zu nennen. Anhand von Untersuchungen zur Modulation des Phosphorylierungsstatus (als ein Maß für die Aktivität des EGFR) konnte gezeigt werden, dass die Hemmwirkung des AE02 nicht limitiert ist auf den isolierten EGFR, sondern auch in intakten Zellen zum Tragen kommt. Insgesamt zeigte sich allerdings, dass die bislang in Apfelextrakten identifizierten Inhaltsstoffe alleine bzw. in der Summe nur marginal sowohl zur Wachstumshemmung als auch zur Hemmung des EGFR beitragen. Oligomere Procyanidine dagegen erwiesen sich als hoch potente Hemmstoffe der PTK-Aktivität des isolierten EGFR. Die Proteinkinase C (PKC)-Isoenzymfamilie spielt ebenfalls eine Schlüsselrolle bei der Regulation von Wachstumsprozessen. In dieser Arbeit wurde der Frage nachgegangen, ob Apfelpolyphenole die PKC-Aktivität im Kolon beeinflussen. Dafür wurden humane Kolonkarzinomzellen im Vergleich zu primären humanen Enterozyten (Biopsie) untersucht. Die Ergebnisse zeigen, dass sowohl die PKC-Aktivität nicht transformierter humaner Enterozyten als auch humaner Kolonkarzinomzellen durch Apfelpolyphenole gehemmt wird. Der Apfelsaftextrakt AE02 konnte als Hemmstoff der isolierten zytosolischen PKC-Aktivität von HT29-Zellen charakterisiert werden. Eine 24-stündige serumfreie Inkubation von HT29-Zellen mit AE02 führt zu einer Hemmung der zytosolischen PKC-Aktivität; sogar in geringeren Konzentrationen im Vergleich zur Hemmwirkung an isolierter PKC. Dies könnte auf einer Hemmung PKC-vorgeschalteter Signalelemente beruhen, die so den hemmenden Effekt von AE02 auf die PKC-Aktivität verstärken könnten. Jedoch zeigte sich nach 24-stündiger Inkubation von HT29-Zellen ein U-förmiger Kurvenverlauf mit einem Anstieg der PKC-Aktivität in hohen Konzentrationen. Nachdem keine PKC-Aktivierung bei Zugabe von Apfelpolyphenolen zu isolierten Enzympräparationen zu beobachten war, kann eine direkte substanzvermittelte Aktivierung ausgeschlossen werden. Die Caspase-3-Aktivierung und die DNA-Fragmentierung, als Merkmale apoptotischer Prozesse; sowie der gezeigte Wiederanstieg des Gesamtproteingehaltes an proapoptotischer PKCdelta nach 24-stündiger Zellinkubation mit AE02 deuten darauf hin, dass die PKC-Aktivierung intermediär als Teil des apoptotischen Prozesses auftritt. Des Weiteren konnte gezeigt werden, dass der polyphenolreiche Apfelsaftextrakt AE02 potent die isolierte, aus humanen Kolonkarzinomzellen immunopräzipitierte, GSK3beta, einem Schlüsselenzym des Wnt-Signalweges, in seiner Aktivität hemmt. Auch in intakten Zellen führt die Inkubation (24 h) von HT29-Zellen mit Apfelpolyphenolen zu einer signifikanten konzentrationsabhängigen Hemmung der zellulären GSK3beta-Aktivität. Damit einher geht die signifikante Abnahme an phosphoryliertem beta-Catenin. Gleichzeitig nimmt unerwarteterweise der Gehalt an Gesamt-beta-Catenin ebenfalls ab. Die Ergebnisse weisen somit darauf hin, dass der polyphenolreiche Apfelsaftextrakt AE02 in humanen Kolonkarzinomzellen keinen Wachstumsstimulus über den Wnt-Signalweg induziert und aufgrund der Reduktion der Expression von beta-Catenin eher antiproliferative Effekte des AE02 zu erwarten sind. Zusammenfassend ist festzustellen, dass Apfelpolyphenole in/unterhalb von Polyphenolkonzentrationen polyphenolreicher Apfelsäfte (z. B. 500 mg/l im Projektsaft AS02), in vitro in Signaltransduktionskaskaden eingreifen, die mit der Entstehung kolorektaler Karzinome assoziiert werden.
The new international capital standard for credit institutions (“Basel II”) allows banks to use internal rating systems in order to determine the risk weights that are relevant for the calculation of capital charge. Therefore, it is necessary to develop a system that enfolds the main practices and methods existing in the context of credit rating. The aim of this thesis is to give a suggestion of setting up a credit rating system, where the main techniques used in practice are analyzed, presenting some alternatives and considering the problems that can arise from a statistical point of view. Finally, we will set up some guidelines on how to accomplish the challenge of credit scoring. The judgement of the quality of a credit with respect to the probability of default is called credit rating. A method based on a multi-dimensional criterion seems to be natural, due to the numerous effects that can influence this rating. However, owing to governmental rules, the tendency is that typically one-dimensional criteria will be required in the future as a measure for the credit worthiness or for the quality of a credit. The problem as described above can be resolved via transformation of a multi-dimensional data set into a one-dimensional one while keeping some monotonicity properties and also keeping the loss of information (due to the loss of dimensionality) at a minimum level.
We consider optimal design problems for semiconductor devices which are simulated using the energy transport model. We develop a descent algorithm based on the adjoint calculus and present numerical results for a ballistic diode. Further, we compare the optimal doping profile with results computed on basis of the drift diffusion model. Finally, we exploit the model hierarchy and test the space mapping approach, especially the aggressive space mapping algorithm, for the design problem. This yields a significant reduction of numerical costs and programming effort.
Die vorliegende Arbeit befasst sich mit dem signaltransduzierenden Zwei-Komponenten- System CiaRH aus Streptococcus pneumoniae. Zwei-Komponenten-Systeme sind an der Adaptation der Bakterien an Umweltbedingungen entscheidend beteiligt. Sie bestehen in der Regel aus einer Histidinkinase (hier CiaH) und einem Responseregulator (hier CiaR). Die Histidinkinase dient der Signaldetektion und Aktivierung des Responseregulators, welcher die zelluläre Antwort vermittelt. Das Cia-System wurde als Resistenzdeterminante in spontanresistenten Labormutanten gegen Cefotaxim identifiziert. Weiterhin hat dieses Zwei-Komponenten-System Einfluss auf die Zelllyse, die Virulenz und ist an der Regulation der genetischen Kompetenz beteiligt. Es wird für die Lebensfähigkeit von Zellen mit PBP2x-Punktmutationen benötigt. Inhaltlicher Schwerpunkt der vorliegenden Arbeit war neben der Etablierung der Mikroarray-Technik und globalen Transkriptionsanalysen die funktionelle Charakterisierung des Cia-Systems mit phänotypischen Analysen. Die Etablierung der Mikroarray-Technik befasste sich mit allen Schritten des Mikroarray-Prozesses inklusive Biochip-Herstellung, Datenauswertung und der Validierung des Oligo-Sets. Nach erfolgreicher Etablierung wurde diese Technik benutzt, um Cia-regulierte Gene zu identifizieren. Durch Vergleich des Transkriptoms von verschiedenen Cia-Mutanten mit dem Wildtyp R6 wurden insgesamt 158 Gene unterschiedlich transkribiert. Davon gehörten 73 Gene zum minimalen Cia- und zum Kompetenz-Regulon, welche schon als Cia-reguliert bekannt waren (Sebert et al., 2002; Mascher et al., 2003; Dagkessamanskaia et al., 2004). Überraschenderweise wurden weitere 85 Gene Cia-abhängig transkribiert, deren Genprodukte funktionell in Zucker- und Stickstoffmetabolismus sowie Transport gruppiert werden konnten. Wahrscheinlich wurden die meisten dieser 85 Gene indirekt als Folge der veränderten Zuckerverwertung reguliert. Ähnliche funktionelle Gengruppen konnten in den globalen Transkriptionsanalysen der spontanresistenten Laborfamilie C103 bis C503 aufgestellt werden. In dieser Mutantenfamilie sind Mutationen in CiaH, PBP2x und PBP2a gefunden worden. Besonders auffällig war bei diesen Untersuchungen die kontinuierliche Verstärkung der Transkription der Gene des minimalen Cia-Regulons von C103 bis C503. Deshalb ist von einer Aktivierung des Cia-Systems durch PBP-Mutationen auszugehen. Diese Aktivierung konnte auch in RT-PCR-Versuchen am Beispiel einzelner Gene des minimalen Cia-Regulons bestätigt werden. Da das Cia-System durch PBP-Mutationen aktiviert wird und ein funktionelles Cia-System bei Anwesenheit von bestimmten PBP2x-Mutationen benötigt wird, wurde in dieser Arbeit diese Notwendigkeit des Cia-Systems auch bei anderen PBP-Mutationen durch phänotypische Analysen überprüft. Dabei wurde durch Inaktivierung des Cia-Systems in verschiedenen Stämmen festgestellt, dass nicht nur Zellen mit einzelnen, im Labor selektierten PBP2x-Mutationen, sondern auch ohne ein PBP2a- und ohne ein PBP1a-Protein auf ein Cia-System angewiesen sind. Klinische PBP2x-Allele benötigten ebenfalls – aber in geringeren Maßen – das Cia-System. Wahrscheinlich haben in diesen kompensatorische Mutationen durch Evolution in der freien Natur stattgefunden. Damit wurde auch zum ersten Mal gezeigt, dass PBP-Mutationen nicht neutral sind und verschiedene PBP-Mutationen unterschiedliche Auswirkungen haben. Weiterhin wurde untersucht, welche Gene tatsächlich die durch das Cia-System verursachten Phänotypen auslösen. Dazu wurden 6 Cia-regulierte Genregionen bzw. Einzelgene mit einer Erythromycin-Resistenzkassette inaktiviert und auf das Vorhandensein von Cia „OFF“-phänotypischem Verhalten analysiert. Kein Gen konnte für das Resistenz- oder das Lyseverhalten ausfindig gemacht werden. Hingegen waren die Proteine HtrA und Spr0782 an der Reprimierung der Kompetenz durch das Cia-System beteiligt. Bei beiden Proteinen konnte nur eine Reprimierung in CpH8- und nicht in THB-Medium nachgewiesen werden, so dass eventuell noch von weiteren Faktoren ausgegangen werden muss. Die hier vorgelegten Ergebnisse haben die bisher vorliegenden Daten über das Cia-System bestätigt und entscheidende Einblicke nicht nur in die mögliche Funktion, sondern vor allem in das komplexe vernetzte Regulationssystem gegeben. Diese stellen eine wichtige Grundlage für weitere Experimente dar.
In this article, we give an explicit homotopy between the solutions (i.e. stress, strain, displacement) of the quasistatic linear elastic and nonlinear elastoplastic boundary value problem, where we assume a linear kinematic hardening material law. We give error estimates with respect to the homotopy parameter.
Error estimates for quasistatic global elastic correction and linear kinematic hardening material
(2006)
We consider in this paper the quasistatic boundary value problems of linear elasticity and nonlinear elastoplasticity with linear kinematic hardening material. We derive expressions and estimates for the difference of solutions (i.e. stress, strain and displacement) of both models. Further, we study the error between the elastoplastic solution and the solution of a postprocessing method, that corrects the solution of the linear elastic problem in order to approximate the elastoplastic model.
In this article, we give some generalisations of existing Lipschitz estimates for the stop and the play operator with respect to an arbitrary convex and closed characteristic a separable Hilbert space. We are especially concerned with the dependency of their outputs with respect to different scalar products.
Traffic flow on road networks has been a continuous source of challenging mathematical problems. Mathematical modelling can provide an understanding of dynamics of traffic flow and hence helpful in organizing the flow through the network. In this dissertation macroscopic models for the traffic flow in road networks are presented. The primary interest is the extension of the existing macroscopic road network models based on partial differential equations (PDE model). In order to overcome the difficulty of high computational costs of PDE model an ODE model has been introduced. In addition, steady state traffic flow model named as RSA model on road networks has been dicsussed. To obtain the optimal flow through the network cost functionals and corresponding optimal control problems are defined. The solution of these optimization problems provides an information of shortest path through the network subject to road conditions. The resulting constrained optimization problem is solved approximately by solving unconstrained problem invovling exact penalty functions and the penalty parameter. A good estimate of the threshold of the penalty parameter is defined. A well defined algorithm for solving a nonlinear, nonconvex equality and bound constrained optimization problem is introduced. The numerical results on the convergence history of the algorithm support the theoretical results. In addition to this, bottleneck situations in the traffic flow have been treated using a domain decomposition method (DDM). In particular this method could be used to solve the scalar conservation laws with the discontinuous flux functions corresponding to other physical problems too. This method is effective even when the flux function presents more than one discontinuity within the same spatial domain. It is found in the numerical results that the DDM is superior to other schemes and demonstrates good shock resolution.
Ein typisches Mittelklassefahrzeug hat mittlerweile 100 Computerprozessoren,die miteinander kommunizieren, und bildet damit ein komplexes Softwaresystem. Die steigende Anzahl der miteinander kommunzierenden Funktionen trägt dazu bei, dass die Komplexität der Steurungssoftware immer schwerer zu beherrschen ist. Trotz eines enormen Kostenaufwands zur Entwicklung der entsprechenden Softwarekomponenten sind Softwarefehler bei Fahrzeugen der automobilen Oberklasse eine der am häufigsten angeführten Ursachen in der Pannenstatistik. Die Tatsache, dass die angeführten Funktionalitäten verteilt und parallel auf einer steigenden Anzahl unterschiedlicher Mikrokontroller abgearbeitet werden, birgt zusätzliche Probleme. Es ist jedoch Fakt, dass der Markt nach Funktionalitäten wie ABS, ASR und ESP verlangt, die zu einem wesentlichen Teil aus Software bestehen. Es ist also notwendig, einen alternativen Softwareansatz zu finden, der die Komplexität der Steuerungssoftware beherrschbar werden lässt und dennoch den Anforderungen des automobilen Umfelds, wie zum Beispiel der Verlässlichkeit gerecht wird. Dies wird in dieser Arbeit mit hilfe einer verhaltensbasierten steuerung erreicht.
Wetting of a solid surface with liquids is an important parameter in the chemical engineering process such as distillation, absorption and desorption. The degree of wetting in packed columns mainly contributes in the generating of the effective interfacial area and then enhancing of the heat and mass transfer process. In this work the wetting of solid surfaces was studied in real experimental work and virtually through three dimensional CFD simulations using the multiphase flow VOF model implemented in the commercial software FLUENT. That can be used to simulate the stratified flows [1]. The liquid rivulet flow which is a special case of the film flow and mostly found in packed columns has been discussed. Wetting of a solid flat and wavy metal plate with rivulet liquid flow was simulated and experimentally validated. The local rivulet thickness was measured using an optically assisted mechanical sensor using a needle which is moved perpendicular to the plate surface with a step motor and in the other two directions using two micrometers. The measured and simulated rivulet profiles were compared to some selected theoretical models founded in the literature such as Duffy & Muffatt [2], Towell & Rothfeld [3] and Al-Khalil et al. [4]. The velocity field in a cross section of a rivulet flow and the non-dimensional maximum and mean velocity values for the vertical flat plate was also compared with models from Al-Khalil et al. [4] and Allen & Biggin [5]. Few CFD simulations for the wavy plate case were compared to the experimental findings, and the Towel model for a flat plate [3]. In the second stage of this work 3-D CFD simulations and experimental study has been performed for wetting of a structured packing element and packing sheet consisting of three elements from the type Rombopak 4M, which is a product of the company Kuhni, Switzerland. The hydrodynamics parameters of a packed column, e. i. the degree of wetting, the interfacial area and liquid hold-up have been depicted from the CFD simulations for different liquid systems and liquid loads. Flow patterns on the degree of wetting have been compared to that of the experiments, where the experimental values for the degree of wetting were estimated from the snap shooting of the flow on the packing sheet in a test rig. A new model to describe the hydrodynamics of packed columns equipped with Rombopak 4M was derived with help of the CFD–simulation results. The model predicts the degree of wetting, the specific or interfacial area and liquid hold-up at different flow conditions. This model was compared to Billet & Schultes [6], the SRP model Rocha et al. [7-9], to Shi & Mersmann [10] and others. Since the pressure drop is one of the most important parameter in packed columns especially for vacuum operating columns, few CFD simulations were performed to estimate the dry pressure drop in a structured and flat packing element and were compared to the experimental results. It was found a good agreement from one side, between the experimental and the CFD simulation results, and from the other side between the simulations and theoretical models for the rivulet flow on an inclined plate. The flow patterns and liquid spreading behaviour on the packing element agrees well with the experimental results. The VOF (Volume of Fluid) was found very sensitive to different liquid properties and can be used in optimization of the packing geometries and revealing critical details of wetting and film flow. An extension of this work to perform CFD simulations for the flow inside a block of the packing to get a detailed picture about the interaction between the liquid and packing surfaces is recommended as further perspective.
Uncoupling protein1 (UCP1) in brown adipose tissue was discovered earlier as the main uncoupling source of respiration. We describe the basic facts and a modest contribution of our group to the area of research on mitochondrial uncoupling proteins. After defining the terms uncoupling, leak, proton-mediated uncoupling, we discuss the assumption that due to its low abundance, uncoupling protein 2 (UCP2) can provide only mild uncoupling, i.e. can decrease the proton motive force by several mV only. A fatty acid cycling mechanism is described as a plausible explanation for the protonophoretic function of all uncoupling proteins together with our experiments supporting it. A speculation for the phylogenesis of all uncoupling proteins can be deduced by estimated UCP2 content in several tissues, and details of its activation are explained on the basis of our experiments. In the present study a solubilization and refolding method for UCP2 from inclusion bodies was developed and characterized. As it was known and also demonstrated from previous experiments on UCP1 that fatty acids are substrates, we used the same procedure to study the function of UCP2. Utilizing spin-labelled fatty acids (SLFA) for our experiments we demonstrated the binding of fatty acids to UCP2, and the competition of other natural fatty acids like oleic acid, palmitic acid, arachidonic acid and eicosatrienoic acid to the preformed complex emphasizes the presence of a fatty acid binding site for mitochondrial UCP2. The findings were observed by EPR spectroscopy where the highly immobilized spectra with presence of spin-labelled fatty acid eventually end up as free spin label spectra with a particular concentration of the natural fatty acid added to the UCP2 bound with spin-labelled fatty acid. This fits in significantly with the earlier findings of UCP1 and also leads to assumption of functional explanation about the physiological relevance between the uncoupling proteins functions. The present study, in which representative and sensitive parameters for EPR spectroscopy were established, at the same time describes the concentration effects of fatty acids upon the protein bound with spin-labelled fatty acids which are much of importance in comparison to physiological levels, being in the micromolar range (µM) as compared with milli molar (mM) as for UCP1 previously. In appropriate examples, different fatty acids are used and compared with competitors like alkylsulfonates also emphasizing the function of the protein. And the studies with the effect of nucleotides inhibition demonstrate that there exists a putative binding site for fatty acids. Much significance lies in demonstration with the spin-labelled-ATP studies where competition of ATP to the protein bound to spin-labelled ATP explains about the inhibition effect of nucleotides on the UCP2. So the present study applies different methods for the functional characterization of UCP2. The studies of natural fatty acids and alkylsulfonates with UCP2 bound to spin-labelled fatty acid, and study of nucleotide inhibition on UCP2 are closely related and give the much awaited answer to the question of functional similarities between UCP1 and UCP2. This supports the discussion of many groups which predict the functional similarity between these two proteins based upon sequence homology. Also many attempts have been reported in literature to explain the physiological functional relevance where by this present study can also be added to as we now suppose from the present conclusions of our experiments.
In this paper a known orthonormal system of time- and space-dependent functions, that were derived out of the Cauchy-Navier equation for elastodynamic phenomena, is used to construct reproducing kernel Hilbert spaces. After choosing one of the spaces the corresponding kernel is used to define a function system that serves as a basis for a spline space. We show that under certain conditions there exists a unique interpolating or approximating, respectively, spline in this space with respect to given samples of an unknown function. The name "spline" here refers to its property of minimising a norm among all interpolating functions. Moreover, a convergence theorem and an error estimate relative to the point grid density are derived. As numerical example we investigate the propagation of seismic waves.
Mit zunehmender Integration von immermehr Funktionalität in zukünftigen SoC-Designs erhöht sich die Bedeutung der funktionalen Verifikation auf der Blockebene. Nur Blockentwürfe mit extrem niedriger Fehlerrate erlauben eine schnelle Integration in einen SoC-Entwurf. Diese hohen Qualitätsansprüche können durch simulationsbasierte Verifikation nicht erreicht werden. Aus diesem Grund rücken Methoden zur formalen Entwurfsverifikation in den Fokus. Auf der Blockebene hat sich die Eigenschaftsprüfung basierend auf dem iterativen Schaltungsmodell als erfolgreiche Technologie herausgestellt. Trotzdem gibt es immer noch einige Design-Klassen, die für BIMC schwer zu handhaben sind. Hierzu gehören Schaltungen mit hoher sequentieller Tiefe sowie arithmetische Blöcke. Die fortlaufende Verbesserung der verwendeten Beweismethoden, z.B. der verwendeten SAT-Solver, wird der zunehmenden Komplexität immer größer werdender Blöcke alleine nicht gewachsen sein. Aus diesem Grund zeigt diese Arbeit auf, wie bereits in der Problemaufbereitung des Front-Ends eines Werkzeugs zur formalen Verifikation Maßnahmen zur Vereinfachung der entstehenden Beweisprobleme ergriffen werden können. In den beiden angesprochenen Problemfeldern werden dazu exemplarisch geeignete Freiheitsgrade bei der Modellgenerierung im Front-End identifiziert und zur Vereinfachung der Beweisaufgaben für das Back-End ausgenutzt.
Die Transportproteine AtER-ANT1 und OsER-ANT1 sind Vertreter der MCF (mitochondrial carrier family) und werden phylogenetisch in die Gruppe der klassischen mitochondrialen ADP/ATP-Transporter (AACs) eingegliedert. Unter Verwendung des heterologen E. coli-Expressionssystems konnte gezeigt werden, dass es sich bei AtER-ANT1 und OsER-ANT1 um spezifische ADP/ATP-Transporter handelt. Der Transport dieser Substrate verläuft in Form eines Gegentausches, entsprechend den klassischen mitochondrialen AACs. Sowohl AtER-ANT1 als auch OsER-ANT1 sind hochgradig insensitiv gegen die Hemmstoffe BKA und CAT der klassischen mitochondrialen AACs. Dagegen konnte für diese Transportproteine NEM (N-ethylmaleimid) als spezifischer Hemmstoff identifiziert werden, der interessanterweise auch eine inhibierende Wirkung auf den Nukleotidtransport ber die ER-Membran besitzt. Der Transport der klassischen mitochondrialen AACs wird dagegen nicht beeinflusst. Untersuchungen zur subzellulären Lokalisierung von AtER-ANT1 mittels GFP-Fusion ergaben, dass dieses Protein in der Membran des Endoplasmatischen Retikulums lokalisiert ist. Weiter wurde eine Methode etabliert, die Lokalisierung des AtER-ANT1 in planta zu untersuchen. Durch Saccharosedichtegradienten-Zentrifugation in Abhängigkeit der An- bzw. Abwesenheit von Mg2+ konnte die Lokalisierung des AtER-ANT1 im ER bestätigt werden. Weiter konnte mit diesem Gradienten auch eine Kolokalisierung des AtER-ANT1 mit dem ER-spezifischen Marker-Protein Calretikulin gezeigt werden. Eine Analyse der gewebespezifischen Expression offenbarte eine starke Expression des AtERANT1 in Geweben, die eine hohe ER-Aktivität aufweisen, u.a. die Wurzelspitze, die Leitgefäße, die Samen und die Pollengewebe. Desweiteren wurde die physiologische Rolle des AtER-ANT1 anhand von zwei unabhängigen Knockout-Linien bezüglich dieses Gens umfassend untersucht. Es konnte dabei gezeigt werden, dass der dramatisch im Wachstum retardierte Phänotyp der Knockout-Pflanzen unter ambienten Wachstumsbedingungen mit einer enormen Veränderung des gesamten Stoffwechsels einhergeht. Detaillierte Metabolit-Analysen zeigten außerdem, dass die Deletion des AtER-ANT1 Gens besonders starke pleiotrope Effekte auf den Photorespirationsstoffwechsel hat. Diese Beobachtungen wurden durch Analysen der Knockout-Pflanzen unter hoch CO2-Bedingungen bestätigt. Die hoch CO2-Bedingungen bewirkten sowohl eine Verbesserung des gesamten Stoffwechsels als auch der morphologischen phänotypischen Erscheinung der Knockout-Pflanzen. Der zweite Teil der vorliegenden Arbeit beschäftigte sich mit der Redundanz verschiedener AACIsoformen in Arabidopsis thaliana, die auf biochemischer Ebene sehr ähnliche Eigenschaften besitzen. Knockout-Analysen zeigten, dass AtAAC1 für den pflanzlichen Stoffwechsel essentiell ist, da das Ausschalten eine Letalität der Pflanzen hervorruft. Für AtAAC2 und AtAAC3 kann dahingegen eine physiologische Bedeutung in späten Entwicklungsstadien der Pflanze angenommen werden. Neben der Charakterisierung pflanzlicher Transportproteine wurde zudem ein mitosomaler Adeninnukleotid-Transporter aus dem Protisten Entamoeba histolytica biochemisch unter Verwendung des heterologen E. coli-Expressionssystems charakterisiert. Die Analysen ergaben, dass es sich bei diesem Adeninnukleotid-Transporter um ein zu den klassischen mitochondrialen AACs alternatives Transportprotein handelt, das sich sowohl im Substratspektrum als auch in Inhibitorstudien von bereits charakterisierten mitochondrialen und hydrogenosomalen ATP/ADP-Transportern unterscheidet. Mitosomen benötigen Energie u.a. zur Bildung von Fe-S-Clustern. Da diese Organellform im Gegensatz zu Mitochondrien und Hydrogenosomen nicht zu einer ATP-Synthese fähig sind, indizieren die ermittelten Daten eine physiologische Funktion dieses Proteins in der Versorgung der Mitosomen mit ATP.
Die vorliegende Arbeit beschäftigt sich mit der Löslichkeit von Gasen in chemisch reagierenden wässrigen Lösungen. Dabei werden zwei Beispiele näher betrachtet: Die simultane Löslichkeit von Ammoniak und Schwefeldioxid in wässrigen salzhaltigen Lösungen und die Löslichkeit von Kohlendioxid in wässrigen Lösungen von N-Methyldiethanolamin (MDEA), Piperazin und deren Mischungen. Die Phasengleichgewichte in solchen Systemen werden wesentlich durch die in der flüssigen Phase auftretenden chemischen Reaktionen und die dabei entstehenden ionischen Spezies beeinflusst. Die Lösungen weisen auch aufgrund der weitreichenden Coulombschen Wechselwirkungen ein stark reales Verhalten auf. Die Untersuchungen der vorliegenden Arbeit bauen auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Technischen Universität Kaiserslautern auf. In diesen Arbeiten wurden u.a. Modelle zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes in den Systemen NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser und CO2+MDEA+Piperazin+Wasser entwickelt. Diese Modelle wurden hier weiterentwickelt und verbessert. Beim System Ammoniak+Schwefeldioxid+Wasser wurde mittels ATR-IR-spektroskopischer Untersuchungen festgestellt, dass Pyrosulfit in den wässrigen Lösungen in nicht zu vernachlässigbarem Umfang auftritt. Deshalb muss die chemische Reaktion der Pyrosulfitbildung berücksichtigt werden, wenn die thermodynamischen Eigenschaften solcher Lösungen zuverlässig beschrieben werden sollen. Die chemische Gleichgewichtskonstante für die Pyrosulfitbildungsreaktion wurde aus IR-spektroskopischen und kalorimetrischen Untersuchungen des Systems Na2S2O5+H2O ermittelt. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes und der Enthalpieänderung beim Verdünnen des Systems NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser wurde zur Berücksichtigung sowohl der Pyrosulfitbildungsreaktion als auch der neuen experimentellen Daten für die Verdünnungsenthalpie von Meyer [70] erweitert. Das Modell ermöglicht Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht und Enthalpieänderungen der quaternären Systeme. Während die Gaslöslichkeit im System NH3+SO2+Na2SO4+Wasser zuverlässig beschrieben wird, sind die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems NH3+SO2+(NH4)2SO4+Wasser nicht so gut. Ein Grund dafür mag darin liegen, dass bei den Untersuchungen an diesem System die Ionenstärke deutlich größer war (I=20 molal) als bei den Untersuchungen am System NH3+SO2+Na2SO4+Wasser (I=10 molal). Die Verdünnungsenthalpie wird für beide quaternäre Systeme gut vorhergesagt. Mithilfe NMR-spektroskopischer Untersuchungen am System CO2+Piperazin+D2O wurden die chemischen Gleichgewichtskonstanten der drei in diesem System auftretenden Carbamatbildungsreaktionen ermittelt. Außerdem wurde der Partialdruck von Kohlendioxid in den wässrigen Lösungen von MDEA oder Piperazin bzw. deren Mischungen bei 313 und 353 K gemessen. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes wurde unter Einbeziehung der neuen experimentellen Daten überarbeitet. Das überarbeitete Modell ermöglicht die zuverlässige Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes der Systeme CO2+MDEA+Wasser und CO2+Piperazin+Wasser sowohl im Hochdruck- als auch im Niederdruckbereich. Das Modell ermöglicht auch Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems CO2+MDEA+Piperazin+Wasser. Die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht sind nicht so gut. Der Grund liegt vermutlich in der Vernachlässigung der Wechselwirkungen zwischen Piperazin- und MDEA- Spezies.
Tropical geometry is a rather new field of algebraic geometry. The main idea is to replace algebraic varieties by certain piece-wise linear objects in R^n, which can be studied with the aid of combinatorics. There is hope that many algebraically difficult operations become easier in the tropical setting, as the structure of the objects seems to be simpler. In particular, tropical geometry shows promise for application in enumerative geometry. Enumerative geometry deals with the counting of geometric objects that are determined by certain incidence conditions. Until around 1990, not many enumerative questions had been answered and there was not much prospect of solving more. But then Kontsevich introduced the moduli space of stable maps which turned out to be a very useful concept for the study of enumerative geometry. A well-known problem of enumerative geometry is to determine the numbers N_cplx(d,g) of complex genus g plane curves of degree d passing through 3d+g-1 points in general position. Mikhalkin has defined the analogous number N_trop(d,g) for tropical curves and shown that these two numbers coincide (Mikhalkin's Correspondence Theorem). Tropical geometry supplies many new ideas and concepts that could be helpful to answer enumerative problems. However, as a rather new field, tropical geometry has to be studied more thoroughly. This thesis is concerned with the ``translation'' of well-known facts of enumerative geometry to tropical geometry. More precisely, the main results of this thesis are: - a tropical proof of the invariance of N_trop(d,g) of the position of the 3d+g-1 points, - a tropical proof for Kontsevich's recursive formula to compute N_trop(d,0) and - a tropical proof of Caporaso's and Harris' algorithm to compute N_trop(d,g). All results were derived in joint work with my advisor Andreas Gathmann. (Note that tropical research is not restricted to the translation of classically well-known facts, there are actually new results shown by means of tropical geometry that have not been known before. For example, Mikhalkin gave a tropical algorithm to compute the Welschinger invariant for real curves. This shows that tropical geometry can indeed be a tool for a better understanding of classical geometry.)
The study provides insights into the dynamic processes of vascular epiphyte vegetation in two host tree species of lowland forest in Panama. Further, a novel approach is presented to examine the possible role of host tree identity in the structuring of vascular epiphyte communities: For three locally common host tree species (Socratea exorrhiza, Marila laxiflora, Perebea xanthochyma) we created null models of the expected epiphyte assemblages assuming that epiphyte colonization reflected random distribution of epiphytes in the forest. In all three tree species, abundances of the majority of epiphyte species (69 – 81 %) were indistinguishable from random, while the remaining species were about equally over- or underrepresented compared to their occurrence in the entire forest plot. Permutations based on the number of colonized trees (reflecting observed spatial patchiness) yielded similar results. Finally, a Canonical Correspondence Analysis also confirmed host-specific differences in epiphyte assemblages. In spite of pronounced preferences of some epiphytes for particular host trees, no epiphyte species was restricted to a single host. We conclude that the epiphytes on a given tree species are not simply a random sample of the local species pool, but there are no indications of host specificity either. To determine the qualitative and quantitative long-term changes in the vascular epiphyte assemblage of the host tree Socratea exorrhiza, in the lowland forest of the San Lorenzo Crane Plot, we followed the fate of the vascular epiphyte assemblage on 99 individuals of this palm species, in three censuses over the course of five years. The composition of the epiphyte assemblage changed little during the course of the study. While the similarity of epiphyte vegetation decreased on single palm individuals through time, the similarity analyzed over all palms increased. Even well-established epiphyte individuals experienced high mortality with only 46 % of the originally mapped individuals surviving the following five years. We found a positive correlation between host tree size and epiphyte richness and detected higher colonization rates of epiphytes per surface area on larger trees. Epiphyte assemblages on single Socratea exorrhiza trees were highly dynamic while the overall composition of the epiphyte vegetation on the host tree species in the study plot was rather stable. We suggest that higher recruitment rates due to localized seed dispersal by already established epiphytes on larger palms promote the colonization of epiphytes on larger palms. Given the known growth rates and mortality rates of the host tree species, the maximum time available for colonization and reproduction of epiphytes on a given Socratea exorrhiza tree is estimated to be about 60 years. Changes in the epiphyte vegetation of c. 1000 individuals of the host tree species Annona glabra at Barro Colorado Island over the course of eight year were documented by means of repeated censuses. Considerable increase in the abundance of the dominating epiphyte species and ongoing colonization of the host tree species suggests that the epiphyte vegetation has not reached a steady state in the maximal 80 years since the establishment of the host tree. Epiphyte species composition as a whole was rather stable. We disentangled the relationship between epiphyte colonization and tree size/available time for colonization with the finding that tree size explained only a low proportion of colonization while other factors like connectivity to dispersal source and time explain may explain a larger part. Epiphyte populations are patchily distributed and examined species exhibit properties of a metapopulation with asynchronous local population growth, high local population turnover, a positive relationship between regional occurrence and patch population size, and negatively correlated relationship between extinction and patch occupancy. The documented metapopulation processes highlight the importance of not colonized suitable habitat for the conservation of epiphytes.