Refine
Year of publication
- 2009 (76) (remove)
Document Type
- Doctoral Thesis (76) (remove)
Has Fulltext
- yes (76)
Keywords
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
- Visualisierung (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Mathematik (16)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
In dieser Arbeit wurden für die Moleküle B3, B3- und C3+ mit dem MR-CI-Verfahren hochgenaue Potentialfächen für ein oder mehrere elektronische Zustände berechnet. Alle drei Moleküle besitzen elektronisch entartete Jahn-Teller-Zustände. Im Gegesatz zu den früher untersuchten Alkalitrimeren liegt hier die konische Durchschneidung so tief, dass sie bei der Schwingungsanalyse berücksichtigt werden muss und daher eine diabatische Behandlung erfordlich ist. Für den X<-1E'-Übergang im B3 konnte die Übereinstimmung des berechneten Spektrum mit dem gemessenen durch den Einsatz des größeren Basissatzes VQZ, im Vergleich zu den bereits veröffentlichten Ergebnissen, nochmals deutlich verbessert werden. Für den berechneten 00-Übergang ist im gemessen Spektrum kein Übergang zu beobachten. Neben der guten Übereinstimmung der anderen Peaks wird diese These auch die T00 Energie gestützt. Die einfache Progression des experimentellen X<-2E'-Übergangs im B3 konnte ebenfalls in gute Übereinstimmung berechnet werden. Die einfache und kurze Progression ergibt sich aus der Tatsache, dass praktisch keine Jahn-Teller-Verzerrung vorhanden ist, und beide Teilflächen fast deckungsgleich sind. Für den X<-1E'-Übergang des B3- wurde ebenfalls ein Spektrum simuliert, allerdings findet sich keine Übereinstimmung zu den gemessenen Übergängen. Da die beobachtete Elektronenablöseenergie nur unwesentlich oberhalb der Elektronenanregungsenergie liegt und im Hinblick auf die starken X<-2E'-Absorptionen des B3 in der gleichen Messung bleibt offen, welche Strukturn im Experiment zu sehen sind. Zum C3+ wurde eine Schwingungsanalyse für den E'-Grundzustand durchgeführt. Experimentelle Vergleichswerte fehlen in diesem Fall. Allerdings konnte die bereits seit mehr als einem Jahrzehnt diskutierte Höhe der Isomerisierungsenergie zwischen gewinkelter und linearer Geometrie sehr genau, auf nun 6.8 +- 0.5 kcal/mol festgelegt werden. Bei vibronischer Betrachtung unter Einbeziehung der Nullpunktsenergien reduziert sich diese auf bzw. 4.8 kcal/mol. Ausserdem wurde die Existenz eines linearen Minimums bestätigt. C3+ liefert auch ein sehr schönes Beispiel für die Verschränkung verschiedener lokaler und globaler Schwingungszustände, was zu einer irregulären Abfolge von Zuständen führt. Für die Reaktivität des C3+ wurde beobachtet, dass es unterhalb von 50 K die höchste Reaktivität besitzt und darüber deutlich abnimmt. Auf dieses Verhalten liefert die Schwingungsanalyse keine Antwort, da bis selbst zur Raumtemperatur keine thermische Schwingungsanregung statt finden kann.
Adaptive Extraction and Representation of Geometric Structures from Unorganized 3D Point Sets
(2009)
The primary emphasis of this thesis concerns the extraction and representation of intrinsic properties of three-dimensional (3D) unorganized point clouds. The points establishing a point cloud as it mainly emerges from LiDaR (Light Detection and Ranging) scan devices or by reconstruction from two-dimensional (2D) image series represent discrete samples of real world objects. Depending on the type of scenery the data is generated from the resulting point cloud may exhibit a variety of different structures. Especially, in the case of environmental LiDaR scans the complexity of the corresponding point clouds is relatively high. Hence, finding new techniques allowing the efficient extraction and representation of the underlying structural entities becomes an important research issue of recent interest. This thesis introduces new methods regarding the extraction and visualization of structural features like surfaces and curves (e.g. ridge-lines, creases) from 3D (environmental) point clouds. One main part concerns the extraction of curve-like features from environmental point data sets. It provides a new method supporting a stable feature extraction by incorporating a probability-based point classification scheme that characterizes individual points regarding their affiliation to surface-, curve- and volume-like structures. Another part is concerned with the surface reconstruction from (environmental) point clouds exhibiting objects that are more or less complex. A new method providing multi-resolutional surface representations from regular point clouds is discussed. Following the applied principles of this approach a volumetric surface reconstruction method based on the proposed classification scheme is introduced. It allows the reconstruction of surfaces from highly unstructured and noisy point data sets. Furthermore, contributions in the field of reconstructing 3D point clouds from 2D image series are provided. In addition, a discussion concerning the most important properties of (environmental) point clouds with respect to feature extraction is presented.
Die vorliegende Arbeit befasst sich mit den Anforderungen und der Programmarchitektur moderner objektorientierter 3D-CAD-Programme im Bauwesen. Die digitale Revolution des letzten Jahrzehnts hatte auch Auswirkungen auf die Bauplanung. Das Zeichenbrett wurde aus den Architektur- und Ingenieurbüros verbannt und die Arbeit wird in allen Bereichen durch den Computer bestimmt. In diesem Zeitraum setzten sich viele Innovationen im Bereich der CAD-Anwendungen durch. Heutige moderne CAD-Programme sind objektorientiert, verfügen über eine graphische Oberfläche und besitzen ein dreidimensionales Datenmodell. Die innovativen 3D-Datenmodelle der CAD-Programme ermöglichen nicht nur die Erstellung von Zeichnungen, sondern auch die Verwendung des Datenmodells für die Gebäudeausrüstung, Tragwerksplanung, Ausschreibung und Abrechnung des Bauwerkes. Die Programme besitzen eine mehrschichtige Architektur, welche die Möglichkeit der einfachen Änderung und Erweiterung der Anwendung bietet. Ziel dieser Arbeit ist die Beschreibung der Programmarchitektur und der Anforderungen an die Funktionalität, die Oberfläche und das Datenmodell moderner, objektorientierter 3D-CAD-Systeme für die Verwendung im Bauwesen. Für die Demonstration einer modernen Softwarearchitektur wurde das CAD-Programm GoCAD entwickelt, in welchem verschiedene moderne Architekturmuster exemplarisch implementiert wurden.
Photonic crystals are inhomogeneous dielectric media with periodic variation of the refractive index. A photonic crystal gives us new tools for the manipulation of photons and thus has received great interests in a variety of fields. Photonic crystals are expected to be used in novel optical devices such as thresholdless laser diodes, single-mode light emitting diodes, small waveguides with low-loss sharp bends, small prisms, and small integrated optical circuits. They can be operated in some aspects as "left handed materials" which are capable of focusing transmitted waves into a sub-wavelength spot due to negative refraction. The thesis is focused on the applications of photonic crystals in communications and optical imaging: • Photonic crystal structures for potential dispersion management in optical telecommunication systems • 2D non-uniform photonic crystal waveguides with a square lattice for wide-angle beam refocusing using negative refraction • 2D non-uniform photonic crystal slabs with triangular lattice for all-angle beam refocusing • Compact phase-shifted band-pass transmission filter based on photonic crystals
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum
Stand der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls
weiter oder neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen
einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum Stand
der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls weiter oder
neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
The scarcity of raw materials such as oil and natural gas has led the necessity to design
more and more energy-efficient constructions. This applies particularly to the
automotive industry and its component suppliers. There are two possibilities to meet
this obligation. On the one hand, one can develop new forms of drive concepts, e.g.
hybrid or electric motors. On the other hand, the reduction of weight can significantly
diminish the consumption of fuel. Especially in the aerospace industry every gram
less counts. To put this requirement into action traditional materials, e.g. steel and
cast iron, are replaced by new lightweight materials. This can be miscellaneous light
alloys or one of several fibre reinforced plastics. After the production of plastic devices
such as display panels in cars, more and more security-relevant plastic devices
appeared.
This report deals with one important material within the group of glass fibre reinforced
thermoplastics i.e. long-glass-fibre reinforced polypropylene. Polypropylene with approximately
14% of the worldwide usage of plastics is very cheap and can support
companies in cost-saving. This aspect becomes more and more important considering
the expansion of global business competition, especially in the automotive industry.
With approximately 50%, glass-fibre reinforced polypropylene is the dominant
material in the group of glass fibre reinforced thermoplastics. To counteract the demand
of shorter development times in the design process the automotive industry
and its suppliers count on simulation tools such as the finite-element (FE)-simulation.
For this reason the quality of the mathematical material models has to be improved
and its parameters have to be identified. After choosing a suitable material model and
identifying the corresponding parameters, a verification of both has to follow to assure
their reliability. This is typically carried out by comparing measurement with simulation
data at distinctive points of the considered geometry. With advanced performance
of computer hardware and measurement systems it is possible to measure
specimens and more complex geometries at high strain rates by means of high
speed cameras and to conduct FE-Simulations in a justifiable time with sufficient accuracy Thus the following chapter firstly discusses the basics of continuum mechanics with
its well-established mathematical formulations for anisotropic elasticity, plasticity and
viscoelasticity and the corresponding rheological models. In chapter three the properties
of the matrix material polypropylene are presented with more precise consideration
of the strength and failure of the composite material under tensile load depending
on the fibre length and volume. Thereafter, the geometry and dimensions of the
specimens for tensile and shear tests are presented, together with a test sample
which is used as an example for the design of automotive structures via coactions of
measuring and simulation techniques. Chapter four deals with the state of the art in
high speed testing, the experimental setup and its mode of operation as well as the
explanation of different kinds of evaluation software which is used in this work.
Here, the main focus is aimed at the determination and interpretation of displacement
and strain fields with the grey scale method. The following paragraph describes different
initial examinations of specimens and the test sample. In this context, exposures
of fracture surfaces and polished micrograph sections were examined by
means of optical and scanning electron microscopy. In this way discontinuities and
cracks caused by the injection moulding process are detected. The quality of the
specimens and the test sample and their suitability for systematic material testing are
finally evaluated by means of thermoelastic stress analysis and a laser extensometer.
With these systems a direct optical strain measurement can be accomplished to
screen the homogeneity of specimens and parts.
In chapter six an approach for an experimental method is presented for measuring
displacement fields of the surface of specimens of long-glass-fibre reinforced polypropylene
at high strain rate. A strategy is introduced for reasonable data evaluation
to characterise stress strain behaviour under tensile and shear load. Specimens of
long-glass-fibre polypropylene with a fibre volume content of 30% and 40% respectively,
are tested and analysed. Anisotropy of the material is considered by testing
specimens with fibres oriented either in the direction of the tensile load or perpendicular
to it. The resulting stress strain curves for the two main directions are used as
basis for identifying material properties for an orthotropic constitutive law. Hence the
elastic parameters that are collected from stress strain curves are the axial modulus
in fibre direction and perpendicular to it, the shear modulus in the fibre plane and the
matrix plane and finally the lateral contraction in fibre direction, at right angle to it and
in the matrix plane. After having collected the parameters for elasticity, the HILLcriterion
is utilised to describe orthotropic plasticity. The different stresses at the
yielding points related to the designated directions are used to compute the parameters
of the HILL-criterion. Finally, in order to describe the strain-rate dependent behaviour
of the material, a one dimensional rheological model with four relaxation
terms is utilized to represent the set of curves resulting from tests of specimens at five different strain rates. The viscoelastic parameters are identified by means of a
least square approach using the Levenberg-Marquardt algorithm.
In chapter eight, the elastic-plastic orthotropic material model is verified for low strain
rates. A specimen with a hole in its middle is exposed to a tensile load until break and
simultaneously measured by means of a CCD-camera to obtain the two-dimensional
displacement field on its surface. Comparison of the experimental displacements with
the displacements of a finite-element model at the same points shows the quality of
the material model and its parameters. Finally, in chapter nine, the results of a filling
simulation of the test sample is shown and again a comparison of measured and
simulated data is presented. This we describe the potential and the limits of current
filling-simulation-software in conjunction with a popular finite-element-tool like
ABAQUS. To conclude appropriate mathematical characterisation and reliable parameters
of long-glass-fibre reinforced polypropylene require stringent experimental
and theoretical characterisation. Complete specification of such a complex material is still very time-consuming and prone to mistakes during the whole sequence of operations.
For this reason it is very important to improve the reliability of every single step
in product engineering. Hence the performance of a mathematical material model is
not only dependent on its formulation but also and particularly on the quality of its
material parameters whether they are determined directly from material tests or by
means of special optimization software. The best optimization tools can only optimize
material parameters reliably if the underlying experimental data is just as reliable.
Photochemical reactions are of great interest due to their importance in chemical and biological processes. Highly sensitive IR/UV double and triple resonance spectroscopy in molecular beam experiments in combination with ab initio and DFT calculations yields information on reaction coordinates and Intersystem Crossing (ISC) processes subsequent to photoexcitation. In general, molecular beam experiments enable the investigation of isolated, cold molecules without any influence of the environment. Furthermore, small aggregates can be analyzed in a supersonic jet by gradually adding solvent molecules like water. Conclusions concerning the interactions in solution can be derived by investigating and fully understanding small systems with a defined amount of solvent molecules. In this work the first applications of combined IR/UV spectroscopy on reactive isolated molecules and triplet states in molecular beams without using any messenger molecules are presented. Special focus was on excited state proton transfer reactions, which can also be described as keto enol tautomerisms. Various molecules such as 3-hydroxyflavone, 2-(2-naphthyl)-3-hydroxychromone and 2,5-dihydroxybenzoic acid have been investigated with regard to this question. In the case of 3-hydroxyflavone and 2-(2-naphthyl)-3-hydroxychromone, the IR spectra have been recorded subsequent to an excited state proton transfer. Furthermore the dihydrate of 3-hydroxyflavone has been analyzed concerning a possible proton transfer in the excited state: The proton transfer reaction along the water molecules (proton wire) has to be induced by raising the excitation energy. However, photoinduced reactions involve not only singlet but also triplet states. As an archetype molecule xanthone has been analysed. After excitation to the S2 state, ISC occurs into the triplet manifold leading to a population of the T1 state. The IR spectrum of the T1 state has been recorded for the first time using the UV/IR/UV technique without using any messenger molecules. Altogether it is shown that IR/UV double and triple resonance techniques are suitable tools to analyze reaction coordinates of photochemical processes.
I) Die Untersuchungen zum vakuolären Malat-Carrier AtTDT unterstützen die Annahme, dass seine Aktivität in den Schließzellen zum Öffnen und Schließen der Stomata beiträgt. Zudem erhöht wahrscheinlich die Aktivität von TDT in den Mesophyllzellen die Stomata-Dichte und den Stomata-Index. Im Rahmen einer osmotischen Anpassung vermittelt der Transporter eine Malat-Akkumulation, die in den TDT-Knockout-Mutanten beeinträchtigt ist und durch erhöhte Citrat-Gehalte kompensiert wird. Darüber hinaus beschleunigt TDT unter Kurztag-Bedingungen den Eintritt in die generative Phase. Eine Funktion von TDT in der Salztoleranz kann nach metabolischen und phänotypischen Analysen ausgeschlossen werden. II) Die tonoplastidären Monosaccharid-Transporter regulieren bei Kälte in Blättern nicht nur die Monosaccharid-Gehalte, sondern wirken auch positiv auf Photosynthese und Stärkegehalte. Das Ausschalten der TMT-Gene führt unter den gewählten Kältebedingungen zu einer erhöhten Synthese von Saccharose und zu einer gesteigerten Respirationsrate. Insbesondere unter Wassermangel wirkt sich die Aktivität der tonoplastidären Monosaccharid-Transporter positiv auf die Keimungsrate aus. III) Die Bestimmung von Zuckergehalten in Blättern indiziert, dass die tonoplastidären Transportproteine AtERD6.7 und BvIMP Glukose aus der Vakuole transportieren, während AtERD6.5 womöglich Fruktose aus der Vakuole transportiert. Als Transportmechanismus wird aufgrund der Homologie zu den GLUT-Proteinen eine erleichterte Diffusion angenommen. Die Aktivität der Carrier scheint insbesondere nach Kältephasen von Bedeutung zu sein, wenn vakuolär gespeicherte Zucker mobilisiert werden. ERD6.7 fördert gemäß den durchgeführten Keimungstests die Samen-Dormanz.
The manuscript divides in 7 chapters. Chapter 2 briefly introduces the reader to the elementary measures of classical continuum mechanics and thus allows to familiarize with the employed notation. Furthermore, deeper insight of the proposed first-order computational homogenization strategy is presented. Based on the need for a discrete representative volume element (rve), Chapter 3 focuses on a proper rve generation algorithm. Therein, the algorithm itself is described in detail. Additionally, we introduce the concept of periodicity. This chapter finalizes by granting multiple representative examples. A potential based soft particle contact method, used for the computations on the microscale level, is defined in Chapter 4. Included are a description of the used discrete element method (dem) as well as the applied macroscopically driven Dirichlet boundary conditions. The chapter closes with the proposition of a proper solution algorithm as well as illustrative representative examples. Homogenization of the discrete microscopic quantities is discussed in Chapter 5. Therein, the focus is on the upscaling of the aggregate energy as well as on the derivation of related macroscopic stress measures. Necessary quantities for coupling between a standard finite element method and the proposed discrete microscale are presented in Chapter 6. Therein, we tend to the derivation of the macroscopic tangent, necessary for the inclusion into the standard finite element programs. Chapter 7 focuses on the incorporation of inter-particle friction. We select to derive a variational based formulation of inter-particle friction forces, founded on a proposed reduced incremental potential. This contribution is closed by providing a discussion as well as an outlook.
This PhD thesis aims at finding a global robot navigation strategy for rugged off-road terrain which is robust against inaccurate self-localization, scalable to large environments, but also cost-efficient, e.g. able to generate navigation paths which optimize a cost measure closely related to terrain traversability. In order to meet this goal, aspects of both metrical and topological navigation techniques are combined. A primarily topological map is extended with the previously lacking capability of cost-efficient path planning and map extension. Further innovations include a multi-dimensional cost measure for topological edges, a method to learn these costs based on live feedback from the robot and a set of extrapolation methods to predict the traversability costs for untraversed edges. The thesis presents two sophisticated new image analysis techniques to optimize cost prediction based on the shape and appearance of surrounding terrain. Experimental results indicate that the proposed global navigation system is indeed able to perform cost-efficient, large scale path planning. At the same time, the need to maintain a fine-grained, global world model which would reduce the scalability of the approach is avoided.
Pflasterflächen bilden heute einen hohen Anteil der befestigten Siedlungsfläche. Dabei kommen diverse Pflastersysteme mit ganz unterschiedlichem VErsickerungsvermögen zum Einsatz. Die Quantifizierung des Abflussbeitrages der unterschiedlichen Befestigungsarten ist jedoch bislang mit erheblichen Unsicherheiten behaftet, da fundierte und ausreichend differenzierte Kennwerte zum Versickerungsvermögen fehlen. Im Rahmen der vorliegenden Forschungsarbeit wurde das Versickerungsvermögen gängiger Pflasterbauweisen systematisch untersucht. Den Kern der Untersuchung bilden mehrere hundert Messungen an Bestandflächen sowie im Labor. Im Zuge der Untersuchungen konnte eine Vielzahl gewinnbringender und teilweise neuer Erkenntnisse zur Charakterisierung und Quantifizierung des Versickerungsphänomens auf durchlässig befestigten Siedlungsflächen gewonnen und zur Ableitung substanzieller Anwendungsempfehlungen genutzt werden. Mit den erarbeiteten Versickerungskennwerten wird eine deutlich verbesserte und zugleich durch umfangreiche Messungen und Analysen abgesicherte Grundlage zur quantitativen Bewertung des Versickerungsvermögens bereit gestellt. Die Kennwerte tragen hierbei dem Einfluss wesentlicher Randbedingungen wie dem Eintrag von Feinpartikeln in den Fugenraum, der Niederschlagsintensität, dem Gefälle, der Liegezeit sowie der Nutzung Rechnung. Vielfach konnten anhand der Messwertanalysen Erkenntnisse früherer Untersuchungen bestätigt und mit messtechnisch abgesicherten Zahlenwerten untermauert werden. Ferner konnten für zahlreiche Belagsarten Häufigkeitsverteilungen des Versickerungsvermögens generiert werden, mit denen der ausgeprägte stochastische Charakter des Versickerungsverhaltens, der sich in einer enormen Variabilität des Versickerungsvermögens äußert, erstmals quantitativ umschrieben werden kann. Darüber hinaus wurde ein erster Schritt zu einer verbesserten urbanhydrologischen Erfassung des Abflussverhaltens versickerungsfähiger Siedlungsflächen getätigt. Neben der Ableitung von bauartspezifischen Abflussbeiwerten und Parameterempfehlungen zur Niederschlagsabflusssimulation wurde ein urbanhydrologischer Modellbaustein konzipiert. Die Infiltrationsprozesse werden hierbei über eine modifizierten Ansatz nach Horton/Paulsen abgebildet, bei dem die Berechnungsflächen in Teilflächen diskretisiert und mit nach Auftretenshäufigkeiten gestaffelten Parameterwerten verbunden werden. Der Ansatz hat sich als äußerst effektiv erwiesen und wird daher ausdrücklich zur weiteren programmtechnischen Umsetzung empfohlen.
Der Schwerpunkt dieser Arbeit liegt auf der präzisen Beschreibung von geschweißten einschnittigen Überlappverbindungen aus Metall / Faser-Kunststoff-Verbunden unter mechanischer Belastung. Durch Synergieeffekte von optischen und thermischen Messverfahren kann das Deformations- und Dehnungsverhalten verschiedenste Probeformen charakterisiert werden. Zunächst wird ein kurzer Überblick über die genutzten optischen und thermischen Messverfahren gegeben. Vor- und Nachteile der Verfahren werden hierbei detailliert erläutert. Nachfolgend geraten Ultraschallgeschweißte einschnittige Überlappverbindungen in den Fokus der Betrachtungen. Dabei kommen statische, dynamische und schlagartige Beanspruchungen zum Einsatz. Das Deformations- und Dehnungsverhalten wird jeweils mit einem geeigneten Messverfahren beschrieben. Vor- und Nachteile der einzelnen Messverfahren werden, für eine spätere Nutzung von Synergieeffekten, durch Messungen an demselben Probekörper deutlich herausgearbeitet. Im letzten Kapitel der Arbeit wird eine Finite Element Simulation der einschnittigen Überlappverbindungen erstellt. Es wird gezeigt, dass unter zu Hilfenahme der ortsaufgelösten Deformations- und Dehnungsmessungen die Genauigkeit der FE - Simulation deutlich verbessert werden kann. Die wichtigsten Ergebnisse dieser Arbeit sind zusammenfassend dargestellt: -Kopplung von Grauwertkorrelation und Scanning Acoustic Microscopy zur Dehnungsdarstellung in optisch nicht zugänglichen Bereichen -Verbesserung der FE-Simulation durch genaueste Dehnungsmessungen -Kopplung verschiedener optischer Systeme zur Dehnungsmessung über mehrere Größenordnungen -Vergleich von Grauwertkorrelation und Elektronischer Speckle Pattern Interferenz -Erklärung des thermoelastischen Spannungssignals mittels FE-Simulation
Der Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Umweltprüfung von Bebauungsplänen
(2009)
Die im Jahr 2001 erlassene europäische SUP-Richtlinie schreibt vor, dass die Umweltauswirkungen bestimmter Pläne und Programme frühzeitig und umfassend ermittelt, beschrieben und bewertet sowie bei der Aufstellung oder Änderung der betreffenden Pläne und Programme berücksichtigt werden müssen. Seit der Implementierung der Vorschriften der SUP-Richtlinie in nationales Recht ist die so genannte Strategische Umweltprüfung auch für bestimmte Pläne und Programme des deutschen Planungssystems verpflichtend durchzuführen. Der Verfahrensschritt der Öffentlichkeitsbeteiligung und die Berücksichtigung der Ergebnisse der Öffentlichkeitsbeteiligung bei der Entscheidungsfindung sind unverzichtbare Bestandteile der Strategischen Umweltprüfung. Nach Erwägungsgrund 15 der SUP-Richtlinie soll durch die Öffentlichkeitsbeteiligung zu einer transparenteren Entscheidungsfindung beigetragen und die Vollständigkeit und Zuverlässigkeit der für die Prüfung bereitgestellten Informationen gewährleistet werden. Danach hat die Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung eine Kontroll- und Informationsfunktion. Bisher gibt es kaum wissenschaftlich fundierte Erkenntnisse darüber, ob die Öffentlichkeitsbeteiligung diese Funktionen erfüllt oder inwieweit sie sich auf die Strategische Umweltprüfung auswirkt. Dieses Wissensdefizit wurde zum Anlass genommen, im Rahmen dieser Arbeit den Einfluss der Öffentlichkeitsbeteiligung auf das Ergebnis der Strategischen Umweltprüfung zu ermitteln. Anhand der beispielhaften Auswertung von 41 Bebauungsplanverfahren 6 verschiedener Kommunen wurde untersucht, ob durch die Öffentlichkeit neue, abwägungsrelevante Umweltinformationen eingebracht werden und diese zu Modifikationen von Untersuchungsrahmen, Umweltbericht und Plan führen. Überdies wurden Einflussfaktoren ermittelt, die sich auf die Öffentlichkeitsbeteiligung und deren Beitrag zur Berücksichtigung von Umweltschutzbelangen im Planungs- und Entscheidungsprozess auswirken können. Die Untersuchung hat gezeigt, dass die Öffentlichkeit sich im Rahmen der untersuchten Bebauungsplanverfahren beteiligt und Stellungnahmen abgegeben hat. Von allen aus der Öffentlichkeit eingebrachten Einwendungen hatten durchschnittlich 37 Prozent Umweltschutzbelange zum Inhalt. Diese können als Einwendungen zur Umweltprüfung betrachtet werden, da diese der Ermittlung des umweltrelevanten Abwägungsmaterials dient. Wichtigstes Ergebnis der Untersuchung ist somit, dass die Informationsfunktion der Öffentlichkeitsbeteiligung im Rahmen der Strategischen Umweltprüfung erfüllt wurde. Privatpersonen wollten v.a. ihre persönlichen Interessen in der Planung vertreten sehen. Von ihnen wurden in erster Linie Umwelteinwendungen zu den Themen Lärm und Verkehr sowie zu Pflanzen eingebracht. Umweltakteure haben sich mit ihren Umwelteinwendungen in erster Linie für Pflanzen eingesetzt. Weiterhin wurden die Naturgüter Wasser und Luft vermehrt angesprochen. Daneben bildeten Einwendungen zu aktuellen umweltpolitischen Themen einen Schwerpunkt der Umwelteinwendungen von Umweltakteuren. Dazu zählten Einwendungen zum Klima, zu erneuerbaren Energien und zur Flächeninanspruchnahme. Auch wichtig war den Umweltakteuren die Eingriffsregelung. Abweichend von den Erwartungen wurden dagegen kaum Einwendungen zu Tieren gemacht. Die Einwendungen der Öffentlichkeit führten zu Modifikationen von Untersuchungsrahmen, Umweltberichten und Plänen. Es wurden insgesamt 15 Prozent der untersuchten Umweltberichte und 44 Prozent der Pläne modifiziert. Neue Informationen, die zu Veränderungen von Untersuchungsrahmen und Umweltberichten geführt haben, wurden in erster Linie von Umweltakteuren eingebracht. Der Großteil der Modifikationen von Plänen ist dagegen auf Umwelteinwendungen von Privatpersonen zurückzuführen. Auch der Anteil der Umwelteinwendungen, der zu Modifikationen von Untersuchungsrahmen und Umweltbericht führte, war bei Umweltakteuren größer als bei Privatpersonen. Der Anteil der Umwelteinwendungen, der zu Modifikationen des Plans führte, war dagegen bei Umweltakteuren und Privatpersonen annährend gleich. Beim Großteil der untersuchten Verfahren waren zur frühzeitigen Beteiligung die Resonanz der Öffentlichkeit und deren Einfluss auf den Plan und die Umweltprüfung größer als zur regulären Beteiligung. Hieraus kann geschlussfolgert werden, dass der Zeitpunkt der Beteiligung ein wichtiger Einflussfaktor ist, der sich auf die Öffentlichkeitsbeteiligung auswirkt.
Proprietary polyurea based thermosets (3P resins) were produced from polymeric methylene diphenylisocyanate (PMDI) and water glass (WG) using a phosphate emulsifier. Polyisocyanates when combined with WG in presence of suitable emulsifier result in very versatile products. WG acts in the resulting polyurea through a special sol-gel route as a cheap precursor of the silicate (xerogel) filler produced in-situ. The particle size and its distribution of the silicate are coarse and very broad, respectively, which impart the mechanical properties of the 3P systems negatively. The research strategy was to achieve initially a fine water in oil type (W/O = WG/PMDI) emulsion by “hybridising” the polyisocyanate with suitable thermosetting resins (such as vinylester (VE), melamine/formaldehyde (MF) or epoxy resin (EP)). As the presently used phosphate emulsifiers may leak into the environment, the research work was directed to find such “reactive” emulsifiers which can be chemically built in into the final polyurea-based thermosets. The progressive elimination of the organic phosphate, following the European Community Regulation on chemicals and their safe use (REACH), was studied and alternative emulsifiers for the PMDI/WG systems were found. The new hybrid systems in which the role of the phosphate emulsifier has been overtaken by suitable resins (VE, EP) or additives (MF) are designed 2P resins. Further, the cure behaviour (DSC, ATR-IR), chemorheology (plate/plate rheometer), morphology (SEM, AFM) and mechanical properties (flexure, fracture mechanics) have been studied accordingly. The property upgrade targeted not only the mechanical performances but also thermal and flame resistance. Therefore, emphasis was made to improve the thermal and fire resistance (e.g. TGA, UL-94 flammability test) of the in-situ filled hybrid resins. Improvements on the fracture mechanical properties as well as in the flexural properties of the novel 3P and 2P hybrids were obtained. This was accompanied in most of the cases by a pronounced reduction of the polysilicate particle size as well as by a finer dispersion. Further the complex reaction kinetics of the reference 3P was studied, and some of the main reactions taking place during the curing process were established. The pot life of the hybrid resins was, in most of the cases, prolonged, which facilitates the posterior processing of such resins. The thermal resistance of the hybrid resins was also enhanced for all the novel hybrids. However, the hybridization strategy (mostly with EP and VE) did not have satisfactory results when taking into account the fire resistance. Efforts will be made in the future to overcome this problem. Finally it was confirmed that the elimination of the organic phosphate emulsifier was feasible, obtaining the so called 2P hybrids. Those, in many cases, showed improved fracture mechanical, flexural and thermal resistance properties as well as a finer and more homogeneous morphology. The novel hybrid resins of unusual characteristics (e.g. curing under wet conditions and even in water) are promising matrix materials for composites in various application fields such as infrastructure (rehabilitation of sewers), building and construction (refilling), transportation (coating of vessels, pipes of improved chemical resistance)…
Das Zwei-Komponenten System CiaRH von S. pneumoniae ist an der ß-Laktam-Resistenz, Regulation der genetischen Kompetenz, Lyse und Virulenz beteiligt. Unter den 16 Promotoren, die von diesem System kontrolliert werden, befanden sich die fünf stärksten Promotoren in intergenen Regionen. Hieraus resultierte die Vermutung, dass diese Promotoren die Expression von kleinen nichtkodierenden RNAs steuern könnten. Mittels Northern-Analyse konnte nachgewiesen werden, dass von diesen Promotoren aus kleine RNAs mit einer Größe von 87 bis 151 Basen exprimiert werden. Im Stamm mit deletierten ciaR waren diese RNAs nicht bzw. kaum detektierbar. Die fünf CiaRH-abhängigen kleinen RNAs wurden csRNAs benannt (cia controlled small RNAs). Durch Northern-Analyse an vier verschiedenen Zeitpunkten des Wachstums konnte gezeigt werden, dass die csRNAs in hoher Konzentration sowohl während der exponentiellen als auch in der stationären Wachstumsphase in den Zellen von S. pneumoniae vorhanden sind. Mittels 3´-RACE-Analyse wurde die Länge der csRNAs auf die Base genau bestimmt. csRNA1, csRNA2, csRNA3 und csRNA4 bestehen aus 87 bis 101 Nukleotiden. csRNA5 besitzt dagegen eine Länge aus 151 Basen. Die Promotoren der stromabwärts der kleinen RNAs liegenden Gene wurden mittels 5´-RACE-Analyse kartiert und ihre Expression mittels realtime RT-PCR-Analyse im Wildtyp, im ciaR-Deletionsstamm und einem Stamm mit aktiviertem CiaRH-System untersucht. Hierbei konnte gezeigt werden, dass diese Gene unabhängig von CiaRH exprimiert werden. Um die Beteiligung der csRNAs an den CiaRH-assoziierten Phänotypen aufzuklären, wurden die Gene für alle fünf csRNAs deletiert und mit verschiedenen Antibiotika-Resistenz-Genen ersetzt. Durch Kombination aller Deletionen wurde der Stamm S. pneumoniae RK12345 konstruiert, welcher keine csRNA mehr exprimiert. In Stamm RK12345 konnte eine erniedrigte Transformationseffizienz und eine erhöhte Lyserate im Vergleich zum Wildtyp S. pneumoniae R6 beobachtet werden. Hierdurch wurde gezeigt, dass die csRNAs eine Rolle bei den CiaRH-regulierten Prozessen spielen. Kleine RNAs üben ihren regulatorischen Effekt meist durch Wechselwirkung mit der mRNA ihrer Zielgene aus. Die beiden RNA-Moleküle interagieren hierbei über komplementäre Sequenzbereiche. Durch diese Basenpaarungen kommt es zur Hemmung oder Aktivierung der Translation bzw. zum Abbau des RNA-RNA-Interaktionskomplexes. Um die Ursachen der csRNA-vermittelten phänotypischen Veränderungen bestimmen zu können, wurde die Identifizierung der csRNA-Zielgene angestrebt. Mittels bioinformatischer Analyse wurde eine große Anzahl putativer Zielgene vorhergesagt, wovon nach Anlegung verschiedener Kriterien letztendlich 13 zu den weiteren Untersuchungen eingesetzt wurden. Um diese teilweise uncharakterisierten Gene auf eine posttranskriptionelle Regulation durch die csRNAs untersuchen zu können, wurde ein integratives Translations Probe Plasmid namens pTP3 konstruiert. Dieses Plasmid ermöglicht die Klonierung von 5´-Genfragmenten vor das ´lacZ-Gen, wodurch in frame-Zielgen´-´lacZ-Fusionsproteine entstehen. Die Expression des entstandenen Fusionsgens erfolgt hierbei von einem konstitutiven CiaRH-unabhängigen Promotor, namens PvegT. Die Klonierung und Untersuchung der ß-Galaktosidase- Expression der Zielgen´-´lacZ-Fusionsproteine ergab, dass die klonierten Fragmente der Gene spr0081, comC, spr1645 und cibB durch die csRNAs reguliert werden. Die Untersuchung dieser vier Zielgene bei Expression von den eigenen Promotoren und Intaktheit der entsprechenden mRNAs zeigte, dass letztendlich zwei Gene posttranskriptionell negativ durch die csRNAs reguliert werden. Interessanterweise ist eines dieser Zielgene das comC-Gen, welches für das Vorläuferpeptid des Kompetenz-Phäromons CSP kodiert. Diese Beobachtung könnte eine mögliche Ursache für die csRNA-abhängige veränderte Transformierbarkeit von Stamm RK12345 darstellen. Das zweite Zielgen der csRNAs, spr0081, kodiert für einen bisher uncharakterisierten ABC-Transporter, welcher möglicherweise am Transport eines Kohlenhydrats beteiligt ist. Letztendlich wurde die direkte Interaktion der in vitro produzierten mRNA dieser beiden Zielgene mit den csRNAs durch die Entwicklung und Etablierung einer neuartigen Methode der Bandshift-Analyse untersucht. Hierbei konnte nachgewiesen werden, dass die mRNA von comC mit allen fünf csRNAs Interaktions-komplexe bildet und die mRNA von spr0081 befähigt ist mit vier csRNAs Interaktionskomplexe zu bilden. Schließlich wurde der Effekt einzelner RNAs auf die Expression des ComC´-´lacZ-Fusionsproteins getestet. Hierbei konnte gezeigt werden, dass csRNA1, csRNA2 und csRNA3 einerseits bzw. csRNA4 und csRNA5 andererseits genügen, um den Effekt aller fünf RNAs ausüben zu können. Die stärkste Hemmungsaktivität einer einzelnen csRNA konnte bei csRNA4 festgestellt werden.
Elastomers and their various composites, and blends are frequently used as engineering working parts subjected to rolling friction movements. This fact already substantiates the importance of a study addressing the rolling tribological properties of elastomers and their compounds. It is worth noting that until now the research and development works on the friction and wear of rubber materials were mostly focused on abrasion and to lesser extent on sliding type of loading. As the tribological knowledge acquired with various counterparts, excluding rubbers, can hardly be adopted for those with rubbers, there is a substantial need to study the latter. Therefore, the present work was aimed at investigating the rolling friction and wear properties of different kinds of elastomers against steel under unlubricated condition. In the research the rolling friction and wear properties of various rubber materials were studied in home-made rolling ball-on-plate test configurations under dry condition. The materials inspected were ethylene/propylene/diene rubber (EPDM) without and with carbon black (EPDM_CB), hydrogenated acrylonitrile/butadiene rubber (HNBR) without and with carbon black/silica/multiwall carbon nanotube (HNBR_CB/silica/MWCNT), rubber-rubber hybrid (HNBR and fluororubber (HNBR-FKM)) and rubber-thermoplastic blend (HNBR and cyclic butylene terephthalate oligomers (HNBR-CBT)). The dominant wear mechanisms were investigated by scanning electron microscopy (SEM), and analyzed as a function of composition and testing conditions. Differential scanning calorimetry (DSC), dynamic-mechanical thermal analysis (DMTA), atomic force microscopy (AFM), and transmission electron microscopy (TEM) along with other auxiliary measurements, were adopted to determine the phase structure and network-related properties of the rubber systems. The changes of the friction and wear as a function of type and amount of the additives were explored. The friction process of selected rubbers was also modelled by making use of the finite element method (FEM). The results show that incorporation of filler enhanced generally the wear resistance, hardness, stiffness (storage modulus), and apparent crosslinking of the related rubbers (EPDM-, HNBR- and HNBR-FKM based ones), but did not affect their glass transition temperature. Filling of rubbers usually reduced the coefficient of friction (COF). However, the tribological parameters strongly depended also on the test set-up and test duration. High wear loss was noticed for systems showing the occurrence of Schallamach-type wavy pattern. The blends HNBR-FKM and HNBR-CBT were two-phase structured. In HNBR-FKM, the FKM was dispersed in form of large microscaled domains in the HNBR matrix. This phase structure did not change by incorporation of MWCNT. It was established that the MWCNT was preferentially embedded in the HNBR matrix. Blending HNBR with FKM reduced the stiffness and degree of apparent crosslinking of the blend, which was traced to the dilution of the cure recipe with FKM. The coefficient of friction increased with increasing FKM opposed to the expectation. On the other hand, the specific wear rate (Ws) changed marginally with increasing content of FKM. In HNBR-CBT hybrids the HNBR was the matrix, irrespective to the rather high CBT content. Both the partly and mostly polymerized CBT ((p)CBT and pCBT, respectively) in the hybrids worked as active filler and thus increased the stiffness and hardness. The COF and Ws decreased with increasing CBT content. The FEM results in respect to COF achieved on systems possessing very different structures and thus properties (EPDM_30CB, HNBR-FKM 100-100 and HNBR-(p)CBT 100-100, respectively) were in accordance with the experimental results. This verifies that FEM can be properly used to consider the complex viscoelastic behaviour of rubber materials under dry rolling condition.
Die Einarbeitung von nanoskaligen Füllstoffen zur Steigerung von polymeren Eigenschaftsprofilen
ist sehr viel versprechend und stößt daher heutzutage sowohl in der
Forschung als auch in der Industrie auf großes Interesse. Bedingt durch ausgeprägte
Oberflächen und hohe Anziehungskräfte, liegen Nanopartikel allerdings nicht singulär
sondern als Partikelanhäufungen, so genannten Agglomeraten oder Aggregaten, vor.
Zur Erzielung der gewünschten Materialverbesserungen gilt es, diese aufzuspalten
und homogen in der polymeren Matrix zu verteilen.
Bei thermoplastischen Kunststoffen ist die gleichläufige Doppelschneckenextrusion
eines der gängigsten Verfahren zur Einarbeitung von Additiven und Füllstoffen. Aus
diesem Grund war es Ziel dieser Arbeit, mittels dieses Verfahrens verbesserte Verbundwerkstoffe
mit Polyamid 66- und Polyetheretherketon-Matrix, durch Einarbeitung
von nanoskaligem Titandioxid (15 und 300 nm), zu generieren.
In einem ersten Schritt wurden die verfahrenstechnischen Parameter, wie Drehzahl
und Durchsatz, sowie die Prozessführung und damit deren Einfluss auf die Materialeigenschaften
beleuchtet.
Der spezifische Energieeintrag ist ausschlaggebend zur Deagglomeration der Nanopartikel.
Dieser zeigte leichte Abhängigkeiten von der Drehzahl und dem Durchsatz
und verursachte bei der Einarbeitung der Partikel keine wesentlichen Unterschiede in
der Aufspaltung der Partikel sowie gar keine in den resultierenden mechanischen
Eigenschaften. Die Prozessführung wurde unterteilt in Mehrfach- und Einfachextrusion.
Die Herstellung eines hochgefüllten Masterbatches, dessen mehrfaches
Extrudieren und anschließendes Verdünnen, führte zu einer sehr guten Deagglomeration
und stark verbesserten Materialeigenschaften. Mittels Simulation des
Extrusionsprozesses konnte festgestellt werden, dass das Vorhandensein von ungeschmolzenem
Granulat in der Verfahrenszone zu einer Schmelze/Nanopartikel/
Feststoffreibung führt, die die Ursache für eine sehr gute Aufspaltung der Partikel zu
sein scheint. Durch Modifikation des Extrusionsprozesses erreichte die Einfachextrusion
annähernd den Grad an Deagglomeration bei Mehrfachextrusion, wobei die
Materialien bei letzterem Verfahren die besten Eigenschaftsprofile aufwiesen.
In einem zweiten Schritt wurde ein Vergleich der Einflüsse von unterschiedlichen
Partikelgrößen und –gehalten auf die polymeren Matrizes vollzogen. Die 15 nm Partikel zeigten signifikant bessere mechanische Ergebnisse auf als die 300 nm Partikel,
und die Wirkungsweise des 15 nm Partikels auf Polyetheretherketon war stärker als
auf Polyamid 66. Es konnten Steigerungen in Steifigkeit, Festigkeit und Zähigkeit
erzielt werden. Rasterelektronenmikroskopische Aufnahmen bestätigten diese Ergebnisse.
Eine Berechnung der Plan-Selbstkosten von einem Kilogramm PEEK-Nanoverbundwerkstoff
im Vergleich zu einem Kilogramm unverstärktem PEEK verdeutlichte, dass
ein Material kreiert wurde, welches deutlich verbesserte Eigenschaften bei gleichem
Preis aufweist.
Zusammenfassend konnte in dieser Arbeit ein tieferes Verständnis des Extrusionsvorganges
zur Herstellung von kostengünstigen und verbesserten Thermoplasten
durch das Einbringen von Nanopartikeln gewonnen werden.
Die vorliegende Arbeit befasst sich mit der grundlegenden Untersuchung von Verfahren zur mechanischen Dispergierung agglomerierter Nanopartikel in Epoxidharz und der werkstofflichen Charakterisierung der daraus resultierenden Nanoverbundwerkstoffe. Dazu wurden Dispergierexperimente unter Verwendung eines Titandioxid-Nanopartikelpulvers mit Hilfe einer horizontalen und einer vertikalen Rührwerkskugelmühle durch systematische Variation von Dispergierparametern, wie beispielsweise der Rührwerksumfangsgeschwindigkeit, der Dispergierdauer, dem spezifischen Energieeintrag, dem Mahlkörperdurchmesser und dem Mahlkörperfüllgrad durchgeführt. Die Herausforderung liegt in der Erzielung möglichst geringer Partikelgrößen einhergehend mit einer homogenen Verteilung der Primärpartikel in der polymeren Matrix, ohne dabei die Molekülstruktur des verwendeten Epoxidharzes zu degradieren. Zur Ermittlung des Einflusses der einzelnen Dispergierparameter auf die Partikelgrößen und deren Häufigkeitsverteilungen wurden Proben der Suspension bestehend aus Epoxidharz und TiO2-Nanopartikeln während des Dispergierprozesses entnommen und nach dem Prinzip der dynamischen Lichtstreuung untersucht. Aus den Suspensionen wurden Nanoverbundwerkstoffe gefertigt, die umfangreich werkstoffwissenschaftlich durch mechanische, thermoanalytische und rasterelektronenmikroskopische Untersuchungen charakterisiert wurden, um den Einfluss der Partikelgrößen und -verteilungen auf die Struktur und die Eigenschaften der Nanoverbundwerkstoffe zu ermitteln. Das erarbeitete Dispergierverfahren wurde anschließend zugrunde gelegt, um Nanopartikelpulver aus Titandioxid, Aluminiumdioxid und Zirkoniumdioxid in Epoxidharz zu dispergieren und dadurch Nanoverbundwerkstoffe mit gesteigerten Werkstoffeigenschaften zu fertigen. Diese wurden mechanischen und rasterelektronenmikroskopischen Untersuchungen unterzogen. Aufbauend auf den Erkenntnissen der vorangegangen Dispergierexperimente und theoretischen Betrachtungen wurde anhand eines Modells die Vorhersage erzielbarer Partikelgrößenverteilungen in Abhängigkeit physikalischer Einflussgrößen des Dispergierprozesses geprüft.
Der Kernrezeptor PXR spielt eine bedeutende Rolle im Fremdstoffmetabolismus als auch im Stoffwechsel endogener Substrate. Er reguliert die Expression zahlreicher Proteine des Fremdstoffwechsels. Deshalb hat die Aktivierung oder Hemmung des PXR einen großen Einfluss auf den Stoffwechselstatus dieser Proteine. Zum derzeitigen Stand der Forschung nimmt der PXR eine Schlüsselfunktion bei der Regulation der CYP3A-Enzyme ein. Es besteht deshalb Interesse Substanzen, die in Verdacht stehen PXR abhängig CYP3A zu induzieren, zu untersuchen. In dieser Arbeit wurden bromierte Flammschutzmittel und der Arzneimittelkandidat EMD untersucht. Aus den Vorversuchen wurde ersichtlich, dass die Rattenhepatomzelllinie H4IIE und die humane Hepatomzelllinie HepG2 geeignete in vitro Systeme zur Untersuchung der PXR-abhängigen CYP3A-Aktivierung darstellen. Untersuchungen zum Genexpressionsverhalten zahlreicher Gene des Fremdstoffmetabolismus mittels TLDA-Karten zeigten, dass die beiden Zelllinien viele dieser Gene exprimieren, die nach Inkubation mit den Prototypinduktoren Rifampicin und Dexamethason spezies-spezifisch reguliert wurden. Die beiden Zelllinien wurden schließlich mit einem Reportergenvektor, der die PXR responsiven Elemente des CYP3A4-Gens enthält, stabil transfiziert. An den stabil transfizierten HepG2-XREM3- und H4IIE-XREM3-Zellen wurden bekannte CYP-Induktoren sowie der Arzneimittelkandidat EMD und die Flammschutzmittel HBCD and der pentaBDE Mix getestet. Die Flammschutzmittel HBCD und der pentaBDE-Mix, werden in Textilwaren, Kunststoffen, Möbeln, Teppichen, Elektrogeräten und Baumaterialen eingesetzt. Falls sie tatsächlich den PXR spezies-spezifisch aktivieren sollten, könnten sie eine Gefahr für Mensch und Umwelt darstellen. Deshalb wurde in dieser Arbeit die CYP3A-mRNA-Expression, die Protein- sowie die Reportergenaktivität überprüft. Als gemeinsamer Aktivator des hPXR und rPXR stellte sich Clotrimazol, aber auch das Flammschutzmittel HBCD heraus, während pentaBDE ein besserer Ligand des hPXR ist. Omeprazol und Phenobarbital induzierten die rPXR-vermittelte CYP3A-Induktion in H4IIE-XREM3-Zellen nicht; in den humanen HepG2-XREM3-Zellen konnte jedoch eine moderate Reportergenaktivität gemessen werden. Weiteres Interesse besteht an dem Arzneimittelkandidaten EMD zur Behandlung des metabolischen Syndroms und Typ II-Diabetes. In vivo (Affen, Ratten) und in vitro (Hepatozyten) wurden bereits spezies-spezifische Effekte auf die CYP3A-Induktion durch EMD beobachtet. Deshalb wurde in dieser Arbeit der über aktivierten PXR vermittelte Mechanismus an Zelllinien überprüft. Dabei stellte sich heraus, dass EMD ein hPXR-Aktivator und CYP3A-Induktor in HepG2-Zellen, jedoch kein Aktivator von rPXR in H4IIE-Zellen ist. Um schwerwiegende Nebenwirkungen und unvorhersehbare Arzneimittelwechselwirkungen durch die Aufnahme von Fremdstoffen zu verhindern, ist es bei der Neuentwicklung von Wirkstoffen aller Art notwendig, die Stoffe auf eine mögliche Induktion der Fremdstoff-metabolisierenden Enzyme zu untersuchen. Deshalb war das Ziel dieser Arbeit die Etablierung von zell-basierten in vitro Assays zur Ermittlung der spezies-spezifischen PXR-abhängigen Induktion von CYP3A durch Chemikalien und Arzneimittelkandidaten, um mögliche Arzneimittel- und Fremdstoffwechselwirkungen und damit verbundene Sicherheitsrisiken vorhersagen zu können. Das etablierte PXR- Screeningsystem repräsentiert zwei in vitro Modelle, die erlauben spezies-spezifische Wirkungen auf die CYP3A-Induktion von Chemikalien, Umweltkontaminanten, Lebensmittelinhaltsstoffe und Arzneimittel schnell, einfach und kostengünstig abschätzen zu können. Eine frühe Erkennung der PXR-Aktivierung und CYP-Induktion von Arzneimitteln in der Entwicklung kann einen Weiterentwicklungsstopp dieser zur Folge haben. Dies hilft zusätzliche Tierversuche und Kosten einzusparen. Dem 3R-Prinzip (Reduce, Refine, Replace) vom Reduzieren der Anzahl der Tierversuche, der Verbesserung der existierenden Experimente und dem Ersetzen von Tierversuchen durch alternative Methoden (Russel & Burch, 1959) wird durch die stabil transfizierten Zelllinien in zweierlei Hinsicht Rechnung getragen: unnötige Tierversuche können vermieden reduction und die Aussagekraft von durchgeführten Tierstudien (z.B. vom Gesetzgeber geforderte Studien zur Arzneimittelentwicklung) verbessert werden (dies trägt auch zu einem refinement bei). Damit stellen die HepG2-XREM3- und H4IIE-XREM3-Zellen eine wichtige innovative Verbesserung bei der Entwicklung von Arzneistoffen sowie bei der regulatorischen Testung von Chemikalien dar.
It was recently reported that imatinib causes cell death in neonatal rat ventricular cardiomyocytes (NRVCM) by triggering endoplasmic reticulum (ER) stress and collapsed mitochondrial membrane potential. Retroviral gene transfer of an imatinib-resistant mutant c-Abl into NRVCM appeared to alleviate imatinib-induced cell death and it was concluded that the observed imatinib-induced cytotoxicity is mediated through direct interactions of imatinib with c-Abl. The imatinib effects were described as being specific for cardiomyocytes only, which are relevant also for the in vivo situation in man. [Kerkelä et al. 2006] The goal of the present study was to reproduce the published experiments and to further explore the dose-response relationship of imatinib-induced cell death in cardiomyocytes. Additional markers of toxicity were investigated. The following biochemical assays were applied: LDH release (membrane leakage marker), MTS-reduction (marker of mitochondrial integrity), ATP cellular contents (energy homoeostasis) and caspase 3/7 activity (apoptosis). The endoplasmatic reticulum (ER) stress markers eIF2α (elongation initiation factor 2α), XBP1 (X Box binding Protein 1), and CHOP (cAMP response element-binding transcription factor (C/EBP) homologous protein) were determined at the transcriptional and protein level. Online monitoring of cell attachment of, oxygen consumption and acidification of the medium by rat heart cells (H9c2) seated on chips (Bionas) allowed the determination of the onset and reversibility of cellular functions. Image analysis measured the spontaneous beating rates after imatinib treatment. The role of imatinib-induced reactive oxygen species was evaluated directly by 2’,7’-Dichlorofluorescein fluorescence and indirectly by means of interference experiments with antioxidants. The specificity of imatinib-induced effects were specific to cardiomyocytes was evaluated in fibroblasts derived from rat heart, lung and skin. The specific role of c-Abl in the imatinib-induced cellular toxicity was investigated by specific gene silencing of c-Abl in NRVCM. The results demonstrated that imatinib caused concentration-dependent cytotoxicity, apoptosis, and ER stress in heart, skin and lung fibroblasts, similar or stronger to those observed in cardiomyocytes. Similar to the results from cardiomyocytes, ER stress markers in fibroblasts were only increased at cytotoxic concentrations of imatinib. This effect was not reversible; also, reactive oxygen species did not participate in the mechanism of the imatinib-induced cytotoxicity in NRVCM. Small interfering RNA (siRNA)-mediated reduction of c-Abl mRNA levels by 51 % and c-Abl protein levels by 70 % had neither an effect on the spontaneous beating frequency of cardiomyocytes nor did it induce cytotoxicity, apoptosis, mitochondrial dysfunction or ER stress in NRVCM. Incubation of imatinib with c-Abl siRNA-transfected NRVCM suggested that reduced c-Abl protein levels did not rescue cardiomyocytes from imatinib-induced cytotoxicity. In conclusion, results from this study do not support a specific c-Abl-mediated mechanism of cytotoxicity in NRVCM.
Das Vernähen von trockenen Faserhalbzeugen im Vorfeld der Harzinjektion bietet
vielfältige Möglichkeiten, um gewichts- und kostenoptimierte Faser-Kunststoff-Verbund-
Bauteile komplexer Geometrie herzustellen. Zur Stabilisierung der Faseranordnung,
insbesondere aber zur Erhöhung der Impaktbeständigkeit und Schadenstoleranz
derartiger Strukturen können flächige Halbzeuge durch strukturelles Vernähen
verstärkt werden, wodurch die Aufnahme komplexer dreidimensionaler Belastungen
ermöglicht wird. Allerdings kann Vernähen in Laminatdickenrichtung die mechanischen
Scheibeneigenschaften des Verbunds in der Laminatebene auch reduzieren,
was auf Fehlstellen (Reinharzgebiete) und Faserondulationen, verursacht durch das
Nähgarn, zurückzuführen ist.
Im Rahmen dieser Arbeit wurden daher, aufbauend auf Ergebnissen scheibenzugund
-druckbelasteter Faser-Kunststoff-Verbunde, kohlenstofffaserverstärkte Multiaxialgelege-(
MAG-)Laminate strukturell vernäht und eine breit angelegte experimentelle
Parameterstudie zum Einfluss unterschiedlicher Nähkonfigurationen auf Scheiben-
Schubmodul und -festigkeit sowie zusätzlich auf die Restdruckfestigkeit nach Impaktbelastung
(CAI-Festigkeit) und die scheinbare interlaminare Energiefreisetzungsrate
G1R unter Mode-1-Belastung durchgeführt. Neben Stichrichtung, Garnfeinheit,
Teilung (Abstand zwischen zwei parallelen Nähten) und Stichlänge wurde die Belastungsrichtung
(Rissfortschrittsrichtung im Falle von G1R) als Parameter definiert, systematisch
variiert und hinsichtlich ihrer statistischen Signifikanz auf das experimentelle
Ergebnis untersucht. In der Mehrzahl der Fälle wurden der Schubmodul und die
Schubfestigkeit im Vergleich zum unvernähten Laminat um bis zu 22 % reduziert. Bei
einigen Nähkonfigurationen ließen sich aber auch keine Änderung oder sogar eine
geringfügige Steigerung des Schubmoduls im Vergleich zum unvernähten Laminat
feststellen. Demgegenüber konnten die CAI-Festigkeit und G1R durch strukturelles
Vernähen maximal um 48 % bzw. um den Faktor 5 erhöht werden. Während die
Scheibenschubeigenschaften und G1R dominierend von der Garnfeinheit beeinflusst
werden, wird die CAI-Festigkeit vorwiegend durch die Wahl der Stichdichte bestimmt,
wobei der Einfluss von Garnfeinheit und Stichdichte auf die untersuchten Kennwerte
gegenläufig ausgeprägt ist. Ein Anstieg dieser Parameter führt zu Absenkungen der
Scheibeneigenschaften, gleichzeitig aber auch zu Steigerungen von CAI-Festigkeit und G1R. Allerdings kann durch die Wahl geeigneter Nähkonfigurationen ein Kompromiss
zwischen beiden Effekten gefunden werden.
Die Realisierung der Nähtechnik im Industriemaßstab kann allerdings nur dann erfolgen,
wenn Werkstoffeigenschaften günstig und schnell, d. h. mit minimalem experimentellen
Aufwand, abgeschätzt werden können. Zur Simulation des Festigkeitsverhaltens
in der Laminatebene, das in der Strukturauslegung neben dem elastischen
Verhalten häufig maßgeblich ist, wurde daher, aufbauend auf einem parametrisch
gesteuerten Finite-Elemente-Einheitszellenmodell, ein Modul zur kontinuumsmechanischen
Versagensanalyse (Spannungs-, Verzerrungs-, Festigkeits- und Degradationsanalyse)
entwickelt. In Abhängigkeit der jeweiligen Parametereinstellung können
komplexe Einheitszellen mit Fehlstellen und Faserondulationsgebieten modelliert
werden. Die iterative, einzelschichtbasierte Versagensanalyse ermöglicht die Abschätzung
von Festigkeitskennwerten unvernähter und strukturell vernähter MAG-Laminate
unter Scheibenbelastung (Zug, Druck und Schub). Zur Bewertung der Werkstoffanstrengung
für Faserbruch wurde das Maximalspannungs-Kriterium, für
Zwischenfaserbruch das Wirkebenenkriterium von Puck für den dreidimensionalen
Spannungszustand implementiert. Das Nachversagensverhalten wird kontinuumsmechanisch
durch Steifigkeitsdegradation nach einem für den dreidimensionalen
Spannungszustand modifizierten Chiu-Modell abgebildet. Die nichtlineare Versagensanalyse
erlaubt die Berechnung des Schädigungsverhaltens infolge von Zwischenfaserbruch,
die Vorhersage des Totalversagens und des ebenen Spannungs-
Dehnungs-Verhaltens sowie die Berücksichtigung thermisch bedingter Eigenspannungen
und werkstofflicher Nichtlinearitäten.
Alternativ zur Einheitszellenmodellierung wurde für den Konstrukteur in der Vorauslegung
oder den Anwender in der Verarbeitungstechnik die Möglichkeit geschaffen,
Scheibeneigenschaften strukturell verstärkter Laminate mit nahezu beliebigem
Schichtaufbau und Nähmuster durch die Verwendung von Kennwerten vernähter,
unidirektionaler MAG-Einzelschichten in Verbindung mit analytischen Laminatanalyseprogrammen
konservativ abzuschätzen. Zur Vorhersage mit verbesserter Genauigkeit
sollte allerdings auf das Finite-Elemente-Einheitszellenmodell zurückgegriffen
werden.
Das Fügen von Faserverbunden und Metallen durch Induktionsschweißen ist ein
neuartiges Verfahren, das im Rahmen einer DFG-Forschergruppe entwickelt wurde.
In dieser Arbeit werden auf solche Weise hergestellte Fügungen zwischen einer
Aluminiumlegierung (AlMg3) und CFK (kohlenstofffaserverstärktes Polyamid)
experimentell und simulativ untersucht. Detaillierte Kenntnisse über das mechanische
Verhalten und den Einfluss der Prüfgeschwindigkeit und der Temperatur darauf
sind für einen späteren Einsatz der Fügetechnik bei der Verbindung von Bauteilen
wichtig. Die begleitend durchgeführten Simulationen auf Basis der Finiten Elemente
(FE) ermöglichen einen Blick in das Innere der Fügezone und stellen nach der
Validierung mit Hilfe der Experimente eine Erweiterung der Messtechnik dar. Besondere
Anforderungen an die Messtechnik entstehen bei diesen Untersuchungen aus
den geringen Abmessungen des Fügebereiches. Ergänzend durchgeführte makroskopische
und mikroskopische (Rasterelektronenmikroskop) Bruchflächenanalysen
untermauern die Schlüsse und Erläuterungen aus den experimentellen und simulativen
Untersuchungen.
Abgeleitet von kritischen Lastfällen wird das mechanische Verhalten an Grundlagenexperimenten
in Quer-Druck- und Schubversuchen untersucht und simuliert. Für die
globale und lokale Verschiebungsanalyse, die eine detaillierte Versuchsauswertung
und einen Abgleich mit den Simulationen ermöglicht, wird das Grauwertkorrelationsverfahren
eingesetzt. Die wichtigsten experimentellen Ergebnisse sind:
Bei den Quer-Druck-Versuchen kommt es zu einer normalspannungsdominierten
Schälbelastung in der Fügezone mit einem konstant wachsenden Riss. Die Temperaturvariationen
im Bereich von -30 °C und 80 °C haben fast keinen Einfluss auf das
mechanische Verhalten. Die Prüfgeschwindigkeitsvariationen im Bereich von
0,03 mm/s bis 1500 mm/s zeigen bei steigenden Prüfgeschwindigkeiten einen
deutlichen Anstieg der maximalen Kräfte und Verschiebungen. In den Versuchen ist
ein adhäsiver Versagensmode zu beobachten. Eine Ausnahme bilden die Versuche
bei höheren Prüfgeschwindigkeiten, bei denen ein grenzschichtnahes Versagen in
der Fügezone auftritt.
In den Schubversuchen kommt es zu einem stärker mehrachsialen Spannungszustand
in der Fügezone, der von Schub- und Normalzugspannungen dominiert wird. Die erreichten Kräfte liegen deutlich über denen der Quer-Druck-Versuche. Dieses
Kraftniveau ist kaum beeinflusst von den Temperaturvariationen zwischen -30 °C und
80 °C. Die Prüfgeschwindigkeitssteigerungen bis zu 1500 mm/s haben einen signifikanten
Einfluss auf die Kräfte und besonders auf die maximalen Verformungen. Die
Bruchflächen sind in den meisten Versuchen adhäsiv dominiert. Bei Temperaturen
von -30°C und Prüfgeschwindigkeiten von 500 mm/s und 1500 mm/s bilden sich
hingegen Bereiche mit grenzschichtnahem Versagen und köhasiven Anteilen. Die
REM-Untersuchungen der Bruchbilder zeigen, dass mechanisches Interlocking einen
maßgeblichen Beitrag zur Haftung zwischen Polyamid und Aluminium leistet.
Die Simulationen wurden mit Hilfe der globalen und lokalen Verschiebungszustände
in den Grundlagen- und zusätzlich durchgeführten Versuchen validiert und zeigen
eine gute Übereinstimmung mit den Experimenten. Die Spannungszustände im
Inneren der Fügezone sind wegen der unterschiedlichen Fügewerkstoffe und Steifigkeiten
unsymmetrisch und stark inhomogen. Es bilden sich in allen simulierten
Versuchen am Rand Spannungsspitzen, die zum Versagen führen, während in der
Fügezonenmitte ein niedriges Spannungsniveau vorherrscht. Mit wachsendem Riss
steigen die Spannungen im Inneren der Restfügezone in geringem Maße, bis es zur
vollständigen Trennung des AlMg3- und des CFK-Fügeteils kommt. Eine Parameterstudie
mit dem validierten Simulationsmodell der Schweißung zeigt, wie eine erhöhte
Dicke des AlMg3-Fügeteils oder ein Anstieg der CFK-Steifigkeit zu einer günstigeren
Spannungsverteilung in der Fügezone und so zu höheren Versagenskräften führt.
Die in dieser Arbeit erzielten experimentellen und simulativen Ergebnisse tragen zum
Verständnis der Vorgänge bei mechanisch belasteten induktionsgeschweißten
Fügungen zwischen Faserverbunden und Metallen bei. Der eingeschlagene Weg und
die zum Einsatz gebrachten Methoden sind auch auf andere Verbindungen übertragbar.
Das aufgebaute und validierte Simulationsmodell kann dabei für weiterführende
Parametervariationen oder zur mikromechanischen Analyse der Schweißungen
eingesetzt werden.
Doppelbindungen verminderter Konjugation auftreten, ähnlich der 9,10-Doppelbindung in Phenanthren. Die Eignung von Dbf-1 als η5-Metallocenligand konnte durch die Darstellung einer Reihe von Übergangsmetallkomplexen gezeigt werden: Neben dem symmetrischen Ferrocen Dbf2Fe, dessen analoge Fluorenylverbindung nicht bekannt ist, konnten auch die unsymmetrisch substituierten Ferrocene (η5-Dbf)Fe(η5-4Cp) (4Cp: 1,2,3,4- Tetraisopropylcyclopentadienyl) und (η5-Dbf)Fe(η5-Cp’’’) (Cp’’’: 1,2,4-Tri-tert-butylcyclopentadienyl) erhalten werden. Weiterhin wurden Metallocen- und Arenkomplexe mit Gruppe VI-Metallen ((η3-Allyl)(η5-Dbf)M(CO)2, M = Mo, W und (η6-DbfH)Cr(CO)3 isoliert, sowie Metallocene der Metalle Mangan ((η5-Dbf)Mn(CO)3), Cobalt ([(η5-Dbf)Co(η5-Cp*)]PF6, Cp*: 1,2,3,4,5-Pentamethylcyclopentadienyl), Ruthenium ((η5-Dbf)Ru(PPh3)2Cl, [(η5-Dbf)Ru(PPh3)2(NCMe)]SbF6) und Titan (η5-Dbf)(η1-Dbf)Ti(OiPr)2. Für die lokalisierten Doppelbindungen in 3,4- und 3’,4’-Position wird – wie im Fall des Phenanthren – partielle olefinische Reaktivität erwartet. Dies konnte durch die selektive Anwendung olefintypischer Reaktionen an diesen Positionen bestätigt werden. Reaktion von Dbf-Ferrocenen mit molekularem Wasserstoff in Gegenwart von Pd/C erlaubt selektive Hydrierung der Komplexe an Position 3,4 und 3’,4’ und liefert die entsprechenden 3,3’,4,4’-Tetrahydrodibenzo[c,g]fluorenylkomplexe (H4-Dbf)2Fe und (H4-Dbf)Fe(4Cp). Die Umsetzung mit ZnEt2 und ClCH2I erlaubt die selektive Cyclopropanierung der Ferrocens (Dbf)Fe(Cp’’’).
Die vorliegende Untersuchung beschäftigt sich mit thermodynamischen Grundlagen einiger Prozesse der chemischen Industrie, in denen ionische Flüssigkeiten eingesetzt werden. Die ionischen Flüssigkeiten werden z.B. als Lösungsmittel für chemische Reaktionen, oder als Alternativen zu klassischen Lösungsmitteln diskutiert. Im ersten kommerziellen Verfahren mit ionischen Flüssigkeiten, sog. BASIL-Prozess (2002), wird eine organische Base (z.B. eine Imidazolium-Verbindung) zum „Abfangen“ einer bei einer Reaktion anfallenden Säure verwendet, wobei eine ionische Flüssigkeit entsteht. Diese zeigt mit dem bei der Reaktion entstehenden Wertstoff häufig eine große flüssig-flüssig Mischungslücke, wodurch sich die Aufarbeitung des Wertstoffes vereinfacht. Die Rückgewinnung dieser organischen Base aus der ionischen Flüssigkeit geschieht i.d.R. durch eine chemische Umsetzung mit einer starken, anorganischen Base in einer wässrigen Lösung und einer Extraktion in ein organisches Lösungsmittel. Dabei fallen wässrig/organische Lösungsmittel mit starken Elektrolyten an. Im Fokus des ersten Teils der Arbeit standen experimentelle Untersuchungen zum binären Phasengleichgewicht von Systemen aus einer Imidazolium-basierten ionischen Flüssigkeit und einem organischen Lösungsmittel. Die ionische Flüssigkeit 1-n-Butyl-3-Methylimidazolium Hexafluorophosphat, [bmim][PF6], wurde auf ihre Mischbarkeit mit sieben organischen Lösungsmitteln (Ethanol, bzw. 1-Propanol, bzw. 1-Butanol, bzw. Cyclohexan, bzw. Butylacetat, bzw. Toluol, bzw. Chloroform) mittels Trübungstitration bei verschiedenen Temperaturen geprüft. Wegen nicht ausreichender Genauigkeit der Trübungsmethode im Bereich geringer Löslichkeiten wurde für die Systeme aus ([bmim][PF6] + Alkohol) die organisch-reiche Seite der Binodalkurve mittels UV/Vis - Spektroskopie untersucht. Im zweiten Teil der Arbeit wurden die gegenseitige Löslichkeit der ionischen Flüssigkeit 1-Methylimidazolium Hydrochlorid, HMIMCl, mit Butylacetat als Funktion der Temperatur, sowie binäre und ternäre Phasengleichgewichte in Systemen aus Wasser, 1-Propanol, 1-Methylimidazol und Natriumchlorid im Temperaturbereich zwischen 25 und 60 °C experimentell untersucht. Dazu wurden z.B. aus den im Phasengleichgewicht existierenden flüssigen Phasen Proben entnommen und mit verschiedenen Analysenmethoden (titrimetrischen Verfahren (pH-, Karl-Fischer-) und chromatographischen Verfahren (IC, GC)) die Zusammensetzung dieser Phasen bestimmt. Die Ergebnisse der experimentellen Untersuchungen sollen die für die Entwicklung und Erprobung thermodynamischer Modelle zur Beschreibung solcher Phasengleichgewichte erforderliche Datenbasis erweitern.
Der Flächennutzungsplan ist das zentrale Instrument der Gesamtplanung auf der gesamtstädtischen Ebene und kann gleichzeitig als Paradebeispiel für den – angesichts der in der Praxis zu lösenden Probleme nicht gerechtfertigten – Bedeutungsverlust formeller Pläne herangezogen werden. Mit der Bewältigung aktueller Herausforderungen der Stadtentwicklung konfrontiert, werden vor allem die seiner Aufstellung dienenden, zu langwierigen Verfahren und seine zu starren, Unsicherheiten in der tatsächlichen Entwicklung ungenügend berücksichtigenden Inhalte kritisiert. Folglich muss nach Möglichkeiten einer Weiterentwicklung des formellen Instrumentariums gesucht werden. Im Laufe der letzten Jahrzehnte wurden einige punktuelle Anpassungen im Modell des Flächennutzungsplanes vorgenommen. Des Weiteren sind Entwicklungen im benachbarten europäischen Ausland beachtenswert: Der im englischen Planungssystem neu eingeführte Local Development Framework soll sich durch Flexibilität und Modularität bei gleichzeitiger Stärkung der strategischen Steuerungswirkung seiner Inhalte auszeichnen. An einer systematischen Untersuchung der Erfordernisse, Potenziale und Grenzen einer Weiterentwicklung des Modells des Flächennutzungsplanes fehlt es bislang. Damit ein zukünftiges Modell die ihm zugedachten Wirkungen entfalten kann, ist zudem eine grundlegende Auseinandersetzung mit dem vorherrschenden Verständnis von gesamtstädtischer Planung und ihren Ergebnissen erforderlich. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, das Modell des Flächennutzungsplanes systematisch abzuleiten und zu untersuchen, um es anschließend mit dem Ziel einer Erhöhung der Steuerungskraft der Inhalte des gesamtstädtischen Planes weiterentwickeln zu können. Hierbei fließen die Erkenntnisse aus einer Betrachtung des Local Development Framework mit ein. Die Arbeit kommt zu dem Ergebnis, dass trotz zahlreicher Anpassungen des Modells des Flächennutzungsplanes einige Charakteristika aus dessen Anfangszeit erhalten geblieben sind, die als nicht mehr angemessen bezeichnet werden müssen. Zu den Hauptschwächen des gegenwärtigen Modells zählen sein statischer Charakter und die unzureichende Berücksichtigung der Prozesshaftigkeit von Stadtentwicklung inklusive der Auseinandersetzung mit potenziellen Entwicklungsalternativen. Die Beschäftigung mit dem Local Development Framework zeigt, dass von einer Übertragbarkeit von Elementen auf das deutsche System auszugehen ist. Die erarbeiteten Vorschläge zu den Anpassungen am Modell des Flächennutzungsplanes eröffnen insgesamt die Möglichkeit, den Flächennutzungsplan zum modularen, dynamischen und strategischen Instrument gesamtstädtischer Planung weiterzuentwickeln. Im Fokus der Anpassungen stehen die neue Gesamtstruktur als Portfolio aus zeichnerischen und textlichen, formellen und informellen Bestandteilen, die Integration des Faktors „Zeit“ sowie sonstiger strategischer Aspekte von Stadtentwicklung – begleitet von einem neuen Verständnis vom Ergebnis gesamtstädtischer Planung, nach dem der Flächennutzungsplan nicht mehr als der eine Plan das kanonische Endprodukt darstellt, sondern kontinuierlich und mit seinen diversen Bestandteilen überprüft und fortentwickelt wird.
Most software systems are described in high-level model or programming languages. Their runtime behavior, however, is determined by the compiled code. For uncritical software, it may be sufficient to test the runtime behavior of the code. For safety-critical software, there is an additional aggravating factor resulting from the fact that the code must satisfy the formal specification which reflects the safety policy of the software consumer and that the software producer is obliged to demonstrate that the code is correct with respect to the specification using formal verification techniques. In this scenario, it is of great importance that static analyses and formal methods can be applied on the source code level, because this level is more abstract and better suited for such techniques. However, the results of the analyses and the verification can only be carried over to the machine code level, if we can establish the correctness of the translation. Thus, compilation is a crucial step in the development of software systems and formally verified translation correctness is essential to close the formalization chain from high-level formal methods to the machine-code level. In this thesis, I propose an approach to certifying compilers which achieves the aim of closing the formalization chain from high-level formal methods to the machine-code level by applying techniques from mathematical logic and programming language semantics. I propose an approach called foundational translation validation (FTV) in which the software producer implements an FTV system comprising a compiler and a specification and verification framework (SVF) which is implemented in higher-order logic (HOL). The most important part of the SVF is an explicit translation contract which comprises the formalizations of the source and the target languages of the compiler and the formalization of a binary translation correctness predicate corrTrans(S,T) for source programs S and target programs T. The formalizations of the languages are realized as deep embeddings in HOL. This enables one to declare the whole program in a formalized language as a HOL constant. The predicate formally specifies when T is considered to be a correct translation of S. Its definition is explicitly based on the program semantics definitions provided by the translation contract. Subsequent to the translation, the compiler translates the source and the target programs into their syntactic representations as HOL constants, S and T, and generates a proof of corrTrans(S,T). We call a compiler which follows the FTV approach a proof generating compiler. Our approach borrows the idea of representing programs in correctness proofs as logic constants from the foundational proof-carrying code (FPCC) approach. Novel features that distinquish our approach from further approaches to certifying compilers, such as proof-carrying code (PCC) and translation validation (TV) are the following: Firstly, the presence of an explicit translation contract formalized in HOL: The approaches PCC and TV do not formalize a translation contract explicitly. Instead of this, they incorporate operational semantics and translation correctness criterion in translation validation tools on the programming language level. Secondly, representation of programs in correctness proofs as logic constants: The approaches PCC and the TV translate programs into their representations as semantic abstractions that serve as inputs for translation validation tools. Thirdly, certification of program transformation chains: Unlike the TV approach, which certifies single program transformations, the FTV approach achieves the aim of certifying whole chains of program transformations. This is possible due to the fact that the translation contract provides, for all programming languages involved in the program transformation chain, definitions of program semantics functions which map programs to mathematical objects that are elements of a set with an (at least) partial order "<=". Then, the proof makes use of the fact that the relation "<=" is transitive. In this thesis, the feasibility of the FTV approach is exemplified by the implementation of an FTV system. The system comprises a compiler front-end that certifies its optimization phase and an accompanying SVF that is implemented in the theorem prover Isabelle/HOL. The compiler front-end translates programs in a small C-like programming language, performs three optimizations: constant folding, dead assignment elimination, and loop invariant hoisting, and generates translation certificates in the form of Isabelle/HOL theories. The main focus of the thesis is on the description of the SVF and its translation verification techniques.
Im absoluten Schluss wechseln die Begriffsmomente Allgemeinheit, Besonderheit und Einzelheit untereinander die Position und reichern sich dadurch wechselseitig an, so dass eines identisch mit dem anderen ist, das es selbst ist. Dies bedeutet logisch Selbstbestimmung und Freiheit. Der Prozess ist dialektisch, indem sich das Allgemeine besondert, auseinanderlegt und im Einzelnen wieder mit sich zusammenschließt. Der absolute Schluss ist so die logische Grundstruktur von Phänomenen der Objektivität wie Mechanismus, Chemismus, Teleologie, aber auch Religion, Philosophie sowie theoretischer und praktischer Vernunft.
Das zelluläre Uhrwerk der circadianen Rhythmik enthält eine autoregulatorische negative Feedbackschleife. Dabei induzieren am Beginn des circadianen Rhythmus die heterodimeren Komplexe aus CLOCK- und BMAL1-Proteinen die Transkription ihrer Zielgene, darunter auch die der Period- (PER) und Cryptochrom- (CRY)-Gene. Am Ende des circadianen Rhythmus inhibieren die CRY- und PER-Proteine die CLOCK/BMAL1-gesteuerte Transkription. Die durch Sauerstoffmangel gesteuerte Regulation der Transkription wird durch die Hypoxie-induzierbaren Faktoren (HIF) reguliert, von denen HIF-1α eine besondere Rolle bei vielen physiologischen und pathophysiologischen Vorgängen spielt. Im Schlaf, d.h. in der circadianen Nachtphase ändert sich die funktionelle Organisation der Atmung grundlegend und es kommt zu einer leichten Reduktion des Sauerstoffpartialdruckes und das Auftreten hypoxischer Perioden wird begünstigt, was auf einen Zusammenhang zwischen circadianer Rhythmik und Hypoxie-gesteuerter Transkription hindeutet. Daher wurde in der vorliegenden Studie untersucht, welchen Einfluss die circadianen Proteine CRY1 und PER1 auf HIF-1α und die HIF-1 regulierte Transkription haben. Es konnte die Interaktion zwischen den circadianen Proteinen CRY1 und PER1 mit HIF-1α erstmalig in lebenden Zellen nachgewiesen werden. Die HIF-1α-Proteinregion in der sich die basic-Helix-Loop-Helix-(bHLH)-Domäne befindet und die C-terminale tail-Region des CRY1-Proteins konnten als verantwortliche Proteindomänen für die Interaktion zwischen CRY1 und HIF-1α identifiziert werden. Die Interaktion von HIF-1α mit PER1 erfolgte ebenso über die bHLH Domäne des HIF-1α-Proteins. Die CRY1-HIF-1α-Interaktion beeinflusste die transkriptionelle Aktivität von HIF-1α negativ und verringerte die Expression von HIF-1-Targetgenen, wie dem Plasminogen-Aktivator-Inhibitor-1 (PAI-1). Darüberhinaus konnte mit CRY- und PER-defizienten Zellen gezeigt werden, dass CRY1 und PER1 unabhängig von der Interaktion mit HIF-1α auch eine Repression der HIF-1α-mRNA-Expression und der HIF-1α-Promotoraktivität verursachen. Diese Daten zeigen, dass die Regulation der Transkription durch Hypoxie durch die negativen Regulatoren der circadianen Rhythmik beeinflusst werden kann. Diese Befunde könnten somit zum besseren Verständnis bestimmter Krankheiten, wie der Tumorigenese oder dem Schlaf-Apnoe-Syndrom beitragen. Da HIF-1α ein wichtiger Faktor in der Tumorigenese ist, der durch Veränderungen im Redoxzustand der Zellen beeinflusst wird und dabei möglicherweise mitochondriale ROS, die einem circadianen Rhythmus unterliegen, eine wichtige Rolle spielen, wurde untersucht, inwiefern eine Erhöhung der mitochondrialen ROS-Spiegel durch Defizienz der MnSOD tumorprogressiv ist. Die MnSOD wird als eines der wichtigsten intrazellulären antioxidativen Enzyme angesehen und soll eine Rolle als Tumorsuppressor spielen. Mittels Microarraytechnologie wurde die differentielle Genexpression in den Lebern der Hepatozyten-spezifischen MnSOD-defizienten Mäuse untersucht. Es konnte die Repression von vielen Genen gefunden werden, deren Produkte eine wichtige Rolle in der Abwehr gegen oxidativen Stress, der Krebsabwehr und der Hemmung der Apoptose spielen. Auf der anderen Seite konnte die Überexpression vieler Indikatoren für oxidativen Stress festgestellt werden. Desweiteren konnte die Induktion von nur zwei Genen, die eine Rolle in der Abwehr gegen den oxidativen Stress spielen gemessen werden, so dass insgesamt nur ein geringer kompensatorischer Effekt auf die MnSOD-Defizienz erreicht wird. Ein Vergleich der differentiell exprimierten Gene in der Hepatozyten-spezifischen MnSOD-defizienten Maus mit differentiell exprimierten Genen aus unter Hypoxie inkubierten bzw. HIF-1α-dominant-aktiven arteriellen Endothelzellen brachte keine Überschneidungen und zeigt, dass die höheren ROS-Level in den MnSOD-defizienten Hepatozyten die Hypoxie nicht imitieren bzw. nicht zu einer Expression von HIF-1-Targetgenen führen. Die MnSOD-defizienten Lebern waren auch anfälliger für die Entwicklung von hepatozellulären präneoplastischen Läsionen nach Induktion durch eine Einzeldosis Diethylnitrosamin (DEN). Die Anzahl der präneoplastischen Herde und die Bildung von Adenomen war im Vergleich zu den Wildtyptieren bei den Hepatozyten-spezifischen MnSOD-defizienten Tieren signifikant erhöht. Diese Daten zeigten, dass die Entstehung von präneoplastischen Läsionen und Tumoren unter Einwirkung von karzinogenen Substanzen bei den Hepatozyten-spezifischen MnSOD(-/-)-Mäusen mit einer stark erhöhten Rate im Vergleich zu den Wildtyptieren auftritt. Damit konnte die Rolle der MnSOD als Tumorsuppressor zumindest für die Leber bestätigt bzw. direkt aufgezeigt werden.
Faser-Kunststoff-Verbunde (FKV) werden aufgrund ihres hohen Leichtbaupotentials
in vielen Industriebereichen eingesetzt. Eine Verstärkung von Kunststoffen mit Fasern
führt zu einer deutlichen Verbesserung der mechanischen Eigenschaften. Positive
Veränderungen des Eigenschaftsspektrums sind zum Beispiel deutliche Verbesserungen
des Zug-E-Moduls und der Zugfestigkeit. Negative Erscheinungen, die aus
der Faserverstärkung resultieren können, sind eine geringere Bruchdehnung des
Verbundwerkstoffes und ein spröderes Bruchverhalten bei Impakt- und Crashbelastung.
Um diesen Nachteil auszugleichen, werden vermehrt Metall-Kunststoff-
Composites (Hybridverbundwerkstoffe) entwickelt, bei denen die positiven Eigenschaften
von Metallen und Faser-Kunststoff-Verbunden gezielt kombiniert werden,
um weitere Eigenschaftsverbesserungen zu erreichen.
Die vorliegende Arbeit behandelt die Entwicklung eines Herstellungsverfahrens sowie
die Charakterisierung, Modellierung und Simulation von neuartigen hybriden
edelstahltextilverstärkten Polypropylen- (ETV-PP) und Polypropylen/Langglasfaser-
Werkstoffen (ETV-PP/GF). Für die Fertigung von ETV-Verbundwerkstoffen wurde ein
zweistufiges Verfahren im Labormaßstab erarbeitet und eingeführt. Während der
Fertigungsstudien wurden ausgewählte Prozess- und Materialparameter variiert, um
deren Einfluss auf die mechanischen Eigenschaften der neuartigen ETVFaserkunststoffverbunde
(ETV-FKV) zu untersuchen. Nicht in jedem Fall konnte eine
eindeutige Abhängigkeit der mechanischen Eigenschaft von der variierten Prozessgröße
festgestellt werden. Wenn die Ergebnisse in ihrer Gesamtheit betrachtet werden,
treten folgende zwei äußerst positive Effekte in den Vordergrund: Zum einen
konnte durch den Einsatz der Edelstahltextilverstärkungen die Fragmentierungsneigung
von spröden PP-Matrixsystemen bei Impaktbelastung erheblich verringert werden
und zum anderen wurde die Energieabsorption bei hochdynamischer Durchstoßbeanspruchung
signifikant verbessert. Die mittels Licht- und Rasterelektronenmikroskopie
(REM) identifizierte schlechte Stahl/PP-Anhaftung konnte durch eine
mechanische Vorbehandlung der Verstärkungstextilien ebenfalls gesteigert werden.
Modelle zur mikromechanischen finite Elemente (FE) Simulation des Zug-E-Moduls
von ETV-Verbundwerkstoffen wurden entwickelt und anhand von experimentellen
Daten verifiziert und validiert.
This dissertation is intended to give a systematic treatment of hypersurface singularities in arbitrary characteristic which provides the necessary tools, theoretically and computationally, for the purpose of classification. This thesis consists of five chapters: In chapter 1, we introduce the background on isolated hypersurface singularities needed for our work. In chapter 2, we formalize the notions of piecewise-homogeneous grading and we discuss thoroughly non-degeneracy in arbitrary characteristic. Chapter 3 is devoted to determinacy and normal forms of isolated hypersurface singularities. In the first part, we give finite determinacy theorems in arbitrary characteristic with respect to right respectively contact equivalence. Furthermore, we show that "isolated" and finite determinacy properties are equivalent. In the second part, we formalize Arnol'd's key ideas for the computation of normal forms an define the conditions (AA) and (AAC). The last part of Chapter 3 is devoted to the study of normal forms in the general setting of hypersurface singularities imposing neither condition (A) nor Newton-Nondegeneracy. In Chapter 4, we present algorithms which we implement in Singular for the purpose of explicit computation of regular bases and normal forms. In chapter 5, we transfer some classical results on invariants over the field C of complex numbers to algebraically closed fields of characteristic zero known as Lefschetz principle.
We study the extension of techniques from Inductive Logic Programming (ILP) to temporal logic programming languages. Therefore we present two temporal logic programming languages and analyse the learnability of programs from these languages from finite sets of examples. In first order temporal logic the following topics are analysed: - How can we characterize the denotational semantics of programs? - Which proof techniques are best suited? - How complex is the learning task? In propositional temporal logic we analyse the following topics: - How can we use well known techniques from model checking in order to refine programs? - How complex is the learning task? In both cases we present estimations for the VC-dimension of selected classes of programs.
This Dissertation tried to provide insights into the influences of individual and contextual factors on Technical and Vocational Education and Training (TVET) teachers’ learning and professional development in Ethiopia. Specifically, this research focused on identifying and determining the influences of teachers’ self perception as learners and professionals, and investigates the impact of the context, process and content of their learning and experiences on their professional development. The knowledge of these factors and their impacts help in improving the learning and professional development of the TVET teachers and their professionalization. This research tried to provide answers for the following five research questions. (1) How do TVET teachers perceive themselves as active learners and as professionals? And what are the implications of their perceptions on their learning and development? (2) How do TVET teachers engage themselves in learning and professional development activities? (3) What contextual factors facilitated or hindered the TVET Teachers’ learning and professional development? (4) Which competencies are found critical for the TVET teachers’ learning and professional development? (5) What actions need to be considered to enhance and sustain TVET teachers learning and professional development in their context? It is believed that the research results are significant not only to the TVET teachers, but also to schools leaders, TVET Teacher Training Institutions, education experts and policy makers, researchers and others stakeholders in the TVET sector. The theoretical perspectives adopted in this research are based on the systemic constructivist approach to professional development. An integrated approach to professional development requires that the teachers’ learning and development activities to be taken as an adult education based on the principles of constructivism. Professional development is considered as context - specific and long-term process in which teachers are trusted, respected and empowered as professionals. Teachers’ development activities are sought as more of collaborative activities portraying the social nature of learning. Schools that facilitate the learning and development of teachers exhibit characteristics of a learning organisation culture where, professional collaboration, collegiality and shared leadership are practiced. This research has drawn also relevant point of views from studies and reports on vocational education and TVET teacher education programs and practices at international, continental and national levels. The research objectives and the types of research questions in this study implied the use of a qualitative inductive research approach as a research strategy. Primary data were collected from TVET teachers in four schools using a one-on-one qualitative in-depth interview method. These data were analyzed using a Qualitative Content Analysis method based on the inductive category development procedure. ATLAS.ti software was used for supporting the coding and categorization process. The research findings showed that most of the TVET teachers neither perceive themselves as professionals nor as active learners. These perceptions are found to be one of the major barriers to their learning and development. Professional collaborations in the schools are minimal and teaching is sought as an isolated individual activity; a secluded task for the teacher. Self-directed learning initiatives and individual learning projects are not strongly evident. The predominantly teacher-centered approach used in TVET teacher education and professional development programs put emphasis mainly to the development of technical competences and has limited the development of a range of competences essential to teachers’ professional development. Moreover, factors such as the TVET school culture, the society’s perception of the teaching profession, economic conditions, and weak links with industries and business sectors are among the major contextual factors that hindered the TVET teachers’ learning and professional development. A number of recommendations are forwarded to improve the professional development of the TVET teachers. These include change in the TVET schools culture, a paradigm shift in TVET teacher education approach and practice, and development of educational policies that support the professionalization of TVET teachers. Areas for further theoretical research and empirical enquiry are also suggested to support the learning and professional development of the TVET teachers in Ethiopia.
Subject of this book is an epistemological consideration - a consideration which could be characterised as a main theme - maybe the main theme - of that part of philosophy we all know as epistemology: the nature of knowledge. But other than the most essays on the subject of knowledge, here I am going to deal with a largely overlooked account to try to find an answer to the epistemological question of knowledge. This is the mental state account of knowledge (Price in his 'Belief' the formulation ``mental acts'' and Williamson talks about a ``state of mind''). Or to put it into the question I chose as title: is knowledge a mental state? We have to concede first that there is only a small group of philosophers who used to explain knowledge in terms of a mental state, particularly the `Oxford Realists'. And secondly, the acceptance of the MS thesis is low and negative. There is an interesting detail here: unlike the poor interest in an epistemic theory such as the MS thesis, philosophers like Prichard or Austin (and their philosophical thinking) are not really living in the shadows of philosophical consideration. Indeed their philosophical impact is high level, if we consider for instance Prichard's moral writings or Austin's theory of speech acts. I think we can conclude from this fact that the reason of the `negative' ignorance in respect of their epistemological point of view was not caused by a negative quality of their philosophy. Now, the question we are faced with (and that should be answered here) is: what is wrong with the MS thesis even though it is held by high class philosophers? Why is the epistemic thinking of Cook Wilson, Prichard and Austin afflicted with such ignorance? I will try to explain this later on with the notion of an unreflected Platonian heritage during 2000 years of epistemic thinking - a notion which is similar to a point Hetherington has called ``epistemic absolutism''. So, there are three main purposes which I am pursuing in this consideration: 1.To explain the reasons why there is such an ignorance towards an assertion of the MS thesis. I am going to pursue this through an analysis of knowledge which will demonstrate the inappropriateness of the JTB thesis as an adequate analysis of knowledge. 2.To describe that it is a mistake to ignore or at least underestimate the MS thesis in the discussion of an appropriate definition of knowledge and to maintain that the MS thesis is the key to a general theory of knowledge. 3.Conclusion: If the first two steps are correct, the JTB thesis is insufficient in order to give an account of the nature of knowledge in general. A consequence from this is: all the epistemic theories which are dealing with the JTB thesis are based on deficient assumptions. Hence their results - notably the well-known externalism/internalism debate - are insufficient, too. So, there is a need for a new theory of knowledge based on the MS thesis. In the course of my consideration I am going to justify the following three theses: i) The JTB thesis as a definition of knowledge in general is deficient, as the JTB thesis describes the propositional aspect of knowledge only. But the propositional knowledge - the so-called `knowledge that' - is merely one element among others that has to be recognized in search of a theory of knowledge. ii) The status of the `knowledge that' is derivative and not ultimate. It is derived from the non- propositional knowledge in order to make the non-propositional knowledge communicable to others. The mode of the `knowledge that' is indirect and thus can be stated in the third person point of view only. This ultimate kind of knowledge - the knowledge which the `knowledge that' is derived from - is the non-propositional knowledge. Its mode is direct and hence it is restricted to the first person point of view. Therefore the basis towards a theory of knowledge in general has to be this non-propositional aspect of knowledge. iii) Hence, taking the first two theses for granted, an appropriate theory of knowledge needs an account of the non-propositional knowledge. The MS thesis will accomplish this task.
(1) Das Konstrukt des Lebensstils stellt für den Automobilmarkt in erster Linie ein Instrument zur Segmentierung des Marktes dar. Bestimmte Zielgruppen werden identifiziert und der Absatz der Produkte für diesen Personenkreis wird optimiert. Standardisierte Modelle der Sozialwissenschaften werden in der Ökonomie unmittelbar eingesetzt. Untersucht wurde der Lebensstil im Rahmen dieser Arbeit in einem erweiterten Kontext – unter anderem erfolgte eine Betrachtung des Lebensstils neben alternativen Methoden der Marktsegmentierung. (2) Im Mittelpunkt stand eine Fallstudie bei Peugeot Deutschland, einem Importeur französischer Fahrzeuge in Deutschland. Der Nutzen des Lebensstils für diesen Anbieter im Automobilmarkt wurde quantifiziert und in Relation zu weiteren Verfahren der Zielgruppenselektion gestellt. Dazu erfolgte zunächst eine Darstellung des aktuellen Standes der Sozialforschung zum Thema Lebensstil mit den für ein Unternehmen heute relevanten Modellen der Institute und Agenturen. (3) Zu Beginn des empirischen Teils stand eine ausführliche Analyse der aktuellen Rahmenbedingungen im Automobilmarkt. Es folgte die Erörterung der besonderen Situation von Peugeot als deutsche Importortorganisation einer französischen Konzernzentrale. Vier umfangreiche Experteninterviews sowie eine Inhaltsanalyse von Schulungsunterlagen verdeutlichten die aktuelle Nutzung der verschiedenen Möglichkeiten der Marktsegmentierung bei Peugeot in Deutschland. (4) Über eine Diskriminanzanalyse wurde in Folge ein Modell für eine Optimierung der Zielgruppenplanung erarbeitet, welche in Relation zu bestehenden Ansätzen, besonders den Typologien des Lebensstils, gestellt wurde. Es konnte für die Marke Peugeot in Deutschland aufgezeigt werden, dass die Variablen des Lebensstils grundsätzlich eine hohe Erklärungskraft für das Konsumverhalten besitzen, diese jedoch eine geringere Bedeutung als geografische oder soziodemografische Merkmale aufweisen. Weiterhin wurde die Diskriminanzanalyse für die Optimierung in der Media-Planung eingesetzt. Dargestellt wurde am Beispiel der Media-Planung, dass eine Kombination der Kriterien des Lebensstils mit automobilspezifischen Variablen effizienter ist als die Verwendung einheitlicher Lebensstiltypologien der Institute.
Knowledge discovery from large and complex collections of today’s scientific datasets is a challenging task. With the ability to measure and simulate more processes at increasingly finer spatial and temporal scales, the increasing number of data dimensions and data objects is presenting tremendous challenges for data analysis and effective data exploration methods and tools. Researchers are overwhelmed with data and standard tools are often insufficient to enable effective data analysis and knowledge discovery. The main objective of this thesis is to provide important new capabilities to accelerate scientific knowledge discovery form large, complex, and multivariate scientific data. The research covered in this thesis addresses these scientific challenges using a combination of scientific visualization, information visualization, automated data analysis, and other enabling technologies, such as efficient data management. The effectiveness of the proposed analysis methods is demonstrated via applications in two distinct scientific research fields, namely developmental biology and high-energy physics. Advances in microscopy, image analysis, and embryo registration enable for the first time measurement of gene expression at cellular resolution for entire organisms. Analysis of highdimensional spatial gene expression datasets is a challenging task. By integrating data clustering and visualization, analysis of complex, time-varying, spatial gene expression patterns and their formation becomes possible. The analysis framework MATLAB and the visualization have been integrated, making advanced analysis tools accessible to biologist and enabling bioinformatic researchers to directly integrate their analysis with the visualization. Laser wakefield particle accelerators (LWFAs) promise to be a new compact source of highenergy particles and radiation, with wide applications ranging from medicine to physics. To gain insight into the complex physical processes of particle acceleration, physicists model LWFAs computationally. The datasets produced by LWFA simulations are (i) extremely large, (ii) of varying spatial and temporal resolution, (iii) heterogeneous, and (iv) high-dimensional, making analysis and knowledge discovery from complex LWFA simulation data a challenging task. To address these challenges this thesis describes the integration of the visualization system VisIt and the state-of-the-art index/query system FastBit, enabling interactive visual exploration of extremely large three-dimensional particle datasets. Researchers are especially interested in beams of high-energy particles formed during the course of a simulation. This thesis describes novel methods for automatic detection and analysis of particle beams enabling a more accurate and efficient data analysis process. By integrating these automated analysis methods with visualization, this research enables more accurate, efficient, and effective analysis of LWFA simulation data than previously possible.
Die vorliegende Arbeit befasst sich mit der Generierung von organischen Nanopartikeln in einer übersättigten Gasströmung. Als Versuchsmaterialien kamen Kupferphthalocyanin und Paliogen Rot L4120 zum Einsatz. Sie werden bereits erfolgreich in der Informations- und Kommunikationstechnologie als Bestandteil in Halbleiterbaugruppen oder organischen Leuchtdioden eingesetzt. Gerade in solchen Anwendungsgebieten ist eine hohe Reinheit der Materialien unerlässlich. Gasphasenprozesse bieten diesen Vorteil einer hohen Reinheit der generierten Partikeln und schaffen deswegen im Hinblick auf innovative Anwendungsgebiete, den Anreiz zur Erforschung alternativer Prozesse zur Herstellung nanoskaliger organischer Partikeln aus der Gasphase. Durch die Sublimation des Ausgangsmaterials wurde eine untersättigte bis gesättigte Gasströmung erzeugt. Die Übersättigung wurde durch die adiabatische Entspannung in einer Lavaldüse und der sich anschließenden Expansion des Freistrahls in einer Expansionskammer erzeugt. Die dafür entwickelte Anlage wurde dabei so konzipiert, dass durch die modulare Bauweise verschiedene Techniken zur Generierung, Modifizierung oder Konditionierung der organischen Partikeln untersucht werden konnten. Die Arbeit gliedert sich in die vier folgenden Untersuchungsschwerpunkte: Generierung organischer Partikeln durch adiabatische Entspannung in Düsen. • Steuerung der Partikelbildung durch Prozessparameter. • Beeinflussung der Partikelbildung durch Ionen. • Herstellung von Core-Shell-Strukturen mit einem organischen Beschichtungsmaterial.
Im Rahmen dieser Arbeit konnte gezeigt werden, dass Cobalt(II)-Komplexe mit Akzeptor-substituierten β-Diketonat-abgeleiteten Liganden geeignete Reagenzien sind, um molekularen Sauerstoff effektiv zu aktivieren und zur stereoselektiven Synthese β-hydroxylierter Tetrahydrofurane aus 1-substituierter Bishomoallylalkoholen zu verwenden. Die Reaktionen verliefen hoch diastereoselektiv (cis:trans < 1:99) und lieferten 2,5-trans-konfigurierte 2-Hydroxymethyltetrahydrofurane. Reaktivität und Selektivität waren abhängig von Solvens, Temperatur, Katalysatormenge und -konzentration, O2-Druck sowie Substitutionsgrad an den reaktiven Teilstrukturen, d. h. der olefinischen Doppelbindung und der Hydroxylgruppe. Es konnten Beiträge präparativer und mechanistischer Art geleistet werden, die einerseits zu einem vertieften Verständnis der Gesamtreaktion und andererseits zu einer weiteren Anwendung der Cobalt(II)-katalysierten Oxidation von Alkenolen führten. In präparativer Hinsicht wurde zunächst eine verbesserte Methodik entwickelt, um Alkenoloxygenierungen in einer stationären O2-Atmosphäre ohne Substrat- und Produktverlust durchzuführen. Zur Optimierung der Reaktionsbedingungen bezüglich der oben genannten Parameter wurde die aerobe Oxidation von 2,2-Dimethyl-6-hepten-3-ol im Detail untersucht. Hierbei wurden unter Verwendung der Kombination aus Lösungsmittel iPrOH, 60 °C, c0 (CoIIKat.) = 1.25 ´ 10–2 M und 1 bar O2-Druck die höchsten Ausbeuten an Zielmolekül [5-(tert-Butyl)tetrahydrofur-2-yl]methanol (63–64 %) erzielt. Präparativ interessante Ausbeuten (53–66 %) an β-hydroxylierten Tetrahydrofuranen konnten ebenfalls für die Oxidation von 4-Phenylpent-4-en-1-ol sowie von (E)- und (Z)-konfigurierten Methyl- und Phenyl-substituierten Bishomoallylalkoholen unter Anwendung der optimierten Bedingungen erzielt werden. Die erhaltene 2,5-trans-Selektivität und die Diastereoselektivität in der Seitenkette waren hierbei unabhängig – die Reaktivität und Produktselektivität dagegen abhängig – von den Substituenten und der ursprünglichen Konfiguration der π-Bindung. Im Zusammenhang mit mechanistischen Fragenstellungen gelang zum ersten Mal eine nahezu vollständige Massenbilanzierung bei aeroben Oxidationen 1-substituierter Bishomoallylalkohole. Hierbei wurden Verbindungen, deren Bildung auf reduktive Cyclisierungen, C,C-π-Bindungsspaltungen, Dehydrierungen sowie Alken-Hydratisierungen und -Reduktionen zurückgeführt wird, als Nebenprodukte identifiziert und quantifiziert. Zudem konnte eine Umkehr der Produktselektivität zugunsten der Bildung von 2-Methyl-, 2-Ethyl- und 2-Benzyl-substituierten 2,5-trans-Tetrahydrofuranen nach Durchführung der Reaktion in einem Gemisch aus Cyclohexa-1,4-dien und Benzol [50:50 (v/v)] erreicht werden. Darüber hinaus gelang eine Quantifizierung von Wasser und Aceton, den Redoxkoppelprodukten aerober Alkenoloxidationen in Isopropanol. Dabei korrelierten die ermittelten Acetonmengen mit der Bildung der 2-Hydroxymethyltetrahydrofurane und die des Wassers mit dem Reaktionsumsatz. Basierend auf den erhaltenen Daten und unter Berücksichtigung vorliegender Informationen über ähnliche Umsetzungen aus der Literatur wurde ein mechanistischer Vorschlag für den Reaktionsverlauf Cobalt(II)-katalysierter Oxidationen von Bishomoallylalkoholen entworfen, welcher die Bevorzugung des 5-exo-Ringschlusses und die beobachteten Selektivitäten erklärt. Hierbei wurde das Auftreten eines Tetrahydrofurylalkylradikals als zentrale Zwischenstufe postuliert, welches durch Heteroatomdonoren oder durch Alkene zu 1/1-Addukten abgefangen werden könnten. Aufgrund der hohen Stereoselektivität des vorangegangenen Ringschlusses würde eine Anwendung der Methode insbesondere in der Naturstoffsynthese ganz neue Perspektiven eröffnen.
Product development with end-user integration is not an end in itself but a logical necessity due to divergent types of knowledge of the user and the developer of a product. While the user is an expert in regard to the product’s usage the developer is an expert in the product’s construction and functioning. For the development of high-end products both types of expertises were a prerequisite at all times. The efficient and throughout integration of the user’s perspective into existing product development approaches is the core of user-centred product development. Activities that are the basic ingredient of just any user-centred development approach can be roughly categorized into analysis, design and evaluation activities. Research and practice prove the early integration of real end-users within those activities to add significant and sustainable value to product innovation. The instrumental, methodological and procedural impact of globalization tendencies, on modern user-centred product development in particular, is the primary research focus of the field of cross-cultural user-centred product development. This research aims at the further advancement of the methodological foundations of cross-cultural user centred product development approaches based on a stabile and profound theoretical basis. Primary research objects are established user-analysis methodologies, which are mainly based on Western concepts and theories, and their applicability in disparate cultural contexts of the Far East (China and Korea in particular). For facilitating the adaptation of abstract method characteristics to the situational context of method application as foundation of cross-cultural methodological advancement, a model of method localization was developed. In alignment with internationalization and localization activities within product development processes, a framework for localizing user-centred methodologies was developed. Equivalent to internationalization activities of real product development, the abstraction of method traits from specific methodologies is a necessity in a first step. Methodological adaptation with the primary objective of optimizing situational application of a methodology is to be done in a second step – the step of method-localization. This model of method localization and its underlying theories and principles were tested within an extensive empirical study in Germany, China and Korea. Within this study the applicability of six distinct user-centred product development methodologies, each with its very own profile of abstract method traits, was tested with 248 participants in total. Results clearly back the basic hypothesis of method-localization, i.e. that the application of a user-centred methodology rises and falls with the alignment of its characteristic traits with the cross-cultural application context. Beyond, applicability-influencing factors identified within this study could be proven to be valid indicators of adaptation-necessities and –potentials of user-centred product development methodologies.
In der chemischen Industrie treten bei vielen Absorptions- und Desorptionsanlagen wässrige Lösungen flüchtiger schwacher Elektrolyte, d. h. chemisch gelöster saurer (z. B. Kohlendioxid, Schwefeldioxid) und basischer (z. B. Ammoniak) Gase auf, die oftmals auch Salze und organische Komponenten enthalten. Die dabei anfallenden Elektrolytlösungen müssen zur Rückgewinnung der beteiligten Einsatzstoffe sowie aus Umweltschutzgründen aufgearbeitet werden. Zur Auslegung und Optimierung solcher Verfahren sind Informationen zum Phasengleichgewicht erforderlich. Die Korrelation und Vorhersage solcher Phasengleichgewichte wird durch die in der flüssigen Phase ablaufenden chemischen Reaktionen und die dabei auftretenden ionischen Spezies maßgeblich beeinflusst. In früheren Arbeiten wurde ein thermodynamisches Modell für die Löslichkeit der Gase Kohlendioxid, Schwefeldioxid, Schwefelwasserstoff und Ammoniak in wässrigen, auch salzhaltigen Lösungen entwickelt, in dem die in der flüssigen Phase auftretenden chemischen Reaktionen zwischen Ammoniak und den sauren Gasen berücksichtigt werden. Der Einsatz dieses Modells ist jedoch auf das Lösungsmittel Wasser beschränkt. Um auch die Vorgänge in Lösungsmittelgemischen aus Wasser und organischen Komponenten (über den gesamten Konzentrationsbereich, d. h. vom reinen Wasser bis zum reinen organischen Lösungsmittel) beschreiben zu können, wurde von ein neues thermodynamisches Modell entwickelt. In der vorliegenden Arbeit wird dieses Modell weiter getestet und parametriert. Die hier vorliegende Arbeit behandelt Dampf – Flüssigkeit – Feststoff – Gleichgewichte (und die Gleichgewichte der benötigten Untersysteme) der Systeme (Wasser + Methanol + Ammoniak + Kohlendioxid + (Natriumchlorid / -sulfat)), (Wasser + Aceton + Kohlendioxid + (Natriumchlorid / -sulfat)) sowie (Wasser + 1–Propanol + 1–Methylimidazol + Natriumchlorid).
Modern digital imaging technologies, such as digital microscopy or micro-computed tomography, deliver such large amounts of 2D and 3D-image data that manual processing becomes infeasible. This leads to a need for robust, flexible and automatic image analysis tools in areas such as histology or materials science, where microstructures are being investigated (e.g. cells, fiber systems). General-purpose image processing methods can be used to analyze such microstructures. These methods usually rely on segmentation, i.e., a separation of areas of interest in digital images. As image segmentation algorithms rarely adapt well to changes in the imaging system or to different analysis problems, there is a demand for solutions that can easily be modified to analyze different microstructures, and that are more accurate than existing ones. To address these challenges, this thesis contributes a novel statistical model for objects in images and novel algorithms for the image-based analysis of microstructures. The first contribution is a novel statistical model for the locations of objects (e.g. tumor cells) in images. This model is fully trainable and can therefore be easily adapted to many different image analysis tasks, which is demonstrated by examples from histology and materials science. Using algorithms for fitting this statistical model to images results in a method for locating multiple objects in images that is more accurate and more robust to noise and background clutter than standard methods. On simulated data at high noise levels (peak signal-to-noise ratio below 10 dB), this method achieves detection rates up to 10% above those of a watershed-based alternative algorithm. While objects like tumor cells can be described well by their coordinates in the plane, the analysis of fiber systems in composite materials, for instance, requires a fully three dimensional treatment. Therefore, the second contribution of this thesis is a novel algorithm to determine the local fiber orientation in micro-tomographic reconstructions of fiber-reinforced polymers and other fibrous materials. Using simulated data, it will be demonstrated that the local orientations obtained from this novel method are more robust to noise and fiber overlap than those computed using an established alternative gradient-based algorithm, both in 2D and 3D. The property of robustness to noise of the proposed algorithm can be explained by the fact that a low-pass filter is used to detect local orientations. But even in the absence of noise, depending on fiber curvature and density, the average local 3D-orientation estimate can be about 9° more accurate compared to that alternative gradient-based method. Implementations of that novel orientation estimation method require repeated image filtering using anisotropic Gaussian convolution filters. These filter operations, which other authors have used for adaptive image smoothing, are computationally expensive when using standard implementations. Therefore, the third contribution of this thesis is a novel optimal non-orthogonal separation of the anisotropic Gaussian convolution kernel. This result generalizes a previous one reported elsewhere, and allows for efficient implementations of the corresponding convolution operation in any dimension. In 2D and 3D, these implementations achieve an average performance gain by factors of 3.8 and 3.5, respectively, compared to a fast Fourier transform-based implementation. The contributions made by this thesis represent improvements over state-of-the-art methods, especially in the 2D-analysis of cells in histological resections, and in the 2D and 3D-analysis of fibrous materials.
This thesis deals with the following question. Given a moduli space of coherent sheaves on a projective variety with a fixed Hilbert polynomial, to find a natural construction that replaces the subvariety of the sheaves that are not locally free on their support (we call such sheaves singular) by some variety consisting of sheaves that are locally free on their support. We consider this problem on the example of the coherent sheaves on \(\mathbb P_2\) with Hilbert polynomial 3m+1.
Given a singular coherent sheaf \(\mathcal F\) with singular curve C as its support we replace \(\mathcal F\) by locally free sheaves \(\mathcal E\) supported on a reducible curve \(C_0\cup C_1\), where \(C_0\) is a partial normalization of C and \(C_1\) is an extra curve bearing the degree of \(\mathcal E\). These bundles resemble the bundles considered by Nagaraj and Seshadri. Many properties of the singular 3m+1 sheaves are inherited by the new sheaves we introduce in this thesis (we call them R-bundles). We consider R-bundles as natural replacements of the singular sheaves. R-bundles refine the information about 3m+1 sheaves on \(\mathbb P_2\). Namely, for every isomorphism class of singular 3m+1 sheaves there are \(\mathbb P_1\) many equivalence classes of R-bundles. There is a variety \(\tilde M\) of dimension 10 that may be considered as the space of all the isomorphism classes of the non-singular 3m+1 sheaves on \(\mathbb P_2\) together with all the equivalence classes of all R-bundles. This variety is obtained by blowing up the moduli space of 3m+1 sheaves on \(\mathbb P_2\) along the subvariety of singular sheaves. We modify the definition of a 3m+1 family and obtain a notion of a new family over an arbitrary variety S. In particular 3m+1 families of the non-singular sheaves on \(\mathbb P_2\) are families in this sense. New families over one point are either non-singular 3m+1 sheaves or R-bundles. For every variety S we introduce an equivalence relation on the set of all new families over S. The notion of equivalence for families over one point coincides with isomorphism for non-singular 3m+1 sheaves and with equivalence for R-bundles. We obtain a moduli functor \(\tilde{\mathcal M}:(Sch) \rightarrow (Sets)\) that assigns to every variety S the set of the equivalence classes of the new families over S. There is a natural transformation of functors \(\tilde{\mathcal M}\rightarrow \mathcal M\) that establishes a relation between \(\tilde{\mathcal M}\) and the moduli functor \(\mathcal M\) of the 3m+1 moduli problem on \(\mathbb P_2\). There is also a natural transformation \(\tilde{\mathcal M} \rightarrow Hom(\__ ,\tilde M)\), inducing a bijection \(\tilde{\mathcal M}(pt)\cong \tilde M\), which means that \(\tilde M\) is a coarse moduli space of the moduli problem \(\tilde{\mathcal M}\).
Es ist bekannt, dass die Genese von Darmerkrankungen von der aufgenommenen Nahrung beeinflusst wird. Der Genuss von Apfelprodukten mit hoher antioxidativer Wirksamkeit könnte daher zur Prävention ROS-assoziierter Erkrankungen beitragen. Ziel der vorliegenden Arbeit war die Untersuchung von polyphenolreichen Extrakte aus Apfelsaft (AE01–AE07), Tresterextraktionssaft (AE03B, AE06B) und Apfelschalen (GS, PE) sowie von Polyphenolen auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Caco-2 Zellen. Zur Annäherung an die in vivo-Situation wurden mit Darmbakterien fermentierte Apfelsaftextrakte/Trub in die Untersuchungen einbezogen, dabei entstehende Abbauprodukte wurden charakterisiert und ebenfalls geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level, GSH-Spiegel und SOD1-Expression. Zusätzlich wurde die zellfreie antioxidative Kapazität (ORAC/TEAC) erfasst. Die antioxidative Kapazität aller Extrakte war hoch und korrelierte mit dem Gehalt an Polyphenolen bzw. Procyanidinen. Der zelluläre ROS-Level wurde am effektivsten durch AE07 und GS reduziert, während AE05, AE06B und GS den besten Schutz vor oxidativen DNA-Schäden boten. Eine Erhöhung des tGSH-Spiegels konnte durch Inkubation mit AE06, AE07, GS und PE erreicht werden. Die Ergebnisse legen nahe, dass vor allem Flavonol/Procyanidin-reiche Extrakte eine gute protektive Wirksamkeit aufweisen. Die fermentierten Extrakte zeigten eine deutliche antioxidative Wirksamkeit, was vor allem den identifizierten phenolischen Abbauprodukten zugeschrieben werden konnte, die fast alle eine ausgeprägte Wirksamkeit im zellfreien und zellulären System zeigten. Es ist nicht auszuschließen, dass auch andere Komponenten (wie z.B. SCFA) zur protektiven Wirksamkeit fermentierter Extrakte beitragen könnten. Der fermentierte Trub erwies sich in den Untersuchungen als unwirksam, da in ihm keine Polyphenole identifiziert werden konnten. Weiterhin wurden auch Polyphenol-vermittelte prooxidative Effekte untersucht, für die sich neben einer starken Strukturabhängigkeit die Wahl des verwendeten Mediums als entscheidender Faktor für die beobachtete H2O2-Bildung erwies. Es wurden keine adversen Effekte auf zelluläre Marker beobachtet, vielmehr könnte die Wirksamkeit der Polyphenole durch geringe Mengen an ROS unterstützt werden, da diese die antioxidative Abwehr der Zellen aktivieren. Insgesamt erwiesen sich phenolische Extrakte aus Apfelbestandteilen als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzellen. In begleitenden Untersuchungen mit Einzelstoffen wurden Polyphenole identifiziert, die wesentlich zur protektiven Wirkung der Extrakte beitragen. Es konnte gezeigt werden, dass die protektive Wirksamkeit von Extrakten und Inhaltsstoffen trotz intestinalen Abbaus persistiert und dass eine moderate prooxidative Wirksamkeit der Polyphenole in Zellen einen günstigen Einfluss auf deren antioxidative Abwehr ausüben kann.
Im Rahmen dieser Arbeit wurde die Adduktbildung von Acrylamid und Glycidamid mit dem N-terminalen Valin des Hämoglobins unter verschiedenen Aspekten untersucht. Die Bestimmung der Biomarker AAVal und GAVal erfolgte unter Anwendung des modifizierten Edman-Abbaus und einer sich anschließenden Analytik mittels LC/MS/MS oder GC/MS. Die zur Quantifizierung von AAVal und GAVal benötigten Pentafluorphenylthiohydantoin-Derivate wurden synthetisiert und charakterisiert. Mit Hilfe der GC/MS-Methodik wurden Hintergrundadduktgehalte gefunden, die bei Nichtrauchern durchschnittlich 37 pmol AAVal/g Hb und 21 pmol GAVal/g Hb betrugen, während Raucher mit durchschnittlich 91 pmol AAVal/g Hb deutlich höhere Werte aufwiesen. Diese Werte liegen im Bereich der üblicherweise gefundenen Hintergrundadduktgehalte für AAVal und GAVal. Ein Raucher wies abweichend davon mit 859 pmol AAVal/g Hb und 211 pmol GAVal/g Hb eine überdurchschnittlich hohe Hintergrundbelastung auf. Es wurde eine Dosimetrie der Adduktbildung von Acrylamid und Glycidamid durch Inkubation von Humanblut durchgeführt. Die LC/MS/MS-Methodik wies dabei keine ausreichende Sensitivität auf. Die Kinetik dieser Reaktion im Konzentrationsbereich der Hintergrundadduktgehalte nach Inkubation mit 0,3, 3 und 10 µM für 1 bzw. 4 Stunden wurde deshalb mittels GC/MS untersucht. Nach vierstündiger Inkubation zeigte der AAVal-Gehalt bei Inkubation mit 0,3 µM Acrylamid einen statistisch signifikanten Anstieg (p<0,01), während der GAVal-Gehalt erst bei Inkubation mit 3 µM Glycidamid statistisch signifikant anwuchs (p<0,01). Im Hinblick auf die unter vergleichbaren Bedingungen mittels Comet Assay detektierten DNA-Strangbrüche ab 10 µM Glycidamid, kann auf Grund des geringen Konzentrationsabstandes ein partieller Schutz der Zellen vor Glycidamid-induzierten DNA-Schäden durch Addukbildung mit dem Hämoglobin angenommen werden. Die um den Faktor 2-4 höher erscheinende Reaktivität von Acrylamid gegenüber dem N-terminalen Valin kann durch weitere Bestandteile im Blut mit nukleophilen Zentren beeinflusst sein. Um die Effektivität der Abspaltung von AAVal und GAVal bei der Derivatisierung zu den PFPTH-Derivaten bei Quantifizierung des Adduktgehaltes berücksichtigen zu sollten Methoden zur Verwendung von Dipeptid-Standardsubstanzen etabliert werden. Auf Grund der Unsicherheiten bei der Charakterisierung wurden diese jedoch nur für orientierende Untersuchungen verwendet. Nach Inkubation des humanen Vollblutes mit 3 und 30 µM [2,3-14C-Acrylamid] für 15 Minuten, 1, 4 oder 6 Stunden zeigte sich eine schnelle Verteilung des Acrylamids über die einzelnen Blutkompartimente und eine schnell erfolgende Reaktion mit nukleophilen Zentren. Die Radioaktivität liegt zu 9-14 % an Plasmaproteine gebunden vor, während auf das Hämoglobin 7 % und auf Erythrozytenfragmente weitere 8 % entfallen. Somit liegen 25-35 % des Acrylamids gebunden vor. Es ist jedoch auf Grund der hohen Konzentration von GSH im Erythrozyten-Zytosol eine insgesamt höhere Bindung des Acrylamids zu erwarten. Im Rahmen einer humanen Acrylamid-Verzehrsstudie wurde die zeitliche Veränderung von AAVal und GAVal bei 3 ausgewählten Probanden nach der in der jeweiligen Studienphase in Form von Kartoffelchips verabreichten Menge von 1 mg untersucht. In der Referenzperiode R zeigte AAVal bei diesen Probanden einen durchschnittlichen Anstieg von 17 %. Eine höhere Zuwachsrate von 39 % zeigte AAVal in der Testperiode T1, in der CYP 2E1 durch Disulfiram gehemmt wurde und somit kein oxidativer Metabolismus zu Glycidamid stattfand. In der Testperiode T2, in der CYP 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wies AAVal einen der Referenzphase vergleichbaren Anstieg um 19 % auf. Die höhere statistische Signifikanz des Anstiegs von AAVal in der Testperiode T1 im Vergleich zu den beiden anderen Studienabschnitten konnte mit Hilfe einer geeigneten statistischen Auswertung gezeigt werden. Für GAVal hingegen konnte auf Grund der größeren Messwertschwankungen nur für die gesamte Studiendauer ein Anstieg um 49 % festgestellt werden. Für den Anstieg von GAVal deutet sich ein Zusammenhang mit der individuellen CYP 2E1-Aktivität der drei Probanden, deren Phänotypisierung mittels Chlorzoxazon-Metabolismus bestimmt wurde. Diese Tendenz bestätigt sich jedoch nicht für die Gesamtheit der 16 Probanden. In dieser Arbeit wurde die Effizienz der Adduktbildung von Acrylamid und Glycidamid mit Hämoglobin unter verschiedenen Aspekten aufgezeigt. Ob die protektiven Mechanismen auf zellulärer Ebene ausreichend sind, um elektrophile Xenobiotika wie Acrylamid und Glycidamid bis hin zu einem möglicherweise vorhandenen Schwellenwert biologisch zu inaktivieren, müssen weitere Untersuchungen aufzeigen.
In engineering and science, a multitude of problems exhibit an inherently geometric nature. The computational assessment of such problems requires an adequate representation by means of data structures and processing algorithms. One of the most widely adopted and recognized spatial data structures is the Delaunay triangulation which has its canonical dual in the Voronoi diagram. While the Voronoi diagram provides a simple and elegant framework to model spatial proximity, the core of which is the concept of natural neighbors, the Delaunay triangulation provides robust and efficient access to it. This combination explains the immense popularity of Voronoi- and Delaunay-based methods in all areas of science and engineering. This thesis addresses aspects from a variety of applications that share their affinity to the Voronoi diagram and the natural neighbor concept. First, an idea for the generalization of B-spline surfaces to unstructured knot sets over Voronoi diagrams is investigated. Then, a previously proposed method for \(C^2\) smooth natural neighbor interpolation is backed with concrete guidelines for its implementation. Smooth natural neighbor interpolation is also one of many applications requiring derivatives of the input data. The generation of derivative information in scattered data with the help of natural neighbors is described in detail. In a different setting, the computation of a discrete harmonic function in a point cloud is considered, and an observation is presented that relates natural neighbor coordinates to a continuous dependency between discrete harmonic functions and the coordinates of the point cloud. Attention is then turned to integrating the flexibility and meritable properties of natural neighbor interpolation into a framework that allows the algorithmically transparent and smooth extrapolation of any known natural neighbor interpolant. Finally, essential properties are proved for a recently introduced novel finite element tessellation technique in which a Delaunay triangulation is transformed into a unique polygonal tessellation.
Das zentrale Thema dieser Arbeit sind vollständig gekoppelte reflektierte Vorwärts-Rückwärts-Stochastische-Differentialgleichungen (FBSDE). Zunächst wird ein Spezialfall, die teilweise gekoppelten FBSDE, betrachtet und deren Verbindung zur Bewertung Amerikanischer Optionen aufgezeigt. Für die Lösung dieser Gleichung wird Monte-Carlo-Simulation benötigt, daher werden verschiedene Varianzreduktionsmaßnahmen erarbeitet und miteinander verglichen. Im Folgenden wird der allgemeinere Fall der vollständig gekoppelten reflektierten FBSDE behandelt. Es wird gezeigt, wie das Problem der Lösung dieser Gleichungen in ein Optimierungsproblem übertragen werden kann und infolgedessen mit numerischen Methoden aus diesem Bereich der Mathematik bearbeitet werden kann. Abschließend folgen Vergleiche der verschiedenen numerischen Ansätze mit bereits existierenden Verfahren.
The thesis at hand deals with the numerical solution of multiscale problems arising in the modeling of processes in fluid and thermo dynamics. Many of these processes, governed by partial differential equations, are relevant in engineering, geoscience, and environmental studies. More precisely, this thesis discusses the efficient numerical computation of effective macroscopic thermal conductivity tensors of high-contrast composite materials. The term "high-contrast" refers to large variations in the conductivities of the constituents of the composite. Additionally, this thesis deals with the numerical solution of Brinkman's equations. This system of equations adequately models viscous flows in (highly) permeable media. It was introduced by Brinkman in 1947 to reduce the deviations between the measurements for flows in such media and the predictions according to Darcy's model.
In the context of inverse optimization, inverse versions of maximum flow and minimum cost flow problems have thoroughly been investigated. In these network flow problems there are two important problem parameters: flow capacities of the arcs and costs incurred by sending a unit flow on these arcs. Capacity changes for maximum flow problems and cost changes for minimum cost flow problems have been studied under several distance measures such as rectilinear, Chebyshev, and Hamming distances. This thesis also deals with inverse network flow problems and their counterparts tension problems under the aforementioned distance measures. The major goals are to enrich the inverse optimization theory by introducing new inverse network problems that have not yet been treated in the literature, and to extend the well-known combinatorial results of inverse network flows for more general classes of problems with inherent combinatorial properties such as matroid flows on regular matroids and monotropic programming. To accomplish the first objective, the inverse maximum flow problem under Chebyshev norm is analyzed and the capacity inverse minimum cost flow problem, in which only arc capacities are perturbed, is introduced. In this way, it is attempted to close the gap between the capacity perturbing inverse network problems and the cost perturbing ones. The foremost purpose of studying inverse tension problems on networks is to achieve a well-established generalization of the inverse network problems. Since tensions are duals of network flows, carrying the theoretical results of network flows over to tensions follows quite intuitively. Using this intuitive link between network flows and tensions, a generalization to matroid flows and monotropic programs is built gradually up.
The goal of this work is the development and investigation of an interdisciplinary and in itself closed hydrodynamic approach to the simulation of dilute and dense granular flow. The definition of “granular flow” is a nontrivial task in itself. We say that it is either the flow of grains in a vacuum or in a fluid. A grain is an observable piece of a certain material, for example stone when we mean the flow of sand. Choosing a hydrodynamic view on granular flow, we treat the granular material as a fluid. A hydrodynamic model is developed, that describes the process of flowing granular material. This is done through a system of partial differential equations and algebraic relations. This system is derived by the kinetic theory of granular gases which is characterized by inelastic collisions extended with approaches from soil mechanics. Solutions to the system have to be obtained to understand the process. The equations are so difficult to solve that an analytical solution is out of reach. So approximate solutions must be obtained. Hence the next step is the choice or development of a numerical algorithm to obtain approximate solutions of the model. Common to every problem in numerical simulation, these two steps do not lead to a result without implementation of the algorithm. Hence the author attempts to present this work in the following frame, to participate in and contribute to the three areas Physics, Mathematics and Software implementation and approach the simulation of granular flow in a combined and interdisciplinary way. This work is structured as follows. A continuum model for granular flow which covers the regime of fast dilute flow as well as slow dense flow up to vanishing velocity is presented in the first chapter. This model is strongly nonlinear in the dependence of viscosity and other coefficients on the hydrodynamic variables and it is singular because some coefficients diverge towards the maximum packing fraction of grains. Hence the second difficulty, the challenging task of numerically obtaining approximate solutions for this model is faced in the second chapter. In the third chapter we aim at the validation of both the model and the numerical algorithm through numerical experiments and investigations and show their application to industrial problems. There we focus intensively on the shear flow experiment from the experimental and analytical work of Bocquet et al. which serves well to demonstrate the algorithm, all boundary conditions involved and provides a setting for analytical studies to compare our results. The fourth chapter rounds up the work with the implementation of both the model and the numerical algorithm in a software framework for the solution of complex rheology problems developed as part of this thesis.
Limit theorems constitute a classical and important field in probability theory. In several applications, in particular in demographic or medical contexts, killed Markov processes suggest themselves as models for populations undergoing culling by mortality or other processes. In these situations mathematical research features a general interest in the observable distribution of survivors, which is known as Yaglom limit or quasi-stationary distribution. Previous work often focuses on discrete state spaces, commonly birth-death processes (or with some more flexible localization of the transitions), with killing only on the boundary. The central concerns of this thesis are to describe, for a given class of one dimensional diffusion processes, the quasistationary distributions (if any), and to describe the convergence (or not) of the process conditioned on survival to one of these quasistationary distributions. Rather general diffusion processes on the half-line are considered, where 0 is allowed to be regular or an exit boundary. Very similar techniques are applied in this work in order to derive results on the large time behavior of an exotic measure valued process, which is closely related to so-called point interactions, which have been widely studied in the mathematical physics literature.
This study deals with the optimal control problems of the glass tube drawing processes where the aim is to control the cross-sectional area (circular) of the tube by using the adjoint variable approach. The process of tube drawing is modeled by four coupled nonlinear partial differential equations. These equations are derived by the axisymmetric Stokes equations and the energy equation by using the approach based on asymptotic expansions with inverse aspect ratio as small parameter. Existence and uniqueness of the solutions of stationary isothermal model is also proved. By defining the cost functional, we formulated the optimal control problem. Then Lagrange functional associated with minimization problem is introduced and the first and the second order optimality conditions are derived. We also proved the existence and uniqueness of the solutions of the stationary isothermal model. We implemented the optimization algorithms based on the steepest descent, nonlinear conjugate gradient, BFGS, and Newton approaches. In the Newton method, CG iterations are introduced to solve the Newton equation. Numerical results are obtained for two different cases. In the first case, the cross-sectional area for the entire time domain is controlled and in the second case, the area at the final time is controlled. We also compared the performance of the optimization algorithms in terms of the solution iterations, functional evaluations and the computation time.