Refine
Year of publication
- 2012 (66) (remove)
Document Type
- Doctoral Thesis (66) (remove)
Has Fulltext
- yes (66)
Keywords
- Transaction Costs (2)
- homogene Katalyse (2)
- Acrolein (1)
- Acrylamid (1)
- Additionsreaktion (1)
- Alkine (1)
- Alkylcarbonate (1)
- Amide (1)
- Apoptosis (1)
- Arithmetic data-path (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (22)
- Kaiserslautern - Fachbereich Mathematik (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Informatik (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (5)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (3)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Sozialwissenschaften (1)
Dealing with information in modern times involves users to cope with hundreds of thousands of documents, such as articles, emails, Web pages, or News feeds.
Above all information sources, the World Wide Web presents information seekers with great challenges.
It offers more text in natural language than one is capable to read.
The key idea for this research intends to provide users with adaptable filtering techniques, supporting them in filtering out the specific information items they need.
Its realization focuses on developing an Information Extraction system,
which adapts to a domain of concern, by interpreting the contained formalized knowledge.
Utilizing the Resource Description Framework (RDF), which is the Semantic Web's formal language for exchanging information,
allows extending information extractors to incorporate the given domain knowledge.
Because of this, formal information items from the RDF source can be recognized in the text.
The application of RDF allows a further investigation of operations on recognized information items, such as disambiguating and rating the relevance of these.
Switching between different RDF sources allows changing the application scope of the Information Extraction system from one domain of concern to another.
An RDF-based Information Extraction system can be triggered to extract specific kinds of information entities by providing it with formal RDF queries in terms of the SPARQL query language.
Representing extracted information in RDF extends the coverage of the Semantic Web's information degree and provides a formal view on a text from the perspective of the RDF source.
In detail, this work presents the extension of existing Information Extraction approaches by incorporating the graph-based nature of RDF.
Hereby, the pre-processing of RDF sources allows extracting statistical information models dedicated to support specific information extractors.
These information extractors refine standard extraction tasks, such as the Named Entity Recognition, by using the information provided by the pre-processed models.
The post-processing of extracted information items enables representing these results in RDF format or lists, which can now be ranked or filtered by relevance.
Post-processing also comprises the enrichment of originating natural language text sources with extracted information items by using annotations in RDFa format.
The results of this research extend the state-of-the-art of the Semantic Web.
This work contributes approaches for computing customizable and adaptable RDF views on the natural language content of Web pages.
Finally, due to the formal nature of RDF, machines can interpret these views allowing developers to process the contained information in a variety of applications.
Die Zielsetzung dieser Arbeit bestand in der Entwicklung effizienter und nachhaltiger Verfahren zur Addition von N-H Nukleophilen an terminale Alkine und für die Insertion von CO2 in die C-H Bindung terminaler Alkine.
Im ersten Teil dieser Dissertation wurde der Mechanismus der Ruthenium-katalysierten Addition von Amiden an terminale Alkine eingehend durch eine Kombination von Kontrollexperimenten, kinetischen Studien, spektroskopischen Untersuchungen und theoretischen Berechnungen untersucht. Zunächst wurden vier literaturbekannte Katalysezyklen identifiziert, die plausible Mechanismen für die Hydroamidierung terminaler Alkine darstellen. Aufbauend auf nachgewiesenen Elementarschritten chemisch verwandter Reaktionen wurde zusätzlich ein weiterer Mechanismus für die Hydroamidierung abgeleitet. Anschließend wurde eine Reihe von Kontrollexperimenten durchgeführt, mit deren Hilfe einzelne Elementarschritte der Katalysezyklen falsifiziert und somit Mechanismen ausgeschlossen werden konnten. Um herauszufinden, ob die Hydroamidierung mit dem einzig verbliebenen Mechanismus zutreffend beschrieben werden kann, wurden spektroskopische Studien durchgeführt. Diese Untersuchungen wurden vor, während und nach Hydroamidierungstestreaktionen durchgeführt, und auf diese Weise konnten zahlreiche postulierte Intermediate nachgewiesen und der verbleibende Katalysezyklus bekräftigt werden. Die in diesen mechanistischen Studien gewonnenen Erkenntnisse wurden zur Entwicklung einer neuen Katalysatorgeneration mit ausgesprochen hoher Selektivität für die Bildung wertvoller Z-Enamide und Z-Enimide genutzt. Das synthetische Potential wurde zudem durch die Darstellung der biologisch aktiven Naturstoffe Lansiumamid A und B, Lansamid I sowie Botryllamid C und E demonstriert.
Im zweiten Teil dieser Arbeit gelang es, hocheffiziente Silber(I)/DMSO-katalysierte Methoden zur Carboxylierung terminaler Alkine mit CO2 bei Normaldruck zu entwickeln.
Due to their N-glycosidase activity, ribosome-inactivating proteins (RIPs) are attractive candidates as antitumor and antiviral agents in medical and biological research. In the present study, we have successfully cloned two different truncated gelonins into pET-28a(+) vectors and expressed intact recombinant gelonin (rGel), recombinant C-terminally truncated gelonin (rC3-gelonin) and recombinant N- and C-terminally truncated gelonin (rN34C3-gelonin). Biological experiments showed that all these recombinant gelonins have no inhibiting effect on MCF-7 cell lines. These data suggest that the truncated-gelonins are still having a specific structure that does not allow for internalization into cells. Further, truncation of gelonin leads to partial or complete loss of N-glycosidase as well as DNase activity compared to intact rGel. Our data suggest that C-and N-terminal amino acid residues are involved in the catalytic and cytotoxic activities of rGel. In addition, the intact gelonin should be selected as a toxin in the immunoconjugate rather than truncated gelonin.
In the second part, an immunotoxin composed of gelonin, a basic protein of 30 kDa isolated from the Indian plant Gelonium multiflorum and the cytotoxic drug MTX has been studied as a potential tool of gelonin delivery into the cytoplasm of cells. Results of many experiments showed that, on the average, about 5 molecules of MTX were coupled to one molecule of gelonin. The MTX-gelonin conjugate is able to reduce the viability of MCF-7 cell in a dose-dependent manner (ID50, 10 nM) as shown by MTT assay and significantly induce direct and oxidative DNA damage as shown by the alkaline comet assay. However, in-vitro translation toxicity MTX-gelonin conjugates have IC50, 50.5 ng/ml which is less toxic than that of gelonin alone IC50, 4.6 ng/ml. It can be concluded that the positive charge plays an important role in the N-glycosidase activity of gelonin. Furthermore, conjugation of MTX with gelonin through α- and γ- carboxyl groups leads to the partial loss of its anti-folate activity compared to free MTX. These results, taken together, indicate that conjugation of MTX to gelonin permits delivery of the gelonin into the cytoplasm of cancer cells and exerts a measurable toxic effect.
In the third part, we have isolated and characterized two ribosome-inactivating proteins (RIPs) type I, gelonin and GAP31, from seeds of Gelonium multiflorum. Both proteins exhibit RNA-N-glycosidase activity. The amino acid sequences of gelonin and GAP31 were identified by MALDI and ESI mass spectrometry. Gelonin and GAP31 peptides - obtained by proteolytic digestion (trypsin and Arg-C) - are consistent with the amino acid sequence published by Rosenblum and Huang, respectively. Further structural characterization of gelonin and GAP31 (tryptic and Arg-C peptide mapping) showed that the two RIPs have 96% similarity in their sequence. Thus, these two proteins are most probably isoforms arisen from the same gene by alternative splicing. The ESI-MS analysis of gelonin and GAP31 exhibited at least three different post-translational modified forms. A standard plant paucidomannosidic N-glycosylation pattern (GlcNAc2Man2-5Xyl0-1 and GlcNAc2Man6-12Fuc1-2Xyl0-2) was identified using electrospray ionization MS for gelonin on N196 and GAP31 on N189, respectively. Based on these results, both proteins are located in the vacuoles of Gelonium multiflorum seeds.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Thermoplastic polymer-polymer composites consist of a polymeric matrix and a
polymeric reinforcement. The combination of these materials offers outstanding
mechanical properties at lower weight than standard fiber reinforced materials.
Furthermore, when both polymeric components originate from the same family or,
ideally, from the same polymer, their sustainability degree is higher than standard
fiber reinforced composites.
A challenge of polymer-polymer composites is the subsequent processing of their
semi-finished materials by heating techniques. Since the fibers are made of meltable
thermoplastic, the reinforcing fiber structure might be lost during the heating process.
Hence, the mechanical properties of an overheated polymer-polymer composite
would decline, and finally, they would be even lower than the neat matrix. A decrease
of process temperature to manage the heating challenge is not reasonable since the
cycle time would be increased at the same time. Therefore, this work pursues the
adaption of a fast and selective heating method on the use with polymer-polymer
composites. Inductively activatable particles, so-called susceptors, were distributed in
the matrix to evoke a local heating in the matrix when being exposed to an
alternating magnetic field. In this way, the energy input to the fibers is limited.
The experimental series revealed the induction particle heating effect to be mainly
related to susceptor material, susceptor fraction, susceptor distribution as well as
magnetic field strength, coupling distance, and heating time. A proper heating was
achieved with ferromagnetic particles at a filler content of only 5 wt-% in HDPE as
well as with its respective polymer fiber reinforced composites. The study included
the analysis of susceptor impact on mechanical and thermal matrix properties as well
as a degradation evaluation. The susceptors were identified to have only a marginal
impact on matrix properties. Furthermore, a semi-empiric simulation of the particle
induction heating was applied, which served for the investigation of intrinsic melting
processes.
The achieved results, the experimental as well as the analytic study, were
successfully adapted to a thermoforming process with a polymer-polymer material,
which had been preheated by means of particle induction.
Für einen teilgesättigten Modellboden sind experimentelle Untersuchungen ausgeführt, die sowohl die Teilsättigung des Bodens während der Belastung als auch die zyklischen Einwirkungen unter drainierten Randbedingungen berücksichtigen. Die Teilsättigung ist durch eine Saugspannungsmessung mittels Miniaturtensiometer in einer zyklischen Triaxialzelle und einem statischen Ödometer erfasst. In zahlreichen Laboruntersuchungen konnte eine reproduzierbare Probenaufbereitung nachgewiesen werden. Insbesondere konnte gezeigt werden, dass im Probeninnern des Modellbodens gegenüber den Probenendflächen keine signifikant abweichenden Wassergehalte und somit konstante Anfangssaugspannungen vorliegen. Vor allem bei der Applikation von zyklischen Beanspruchungen zur Ermittlung und numerischen Beschreibung des Materialverhaltens ist dieser Umstand von Bedeutung. Die Messergebnisse sind anschließend zur Modifikation eines elastoplastischen Stoffmodellansatzes herangezogen.
Mit den erzielten Untersuchungsergebnissen konnten die Parameterfunktionen eines elastoplastischen Stoffgesetzansatzes in Abhängigkeit von der Anfangsporenzahl, des Anfangssättigungsgrades sowie des Isotopen Spannungszustandes unter Berücksichtigung der Einflussgrößen aus der zyklischen Beanspruchung, dieses sind die axiale deviatorische Spannungsamplitude und die Lastzyklenzahl, für einen Frequenzbereich von 0,005 - 0,01 Hz über einen Separationsansatz aufgestellt werden. Die Kopplung der Teilsättigung erfolgt dabei über den Sättigungsgrad bzw. den Wassergehalt des Bodens anhand der porenzahlabhängigen Saugspannungscharakteristik (SWCC).
Es konnte gezeigt werden, dass alle untersuchten teilgesättigten Böden in der zyklischen Lastphase durchgehend eine zyklisch-deviatorische Dehnungsverfestigung aufweisen. Ab einer Lastzyklenzahl größer 560 stagnieren die zyklisch bedingten Verformungen und es entsteht ein quasi-stationärer Verformungs- und Porendruckzustand. Dabei zeigen die sogenannten Wechselversuche eine signifikante höhere Verformungs- und Saugspannungsamplitude als die sogenannten Schwellversuche.
Die aufgestellten Beziehungen gelten für einen Wertebereich der Anfangssättigungsgrade größer 82% und der Anfangsporenzahl zwischen 0,52 und 0,64.
This thesis generalizes the Cohen-Lenstra heuristic for the class groups of real quadratic
number fields to higher class groups. A "good part" of the second class group is defined.
In general this is a non abelian proper factor group of the second class group. Properties
of those groups are described, a probability distribution on the set of those groups is in-
troduced and proposed as generalization of the Cohen-Lenstra heuristic for real quadratic
number fields. The calculation of number field tables which contain information about
higher class groups is explained and the tables are compared to the heuristic. The agree-
ment is close. A program which can create an internet database for number field tables is
presented.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung funktionaler Modellsysteme von Bromo- und Chloroperoxidasen zur Oxidation von Bromid und Chlorid unter wasserfreien und nachhaltigen Bedingungen. Die neuen Methoden fanden Anwendung in der Synthese halogenierter O-Heterocyclen, welche häufig als Grundstrukturen von Naturstoffen mit ausgeprägten physiologischen Wirkungen auftreten. Die gewonnenen Erkenntnisse lösten vorhandene Probleme mit Reaktivität und Chemoselektivität in oxidativen Bromierungsreaktionen und trugen zu einem besseren Verständnis der beobachteten Regioselektivitäten in Bromcyclisierungen hochsubstituierter 4-Pentenole bei. Aufbauend auf diesen Ergebnissen konnte erstmalig eine analoge Methode zur oxidativen Chlorcyclisierung für die Darstellung beta-chlorierter Tetrahydrofurane und Tetrahydropyrane entwickelt werden.
Generic layout analysis--process of decomposing document image into homogeneous regions for a collection of diverse document images--has many important applications in document image analysis and understanding such as preprocessing of degraded warped, camera-captured document images, high performance layout analysis of document images containing complex cursive scripts, and word spotting in historical document images at page level. Many areas in this field like generic text line extraction method are considered as elusive goals so far, still beyond the reach of the state-of-the-art methods [NJ07, LSZT07, KB06]. This thesis addresses this problem in such a way that it presents generic, domain-independent, text line extraction and text and non-text segmentation methods, and then describes some important applications, that were developed based on these methods. An overview of the key contributions of this thesis is as follows.
The first part of this thesis presents a generic text line extraction method using a combination of matched filtering and ridge detection techniques, which are commonly used in computer vision. Unlike the state-of-the-art text line extraction methods in the literature, the generic text line extraction method can be equally and robustly applied to a large variety of document image classes including scanned and camera-captured documents, binary and grayscale documents, typed-text and handwritten documents, historical and contemporary documents, and documents containing different scripts. Different standard datasets are selected for performance evaluation that belong to different categories of document images such as the UW-III [GHHP97] dataset of scanned documents, the ICDAR 2007 [GAS07] and the UMD [LZDJ08] datasets of handwritten documents, the DFKI-I [SB07] dataset of camera-captured documents, Arabic/Urdu script documents dataset, and German calligraphic (Fraktur) script historical documents dataset. The generic text line extraction method achieves 86% (n = 23,763 text lines in 650 documents) text line detection accuracy which is better than the aggregate accuracy of 73% of the best performing domain-specific state-of-the-art methods. To the best of the author's knowledge, it is the first general-purpose text line extraction method that can be equally used for a diverse collection of documents.
This thesis also presents an active contour (snake) based curled text line extraction method for warped, camera-captured document images. The presented approach is applied to DFKI-I [SB07] dataset of camera-captured, Latin script document images for curled text line extraction. It achieves above 95% (n = 3,091 text lines in 102 documents) text line detection accuracy, which is significantly better than the competing state-of-the-art curled text line extraction methods. The presented text line extraction method can also be applied to document images containing different scripts like Chinese, Devanagari, and Arabic after small modifications.
The second part of this thesis presents an improved version of the state-of-the-art multiresolution morphology (Leptonica) based text and non-text segmentation method [Blo91], which is a domain-independent page segmentation approach and can be equally applied to a diverse collection of binarized document images. It is demonstrated that the presented improvements result in an increase in segmentation accuracy from 93% to 99% (n = 113 documents).
This thesis also introduces a discriminative learning based approach for page segmentation, where a self-tunable multi-layer perceptron (MLP) classifier [BS10] is trained for distinguishing between text and non-text connected components. Unlike other classification based page segmentation approaches in the literature, the connected components based discriminative learning based approach is faster than pixel based classification methods and does not require a block segmentation method beforehand. A segmentation accuracy of $96\%$ ($n = 113$ documents) is achieved in comparison to the state-of-the-art multiresolution morphology (Leptonica) based page segmentation method [Blo91] that achieves a segmentation accuracy of 93%. In addition to text and non-text segmentation of Latin script documents, the presented approach can also be adapted for document images containing other scripts as well as for other specialized layout analysis tasks such as digit and non-digit segmentation [HBSB12], orientation detection [RBSB09], and body-text and side-note segmentation [BAESB12].
Finally, this thesis presents important applications of the two generic layout analysis techniques, ridge-based text line extraction method and the multi-resolution morphology based text and non-text segmentation method, discussed above. First, a complete preprocessing pipeline is described for removing different types of degradations from grayscale warped, camera-captured document images that includes removal of grayscale degradations such as non-uniform shadows and blurring through binarization, noise cleanup applying page frame detection, and document rectification using monocular dewarping. Each of these preprocessing steps shows significant improvement in comparison to the analyzed state-of-the-art methods in the literature. Second, a high performance layout analysis method is described for complex Arabic script document images written in different languages such as Arabic, Urdu, and Persian and different styles for example Naskh and Nastaliq. The presented layout analysis system is robust against different types of document image degradations and shows better performance for text and non-text segmentation, text line extraction, and reading order determination on a variety of Arabic and Urdu document images as compared to the state-of-the-art methods. It can be used for large scale Arabic and Urdu documents' digitization processes. These applications demonstrate that the layout analysis methods, ridge-based text line extraction and the multi-resolution morphology based text and non-text segmentation, are generic and can be applied easily to a large collection of diverse document images.
Phosphane nehmen eine herausragende Stellung als Liganden in der homogen Katalyse ein. In der Arbeitsgruppe Thiel wurde kürzlich ein neuartiges Verfahren zur Synthese von Triarylphosphanen entwickelt. Im ersten Teil der Arbeit stand daher die Weiterentwicklung dieser fluoridkatalysierten Phosphor-Aryl-Kupplung im Mittelpunkt. Ein wichtiges Ziel hierbei war die Übertragung der Reaktionen in einen größeren Maßstab. In einem Ansatz konnte 1 kg an (4-[3-(N,N-Dimethylamino)prop-2-en-1-onyl]phen-yl)diphenylphosphan in einer Pilotanlage synthetisiert werden. Diese Verbindung diente als „Plattformchemikalie“ und ermöglichte die Synthese weiterer Pyrazol- und Pyrimidinderviate. Insbesondere gelang davon ausgehend die Synthese von Verbindungen, die mit einem Sulfonsäure- oder Hydroxamsäurelinker modifiziert sind.
Im zweiten Teil der Arbeit wurde das Prinzip der fluoridkatalysierten Phosphor-Aryl-Kupplung auf Amine übertragen. Die Motivation dafür ergab sich aus dem Vorkommen des N-Arylheterocyclen-Strukturmotivs in vielen Pharmazeutika. Eine entsprechende Erweiterung der Anwendungsbreite dieses Verfahrens sollte sich daher positiv auf die Vermarktungschancen auswirken. Ausgehend von Versuchen mit Trimethylsilylimidazol und Trimethylsilylpyrrolidin wurde eine milde und allgemein anwendbare Methode für die Synthese von N-Arylaminen entwickelt. Hierbei liegt der Vorteil insbesondere darin, dass auf den stöchiometrischen Einsatz von Basen verzichtet werden kann.
Der Hauptteil der Arbeit beschäftigte sich mit der Immobilisierung von phosphonsäurefunktionalisierten Triphenylphosphankomplexen auf Metalloxiden. Die Immobilisierung von homogenen Katalysatoren auf festen Trägermaterialien bietet großes Potential, um das Problem der Katalysatorabtrennung zu lösen. Der für die Immobilisierung benötigte Ligand 3-[4-(Diphenylphosphanyl)benzoylamino]propyl-1-phosphonsäurediethylester konnte über eine konvergente Synthese mit sieben Schritten synthetisiert werden. Ausgehend von diesem Liganden und dem entsprechenden Phosphonsäurederivat wurden Palladium- und Rhodiumkomplexe synthetisiert. Diese Komplexe wurden auf Titandioxid, Zirconiumdioxid und superparamagnetischen Eisenoxidnanopartikeln immobilisiert. Durch IR-Spektroskopie, thermogravimetrische Analyse und Festkörper-Kernspinresonanzspektroskopie konnte die Anbindung des jeweiligen Komplexes auf dem Trägermaterial belegt werden. Die erhaltenen Hybridmaterialien wurden erfolgreich für die Suzuki-Miyaura-Kupplung und die Hydrierung von Alkenen eingesetzt. Dabei konnten die Katalysatoren mehrfach wiederverwendet werden und zeigten eine gute Aktivität und Anwendungsbreite.
Standard bases are one of the main tools in computational commutative algebra. In 1965
Buchberger presented a criterion for such bases and thus was able to introduce a first approach for their computation. Since the basic version of this algorithm is rather inefficient
due to the fact that it processes lots of useless data during its execution, active research for
improvements of those kind of algorithms is quite important.
In this thesis we introduce the reader to the area of computational commutative algebra with a focus on so-called signature-based standard basis algorithms. We do not only
present the basic version of Buchberger’s algorithm, but give an extensive discussion of different attempts optimizing standard basis computations, from several sorting algorithms
for internal data up to different reduction processes. Afterwards the reader gets a complete
introduction to the origin of signature-based algorithms in general, explaining the under-
lying ideas in detail. Furthermore, we give an extensive discussion in terms of correctness,
termination, and efficiency, presenting various different variants of signature-based standard basis algorithms.
Whereas Buchberger and others found criteria to discard useless computations which
are completely based on the polynomial structure of the elements considered, Faugère presented a first signature-based algorithm in 2002, the F5 Algorithm. This algorithm is famous for generating much less computational overhead during its execution. Within this
thesis we not only present Faugère’s ideas, we also generalize them and end up with several
different, optimized variants of his criteria for detecting redundant data.
Being not completely focussed on theory, we also present information about practical
aspects, comparing the performance of various implementations of those algorithms in the
computer algebra system Singular over a wide range of example sets.
In the end we give a rather extensive overview of recent research in this area of computational commutative algebra.
The scientific aim of this work was to synthesize and characterize new bidentate and tridentate phosphine ligands , their corresponding palladium complexes and to examine their application as homogenous catalysts. Later on, a part of the obtained palladium catalysts was immobilized and used as heterogonous catalyst.
Pyrimidinyl functionalized diphenyl phosphine ligands were synthesized by ring closure of [2-(3-dimethylamino-1-oxoprop-2-en-yl)phenyl]diphenylphosphine with an excess of substituted guanidinium salts. Furthermore to increase the electron density at phosphorous centre the two aryl substituents on the phosphanyl group were exchanged against two alkyl substituents. Electron rich pyrimidinyl functionalized dialkyl phosphine ligands were synthesized from pyrimidinyl functionalized bromobenzene in a process involving lithiation followed by reaction with a chlorodialkylphosphine.
Starting from the new synthesized diaryl phosphine ligands, their corresponding palladium complexes were synthesized. I was able to show that slight changes at the amino group of [(2-aminopyrimidin-4-yl)aryl]phosphines lead to pronounced differences in the stability and catalytic activity of the corresponding palladium(II) complexes. Having a P,C coordination mode, the palladium complex can catalyze rapidly the Suzuki coupling reaction of phenylbronic acid with arylbromides even at room temperature with a low loading.
Using the NH2 group of the aminopyrimidine as a potential site for the introduction of an other substituent, bidentate and tridentate ligands containing phosphorous atoms connected to the aminopyrimidine group and their corresponding palladium complexes were synthesized and characterized.
Two ligands [2- and 4-(4-(2-amino)pyrimidinyl)phenyl]diphenylphosphine (containing NH2 group) functionalized with a ethoxysilane group were synthesized. The palladium complexes based on these ligands were prepared and immobilized on commercial silica and MCM-41. Using elemental analysis, FT-IR, solid state 31P, 13C and 29Si CP–MAS NMR spectroscopy, XRD and N2 adsorption the success of the immobilization was confirmed and the structure of the heterogenized catalyst was investigated.
The resulting heterogeneous catalysts were applied for the Suzuki reaction and exhibited excellent activity, selectivity and reusability.
This thesis is devoted to furthering the tropical intersection theory as well as to applying the
developed theory to gain new insights about tropical moduli spaces.
We use piecewise polynomials to define tropical cocycles that generalise the notion of tropical Cartier divisors to higher codimensions, introduce an intersection product of cocycles with tropical cycles and use the connection to toric geometry to prove a Poincaré duality for certain cases. Our
main application of this Poincaré duality is the construction of intersection-theoretic fibres under a
large class of tropical morphisms.
We construct an intersection product of cycles on matroid varieties which are a natural
generalisation of tropicalisations of classical linear spaces and the local blocks of smooth tropical
varieties. The key ingredient is the ability to express a matroid variety contained in another matroid variety by a piecewise polynomial that is given in terms of the rank functions of the corresponding
matroids. In particular, this enables us to intersect cycles on the moduli spaces of n-marked abstract
rational curves. We also construct a pull-back of cycles along morphisms of smooth varieties, relate
pull-backs to tropical modifications and show that every cycle on a matroid variety is rationally
equivalent to its recession cycle and can be cut out by a cocycle.
Finally, we define families of smooth rational tropical curves over smooth varieties and construct a tropical fibre product in order to show that every morphism of a smooth variety to the moduli space of abstract rational tropical curves induces a family of curves over the domain of the morphism.
This leads to an alternative, inductive way of constructing moduli spaces of rational curves.
Protonentransferkoordinaten sind von entscheidender Bedeutung in der Photochemie, wobei eine Interpretation über IR-Spektroskopie in Kombination mit theoretischen Analysen erfolgt.
Die starke Anharmonizität von Protonentransferkoordinaten macht eine Beschreibung von z.B. OH-Streckschwingungen in der harmonischen Näherung oft selbst unter Zuhilfenahme von Skalierungsfaktoren unmöglich. Im Rahmen dieser Dissertation wurde die zweidimensionale Potenzialhyperfläche von 2,5-Dihydroxybenzoesäure entlang der Protonentransferkoordinate im S1 \((^1\pi\pi^*)\)-Zustand mit der CASPT2-Methode berechnet und die zweidimensional gekoppelte Schwingungsschrödingergleichung gelöst. Hierbei konnte gezeigt werden, dass DHB im S1-Zustand keinen Protonentransfer, sondern eine Wasserstoffdislokation aufweist, d.h. die Hyperfläche über nur ein Minimum verfügt. Auch der Effekt der Kopplung in Form einer deutlichen Rotverschiebung der Frequenzen konnte gezeigt werden. Für 3-Hydroxyflavon wurden die Potenzialhyperflächen der Protonentransferkoordinaten in einer, zwei und drei Dimensionen für den elektronischen Grundzustand (S0) mit DFT und den S1 \((^1\pi\pi^*)\)-Zustand mit TDDFT bestimmt. Die zugehörigen gekoppelten Schwingungsschrödingergleichungen wurden in einer Basis von Hermite-Funktionen mit dem Ritzschen Variationsverfahren gelöst. Hierbei konnte in allen drei Modellen (ein-, zwei- und dreidimensional) gezeigt werden, dass es sich bei den im OH-Streckschwingungsbereich (2750-3800 cm\(^{-1}\)) gemessenen Frequenzen um Obertöne handelt. Die Protonentransferpfade konnten ebenfalls eindeutig bestimmt werden.
Die Bildung anionischer Kobaltkomplexe mit alkoholischen Liganden wird durch Wasserstoffbrücken gesteuert. Durch DFT-Rechnungen konnten den im AK Gerhards gemessenen IR-Spektren Strukturen zugeordnet werden. Durch die starke Abhängigkeit der Strukturen der Kobaltcluster von ihrer Spinmultiplizität gelang auch eine Zuordnung der Strukturen zu Multiplizitäten. Somit konnte theoretisch gezeigt werden, dass es durch IR-Spektroskopie möglich ist, Spins von Übergangsmetallkomplexen zu bestimmen. Darüber hinaus wurde der Einfluss der Entropie auf die Stabilitäten der möglichen Konformere der Kobaltkomplexe in Abhängigkeit der Temperatur untersucht werden. Hierbei konnte gezeigt werden, dass mit zunehmender Temperatur eine einzelne Anlagerung der Liganden an den Metallkern bevorzugt wird.
Das Ziel dieser Arbeit war die Synthese von Nanorezeptoren basierend auf Goldnanopartikeln unter Verwendung von reversiblen Ligandenaustauschreaktionen. Dabei sollte überprüft werden, ob Templateffekte geeigneter Substrate für die Synthese bzw. Optimierung der Bindungseigenschaften dieser Rezeptoren ausgenutzt werden können. Als Modellsystem wurde ein literaturbekannter Flavinrezeptor gewählt, der als Grundlage für die ersten Untersuchungen diente. Die Bindung von Flavin an diesen Rezeptor erfolgt zum einen an eine Diaminopyridineinheit durch Bildung von Wasserstoffbrückenbindungen. Zum anderen ermöglicht eine Pyreneinheit die Ausbildung von π-π-Wechselwirkungen zu Flavin. Hierbei wurden zunächst über einen zweistufigen Syntheseweg drei verschieden Flavinrezeptoren hergestellt, die sich in der Länge der passivierenden Alkythiole unterschieden. Die Oberflächenzusammensetzung dieser drei Rezeptoren unterschied sich dabei vor allem in der Anzahl der gebunden Pyreneinheiten, die mit zunehmender Kettenlänge der Alkylthiole sank. Im Gegenzug stieg die Anzahl der gebundenen Alkylthiole. Die Charakterisierung der Flavinaffinität dieser Rezeptoren zeigte eine Zunahme der Bindungskonstanten mit zunehmender Anzahl an gebundenen Pyren-Liganden. Die funktionellen Einheiten dieser Flavinrezeptoren stellten die Grundlage für die systematische Entwicklung eines Verfahrens zur Synthese von funktionalisierten Goldnanopartikeln durch eine einstufige Ligandenaustauschreaktion dar. Als Ausgangsverbindungen wurden Alkylthiol-geschützte Goldnanopartikel verwendet. Neben den Diaminopyridin- und Pyren-Liganden wurden weitere funktionalisierte Liganden hergestellt und in den Ligandenaustauschreaktionen eingesetzt. Außerdem wurden weitere Template dargestellt und deren Einfluss auf die Ligandenaustauschreaktion untersucht. Die systematische Variation der Reaktionsbedingungen bzw. der Struktur der Liganden und Template ergab, dass u. A. die Zugabe von Flavin während der Austauschreaktion eine Veränderung in der Oberflächenzusammensetzung bewirkt. Diese äußert sich in einer Abnahme der gebundenen Diaminopyridinliganden und einer Zunahme der gebundenen Pyrenliganden. Außerdem besitzen die Nanopartikel, die in Gegenwart von Flavin synthetisiert wurden, eine deutlich höhere Substrataffinität als solche, bei denen Flavin während der Synthese abwesend war. Weitere Arbeiten zur Synthese zur Variation der Ligandenstruktur und/oder Templatstruktur wurden durchgeführt. Zusammengenommen geben diese Ergebnisse starke Hinweise darauf, dass die Synthese von auf Goldnanopartikeln-basierten Rezeptoren und die Optimierung ihrer Bindungseigenschaften durch Templat-kontrollierte Ligandenaustauschreaktionen möglich ist.
SecB is a homotetrameric cytosolic chaperone that forms part of the protein translocation machinery in E. coli. Due to SecB, nascent polypeptides are maintained in an unfolded translocation-competent state devoid of tertiary structure and thus are guided to the translocon. In vitro SecB rapidly binds to a variety of ligands in a non-native state. We have previously investigated the bound state conformation of the model substrate bovine pancreatic trypsin inhibitor (BPTI) as well as the conformation of SecB itself by using proximity relationships based on site-directed spin labeling and pyrene fluorescence methods. It was shown that SecB undergoes a conformational change during the process of substrate binding. Here, we generated SecB mutants containing but a single cysteine per subunit or an exposed highly reactive new cysteine after removal of the nearby intrinsic cysteines. Quantitative spin labeling was achieved with the methanethiosulfonate spin label (MTS) at positions C97 or E90C, respectively. Highfield (W-band) electron paramagnetic resonance (EPR) measurements revealed that with BPTI present the spin labels are exposed to a more polar/hydrophilic environment. Nanoscale distance measurements with double electron-electron resonance (DEER) were in excellent agreement with distances obtained by molecular modeling. Binding of BPTI also led to a slight change in distances between labels at C97 but not at E90C. While the shorter distance in the tetramer increased, the larger diagonal distance decreased. These findings can be explained by a widening of the tetrameric structure upon substrate binding much like the opening of two pairs of scissors.
The main topic of this thesis is to define and analyze a multilevel Monte Carlo algorithm for path-dependent functionals of the solution of a stochastic differential equation (SDE) which is driven by a square integrable, \(d_X\)-dimensional Lévy process \(X\). We work with standard Lipschitz assumptions and denote by \(Y=(Y_t)_{t\in[0,1]}\) the \(d_Y\)-dimensional strong solution of the SDE.
We investigate the computation of expectations \(S(f) = \mathrm{E}[f(Y)]\) using randomized algorithms \(\widehat S\). Thereby, we are interested in the relation of the error and the computational cost of \(\widehat S\), where \(f:D[0,1] \to \mathbb{R}\) ranges in the class \(F\) of measurable functionals on the space of càdlàg functions on \([0,1]\), that are Lipschitz continuous with respect to the supremum norm.
We consider as error \(e(\widehat S)\) the worst case of the root mean square error over the class of functionals \(F\). The computational cost of an algorithm \(\widehat S\), denoted \(\mathrm{cost}(\widehat S)\), should represent the runtime of the algorithm on a computer. We work in the real number model of computation and further suppose that evaluations of \(f\) are possible for piecewise constant functions in time units according to its number of breakpoints.
We state strong error estimates for an approximate Euler scheme on a random time discretization. With this strong error estimates, the multilevel algorithm leads to upper bounds for the convergence order of the error with respect to the computational cost. The main results can be summarized in terms of the Blumenthal-Getoor index of the driving Lévy process, denoted by \(\beta\in[0,2]\). For \(\beta <1\) and no Brownian component present, we almost reach convergence order \(1/2\), which means, that there exists a sequence of multilevel algorithms \((\widehat S_n)_{n\in \mathbb{N}}\) with \(\mathrm{cost}(\widehat S_n) \leq n\) such that \( e(\widehat S_n) \precsim n^{-1/2}\). Here, by \( \precsim\), we denote a weak asymptotic upper bound, i.e. the inequality holds up to an unspecified positive constant. If \(X\) has a Brownian component, the order has an additional logarithmic term, in which case, we reach \( e(\widehat S_n) \precsim n^{-1/2} \, (\log(n))^{3/2}\).
For the special subclass of $Y$ being the Lévy process itself, we also provide a lower bound, which, up to a logarithmic term, recovers the order \(1/2\), i.e., neglecting logarithmic terms, the multilevel algorithm is order optimal for \( \beta <1\).
An empirical error analysis via numerical experiments matches the theoretical results and completes the analysis.
In anderen Bereichen bereits seit längerer Zeit bekannt und erprobt, hat die Zertifizierung
mit den neusten Ansätzen der Auszeichnung von Stadtquartieren nun auch die Aufgabenfelder
der Stadtplanung erreicht. Mit zunehmender Abkehr von der imperativen Planung
hin zu kooperativen Handlungsweisen in der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen verändern sich die Austauschbeziehungen der beteiligten
privaten und öffentlichen Akteure. Dies geschieht in einer Form, in der das private gewinnorientierte Handeln und die Implementierung von Instrumenten, die der Effizienzsteigerung
der Transaktionen dienen, zunehmend an Bedeutung gewinnen. Der Wandel der
Organisationsformen in einzelnen Bereichen der Stadtentwicklung, speziell im Rahmen der
vorhabenbezogenen Planung und der städtebaulichen Projektentwicklung, führt zu einer
Vielzahl an Anlässen für den Einsatz von Zertifizierungssystemen und -verfahren.
Zielsetzung der Arbeit ist es, modellhaft instrumentelle und organisatorische Ausgestaltungsformen
der Zertifizierung im Rahmen der Planung und Umsetzung städtebaulicher
Projekte und Maßnahmen aufzuzeigen sowie Implementationsformen und -grenzen in
Bezug auf informelle und formelle Prozesse der Planung und Umsetzung zu bestimmen.
Um die Analyse sowie die Übertragung der Zertifizierung auf die spezifischen Bereiche der
Stadtplanung und Stadtentwicklung durchzuführen, erfolgt eine theoriegeleitete Untersuchung
über mehrere wissenschaftliche Disziplinen hinweg. In der Arbeit wird insbesondere
auf die Theorien der Neuen Institutionenökonomie zurückgegriffen. Die Theorie der
Verfügungsrechte, die Prinzipal-Agent-Theorie und die Transaktionskostentheorie dienen
als Grundlage zur Erklärung der Zielsetzungen, Interventionslogiken und Mechanismen von
Zertifizierung in ökonomischen Austauschbeziehungen. Die Steuerungstheorie dient der
Einordnung der Zertifizierung als Steuerungsinstrument und der Erklärung der steuerungsinstrumentellen Absichten einer Zertifizierung.
Die im Rahmen der Planung und Umsetzung städtebaulicher Projekte und Maßnahmen
relevanten Faktoren der Qualitätsunsicherheit, des opportunistischen Verhalten und der
Spezifität der Transaktionen wurden hinsichtlich ihrer zentralen Rolle dargelegt und
berücksichtigt. Zielkonflikte und Informationsasymmetrien in den Austauschbeziehungen
der vielfältigen an der Planung und Umsetzung der städtebaulichen Projekte und Maßnahmen
Beteiligten wurden analysiert und als Anlass der Zertifizierung identifiziert.
Im Ergebnis werden Empfehlungen und differenzierte Modellvariationen für die institutionelle
Ausgestaltung von Systemen und Verfahren der Zertifizierung im Rahmen der Planung
und Umsetzung städtebaulicher Projekte und Maßnahmen auf Stadtquartiersebene
abgeleitet und die Grenzen und Prämissen der Zertifizierung dargelegt.
On Gyroscopic Stabilization
(2012)
This thesis deals with systems of the form
\(
M\ddot x+D\dot x+Kx=0\;, \; x \in \mathbb R^n\;,
\)
with a positive definite mass matrix \(M\), a symmetric damping matrix \(D\) and a positive definite stiffness
matrix \(K\).
If the equilibrium in the system is unstable, a small disturbance is enough to set the system in motion again. The motion of the system sustains itself, an effect which is called self-excitation or self-induced vibration. The reason behind this effect is the presence of negative damping, which results for example from dry friction.
Negative damping implies that the damping matrix \(D\) is indefinite or negative definite. Throughout our work, we assume \(D\) to be indefinite, and that the system possesses both stable and unstable modes and thus is unstable.
It is now the idea of gyroscopic stabilization to mix the modes of a system with indefinite damping such
that the system is stabilized without introducing further
dissipation. This is done by adding gyroscopic forces \(G\dot x\) with a suitable
skew-symmetric matrix \(G\) to the left-hand side. We call \(G=-G^T\in\mathbb R^{n\times n}\) a gyroscopic stabilizer for
the unstable system, if
\(
M\ddot x+(D+ G)\dot x+Kx=0
\)
is asymptotically stable. We show the existence of \(G\) in space dimensions three and four.
The discrete nature of the dispersed phase (swarm of droplet) in stirred and pulsed liquid-liquid extraction columns makes its mathematical modelling of such complex system a tedious task. The dispersed phase is considered as a population of droplets distributed randomly with respect to their internal properties (such as: droplet size and solute concentration) at a specific location in space. Hence, the population balance equation has been emerged as a mathematical tool to model and describe such complex behaviour. However, the resulting model is too complicated. Accordingly, the analytical solution of such a mathematical model does not exist except for particular cases. Therefore, numerical solutions are resorted to in general. This is due to the inherent nonlinearities in the convective and diffusive terms as well as the appearance of many integrals in the source term. However, modelling and simulation of liquid extraction columns is not an easy task because of the discrete nature of the dispersed phase, which consist of population of droplets. The natural frame work for taking this into account is the population balance approach.
In part of this doctoral thesis work, a rigours mathematical model based on the bivariate population balance frame work (the base of LLECMOD ‘‘Liquid-Liquid Extraction Column Module’’) for the steady state and dynamic simulation of pulsed (sieve plate and packed) liquid-liquid extraction columns is developed. The model simulates the coupled hydrodynamic and mass transfer for pulsed (packed and sieve plate) extraction columns. The model is programmed using visual digital FORTRAN and then integrated into the LLECMOD program. Within LLECMOD the user can simulate different types of extraction columns including stirred and pulsed ones. The basis of LLECMOD depends on stable robust numerical algorithms based on an extended version of a fixed pivot technique after Attarakih et al., 2003 (to take into account interphase solute transfer) and advanced computational fluid dynamics numerical methods. Experimental validated correlations are used for the estimation of the droplet terminal velocity in extraction columns based on single and swarm droplet experiments in laboratory scale devices. Additionally, recent published correlations for turbulent energy dissipation, droplet breakage and coalescence frequencies are discussed as been used in this version of LLECMOD. Moreover, coalescence model from literature derived from a stochastical description have been modified to fit the deterministic population model. As a case study, LLECMOD is used here to simulate the steady state performance of pulsed extraction columns under different operating conditions, which include pulsation intensity and volumetric flow rates are simulated. The effect of pulsation intensity (on the holdup, mean droplet diameter and solute concentration) is found to have more profound effect on systems of high interfacial tension. On the hand, the variation of volumetric flow rates have substantial effect on the holdup, mean droplet diameter and solute concentration profiles for chemical systems with low interfacial tension. Two chemical test systems recommended by the European Federation of Chemical Engineering (water-acetone (solute)-n-butyl acetate and water-acetone (solute)-toluene) and an industrial test system are used in the simulation. Model predictions are successfully validated against steady state and transient experimental data, where good agreements are achieved. The simulated results (holdup, mean droplet diameter and mass transfer profiles) compared to the experimental data show that LLECMOD is a powerful simulation tool, which can efficiently predict the dynamic and steady state performance of pulsed extraction columns.
In other part of this doctoral thesis work, the steady state performance of extraction columns is studied taking into account the effect of dispersed phase inlet condition (light or heavy phase is dispersed) and the direction of mass transfer (from continuous to dispersed phase and vice versa) using the population balance framework. LLECMOD, a program that uses multivariate population balance models, is extended to take into account the direction of mass transfer and the dispersed phase inlet. As a case study, LLECMOD is used to simulate pilot plant RDC columns where the steady state mean flow properties (dispersed phase hold up and droplet mean diameter) and the solute concentration profiles are compared to the available experimental data. Three chemical systems were used: sulpholane–benzene–n-heptane, water–acetone–toluene and water–acetone–n-butyl acetate. The dispersed phase inlet and the direction of mass transfer as well as the chemical system physical properties are found to have profound effect on the steady state performance of the RDC column. For example, the mean droplet diameter is found to persist invariant when the heavy phase is dispersed and the extractor efficiency is higher when the direction of mass transfer is from the continuous to the dispersed phase. For the purpose of experimental validation, it is found that LLECMOD predictions are in good agreement with the available experimental data concerning the dispersed phase hold up, mean droplet diameter and solute concentration profiles in both phases.
In a further part of this doctoral thesis, a mathematical model is developed for liquid extraction columns based on the multivariate population balance equation (PBE) and the primary secondary particle method (PSPM) introduced by Attarakih, 2010 (US Patent Application: 0100106467). It is extended to include the momentum balance for the dispersed phase. The advantage of momentum balance is to eliminate the need for often conflicting correlations used in estimating the terminal velocity of single and swarm of droplets. The resulting mathematical model is complex due to the integral nature of the population balance equation. To reduce the complexity of this model, while maintaining most of the information drawn from the continuous population balance equation, the concept of the PSPM is used. Based on the multivariate population balance equation and the PSPM a mathematical model is developed for any liquid extraction column. The secondary particle could be envisaged as a fluid particle carrying information about the distribution as it is evolved in space and time, in the meanwhile the primary particles carry the mean properties of the population such as total droplet concentration; mean droplet diameter dispersed phase hold up and so on. This information reflects the particle-particle interactions (breakage and coalescence) and transport (convection and diffusion). The developed model is discretized in space using a first-order upwind method, while semi-implicit first-order scheme in time is used to simulate a pilot plant RDC extraction column. Here the effect of the number of primary particles (classes) on the final predicted solution is investigated. Numerical results show that the solution converge fast even as the number of primary particle is increased. The terminal droplet velocity of the individual primary particle is found the most sensitive to the number of primary particles. Other mean population properties like the droplet mean diameter, mean hold up and the concentration profiles are also found to converge along the column height by increasing the number of primary particles. The predicted steady state profiles (droplet diameter, holdup and the concentration profiles) along a pilot RDC extraction column are compared to the experimental data where good agreement is achieved.
In addition to this a robust rigorous mathematical model based on the bivariate population balance equation is developed to predict the steady state and dynamic behaviour of the interacting hydrodynamics and mass transfer in Kühni extraction columns. The developed model is extended to include the momentum balance for the calculation of the droplet velocity. The effects of step changes in the important input variables (such as volumetric flow rates, rotational speed, inlet solute concentrations etc.) on the output variables (dispersed phase holdup, mean droplet diameter and the concentration profiles) are investigated.
The last topic of this doctoral thesis is developed to transient problems. The unsteady state analysis reveals the fact that the largest time constant (slowest response) is due to the mass transfer. On the contrary, the hydrodynamic response of the dispersed phase holdup is very fast when compared to the mass transfer due to the relative fast motion of the dispersed droplets with respect to the continuous phase. The dynamic behaviour of the dispersed and continuous phases shows a lag time that increases away from the feed points of both phases. Moreover, the solute concentration response shows a highly nonlinear behaviour due to both positive and negative step changes in the input variables. The simulation results are in good agreement with the experimental ones and show the usefulness of the model.
Die über mehr als 100 Jahre gewachsenen komplexen Strukturen der Wasserver- und Abwasserentsorgungssysteme müssen sich zunehmend neuen Herausforderungen stellen. Die Forderung nach einer Anpassung hin zu flexiblen und nachhaltigen Systemen bedingt einen hohen Neu- und Umbaubedarf im Bestand. Als Alternativen und Ergänzung bestehender Systeme werden neben einer naturnahen Regenwasserbewirtschaftung auch Neuartige Sanitärsysteme diskutiert. Eine Umstellung bestehender Systeme auf Siedlungsebene findet hierbei allerdings äußert selten statt. Hierfür ist die Erarbeitung von Umgestaltungsstrategien erforderlich, um finanzielle Mittel und ökologischen Nutzen zu optimieren.
In dieser Arbeit wird ein multi-kriterielles lineares Optimierungsmodell genutzt, in dem Methoden der Projektplanungs- und Netzwerkflussprobleme verknüpft werden. Als wesentliche Nebenbedingung wird die Einhaltung der Funktionsfähigkeit der sich wandelnden Systeme und als Zielfunktionen werden ökonomische und ökologische Kosten eingeführt. Lösungen des formulierten mathematischen Problems sind Pareto-optimale funktionsfähige und zulässige Strategien der weitreichenden Integration einer ressourcenorientierten Abwasserbewirtschaftung. Als Ergebnis liegt ein Instrument vor, dass die Entscheidungsfindung zur Umgestaltung von bestehenden siedlungswasserwirtschaftlichen Infrastrukturen unterstützt und mögliche Kosten und Folgewirkungen zeitlich und räumlich differenziert aufzeigen kann.
Das Optimierungsmodell wurde an zwei Untersuchungsgebieten angewandt und optimale Umgestaltungsstrategien zu unterschiedlichen nachhaltigen Zielzuständen analysiert sowie eine Sensitivitätsanalyse bezüglich wichtiger Optimierungsparameter durchgeführt. Die Ergebnisse zeigen, dass die generelle Umsetzbarkeit einer weitreichenden Teilstromseparation gewährleistet ist, wenn neue Elemente zur Bewirtschaftung, Behandlung und Ableitung zeitlich optimiert integriert werden. Mögliche Umgestaltungen werden keine linearen Anpassungen an Zielwerte, Veränderungen von Umweltauswirkungen oder Kostenflüsse verursachen. Es ergeben sich vielmehr über den Umsetzungszeitraum veränderliche Verläufe, die je nach Zielgewichtung von ökonomischen und ökologischen Kosten große Wirkungen zu Beginn oder zum Ende der Betrachtungsdauer zeigen. Vor allem die Gewichtung der beiden Kosten und die Auswahl der zu minimierenden ökologischen Kriterien haben einen großen Einfluss auf die gefundenen Umgestaltungsstrategien. Die jeweiligen Empfehlungen zum Umgestaltungszeitraum, der Zielgewichtung und zur allgemeinen Vorgabe der Optimierungskriterien leiten sich vor allem aus der Veranlassung für eine Systemumgestaltung ab. Die für den spezifischen Anwendungsfall optimale Umgestaltungsstrategie kann sich nur durch Diskussion mit den Entscheidungsträgern vor Ort ergeben. Das Modell hat sich hierbei als sehr gut geeignetes Werkzeug zur Analyse der Systeme herausgestellt.
Es konnte gezeigt werden, dass eine Erweiterung derzeitiger Bewertungsmethoden hin zu Methoden, die zeitlich und räumlich differenzierte Aussagen für den ökologischen und ökonomischen Zustand ermöglichen, erforderlich ist. Die alleinige Planung und Betrachtung des zukünftigen Systemzustandes ist nicht ausreichend zur Beurteilung der Wirkungen einer weitreichenden Implementierung ressourcenorientierter Abwasserbewirtschaftung.
In this study, two outstanding subgroups of organic-inorganic hybrid materials have been investigated. The first part covers the design, synthesis, characterization and application of seven novel Metal Organic Frameworks (MOFs) containing functionalized biphenyl dicarboxylates as linkers. In the second part, the surface modification of the metal oxides ZrO2, TiO2 and Al2O3 using phosphonate derivates is reported.
Firstly three functionalized MOF structures; ZnBrBPDC, ZnNO2BPDC and ZnNH2BPDC were synthesised using 4,4´-biphenyldicarboxylic acid derivatives with different functional groups (-Br, -NO2, -NH2) Powder X-ray diffraction (PXRD) measurements indicated that the synthesised MOFs posses the interpenetrated IRMOF-9 structure with a cubic topology, which was also confirmed with single crystal X-ray measurements. The chemical structure of the MOF materials was further proved by solid state NMR and IR measurements. N2 adsorption measurements showed Type I isotherms for all three structures with large surface areas. TGA measurements of the evacuated samples were in good agreement with the elemental analysis data. The results proved that their thermal stability is between 325 °C - 450 °C.
Adsorption properties of these MOF structures were tested using light alkanes (CH4, C2H6, C3H8, and n-C4H10) at three different temperatures. For all adsorbents, the maximum uptakes were observed at 273 K. When the temperature was increased, the amount of the adsorbed gas decreased. All three MOFs showed strong affinities for n-butane. The lowest uptakes were observed for CH4.
The effect of functional groups on the IRMOF series was also examined by synthesizing amide functionalized biphenyl linkers. For this purpose, four different linkers containing amides with different alkyl chains (C1-C4) were synthesized and used for the synthesis of four new MOF structures ZnAcBPDC, ZnPrBPDC, ZnBuBPDC and ZnPeBPDC.
PXRD measurements of ZnAcBPDC indicated that the structure contains two different phases. PXRD patterns of ZnPrBPDC, ZnBuBPDC and ZnPeBPDC revealed non-interpenetrated structures which were further proved by single crystal X-ray measurements. The chemical structure of the MOF materials was further confirmed by X-ray spectoscopy, solid state NMR and IR measurements.
N2 adsorption measurements of the MOF structures were carried out using different activation methods. For all four MOFs, Type I isotherms were obtained. ZnAcBPDC showed the highest BET surface area. ZnAcBPDC and ZnBuBPDC were tested for their alkane, alkene and CO2 adsorption capacities.
In the second part of the work, the surface modification of three different metal oxides, ZrO2, TiO2 and Al2O3 was performed. For this purpose firstly three different fluorescent phosphonate derivatives containing thiophene units were synthesized from their halo derivatives in a four step synthesis and then used as coupling molecules for the surface modification. Nine different surfaces were obtained (38@TiO2, 39@TiO2, 40@TiO2, 38@Al2O3, 39@Al2O3, 40@Al2O3, 38@ZrO2, 39@ZrO2, 40@ZrO2).
All three modified metal oxide surfaces were characterized using elemental analysis, solid state NMR and IR spectroscopy. The BET surface areas of the materials were determined by N2 adsorption measurements. TGA was used to determine the stability of the surfaces. Maximum loadings were obtained for ZrO2 surfaces.
Due to the strong luminescence of the coupling molecules, the modified surfaces were checked for their light emission. All ZrO2 and Al2O3 surfaces showed fluorescence with exception of 40@Al2O3. On the other hand, for the modified TiO2 surfaces, no fluorescence could be observed.
I report on two experiments, which were designed to test theoretical predictions about individual behavior in a duopolistic setting. With quantity being the choice variable a simultaneous Cournot game and a sequential Stackelberg game were tested over two periods. The key feature of both models was that players were able to lower marginal cost for period two if they successfully outperformed their competition in period one in terms of profit. Experimental results suggest that in the Cournot game players are very competitive in period one but become Cournot players in period two. In the Stackelberg game Cournot play is modal, suggesting that players have preferences for equality in payoffs, which maybe brought about by punishment of Stackelberg followers and fear of punishment of Stackelberg leaders . Overall, players earned more money in the Stackelberg game than in the Cournot game.
Development of New Methods for the Synthesis of Aldehydes, Arenes and Trifluoromethylated Compounds
(2012)
In the 1st project, successful development of 2nd generation of a palladium catalyst for the selective hydrogenation of carboxylic acids to aldehydes was accomplished. This project was done in cooperation with Dipl. Chem. Thomas Fett from Boeringer Ingelheim, Austria. The new catalyst is highly effective for the conversion of diversely functionalized aromatic, heteroaromatic and aliphatic carboxylic acids to the corresponding aldehydes in the presence of pivalic anhydride at 5 bar hydrogen pressure, which was otherwise achieved either at 30 bar of hydrogen pressure or by using waste intensive hypophosphite bases as reducing agent. Our method has increased the synthetic importance of this valuable transformation. Selective hydrogenation of carboxylic acids to the corresponding aldehydes is now possible with industrial hydrogenation equipment as well as laboratory scale glass autoclaves. It might also convince the synthetic organic chemists to use this transformation for routine aldehyde synthesis in the laboratories.
In the 2nd project, a microwave assisted Cu-catalyzed protodecarboxylation of arenecarboxylic acids to arenes is achieved. This work was done in collaboration with Dipl. Chem. Filipe Manjolinho under the supervision of Dr. Nuria Rodríguez. In the presence of 1-5 mol% of inexpensive CuI/1,10-phenanthroline catalyst generated in situ under microwave radiations, diversely functionalized arenes and heteroarene carboxylic acids have been decarboxylated to the corresponding arenes in good yields at 190 °C in 5-15 min. The loss of volatile arenes with the release of CO2 is controled by the use of sealed high pressure resistant microwave vessels. These reactions are highly beneficial for parallel synthesis in drug discovery due to their short reaction time. Microwave technology will also help in the future to develop more effective catalysts for protodecarboxylation rections.
Based on the microwave assisted protodecarboxylation strategy, decarboxylative coupling of arenecarboxylic acids with aryl triflates and tosylates was also conducted under microwave radiation which provided higher yields of the corresponding biphenyls from deactivated substrates in short reaction time compared to the conventional heating.
In the 3rd project, crystalline, potassium (trifluoromethyl)trimethoxyborate was successfully applied for the synthesis of benzotrifluorides under the oxidative conditions. This project was done in cooperation with Dipl. Chem. Annette Buba. In the presence of Cu(OAc)2 and molecular oxygen, arylboronates were coupled with K+[CF3B(OMe)3] in DMSO at 60 °C. A variety of benzotriflurides was synthesized in good yields under the optimized reaction conditions. This protocol for the oxidative trifluoromethylation of arylboronates is the base for the development of decarboxylative trifluoromethylation reaction of arenecarboxylic acids.
The 4th project discloses the simple and straightforward synthesis of trifluoromethylated alcohols by nucleophilic addition of potassium (trifluoromethyl)trimethoxyborate to carbonyl compounds. This project was done in cooperation with Dr. Thomas Knauber and Dipl. Chem. Annette Buba. In the presence of K+[CF3B(OMe)3] in THF at 60 °C, diversely functionalized aldehydes and ketones were successfully converted into the corresponding trifluoromethylated alcohols.
The 3rd and 4th projects demonstrate the successful establishment of crystalline and shelf stable potassium (trifluoromethyl)trimethoxyborate as highly versatile CF3-source in nucleophilic trifluoromethylation reactions. These new protocols are characterized by their user-friendliness and broad applicability under mild reaction conditions, thus they are beneficial for late stage introduction of CF3-group into organic molecules.
In this thesis we outline the Kerner's 3-phase traffic flow theory, which states that the flow of vehicular traffic occur in three phases i.e. free flow, synchronized flow and wide moving jam phases.
A macroscopic 3-phase traffic model of the Aw-Rascle type is derived from the microscopic Speed Adaptation 3-phase traffic model
developed by Kerner and Klenov [J. Phys. A: Math. Gen., 39(2006), pp. 1775-1809 ].
We derive the same macroscopic model from the kinetic traffic flow model of Klar and Wegener [SIAM J. Appl. Math., 60(2000), pp. 1749-1766 ] as well as that of Illner, Klar and Materne [Comm. Math. Sci., 1(2003), pp. 1-12 ].
In the above stated derivations, the 3-phase traffic theory is constituted in the macroscopic model through a relaxation term.
This serves as an incentive to modify the relaxation term of the `switching curve' model of Greenberg,
Klar and Rascle [SIAM J. Appl. Math.,63(2003), pp.818-833 ] to obtain another macroscopic 3-phase traffic model, which is still of the Aw-Rascle type.
By specifying the relaxation term differently we obtain three kinds of models, namely the macroscopic Speed Adaptation,
the Switching Curve and the modified Switching Curve models.
To demonstrate the capability of the derived macroscopic traffic models to reproduce the features of 3-phase traffic theory, we simulate a
multi-lane road that has a bottleneck. We consider a stationary and a moving bottleneck.
The results of the simulations for the three models are compared.
Rd. 30 % bis 40 % des durchschnittlichen Trinkwasserverbrauchs in deutschen Haushalten entfällt auf die Toilettenspülung. Das dabei anfallende Abwasser, das sogenannte Schwarzwasser, enthält neben dem Spülwasser die Fäkalien Urin und Fäzes sowie Toilettenpapier. Es ist durch eine vergleichsweise hohe organische Verschmutzung sowie sehr hohe Gehalte an Nährstoffen gekennzeichnet. Aufbauend auf dem Grundgedanken, den häuslichen Schmutzwasserkreislauf zu schließen, um den Bedarf an hochwertigem Trinkwasser nachhaltig zu senken, wurde in der vorliegenden Arbeit die Anwendung des Belebungsverfahrens zur biologischen Behandlung von Toilettenabwasser erforscht.
Um den mangelnden Kenntnisstand hinsichtlich der Schwarzwasserzusammensetzung zu verbessern, wurde zunächst die Quantität und chemisch-physikalische Qualität von Schwarzwasser an drei unterschiedlichen Versuchsstandorten mit unterschiedlicher Nutzung (Wohnen, Arbeitsplatz) eingehend untersucht. Hierdurch konnten eine Vielzahl neuer Erkenntnisse zur Charakteristik von Schwarzwasser gewonnen werden und spezifische Frachten für Parameter CSB, BSB5, TKN, Pges und AFS abgeleitet werden. Mit den erarbeiteten Kennwerten wird eine deutlich verbesserte und durch die umfangreichen Messungen abgesicherte Datengrundlage zur Abschätzung des Nutzungspotenzials von Schwarzwasser und zur Bemessung von Schwarzwasserbehandlungsanlagen möglich.
Im Hinblick auf die Erforschung der Eliminationsmechanismen der im Schwarzwasser enthal-tenen Kohlenstoff-, Stickstoff- und Phosphorverbindungen unter Betriebsbedingungen wurden zwei Versuchsanlagen (SBR, MBR) an den drei Versuchsstandorten betrieben. Neben der biologischen Behandlung von Roh-Schwarzwasser und von mechanisch gereinigtem Schwarzwasser wurde die biologische Behandlung von Schwarzwasser bei Kreislaufführung untersucht.
Es wurde festgestellt, dass Schwarzwasser nach biologischer Behandlung sehr hohe Gehalte an gelöst inertem CSB aufweist. Zudem wurde ein Zusammenhang zwischen der Schwarzwasserquelle und den erreichbaren Rest-CSB-Gehalten abgeleitet. Demnach ist der bei maximalem biologischem Reinigungseffekt erreichbare CSB-Gehalt für Schwarzwasser häuslicher Herkunft etwa doppelt so hoch wie bei Schwarzwasser gewerblicher Herkunft.
Mit Hilfe von Sauerstoffzehrungsmessungen, die durch Substratzehrungsmessungen ergänzt wurden, wurden abschließend kinetische und stöchiometrische Parameter des heterotrophen und autotrophen Stoffwechsels sowie die CSB-Fraktionen von Schwarzwasser experimentell ermittelt. Die Versuche wurden unter Verwendung von mechanisch gereinigtem Schwarzwasser und SBR-Belebtschlamm durchgeführt, welcher zwei verschiedene Schlammalter aufwies. Hierdurch konnte der Einfluss der Betriebsparameter Schlammalter und Schlammbelastung auf den Stoffwechsel der jeweils gewachsenen Schwarzwasser-Belebtschlammbiozönose ermittelt werden. Bei der Fraktionierung der organischen Verbindungen konnte u.a. ein Zusammenhang zwischen den abbaubaren CSB-Fraktionen und dem Schlammalter abgeleitet werden. Die in den Praxisversuchen gewonnen Erkenntnisse hinsichtlich der Rest-CSB-Gehalte konnten damit bestätigt werden. Darüber hinaus konnte gezeigt werden, dass bei der aeroben biologischen Behandlung von Schwarzwasser eine Entkopplung von Ammonium- und Nitritoxidation auftritt. Zur Bestimmung der kinetischen und stöchiometrischen Kenngrößen der Nitrifikation wurde zudem eine modifizierte Methode vorgestellt, die es erlaubt die momentane Nitritations- und Nitratationsrate in einem Versuch zu ermitteln. In stickstoffhaltigen Abwässern oder bei hohen Abwassertemperaturen liefert die Methode einen vertiefenden Einblick in die Prozesse der Nitrifikation und wird daher zur weiteren Umsetzung empfohlen.
In this thesis we consider the problem of maximizing the growth rate with proportional and fixed costs in a framework with one bond and one stock, which is modeled as a jump diffusion with compound Poisson jumps. Following the approach from [1], we prove that in this framework it is optimal for an investor to follow a CB-strategy. The boundaries depend only on the parameters of the underlying stock and bond. Now it is natural to ask for the investor who follows a CB-strategy which is given by the stopping times \((\tau_i)_{i\in\mathbb N}\) and impulses \((\eta_i)_{i\in\mathbb N}\) how often he has to rebalance. In other words we want to obtain the limit of the inter trading times
\[
\lim_{n\rightarrow\infty}\frac{1}{n}\sum_{i=1}^n(\tau_{i+1}-\tau_{i}).
\]
We are able to obtain this limit which is given by the expected first exit time of the risky fraction process from some interval under the invariant measure of the Markov chain \((\eta_i)_{i\in\mathbb N}\) using the Ergodic Theorem from von Neumann and Birkhoff. In general, it is difficult to obtain the expectation of the first exit time for the process with jumps. Because of the jump part, when the process crosses the boundaries of the interval an overshoot may occur which makes it difficult to obtain the distribution. Nevertheless we can obtain the first exit time if the process has only negative jumps using scale functions. The main difficulty of this approach is that the scale functions are known only up to their Laplace transforms. In [2] and [3] the closed-form expression for the scale function of the Levy process with phase-type distributed jumps is obtained. Phase-type distributions build a rich class of positive-valued distributions: the exponential, hyperexponential, Erlang, hyper-Erlang and Coxian distributions. Since the scale function is given as a function in a closed form we can differentiate to obtain the expected first exit time using the fluctuation identities explicitly.
[1] Irle, A. and Sass,J.: Optimal portfolio policies under fixed and proportional transaction costs, Advances in Applied Probability 38, 916-942.
[2] Egami, M., Yamazaki, K.: On scale functions of spectrally negative Levy processes with phase-type jumps, working paper, July 3.
[3]Egami, M., Yamazaki, K.: Precautionary measures for credit risk management in jump models, working paper, June 17.
Diese Dissertation besteht aus zwei aktuellen Themen im Bereich Finanzmathematik, die voneinander unabhängig sind.
Beim ersten Thema, "Flexible Algorithmen zur Bewertung komplexer Optionen mit mehreren Eigenschaften mittels der funktionalen Programmiersprache Haskell", handelt es sich um ein interdisziplinäres Projekt, in dem eine wissenschaftliche Brücke zwischen der Optionsbewertung und der funktionalen Programmierung geschlagen wurde.
Im diesem Projekt wurde eine funktionale Bibliothek zur Konstruktion von Optionen
entworfen, in dem es eine Reihe von grundlegenden Konstruktoren gibt, mit denen
man verschiedene Optionen kombinieren kann. Im Rahmen der funktionalen Bibliothek
wurde ein allgemeiner Algorithmus entwickelt, durch den die aus den Konstruktoren
kombinierten Optionen bewertet werden können.
Der mathematische Aspekt des Projekts besteht in der Entwicklung eines neuen Konzeptes zur Bewertung der Optionen. Dieses Konzept basiert auf dem Binomialmodell, welches in den letzten Jahren eine weite Verbreitung im Forschungsgebiet der Optionsbewertung fand. Der kerne Algorithmus des Konzeptes ist eine Kombination von mehreren
sorgfältig ausgewählten numerischen Methoden in Bezug auf den Binomialbaum. Diese
Kombination ist nicht trivial, sondern entwikelt sich nach bestimmten Regeln und ist eng mit den grundlegenden Konstruktoren verknüpft.
Ein wichtiger Charakterzug des Projekts ist die funktionale Denkweise. D. h. der Algorithmus ließ sich mithilfe einer funktionalen Programmiersprache formulieren. In unserem Projekt wurde Haskell verwendet.
Das zweite Thema, Monte-Carlo-Simulation des Deltas und (Cross-)Gammas von
Bermuda-Swaptions im LIBOR-Marktmodell, bezieht sich auf ein zentrales Problem der
Finanzmathematik, nämlich die Bestimmung der Risikoparameter komplexer Zinsderivate.
In dieser Arbeit wurde die numerische Berechnung des Delta-Vektors einer Bermuda-
Swaption ausführlich untersucht und die neue Herausforderung, die Gamma-Matrix einer Bermuda-Swaption exakt simulieren, erfolgreich gemeistert. Die beiden Risikoparameter spielen bei Handelsstrategien in Form des Delta-Hedgings und Gamma-Hedgings eine entscheidende Rolle. Das zugrunde liegende Zinsstrukturmodell ist das LIBORMarktmodell, welches in den letzten Jahren eine auffällige Entwicklung in der Finanzmathematik gemacht hat. Bei der Simulation und Anwendung des LIBOR-Marktmodells fällt die Monte-Carlo-Simulation ins Gewicht.
Für die Berechung des Delta-Vektors einer Bermuda-Swaption wurden drei klassische und drei von uns entwickelte numerische Methoden vorgestellt und gegenübergestellt, welche fast alle vorhandenen Arten der Monte-Carlo-Simulation zur Berechnung des Delta-Vektors einer Bermuda-Swaption enthalten.
Darüber hinaus gibt es in der Arbeit noch zwei neu entwickelte Methoden, um die Gamma-Matrix einer Bermuda-Swaption exakt zu berechnen, was völlig neu im Forschungsgebiet der Computational-Finance ist. Eine ist die modifizierte Finite-Differenzen-Methode. Die andere ist die reine Pathwise-Methode, die auf pfadweiser Differentialrechnung basiert und einem robusten und erwartungstreuen Simulationsverfahren entspricht.
Faser-Kunststoff-Verbunde haben in vielen technischen Bereichen eine stetig
wachsende Verbreitung erfahren. Diese rührt aus ihren vorteilhaften Eigenschaften
hoher gewichtsspezifischer Festigkeit und Steifigkeit. Dadurch
sind Gewichtsreduktion, erhöhte Nutzlast, sowie hohe Funktionsintegration in
Kombination mit einer freien Formgebung und einer beanspruchungsgerechten
Konstruktion möglich. Daneben weisen faserverstärkte Kunststoffe hohe
Energieabsorption und herausragende Ermüdungseigenschaften auf. Zur
quasi-statischen Bauteilauslegung existieren physikalisch basierte Bruchkriterien;
Analysemodelle zur quantitativen Beschreibung des gesamten komplexen
Ermüdungsversagens sind zurzeit noch Gegenstand der Forschung.
Werkstoffermüdung erfordert eine gesonderte Betrachtung bei der Auslegung
und Konstruktion. Die am Institut für Verbundwerkstoffe vorhandenen Verfahren
zur Berechnung der Ermüdung von Faserverbunden sind auf die Berechnung
ebener Belastungen an geometrisch ebenen und dünnwandigen Bauteilen
unter Verwendung linearer Werkstoffgesetze begrenzt. Der bei komplexen,
dünnwandigen und gekrümmten dreidimensionalen Bauteilen unter schwingender
Belastung vorliegende Spannungszustand erfordert zur realitätsnahen
Abbildung den Einsatz nichtlinearer Werkstoffgesetze und geeigneter Versagensmodelle
zur kontinuumsmechanischen Beschreibung der Schadensentwicklung,
welche in die Finite-Elemente-Analyse zu integrieren sind.
Gegenstand dieser Arbeit ist die Weiterentwicklung eines auf der Critical-
Element-Methode basierenden Berechnungskonzepts für die Simulation der
Ermüdung von Faser-Kunststoff-Verbunden von der für geometrisch einfache
Strukturen einsetzbaren Klassischen Laminattheorie bis zum Einsatz in der
Finite-Element-Methode bei komplexen Bauteilgeometrien. Dazu wurden geeignete
nichtlineare Werkstoffgesetze und Versagensmodelle für das komplexe
Versagensverhalten unter schwingender Belastung an einem mit Endloskohlenstofffaser
verstärkten Werkstoff auf Einzelschichtebene experimentell
bestimmt und ihr Einsatz in der entwickelten Finite-Elemente-Lebensdaueranalyse
exemplarisch an einem Anwendungsbeispiel eines praktisch relevanten
Bauelements validiert.
In quasi-statischen Zug- und Druckversuchen wurden die nichtlinearen Spannungs-Verzerrungs-Beziehungen des Werkstoffs an Flachprobekörpern
ermittelt und mit der Ramberg-Osgood-Funktion beschrieben. Zur Ermittlung
ermüdungsrelevanter Kennwerte wurden Restfestigkeitsuntersuchungen nach
zyklischer Ermüdung, die Bestimmung des Steifigkeitsabfalls unter zyklischer
Belastung und Einstufenversuche zur Beschreibung der Wöhlerlinie durchgeführt.
Um die Messung des nichtlinearen Materialverhaltens im Versuch
möglichst frei von Einflüssen der Prüfvorrichtung zu ermöglichen, wurde ein
verbessertes Prüfverfahren für Zugschwell-, Druckschwell- und Zug-Druck-
Wechselprüfungen an Flachproben erarbeitet.
Unter Nutzung der experimentell ermittelten Werkstoffgesetze zusammen mit
geeigneten Versagenskriterien wurde ein Finite-Elemente-Lebensdaueranalyseprogramm
entwickelt, das durch die Verwendung eigenständiger Programmroutinen
eine für die praktikable Durchführbarkeit einer prognosefähigen Lebensdaueranalyse
notwendige Rechenzeitverkürzung erreicht. Die entwickelte
kontinuumsmechanische Versagensanalyse ermöglicht die präzise Analyse
der Einzelschichtspannungen des Laminats infolge der äußeren Belastung
in Kombination mit einer spannungsbasierten Anstrengungsanalyse zur Abbildung
der ermüdungsbedingten Degradation der Werkstoffkennwerte bis hin
zum Gesamtversagen. Die Berechnung des Degradationsfortschritts durch zyklische
Belastung ist in guter Übereinstimmung mit dem in experimentellen Untersuchungen
an quasi-isotropen Probekörpern beobachteten Versagensvorgängen.
Dieser wurde versuchsbegleitend in zweidimensionalen Röntgenaufnahmen
detektiert und durch dreidimensionale Computertomographie den Einzelschichten
zugeordnet. Durch Nachrechnung experimenteller Untersuchungen
an einem quasi-isotropen, mit Endloskohlenstofffaser verstärkten Bauelement
mit Kreisausschnitt konnte die entwickelte Lebensdaueranalyse validiert
und eine konservative Vorhersage der Versagensschwingspielzahl abgeschätzt
werden. In Variationsanalysen wurde der Einfluss der nichtlinearen
Werkstoffgesetze und eines Degradationsmodells auf die Lebensdaueranalyse
untersucht.
Die Entwicklung der integrierten Finite-Elemente-Lebensdaueranalyse stellt
einen deutlichen Fortschritt des Berechnungskonzeptes dar und ermöglicht
einen Einblick in die komplexen Interaktionen aus Geometrie, Belastung, Degradationsmodellen
und Schadensausbreitung bei Ermüdungsbelastung.
Im Rahmen der Doktorarbeit wurden neue decarboxylierende und carboxylierende Transformationen entwickelt. Die Entwicklung decarboxylierender Umsetzungen diente der näheren Untersuchung des Decarboxylierungsprozesses, um anschließend mit den entwickelten Katalysatorsystemen, gestützt durch das Prinzip der mikroskopischen Reversibilität, neue carboxylierende Reaktionen zu entwickeln. In diesen carboxylierenden Transformationen sollte direkt gasförmiges CO2 genutzt werden, um sich so seiner großen Verfügbarkeit zu profitieren. Dies ist in allen Projekten erfolgreich gelungen.
Unidirectional (UD) composites are the most competitive materials for the production
of high-end structures. Their field of application spreads from the aerospace up to
automotive and general industry sector. Typical examples of components made of
unidirectional reinforced composite materials are rocket motor cases, drive shafts or
pressure vessels for hydrogen storage. The filament winding technology, the pultrusion
process and the tape placement are processes suitable for the manufacturing
using UD semi-finished products. The demand for parts made of UD composites is
constantly increasing over the last years. A key feature for the success of this technology
is the improvement of the manufacturing procedure.
Impregnation is one of the most important steps in the manufacturing process. During
this step the dry continuous fibers are combined with the liquid matrix in order to create
a fully impregnated semi-finished product. The properties of the impregnated roving
have a major effect on the laminate quality, and the efficient processing of the
liquid matrix has a big influence on the manufacturing costs.
The present work is related to the development of a new method for the impregnation
of carbon fiber rovings with thermoset resin. The developed impregnation unit consists
of a sinusoidal cavity without any moving parts. The unit in combination with an
automated resin mixing-dosing system allows complete wet-out of the fibers, precise
calibration of the resin fraction, and stable processing conditions.
The thesis focuses on the modeling of the impregnation process. Mathematical expressions
for the fiber compaction, the gradual increase of the roving tension, the
static pressure, the capillarity inside the filaments of the roving, and the fiber permeation
are presented, discussed, and experimentally verified. These expressions were
implemented in a modeling algorithm. The model takes into account all the relevant
material and process parameters. An experimental set-up based on the filament
winding process was used for the validation of the model. Trials under different conditions
have been performed. The results proved that the model can accurately simulate
the impregnation process. The good impregnation degree of the wound samples
confirmed the efficiency of the developed impregnation unit. A techno economical
analysis has proved that the developed system will result to the reduction of the
manufacturing costs and to the increase of the productivity.
Mechanisms underlying the biological effects of coffee and its constituents are incompletely understood. Many effects have been attributed solely to caffeine, neglecting that coffee is a mixture of many chemical substances. Some authors suggest that the main mechanism of action of caffeine is to antagonize adenosine receptors (AR); a second effect is the inhibition of phosphodiesterases with the subsequent accumulation of cAMP and an intensification of the effects of catecholamines. Although the inhibition of phosphodiesterases may contribute to the actions of caffeine, there is growing evidence that most pharmacological effects of this xanthine result from antagonism of AR.
One of the main objectives of this work was to investigate whether substances other than caffeine in coffee may influence the homeostasis of intracellular cyclic nucleotides in vitro and in vivo. The influence of selected coffee compounds, extracts and brews on key elements involved in the adenosine receptor-mediated signaling pathway have been investigated.
A further aim of this work was also to determine if coffee or some coffee constituents may have a stimulatory effect on the cellular heme oxygenase activity (HO-activity). Two coffee extracts, a slightly (AB1) and an intensively roasted coffee (AB2), were studied along with selected individual compounds. Caffeine and low substituted pyrazines showed no effect on the HO-activity, while NMP, pyrazines with a greater substitution pattern such as Tetramethylpyrazine (TMP) and 2-Ethyl-3,5(6)-dimethylpyrazine (2-E-3,5-DMP) and both coffee extracts significantly induced the HO-activity in liver hepatocellular carcinoma (HepG2), intestinal colo-rectal adenocarcinoma (Caco-2) and in some instances in monocytic leukemia (MM6) cells.
It was found that caffeine, theophylline, coffee extracts from conventional or functional coffees, pyrazines (2,3-DE-6-MP, 2-Isobutyl-3-methoxyP), 5-CQA and caffeic acid all significantly inhibited the basal cytoplasmatic PDE activity in lysates of lung tumour xenograft cells (LXFL529L) and human platelets. To a somewhat lesser extent, PDE inhibition was also found in experiments performed with paraxanthine and other pyrazines (2-E-3,5-DMP, TMP and 2-E-5-MP). Thus the degree of roasting has a considerable impact on constituents of influence for PDE activity. Caffeine, coffee polyphenols and some pyrazines and further, as yet unknown roasting products appear to represent the main modulating constituents.
In two coffee intervention studies, a short-term (8 weeks) and a long-term study (24 weeks), comprising 8 and 84 healthy volunteers respectively, we examined extracellular key elements of the adenosine pathway including plasma adenosine levels and adenosine deaminase activity. Additionally, we studied the intracellular cAMP concentration and the PDE activity in platelets as surrogate biomarkers of adipocytes.
Results of in vitro experiments had suggested that the concentrations of caffeine and coffee extracts required to obtain a half maximal inhibition were in the upper range of physiological conditions. Yet, it was demonstrated for the first time in vivo that moderate consumption of coffee can modulate the activity of platelet phosphodiesterases in humans in long and short term. In both studies, the first exposure to coffee showed a strong inhibition (p<0.001) of the PDE activity in the platelet lysates of the participants while the second coffee phase showed no or a slight effect when compared with the first coffee intervention.
In both studies a significant increase (p<0.001) in intraplatelet cAMP concentrations during the wash-out phase (after the first coffee phase) was observed. This response could be due to inhibition of the PDE activity in the previously phase extending in to the wash out phase. However, the behavior of cAMP in the following study phases cannot be easily explained. It may be hypothesized that this effect is attributable to adaptive effects to allow PDE inhibition. One possibility is the modulation of the expression of membrane-bound adenosine receptors in platelet precursors, which still have a nucleus. This may potentially influence adenylate cyclase activity in mature platelets. For the observed effects, in addition to caffeine other ingredients of coffee appear to play a role. The findings suggest that monitoring of cAMP homeostasis in platelets is not a useful surrogate biomarker for effects in other tissues.
Neither the activity of adenosine deaminase nor the adenosine concentrations in plasma were markedly modulated by the coffee consumption in both trials. This may reflect the fact that adenosine is subject to quick and effective enzymatic turnover by phosphorylation (adenosine kinase) or deamination (adenosine deaminase) allowing keep its concentration within a well balanced homeostasis. However, it is also well known, that considerable variability exists in the responses to coffee drinking. In part, such variability is due to caffeine tolerance, but there is also evidence for a genetic background.
Altogether the data reported here provide further evidence for the perception that coffee consumption is associated with beneficial health effects demonstrated for the cAMP enhancement in platelets, known to counteract platelet aggregation. The effects observed for the influence of cellular heme oxygenase (HO) are in line with the well documented antioxidative activity of coffee and its constituents.
Induction welding is a technique for joining of thermoplastic composites. An alternating
electromagnetic field is used for contact-free and fast heating of the parts to be
welded. In case of a suitable reinforcement structure heat generation occurs directly
in the laminate with complete heating in thickness direction in the vicinity of the coil.
The resulting temperature field is influenced by the distance to the induction coil with
decreasing temperature for increasing distance. Consequently, the surface facing the
inductor yields the highest, the opposite surface the lowest temperature.
The temperature field described significantly complicates the welding process. Due to
complete heating the laminate has to be loaded with pressure in order to prevent delamination,
which requires the usage of complex and expensive welding tools. Additionally,
the temperature difference between the inductor and the opposite side may
be greater than the processing window, which is determined by the properties of the
matrix polymer.
The induction welding process is influenced by numerous parameters. Due to complexity
process development is mainly based on experimental studies. The investigation
of parameter influences and interactions is cumbersome and the measurement
of quality relevant parameters, especially in the bondline, is difficult. Process simulation
can reduce the effort of parameter studies and contribute to further analysis of
the induction welding process.
The objective of this work is the development of a process variant of induction welding
preventing complete heating of the laminate in thickness direction. For optimal
welding the bondline has to reach the welding temperature whereas the other domains
should remain below the melting temperature of the matrix polymer.
For control of the temperature distribution localized cooling by an impinging jet of
compressed air was implemented. The effect was assessed by static heating experiments
with carbon fiber reinforced polyetheretherketone (CF/PEEK) and polyphenylenesulfide
(CF/PPS).
The application of localized cooling could influence the temperature distribution in
thickness direction of the laminate, according to the specifications of the welding
process. The temperature maximum was shifted from the inductor to the opposite side. This enables heating of the laminate to welding temperature in the bondline and
concurrently preventing melting and effects connected to this on the outer surface.
Inductive heating and the process variant with localized cooling were implemented in
three-dimensional finite-element process models. For that purpose, the finiteelement-
software Comsol Multiphysics 4.1 was used for the development of fully
coupled electromagnetic-thermal models which have been validated experimentally.
A sensitivity analysis for determination of different processing parameters of inductive
heating was conducted. The coil current, field frequency, and heat capacity were
identified as significant parameters. The cooling effect of the impinging jets was estimated
by appropriate convection coefficients.
For transfer of the developed process variant to the continuous induction welding
process, a process model was created. It represents a single overlap joint with continuous
feed. With the help of process modeling a parameter set for welding of
CF/PEEK was determined and used for joining of specimens. In doing so, the desired
temperature field was achieved and melting of the outer layers could be prevented.
Im Rahmen der zunehmenden Konzentration von Kohlenstoffdioxid in der Atmosphäre und der damit verbundenen Klimaproblematik wird mit steigendem Interesse an Verwendungsmöglichkeiten dieses Rohstoffs als günstige C1-Kohlenstoffquelle in der chemischen Industrie geforscht. Vor diesem Hintergrund wurden in den letzten Jahren auf dem Themengebiet der rutheniumkatalysierten Hydrierung von CO2 zu Ameisensäure viele Ergebnisse unterschiedlicher Katalysatorsysteme publiziert. Auf dieser Basis werden in der vorliegenden Arbeit mittels Ruthenium(II)-Komplexen mit Azolylliganden, welche durch Variation der Substituenten unterschiedliche Donoreigenschaften aufweisen, in der Hydrierung von CO2 untersucht und die damit verbundenen Struktur-Reaktivitäts-Eigenschaften herausgearbeitet.
Bei den hier verwendeten 2-(Pyrazol-5-yl)- oder 2-(Triazol-5-yl)pyridinliganden handelt es sich um N,N'-Chelat-Liganden, welche durch Koordination an Ruthenium(II) stabile Komplexe ausbilden können. Die Einführung unterschiedlicher Alkyl- und Arylgruppen bzw. Brom- und Nitrogruppen erfolgt abgewandt von den chelatisierenden Stickstoffatomen, wodurch eine sterische Auswirkung auf das zu koordinierende Metall gering ist. In dieser Arbeit werden 23 verschiedene, sich durch unterschiedliche Substitutionen unterscheidende Modifikationen der Azolylliganden dargestellt und charakterisiert. Von ausgewählten Systemen werden erstmalig 15N-HMBC-NMR-Spektren aufgenommen und diskutiert.
Ausgehend von den deprotonierten Ligandensystemen werden verschiedene Ruthenium(II)-Komplexe mit Triphenyl- und Trimethylphosphanliganden bzw. mit Triphenyl- und Trialkylphosphitliganden dargestellt. Die Kristallstrukturen mehrerer RuCl(PMe3)3PP/TP-Komplexe mit einer meridionalen Anordnung der PMe3-Liganden werden vorgestellt. Auch hier erfolgt die Charakterisierung der Systeme zusätzlich über 15N-HMBC-NMR-Spektren und die Unterschiede zu den freien Liganden werden diskutiert. Darüber hinaus wird das Fragmentierungsverhalten der Komplexe durch ESI- und CID-Messungen im Ionenzyklotron analysiert und eine Abspaltung der PMe3- bzw. Chlorido-Liganden abhängig von der Substitution besprochen.
Zur Untersuchung der katalytischen Aktivität der synthetisierten Komplexe werden Hydrierreaktionen mit elementarem Wasserstoff in überkritischem CO2 als Lösungsmittel und Edukt in einem Hochdruckautoklaven durchgeführt. Die Stabilisierung der hierbei gebildeten Ameisensäure erfolgt durch Zugabe von DBU als Base. Zur Bestimmung der jeweiligen Aktivität werden die Ausbeute, TON- und TOF-Werte unter konstanten Reaktionsbedingungen berechnet und miteinander verglichen. Als entscheidende aktivitätsbestimmende Faktoren können die Fähigkeit zur Erzeugung einer freien Koordinationsstelle und die Löslichkeit der Komplexe identifiziert werden. Für die hier untersuchten Rutheniumphosphit-Komplexe wird eine bisher unbekannte hohe katalytische Aktivität beobachtet. Zudem werden die Struktur-Reaktivitäts-Eigenschaften der RuCl(PMe3)3PP/TP-Komplexe analysiert und besprochen.
Zur Verifizierung der gefundenen Zusammenhänge zwischen Struktur und Reaktivität der Katalysatoren wird die vollständige quantenchemischen Berechnung aller mechanistischen Stufen mit unterschiedlich substituierten Liganden auf Basis der Dichtefunktionaltheorie und des in der Literatur postulierten Reaktionsmechanismus durchgeführt. Zudem werden alternative Reaktionspfade analysiert und miteinander verglichen. Unter den berechneten Reaktionsschritten kann jeweils die σ-Metathesereaktion als der geschwindigkeitsbestimmende Schritt identifiziert werden. Die Berechnungen zeigen, dass die Energiebarriere dieses Teilschritts mit zunehmend elektronenziehendem Charakter der Substituenten steigt. Dieser theoretisch ermittelte Trend des Zusammenhangs zwischen Struktur und Reaktivität des Katalysators stimmt damit klar mit den experimentell erhaltenen Daten überein und bestätigt diese.
The goal of this work is to develop a simulation-based algorithm, allowing the prediction
of the effective mechanical properties of textiles on the basis of their microstructure
and corresponding properties of fibers. This method can be used for optimization of the
microstructure, in order to obtain a better stiffness or strength of the corresponding fiber
material later on. An additional aspect of the thesis is that we want to take into account the microcontacts
between fibers of the textile. One more aspect of the thesis is the accounting for the thickness of thin fibers in the
textile. An introduction of an additional asymptotics with respect to a small parameter,
the relation between the thickness and the representative length of the fibers, allows a
reduction of local contact problems between fibers to 1-dimensional problems, which
reduces numerical computations significantly.
A fiber composite material with periodic microstructure and multiple frictional microcontacts
between fibers is studied. The textile is modeled by introducing small geometrical
parameters: the periodicity of the microstructure and the characteristic
diameter of fibers. The contact linear elasticity problem is considered. A two-scale
approach is used for obtaining the effective mechanical properties.
The algorithm using asymptotic two-scale homogenization for computation of the
effective mechanical properties of textiles with periodic rod or fiber microstructure
is proposed. The algorithm is based on the consequent passing to the asymptotics
with respect to the in-plane period and the characteristic diameter of fibers. This
allows to come to the equivalent homogenized problem and to reduce the dimension
of the auxiliary problems. Further numerical simulations of the cell problems give
the effective material properties of the textile.
The homogenization of the boundary conditions on the vanishing out-of-plane interface
of a textile or fiber structured layer has been studied. Introducing additional
auxiliary functions into the formal asymptotic expansion for a heterogeneous
plate, the corresponding auxiliary and homogenized problems for a nonhomogeneous
Neumann boundary condition were deduced. It is incorporated into the right hand
side of the homogenized problem via effective out-of-plane moduli.
FiberFEM, a C++ finite element code for solving contact elasticity problems, is
developed. The code is based on the implementation of the algorithm for the contact
between fibers, proposed in the thesis.
Numerical examples of homogenization of geotexiles and wovens are obtained in the
work by implementation of the developed algorithm. The effective material moduli
are computed numerically using the finite element solutions of the auxiliary contact
problems obtained by FiberFEM.
Für viele Anwendungen von Polymerkompositen steigt der Bedarf an multifunktionalen
Werkstoffeigenschaften, die elektrische Leitfähigkeit als integrierte
Funktionalität ist eine davon. Elektrisch leitfähige Polymerkomposite werden unter
anderem in explosionsgeschützten Anlagen oder in Bereichen eingesetzt, in denen
eine elektrostatische Ableitung gefordert wird.
Kohlenstoff-Nanoröhren (Carbon Nanotubes (CNTs)) sind aufgrund ihrer herausragenden
intrinsischen, vorwiegend mechanischen und elektrischen Eigenschaften
als Funktionsfüllstoff in polymeren Matrizes in das wissenschaftliche und industrielle
Interesse gerückt. Aufgrund ihrer vielfältigen Erscheinungsformen, abhängig von ihren
Herstellungsverfahren von einwandigen bis mehrwandigen CNTs und ihrer vorhandenen
Defektdichte sowie strukturellen Aufbauten, ist jede CNT-Type als Individuum
zu betrachten. Unabhängig von existierenden Einflussfaktoren wie z.B. dem
Matrixpolymer und den Verarbeitungsbedingungen differieren je nach CNT-Type die
Nanokompositeigenschaften signifikant. Dies führt dazu, dass die Ergebnisse und
Erkenntnisse außerordentlich stark streuen. Dadurch sind allgemeingültige Aussagen
nur bedingt möglich. Häufig sind nicht alle notwendigen Details der Wertschöpfungskette
in Veröffentlichungen dargelegt, was die Nachvollziehbarkeit erschwert.
Industriell hergestellte, mehrwandige CNTs (MWNTs) sind verstärkt in das industrielle
Interesse gerückt. Die Erforschung von Prozess-Struktur-Eigenschaftsbeziehungen
von CNT-Nanokompositen, außerhalb des Labormaßstabs, mit kommerziell
verfügbaren MWNTs und industriell relevanten Verarbeitungsverfahren, ist
weiter von ingenieurwissenschaftlicher Relevanz. Es besteht ein großer Bedarf an
Forschungsarbeiten, die klar herausstellen, welche Eigenschaftsprofile unter Beachtung
der notwendigen Wertschöpfungskette zu erzielen sind.
Bei der Kompoundentwicklung ist die gleichzeitige Verbesserung von Kompositeigenschaften
wie beispielsweise elektrischer, mechanischer und tribologischer Eigenschaften
anzustreben, um eine effektive Multifunktionalität zu erzielen. Die Funktionalisierung
mit mikroskaligen kurzen Kohlenstofffasern (SCFs) und mikroskaligem
Graphit ist Stand der Technik. Eine Kombination von nano- und mikroskaligen Füllstoffen
stellt große Potenziale zur Optimierung von Kompositeigenschaften bereit. Derartige Hybridwerkstoffe versprechen Synergien. Werden diese gezielt ausgenutzt,
lassen sich die Gesamteigenschaften über das Potenzial der Einzelfüllstoffe hinaus
optimieren. Es liegen wenige systematische Studien von Füllstoffkombinationen aus
MWNTs und SCFs oder Graphit vor. Zudem finden Hochtemperatur-Thermoplaste
wie das in dieser Arbeit eingesetzte Polyphenylensulfid (PPS) in der Literatur wenig
Beachtung, obwohl diese inzwischen industriell stark an Bedeutung gewinnen.
Ziel dieser Arbeit war die grundlagenorientierte, wissenschaftliche Betrachtung der
erreichbaren multifunktionalen Eigenschaften von PPS Kompositen durch den Einsatz
kommerziell verfügbarer MWNTs im direkten Vergleich und in Kombination mit
mikroskaligen SCFs und Graphit als Füllstoffe. Dazu wurden systematisch Kombinationen
der drei Füllstoffe untersucht, um eine effektive Multifunktionalität zu realisieren
und um die Effektivität der Einzelfüllstoffe in kombinierten Füllstoffsystemen zu
erforschen.
Neben der spezifischen elektrischen Leitfähigkeit und den mechanischen Eigenschaften
unter Zugbelastung bei Raumtemperatur wurden die tribologischen Eigenschaften
der Komposite untersucht. Über mikroskopische Verfahren, DSC-, DMTAund
Viskositätsuntersuchungen konnten wesentliche Prozess-Struktur-Eigenschaftsbeziehungen
abgeleitet werden, indem die dafür notwendige Wertschöpfungskette
von der Kompositherstellung über Doppelschneckenextrusion und anschließender
Probenherstellung über Spritzguss als industriell relevante Herstellungsverfahren
Beachtung fand.
Über optimierte Prozessparameter (Schneckendesign, Drehzahl, Temperatur etc.)
der Doppelschneckenextrusion und des Spritzgusses konnte gezeigt werden, dass
elektrisch leitfähige PPS-Komposite mit geringsten MWNT-Füllstoffgehalten
(< 2 Gew.-%) unter Beibehaltung der Zugfestigkeit realisiert werden können. Dabei
wurde die Steifigkeit erhöht, die Zähigkeit erniedrigt.
Systematisch wurden monomodale Graphit/, SCF/, bimodale MWNT/Graphit/, Graphit/
SCF/, MWNT/SCF/ und multimodale MWNT/Graphit/SCF/PPS-Komposite hergestellt,
womit der jeweilige Füllstoffeinfluss auf das Eigenschaftsprofil untersucht
wurde. Sowohl die Steifigkeitssteigerung durch MWNTs und SCFs als auch die spezifischen
elektrischen Leitfähigkeiten der Komposite wurden mit bereits existierenden Modellen beschrieben. Für bimodale MWNT/SCF/PPS-Komposite konnte ein neuer
Modellansatz zur Beschreibung der elektrischen Leitfähigkeit erarbeitet werden.
Mit dieser Arbeit wurden erstmals Studien zu systematischen Füllstoffkombinationen
von MWNTs, Graphit und SCFs in PPS durchgeführt, Prozess-Struktur-Eigenschaftsbeziehungen
abgebildet und die notwendige Wertschöpfungskette dargelegt.
Mit den neuen Ergebnissen und Erkenntnissen dieser Arbeit ist es zukünftig möglich,
durch eine optimierte Füllstoffkombination von MWNTs, SCFs und Graphit das Gesamteigenschaftsprofil
von PPS Kompositen zielorientiert einzustellen.
Durch diese Arbeit wurde klar herausgearbeitet, wie die Einzelfüllstoffe und insbesondere
deren Kombinationen das Eigenschaftsprofil beeinflussen. Daraus geht hervor,
dass MWNTs der effektivste Füllstoff zur Integration einer elektrischen Leitfähigkeit
ist. Dagegen bestimmen SCFs das mechanische und tribologische Eigenschaftsprofil
und Graphit dient zur Optimierung tribologischer Eigenschaften und insbesondere
zur Reduktion des Reibungskoeffizienten. Synergien zur Verbesserung
der elektrischen Leitfähigkeit zwischen SCFs und MWNTs wurden nachgewiesen,
speziell in Perkolationsnähe, dem Bereich, in dem die Leitfähigkeit um Dekaden ansteigt.
Im Bereich kommunaler Entwässerungsnetze besteht nach den regelmäßig erfolgenden DWA-Umfragen über den Zustand der Kanalisationen ein hoher Sanierungsbedarf, obwohl die Problematik seit längerem bekannt ist und erhebliche Anstrengungen zur Netzzustandsverbesserung unternommen werden. Stand der Technik ist eine ganzheitliche Herangehensweise mit dem Ziel, funktionssichere, dauerhafte und dichte Netze zu erhalten, die auch zukünftig einen wirtschaftlichen Betrieb ermöglichen, und dabei den Vermögenswert, den die Netze verkörpern, langfristig zu erhalten. Nach wie vor ist dieses Ziel nicht erreicht, so dass die Sanierungsplanungen der Kommunen geprüft und analysiert werden müssen, um vorhandenes Optimierungspotential zu identifizieren.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise der Prozess der Sanierungsplanung im Hinblick auf den Strategieansatz („Strategiemix“) einer Kommune und ihres Entwässerungsbetriebes optimiert werden kann. Sie entwickelt darüber hinaus eine geeignete Entscheidungshilfe für die Wahl des optimalen Sanierungsverfahrens.
Der vorgestellte Lösungsansatz beinhaltet unter Berücksichtigung zahlreicher Entscheidungskriterien erstens eine systematische Vorgehensweise zur Wahl, Festsetzung und Durchführung von Strategieansätzen. Das Verfahren und sein Ergebnis werden als „multikriterielle Sanierungsstrategie“ bezeichnet. Zweitens wird die Entwicklung eines geeigneten Bewertungsverfahrens zur Festlegung geeigneter Sanierungsverfahren betrachtet („multikriterielle Verfahrenswahl“). Drittens verknüpft der Lösungsansatz systematisch den Strategiemix auf Netzebene mit den in erster Linie technischen Elementen auf Haltungsebene. Hierfür wird der Begriff der „strategischen Sanierungsplanung“ neu eingeführt.
Da jedes Entwässerungsnetz unterschiedliche Randbedingungen aufweist, können die Kommunen mit diesem Verfahren ihre eigenen Akzente bei der Priorisierung der einzelnen Entscheidungskriterien setzen und auf diese Weise ihre individuellen Sanierungsziele durch die systematische Verknüpfung der Strategien auf Netzebene mit den Anforderungen auf Haltungsebene wirksam und wirtschaftlich verfolgen.
Neue katalytische Reaktionen zur Funktionalisierung ungesättigter Fettsäuren und ihrer Derivate
(2012)
Die Nutzbarmachung pflanzlicher Öle als erneuerbare Rohstoffquelle für die chemische Industrie gewinnt angesichts verknappender Erdölvorräte an Bedeutung. Den Schwerpunkt dieser Arbeit bildet die Entwicklung neuer katalytischer Reaktionen zur effektiven Verwertung ungesättigter Fettsäuren und ihrer Derivate durch isomerisierende Funktionalisierungen. Da sich die Doppelbindung in diesen Substraten an einer festgelegten Position befindet, ist nur eine begrenzte Anzahl von Reaktionen einsetzbar. Neue Möglichkeiten eröffnen sich durch die Verschiebung der Doppelbindung entlang der Kette in eine Position, die selektiv durch neue Methoden funktionalisiert werden kann. In dieser Arbeit wurden mehrere Übergangsmetallkatalysatoren zur schnellen Isomerisierung ungesättigter Fettsäurederivate entwickelt, die als Schlüsselkomponenten für drei neue katalytische Transformationen dienten: (1) Ein Silber-basiertes System erlaubt die direkte Lactonisierung freier Fettsäuren; (2) ein bifunktioneller Rhodiumkatalysator ermöglicht die isomerisierende Michael-Addition von Aryl- und Stickstoffnucleophilen an ungesättigte Fettsäureester; (3) ein vielseitiges Palladium/Ruthenium-System bewirkt die Umsetzung ungesättigter Fettsäurederivate in funktionalisierte Olefingemische. Diese Reaktionen zeichnen sich durch hohe Selektivitäten, gute bis exzellente Ausbeuten sowie Toleranz gegenüber funktionellen Gruppen aus. Sie erweitern das Methodenspektrum des Chemikers zur Nutzbarmachung von Oleochemikalien mittels Übergangsmetallkatalyse und eröffnen neue Wege zu bio-basierten Wertstoffen, die bisher nur auf petrochemischer Basis synthetisiert werden konnten.
The increasing complexity of modern SoC designs makes tasks of SoC formal verification
a lot more complex and challenging. This motivates the research community to develop
more robust approaches that enable efficient formal verification for such designs.
It is a common scenario to apply a correctness by integration strategy while a SoC
design is being verified. This strategy assumes formal verification to be implemented in
two major steps. First of all, each module of a SoC is considered and verified separately
from the other blocks of the system. At the second step – when the functional correctness
is successfully proved for every individual module – the communicational behavior has
to be verified between all the modules of the SoC. In industrial applications, SAT/SMT-based interval property checking(IPC) has become widely adopted for SoC verification. Using IPC approaches, a verification engineer is able to afford solving a wide range of important verification problems and proving functional correctness of diverse complex components in a modern SoC design. However, there exist critical parts of a design where formal methods often lack their robustness. State-of-the-art property checkers fail in proving correctness for a data path of an industrial central processing unit (CPU). In particular, arithmetic circuits of a realistic size (32 bits or 64 bits) – especially implementing multiplication algorithms – are well-known examples when SAT/SMT-based
formal verification may reach its capacity very fast. In cases like this, formal verification
is replaced with simulation-based approaches in practice. Simulation is a good methodology that may assure a high rate of discovered bugs hidden in a SoC design. However, in contrast to formal methods, a simulation-based technique cannot guarantee the absence of errors in a design. Thus, simulation may still miss some so-called corner-case bugs in the design. This may potentially lead to additional and very expensive costs in terms of time, effort, and investments spent for redesigns, refabrications, and reshipments of new chips.
The work of this thesis concentrates on studying and developing robust algorithms
for solving hard arithmetic decision problems. Such decision problems often originate from a task of RTL property checking for data-path designs. Proving properties of those
designs can efficiently be performed by solving SMT decision problems formulated with
the quantifier-free logic over fixed-sized bit vectors (QF-BV).
This thesis, firstly, proposes an effective algebraic approach based on a Gröbner basis theory that allows to efficiently decide arithmetic problems. Secondly, for the case of custom-designed components, this thesis describes a sophisticated modeling technique which is required to restore all the necessary arithmetic description from these components. Further, this thesis, also, explains how methods from computer algebra and the modeling techniques can be integrated into a common SMT solver. Finally, a new QF-BV SMT solver is introduced.
In urban planning, both measuring and communicating sustainability are among the most recent concerns. Therefore, the primary emphasis of this thesis concerns establishing metrics and visualization techniques in order to deal with indicators of sustainability.
First, this thesis provides a novel approach for measuring and monitoring two indicators of sustainability - urban sprawl and carbon footprints – at the urban neighborhood scale. By designating different sectors of relevant carbon emissions as well as different household categories, this thesis provides detailed information about carbon emissions in order to estimate impacts of daily consumption decisions and travel behavior by household type. Regarding urban sprawl, a novel gridcell-based indicator model is established, based on different dimensions of urban sprawl.
Second, this thesis presents a three-step-based visualization method, addressing predefined requirements for geovisualizations and visualizing those indicator results, introduced above. This surface-visualization combines advantages from both common GIS representation and three-dimensional representation techniques within the field of urban planning, and is assisted by a web-based graphical user interface which allows for accessing the results by the public.
In addition, by focusing on local neighborhoods, this thesis provides an alternative approach in measuring and visualizing both indicators by utilizing a Neighborhood Relation Diagram (NRD), based on weighted Voronoi diagrams. Thus, the user is able to a) utilize original census data, b) compare direct impacts of indicator results on the neighboring cells, and c) compare both indicators of sustainability visually.
Paper production is a problem with significant importance for the society and it is a challenging topic for scientific investigations. This study is concerned with the simulations of the pressing section of a paper machine. We aim at the development of an advanced mathematical model of the pressing section, which is able to recover the behavior of the fluid flow within the paper felt sandwich obtained in laboratory experiments.
From the modeling point of view the pressing of the paper-felt sandwich is a complex process since one has to deal with the two-phase flow in moving and deformable porous media. To account for the solid deformations, we use developments from the PhD thesis by S. Rief where the elasticity model is stated and discussed in detail. The flow model which accounts for the movement of water within the paper-felt sandwich is described with the help of two flow regimes: single-phase water flow and two-phase air-water flow. The model for the saturated flow is presented by the Darcy's law and the mass conservation. The second regime is described by the Richards' approach together with dynamic capillary effects. The model for the dynamic capillary pressure - saturation relation proposed by Hassanizadeh and Gray is adapted for the needs of the paper manufacturing process.
We have started the development of the flow model with the mathematical modeling in one-dimensional case. The one-dimensional flow model is derived from a two-dimensional one by an averaging procedure in vertical direction. The model is numerically studied and verified in comparison with measurements. Some theoretical investigations are performed to prove the convergence of the discrete solution to the continuous one. For completeness of the studies, the models with the static and dynamic capillary pressure–saturation relations are considered. Existence, compactness and convergence results are obtained for both models.
Then, a two-dimensional model is developed, which accounts for a multilayer computational domain and formation of the fully saturated zones. For discretization we use a non-orthogonal grid resolving the layer interfaces and the multipoint flux approximation O-method. The numerical experiments are carried out for parameters which are typical for the production process. The static and dynamic capillary pressure-saturation relations are tested to evaluate the influence of the dynamic capillary effect.
The last part of the thesis is an investigation of the validity range of the Richards’ assumption for the two-dimensional flow model with the static capillary pressure-saturation relation. Numerical experiments show that the Richards’ assumption is not the best choice in simulating processes in the pressing section.
Filtering, Approximation and Portfolio Optimization for Shot-Noise Models and the Heston Model
(2012)
We consider a continuous time market model in which stock returns satisfy a stochastic differential equation with stochastic drift, e.g. following an Ornstein-Uhlenbeck process. The driving noise of the stock returns consists not only of Brownian motion but also of a jump part (shot noise or compound Poisson process). The investor's objective is to maximize expected utility of terminal wealth under partial information which means that the investor only observes stock prices but does not observe the drift process. Since the drift of the stock prices is unobservable, it has to be estimated using filtering techniques. E.g., if the drift follows an Ornstein-Uhlenbeck process and without
jump part, Kalman filtering can be applied and optimal strategies can be computed explicitly. Also in other cases, like for an underlying
Markov chain, finite-dimensional filters exist. But for certain jump processes (e.g. shot noise) or certain nonlinear drift dynamics explicit computations, based on discrete observations, are no longer possible or existence of finite dimensional filters is no longer valid. The same
computational difficulties apply to the optimal strategy since it depends on the filter. In this case the model may be approximated by
a model where the filter is known and can be computed. E.g., we use statistical linearization for non-linear drift processes, finite-state-Markov chain approximations for the drift process and/or diffusion approximations for small jumps in the noise term.
In the approximating models, filters and optimal strategies can often be computed explicitly. We analyze and compare different approximation methods, in particular in view of performance of the corresponding utility maximizing strategies.
Die immer höheren Kosten für Energie und die Verknappung der natürlichen Ressourcen steigern die Bedeutung der Forschung an Katalysatoren für die chemische Synthese. Da die Herstellung geeigneter Katalysatoren zeitintensiv und teuer ist, sowohl durch den Einsatz von Edelmetallen als katalytisch aktivem Zentrum, als auch durch Verwendung von aufwändig synthetisierten Ligandsystemen, liegt der Fokus der Industrie auf heterogen katalysierten Verfahren. Im Arbeitskreis Thiel werden bereits seit längerer Zeit Pyrazolylpyridine als Chelatliganden für Übergangsmetallkomplexe synthetisiert, da sie leicht funktionalisierbar und damit in ihren elektronischen Eigenschaften modifizierbar sind. Ziel der vorliegenden Dissertation war die Synthese neuer Pyrazolyl- und Triazolylpyridine, die durch ihre funktionellen Gruppen eine einfache Heterogenisierung auf einem Trägermaterial ermöglichen, und so die Synthese von heterogenisierten Katalysatoren erlauben. Die Wahl fiel hierbei auf Ester- bzw. Chloridfunktionen, da die erfolgreiche Anbindung dieser Gruppen auf Trägermaterialien bereits bekannt ist. Die erfolgreiche Herstellung der an Position 5 des Azolylrings funktionalisierten Liganden gelang durch Synthese der Pyrazolylpyridine über eine Pyridylpyranonzwischenstufe bzw. durch Verwendung von Anhydriden als Edukte.
In einem zweiten Schritt wurde das nächste Ziel, die Anbindung der hergestellten Liganden auf ein Trägermaterial, durch die Verwendung von Amin- und Imidazolfunktionalisierten Kieselgelen realisiert. Die erfolgreiche Synthese konnte durch Festkörper-NMR-Analytik bestätigt werden. Sowohl die freien, als auch die heterogenisierten Liganden wurden nun verwendet, um Übergangsmetallkomplexe zu synthetisieren. Es wurden Palladium(II)komplexe, ausgehend von Bis(benzonitril)palladium(II)dichlorid und Ruthenium(II)komplexe, ausgehend von Carbonylhydridotris(triphenylphosphan)ruthenium(II)chlorid, Tetrakis(dimethylsulfoxid)ruthenium(II)dichlorid und Dichlorido(\eta^{6} -para-cymol)ruthenium(II)dimer hergestellt und charakterisiert.
Ebenfalls wurde die Eignung dieser Übergangsmetallkomplexe als Katalysatoren für chemische Reaktionen getestet. Die Palladiumkomplexe wurden in der Suzuki-Kupplung von Phenylhalogeniden mit Phenylboronsäure getestet. Die Eignung der Rutheniumverbindungen als Hydrierkatalysatoren wurde zum einen in der Hydrierung von CO2 zu Ameisensäure, zum anderen in der Transferhydrierung von Acetophenon untersucht. Dabei zeigte sich besonders eine gute Aktivität der Rutheniumkomplexe als Katalysatoren in der Transferhydrierung.
Die weltweite Verbreitung Penicillin-resistenter Bakterienstämme, darunter auch S. pneumoniae, stellt ein erhebliches medizinisches Problem dar. Resistenzen gegen Antibiotika können mittels horizontalem Gentransfer zwischen verschiedenen Streptokokken-Spezies ausgetauscht und somit verbreitet werden. In diesem Zusammenhang ist es wichtig die Vorgänge bei der Entstehung und Ausbreitung der β-Lactamresistenz zu verstehen. Im Fokus dieser Arbeit stand die Analyse des horizontalen Gentransfers zwischen den beiden Spezies Streptococcus mitis und Streptococcus pneumoniae und die daraus resultierende Entwicklung der β-Lactamresistenz.
Ausgangspunkt dieser Arbeit war die CCCB-Transformantenfamilie, welche durch die sukzessive Transformation von S. pneumoniae R6 mit chromosomaler DNA von S. mitis B6 und Selektion mit β-Lactamantibiotika generiert wurde. Dabei konnten bisher ungeklärte Faktoren der Resistenzentwicklung dieser Stämme identifiziert werden. Im Rahmen dieser Arbeit wurde eindeutig bewiesen, dass PBP2a in Kombination mit PBP2x aus S. mitis B6 einen entscheidenden Beitrag zur β-Lactamresistenz leistet.
Ein weiterer Schwerpunkt dieser Arbeit bestand in der Charakterisierung der Ursache des Resistenzunterschieds zwischen CCCB und CCCO. Diese zwei hochresistenten Stämme der vierten Transformationsstufe weisen scheinbar das gleiche Profil nieder-affiner Varianten aller fünf hochmolekularen PBP auf. Es konnte im Zuge dieser Arbeit gezeigt werden, dass das murM Gen aus S. mitis B6 lediglich in CCCB ausgetauscht wurde. Weiterführende Experimente bestätigten, dass sowohl MurMB6 als auch MurMHu17 aus einem resistenten S. pneumoniae Isolat, das über einen nahezu identischen Mosaikblock wie MurMB6 verfügt, erhöhte β-Lactamresistenz vermitteln. Das Mosaik-MurMB6 trägt somit entscheidend zur höheren Resistenz von CCCB bei. Zudem wurde nachgewiesen, dass der Resistenzunterschied zwischen CCCB und CCCO zusätzlich durch die Anwesenheit des kompletten PBP2bB6 in CCCB verursacht wird. Dabei konnte herausgestellt werden, dass die Aminosäuresubstitutionen des C-Terminus von PBP2bB6, die in CCCO nicht vorhanden sind, eine zentrale Rolle bei der Entwicklung von β-Lactamresistenz spielen.
Ein weiterer Fokus dieser Arbeit lag auf der Identifizierung möglicher neuer Resistenzdeterminanten, welche von S. mitis B6 auf den bereits hochresistenten Stamm CCCB übertragen werden könnten. Durch die Transformation chromosomaler S. mitis B6 DNA in CCCB und Selektion mit diversen β-Lactamantibiotika konnten Stämme mit erhöhter β-Lactamresistenz isoliert werden. DNA-Microarray-Analysen dieser CCCB-Derivate dienten der Detektion möglicher übertragener Gene. Anstelle ausgetauschter, intakter Genloci zeigten diese Mutanten jedoch die Inaktivierung der Gene spr0683 bzw. spr1851. Im Rahmen dieser Arbeit wurde gezeigt, dass der beobachtete Resistenzanstieg aus der Deletion dieser beiden Gene resultiert. Beide Gene kodieren für hypothetische Proteine mit potentiellen Nukleinsäure-bindenden R3H- bzw. KH-Domänen. Die genaue Funktion beider Domänen ist nicht bekannt. Transkriptionsanalysen der Deletionsderivate von spr0683 und spr1851 dienten als Screening-Methode für einen möglichen durch das Fehlen der Gene beeinflussten Effekt auf transkriptioneller Ebene. Die veränderte Genexpression einer möglichen Resistenzdeterminante (ClpL) deutete zunächst auf einen möglichen Zusammenhang mit den Resistenzphänotypen der Deletions-derivate hin. Weiterführende Versuche widerlegten dies jedoch. Zukünftige Untersuchungen müssten noch offene Fragen hinsichtlich der potentiellen Funktion der beiden hypothetischen Proteine klären.
Durch die Verwendung der in den letzten Jahren neu entwickelten metallorganischen Koordinationspolymere als Adsorbentien, kann im Allgemeinen eine schwächere Affinität zu Kohlendioxid im Vergleich zu Zeolithen beobachtet werden. Diese neue Klasse an porösen Materialien verspricht herausragende Eigenschaften aufgrund ihrer hohen spezifischen Oberfläche und großer Porenvolumina. Im Rahmen dieser Arbeit wurden einige Vertreter der metallorganischen Koordinationspolymere auf ihre Adsorptionsfähigkeit auf Kohlendioxid hin untersucht. Zwei Materialien dieser Gruppe wurden aufgrund ihrer chemischen, mechanischen und thermischen Eigenschaften ausgewählt. Es handelte sich um die beiden Adsorbentien HKUST-1 und MIL-53 (Al), die in der Arbeitsgruppe selbst synthetisiert, charakterisiert und vermessen wurden. Damit ein wirtschaftliches und resourcenschonendes Verfahren basierend auf Adsorption entwickelt werden kann, werden Daten bezüglich der Adsorptionskapazität, der Kinetik und Trennfaktoren benötigt. Zur Untersuchung des Adsorptionsgleichgewichts und der Diffusion wurden Adsorptionsisothermen (der reinen Gase Kohlendioxid, Methan und Stickstoff) und Durchbruchskurven mit Modellmischungen aus Methan / Kohlendioxid (Biogas) und Stickstoff / Kohlendioxid (Rauchgas) aufgenommen. Es ergeben sich im Fall von HKUST-1 Kapazitäten für Kohlendioxid bis zu 22,7 Gew.-% bei einem Druck von 100 kPa und einer Temperatur von 293 K. Aus den Daten der gemessenen Adsorptionsisothermen wurden die Mehrkomponentenbeladungen nach IAST, Multi-Langmuir sowie dem Modell von Multi-Freundlich berechnet. Die hierbei größten beobachteten Abweichungen zwischen Berechnung und Messung ergaben sich für HKUST-1. Die freie Koordinationsstelle bestimmt die Wechselwirkung zwischen den beiden Adsorptiven Kohlendioxid und Methan weitgehend, sodass die eingesetzten Modelle das Gleichgewicht nicht hingehend genau wiedergeben können. Bei MIL-53 (Al) zeigen sich relativ gute Übereinstimmungen mit den verwendeten Modellen und den ermittelten Mehrkomponentenbeladungen mit Methan und Kohlendioxid.
Im Bereich der Automobilelektronik ist eine Zunahme an Fahrerassistenzsystemen zu bemerken, die den Fahrer neben einer warnenden Funktion durch autonomes aktives Eingreifen in seiner Fahraufgabe unterstützen. Dadurch entsteht eine hohe Anforderung an die funktionale Sicherheit dieser Systeme, um ein einwandfreies Verhalten in allen Fahrsituationen zu garantieren und sicherheitskritische Situationen zu vermeiden oder zu entschärfen. Die funktionale Sicherheit derartiger Fahrerassistenzsysteme muss u. a. durch adäquate Testmethoden und einen effizienten Umgang damit innerhalb der etablierten industriellen Entwicklungsprozesse erhöht und sichergestellt werden.
Diese Arbeit bietet einen Überblick über existierende wissenschaftliche wie industrielle Ansätze zum Testen von Automobilelektronik sowie über aktive Fahrerassistenzsysteme. Der Schwerpunkt wird dabei auf diejenigen Systeme gelegt, die Informationen über ihre Umgebung aus Kamerasensoren gewinnen. Aus der Herausforderung, die funktionale Absicherung derart sicherheitskritischer Systeme zu gewährleisten, werden spezifische Anforderungen abgeleitet. Aus dem „Delta“ zwischen Anforderungen und Stand der Technik ergibt sich ein Handlungsbedarf, um neue Methoden und für deren Anwendung nötige Vorgehensweisen und Werkzeuge zu erforschen bzw. bestehende zu erweitern.
Die Methode des „Visual Loop Tests“ wird dafür vorgestellt. Sie kann durch die Anwendung sog. Grafik-Engines als neuer Bestandteil der Test-Technologien zur Absicherung eingesetzt werden. Dabei werden fotorealistische Grafiken zur Stimulation der Assistenzsysteme erzeugt. Die für die effiziente Anwendung dieser Technologien benötigten neuen Vorgehensweisen zur Beschreibung und Erzeugung von Testfällen in einem visuell repräsentierbaren Format werden erarbeitet.
Dadurch können moderne Assistenzfunktionen gleichzeitig effizienter, zuverlässiger, sicherer und kostengünstiger entwickelt werden und die Sicherheit auf den Straßen wird erhöht. Die erste empirische Bewertung im Rahmen der prototypischen Umsetzung bestärkt diese Einschätzung.
Wechselnde Umweltbedingungen wie Temperaturveränderungen oder der Zugang zu Nährstoffen erfordern spezielle genetische Anpassungsprogramme, vor allem von sessilen Organismen wie Pflanzen. Ein solcher hochkonservierter Mechanismus, der unter anderem vor Temperaturspitzen schützt, ist die von Hitzeschockfaktoren (HSF) kontrollierte Hitzeschockantwort (HSR). Dabei werden vermehrt spezifische Hitzestressproteine (HSPs, Chaperone) gebildet, die Proteine vor Denaturierung schützen. In Pflanzen hat sich ein hochkomplexes regulatorisches Netzwerk gebildet, das aus über 20 HSFs besteht, das eine genaue Feinabstimmung der HSR auf die jeweiligen Stressbedingungen erlaubt.
Das hohe Maß an Komplexität der HSR in Pflanzen erschwert die wissenschaftliche Zugänglichkeit jedoch erheblich. Um die grundlegenden Prinzipien der HSR in Pflanzen zu verstehen griffen wir deshalb auf einen einfacheren Modellorganismus zurück, der Pflanzen sehr nahe steht aber nur einen einzigen HSF (HSF1) enthält, der einzelligen Grünalge Chlamydomonas reinhardtii. Im Rahmen dieser Arbeit wurden dazu drei Ansätze verfolgt.
Als erstes wurden verschiedene chemische Substanzen eingesetzt die unterschiedliche Schritte während der Aktivierung und Abschaltung der HSR hemmen um darüber die Regulation der HSR aufzuklären. Dabei wurde festgestellt, dass die Phosphorylierung von HSF1 eine entscheidende Rolle in der Aktivierung der HSR spielt, das auslösende Momentum die Anhäufung von falsch gefalteten Proteinen ist und das HSP90A aus dem Cytosol eine wichtige modulierende Rolle bei der HSR spielt.
Als zweites wurde die Veränderung sämtlicher Transkripte mithilfe von Microarrays gemessen, um vor allem pflanzenspezifische Prozesse zu identifizieren, die auf erhöhte Temperaturen gezielt angepasst werden müssen. Dabei konnte die Chlorophyll Biosynthese und der Transport von Proteinen in den Chloroplasten als neue, pflanzenspezifische Ziele der Stressantwort identifiziert werden. Des Weiteren konnte direkt gezeigt werden, das HSF1 auch plastidäre Chaperone reguliert, im Gegensatz zu mitochondrialen Chaperonen die getrennt gesteuert werden.
Als letztes wurde gezielt die Expression wichtiger Gene für die Stressantwort (HSF1/HSP70B) unterdrückt, um den Einfluss dieser Gene auf die HSR genauer zu studieren. Dazu habe ich ein in der einzelligen Grünalge neuartiges System entwickelt, basierend auf dem RNAi Mechanismus, dass es erlaubt abhängig von der Stickstoffquelle im Nährmedium auch essentielle Gene gezielt auszuschalten. Dieses System erlaubte es zu zeigen, dass HSF1 selbst während des Stresses die Expression seiner RNA erhöht, und dies gezielt tut um die Stressantwort weiter zu verstärken. Es konnte weiter gezeigt werden, dass das Chloroplasten Chaperon HSP70B ein essentielles Protein für das Zellwachstum ist, welches mithilfe des induzierbaren RNAi Systems genauer untersucht werden kann. Dabei wurde festgestellt, dass die HSP70B vermittelte Assemblierung und Disassemblierung des VIPP1 Proteins entscheidend ist für dessen Funktion in der Zelle. Des Weiteren konnte gezeigt werde, dass HSP70B wahrscheinlich verantwortlich ist für die Faltung eines oder mehrerer noch unbekannter Enzyme der Arginin Biosynthese oder der Stickstofffixierung, und das diese Prozesse wahrscheinlich die essentielle Funktion von HSP70B darstellen.
This thesis addresses challenges faced by small package shipping companies and investigates the integration of 1) service consistency and driver knowledge aspects and 2) the utilization of electric vehicles into the route planning of small package shippers. We use Operations Research models and solution methods to gain insights into the newly arising problems and thus support managerial decisions concerning these issues.
Molybdänoxobisperoxokomplexe von Pryrazolylpryridinliganden sind Katalysatoren für die Epoxidierung von Olefinen (Alkenen). Bereits in früheren Arbeiten der Arbeitsgruppe Thiel zeigte sich, dass das Verhältnis der beiden Isomere der Komplexe (Isomer A: Pyrazolring in trans-Position zur Oxogruppe und Isomer B: Pyridinring in trans-Position zur Oxogruppe) in Lösung vom Substitutionsmuster am Pyrazolring abhängt. Außerdem konnte eine Abhängigkeit der turn-over-Frequenz (TOF, katalytische Aktivität) bei der Epoxidierung vom Isomerenverhältnis A:B der Komplexe beobachtet werden. Spektroskopische und theoretische Betrachtungen der Arbeitsgruppe Thiel führten zu einer näheren Aufklärung des Katalysemechanismuses. Die Ursachen für die Korrelation der TOF und des Isomerenverhältnisses von den elektronischen Eigenschaften der Substituenten am Pyrazolring konnten aber nicht gefunden werden. Das Ziel dieser Arbeit war deshalb eine nähere Betrachtung der elektronischen Verhältnisse in Molybdänoxobisperoxokomplexen von Pyrazolylpyridinen. Dazu wurde eine kombinierte experimentelle und elektronische Ladungsdichtestudie in Zusammenarbeit mit dem AK Scherer der Universität Augsburg durchgeführt, um die Beziehung zwischen Ligandstruktur und den beobachteten katalytischen Aktivitäten näher zu untersuchen. Aus den Untersuchungen konnten eine Reihe wichtiger Erkenntnisse über die Ausprägung elektronenreicher und –armer Positionen in den Komplexen gewonnen werden, die Rückschlüsse auf Reaktionswege und Aktivitäten zulassen. Unteranderem konnte eine gute Erklärung für die Abhängigkeit des Isomerenverhältnisses in Lösung vom Substitutionsmuster am Pyrazolring abgeleitet werden. Eine schlüssige Erklärung für die Abhängigkeit der TOF bei der Epoxidierung ließ sich daraus jedoch nicht entnehmen. In diesem Zusammenhang konnte aber eine bisher angenommene mögliche Erklärung für diese Beobachtung, durch eine 195Pt-NMR-Studie an Pyrazolylpyridindichloroplatin(II)komplexen untermauert werden. Die Lage des Signals für das Platinzentralatom war in den 195Pt-NMR-Spektren verschiedener Platinkomplexe mit unterschiedlich substituierten Pyrazolylpyridinliganden unterschiedlich. Es konnte eine Korrelation zwischen der Lage des Signals und den elektronischen Eigenschaften der Substituenten aufgestellt werden, die erkennen lässt, dass das Metallzentrum von den elektronenziehenden oder –schiebenden Substituenten am Pyrazolring beeinflusst wird. Diese Erkenntnis bestärkt die bisherige Annahme, dass eine mögliche Ursache für die Abhängigkeit der TOF bei der molybdänkatalysierten Epoxidierung, die Beeinflussung der Lewisazidität des Molybdänzentrums durch die Substituenten am Pyrazolring ist. Weiterhin wurden im Rahmen dieser Arbeit, neben der Synthese einer Vielzahl an Pyrazolylpyridinliganden und den entsprechenden Molybdän(VI)oxobisperoxo- und Dichloroplatin(II)komplexen, verschieden substituierte Pyridinylpyrimidine und 4,4‘-Bipyrimidine synthetisiert.
Predicting secondary structures of RNA molecules is one of the fundamental problems of and thus a challenging task in computational structural biology. Existing prediction methods basically use the dynamic programming principle and are either based on a general thermodynamic model or on a specific probabilistic model, traditionally realized by a stochastic context-free grammar. To date, the applied grammars were rather simple and small and despite the fact that statistical approaches have become increasingly appreciated over the past years, a corresponding sampling algorithm based on a stochastic RNA structure model has not yet been devised. In addition, basically all popular state-of-the-art tools for computational structure prediction have the same worst-case time and space requirements of O(n^3) and O(n^2) for sequence length n, limiting their applicability for practical purposes due to the often quite large sizes of native RNA molecules. Accordingly, the prime demand imposed by biologists on computational prediction procedures is to reach a reduced waiting time for results that are not significantly less accurate.
We here deal with all of these issues, by describing algorithms and performing comprehensive studies that are based on sophisticated stochastic context-free grammars of similar complexity as those underlying thermodynamic prediction approaches, where all of our methods indeed make use of the concept of sampling. We also employ the approximation technique known from theoretical computer science in order to reach a heuristic worst-case speedup for RNA folding.
Particularly, we start by describing a way for deriving a sequence-independent random sampler for an arbitrary class of RNAs by means of (weighted) unranking. The resulting algorithm may generate any secondary structure of a given fixed size n in only O(n·log(n)) time, where the results are observed to be accurate, validating its practical applicability.
With respect to RNA folding, we present a novel probabilistic sampling algorithm that generates statistically representative and reproducible samples of the entire ensemble of feasible structures for a particular input sequence. This method actually samples the possible foldings from a distribution implied by a suitable (traditional or length-dependent) grammar. Notably, we also propose several (new) ways for obtaining predictions from generated samples. Both variants have the same worst-case time and space complexities of O(n^3) and O(n^2) for sequence length n. Nevertheless, evaluations of our sampling methods show that they are actually capable of producing accurate (prediction) results.
In an attempt to resolve the long-standing problem of reducing the time complexity of RNA folding algorithms without sacrificing much of the accuracy of the results, we invented an innovative heuristic statistical sampling method that can be implemented to require only O(n^2) time for generating a fixed-size sample of candidate structures for a given sequence of length n. Since a reasonable prediction can still efficiently be obtained from the generated sample set, this approach finally reduces the worst-case time complexity by a liner factor compared to all existing precise methods. Notably, we also propose a novel (heuristic) sampling strategy as opposed to the common one typically applied for statistical sampling, which may produce more accurate results for particular settings. A validation of our heuristic sampling approach by comparison to several leading RNA secondary structure prediction tools indicates that it is capable of producing competitive predictions, but may require the consideration of large sample sizes.
Die Arbeit zielt im Wesentlichen auf die Berücksichtigung der aus technischen Anlagen resultierenden Risiken in der räumlichen Planung durch Vorsorge ab und verbindet diese Elemente mit der inhaltlichen, sachlichen sowie zeitlichen Steuerung räumlicher Nutzungsentwicklung
hinsichtlich ihrer Ordnung und Entwicklung auf strategischer und operativer Planungsebene. Die Thematisierung des Risikos wird anhand der verwendeten Konzepte in der Risikoforschung,
der Analyse und der Bewältigung von Risiken durchgeführt. Im Folgenden wird die Relevanz
technischer Risiken als integrativer Bestandteil der Raumplanung und in diesem Zusammenhang
als eine zu bewältigende Aufgabe im Rahmen der Stadtplanung und Stadtentwicklung
dargestellt.
Dies wird durch die synoptische Zusammenstellung der historischen Stadtentwicklung und der
Ausformung technischer Risiken sowie durch ihre Bewältigung im Sinne räumlicher Risikovorsorge
anhand der Darstellung bestimmter Entwicklungslinien und Leitbilder verdeutlicht. Diese führen in eine Zusammenstellung planerischer Grundkonstellationen über, die im Wesentlichen
auf den entwicklungsbedingt unterschiedlichen Konstellationen risikobezogener Nachbarschaften
unverträglicher Nutzungen beruhen und einer vorsorgebezogen- räumlichen Bewältigung
bedürfen.
Die Fokussierung auf rechtliche Rahmenbedingungen spannt den Bogen zur normativen Umsetzung
räumlicher Risikovorsorge und ihren differenzierten Ausprägungen im Raumplanungsund
Umweltrecht. Als besonders belangvoll werden dabei die europarechtlichen Vorgaben des
Land Use Planning im Art. 12 der Richtlinie 96/82/EG – Seveso II- Richtlinie und ihre Übertragungen
auf nationalstaatlicher Ebene dargestellt und die Umsetzungsgrenzen diskutiert.
Die konzeptionelle Realisierung des Schutzes vor den Auswirkungen technischer Risiken wird anhand der Leitfadenerstellung der Kommission für Anlagensicherheit (KAS) zur Umsetzung räumlicher Risikovorsorge durch langfristige Schaffung und die dauerhafte Sicherung von Abständen zwischen Betriebsbereichen der Störfall- Verordnung sowie schutzbedürftigen Gebieten
im Rahmen der Bauleitplanung dargestellt.
Auf dieser Basis wird eine Modellentwicklung räumlicher Vorsorge auf überörtlicher und örtlicher Ebene durchgeführt. Diese bildet die strategischen und operativen Vorsorgeelemente auf die Ebenen der Standort-, Abstands- sowie Entwicklungsplanung ab. Die Umsetzung auf instrumenteller
Ebene erfolgt durch die Verbindung der entwickelten Modellelemente auf
raumordnerischer sowie bauleitplanerischer Ebene mit den raumrelevanten Erfordernissen
räumlicher Risikovorsorge im planerischen Störfallschutz.
Dies betrifft nicht nur Neuplanungen, sondern insbesondere die Beachtung der Anforderungen
bei Entwicklungen im Siedlungsbestand hinsichtlich der Abbildung privater und öffentlicher
Aspekte des planerischen Störfallschutzes. Die heterogene Entwicklung und Vorsorge von Betriebsstandorten
und Siedlungen werden dabei hinsichtlich ihrer risikovorsorgebezogenen
Adaptionsfähigkeit überprüft. Dies schließt im Weiteren auch eine Betrachtung und Überprüfung instrumenteller Ausgestaltungsmöglichkeiten und ihrer Alternativen unter raum- und stadtplanerischen Gesichtspunkten mit in die Überlegungen ein.
This thesis deals with the relationship between no-arbitrage and (strictly) consistent price processes for a financial market with proportional transaction costs
in a discrete time model. The exact mathematical statement behind this relationship is formulated in the so-called Fundamental Theorem of Asset Pricing (FTAP). Among the many proofs of the FTAP without transaction costs there
is also an economic intuitive utility-based approach. It relies on the economic
intuitive fact that the investor can maximize his expected utility from terminal
wealth. This approach is rather constructive since the equivalent martingale measure is then given by the marginal utility evaluated at the optimal terminal payoff.
However, in the presence of proportional transaction costs such a utility-based approach for the existence of consistent price processes is missing in the literature. So far, rather deep methods from functional analysis or from the theory of random sets have been used to show the FTAP under proportional transaction costs.
For the sake of existence of a utility-maximizing payoff we first concentrate on a generic single-period model with only one risky asset. The marignal utility evaluated at the optimal terminal payoff yields the first component of a
consistent price process. The second component is given by the bid-ask prices
depending on the investors optimal action. Even more is true: nearby this consistent price process there are many strictly consistent price processes. Their exact structure allows us to apply this utility-maximizing argument in a multi-period model. In a backwards induction we adapt the given bid-ask prices in such a way so that the strictly consistent price processes found from maximizing utility can be extended to terminal time. In addition possible arbitrage opportunities of the 2nd kind vanish which can present for the original bid-ask process. The notion of arbitrage opportunities of the 2nd kind has been so
far investigated only in models with strict costs in every state. In our model
transaction costs need not be present in every state.
For a model with finitely many risky assets a similar idea is applicable. However, in the single-period case we need to develop new methods compared
to the single-period case with only one risky asset. There are mainly two reasons
for that. Firstly, it is not at all obvious how to get a consistent price process
from the utility-maximizing payoff, since the consistent price process has to be
found for all assets simultaneously. Secondly, we need to show directly that the
so-called vector space property for null payoffs implies the robust no-arbitrage condition. Once this step is accomplished we can à priori use prices with a
smaller spread than the original ones so that the consistent price process found
from the utility-maximizing payoff is strictly consistent for the original prices.
To make the results applicable for the multi-period case we assume that the prices are given by compact and convex random sets. Then the multi-period case is similar to the case with only one risky asset but more demanding with regard to technical questions.
The scientific intention of this work was to synthesize and characterize new bidentate, tridentate and multidentate ligands and to apply them in heterogenous catalysis. For each type of the ligands, new methods of synthesis were developed. Starting from 1,1'-(pyridine-2,6-diyl)diethanone and dimethylpyridine-2,6-dicarboxylate different bispyrazolpyridines were
synthesized and novel ruthenium complexes of the type (L)(NNN)RuCl2 could be obtained. The complexes with L = triphenylphosphine turned out to be highly efficient
catalyst precursors for the transfer hydrogenation of aromatic ketones. Introduction of a butyl group in the 5-positions of the pyrazoles leads to a pronounced increase of catalytic activity.
To find a method for the synthesis of bispyrimidinepyridines, different reactants and condition were applied and it was found that these tridentate ligands can be obtained by mixing and grinding the tetraketone with guanidinium carbonate and silica, which plays the role of a catalyst in this ring closing reaction.
The bidentate 2-amino-4-(2-pyridinyl)pyrimidines were synthesized from different substrates according to the desired substituent on the pyrimidine ring.
Reacting these bidentate ligands with the ruthenium(II) precursor [(η6-cymene)Ru(Cl)(μ
2-Cl)]2 gave cationic ruthenium(II) complexes of the type [(η6-cymene)Ru(Cl)(adpm)]Cl (adpm = chelating 2-amino-4-(2-yridinyl)pyrimidine ligand). Stirring the freshly prepared complexes with either NaBPh4, NaBF4 or KPF6, the chloride anion was exchanged against other coordinating anions (BF4-, PF6-, BPh4-).Some of these ruthenium complexes have shown very special activities in the transfer hydrogenation of ketones by reacting them in the absence of the base. This led to detailed investigations on the mechanism of this reaction. According to the activities and with the help
of ESI-MS experiments and DFT calculations, a mechanism was proposed for the transfer hydrogenation of acetophenone in the absence of the base. It shows that in the absence of the base, a C-H bond activation at the pyrimidine ring should occur to activate the catalyst.
The palladium complexes of bidentate N,N ligands were examined in coupling reactions. As expected, they did not show very special activities.
Multidentate ligands, having pyrimidine groups as relatively soft donors for late transition metals and simultaneously possessing a binding position for a hard Lewis-acid, could be obtained using the new synthesized bidentate and tridentate ligands.
Synthese, Charakterisierung und katalytische Eigenschaften von metallsubstituierten Alumophosphaten
(2012)
Ziel der vorliegenden Arbeit war es, Alumophosphate sowohl mit sauren Eigenschaften als auch solche mit oxidierendem Charakter herzustellen. Die katalytischen Zentren wurden durch den Einbau von Metallen in das Alumophosphat-Gitter erzeugt. Dies erfolgte durch die Zugabe von Metallsalzen zum Synthesegel der zu synthesierenden Alumophosphate. Ein besonderes Augenmerk wurde hierbei auf die Metalle Mg, Co, Zn, Mn, Cr, V und Ti gerichtet. Der Einbau der Metalle erfolgte an 10-Ring und 12-Ring Alumophosphaten. Die metallhaltigen 10 Ring Alumophosphate mit AEL und ATO Strukturen und 12-Ring Alumophosphate der AFI, ATS und AFO-Topologie sollten anschließend mittels physikalisch-chemischer Methoden charakterisiert werden. Hierzu gehörten:
- Röntgen-Pulverdiffraktometrie,
- Temperaturprogrammierte Desorption (TPD),
- Stickstoff-Adsorption,
- UV/Vis-Spektroskopie,
- IR-Spektroskopie.
Ein Schwerpunkt der vorliegenden Arbeit stellte die Untersuchung der katalytischen Eigenschaften der hergestellten und charakterisierten Proben dar. Ausgewählte Cr-, V- und Ti-haltige Katalysatoren wurden in der Flüssigphasenoxidation von Cyclohexen mit wässriger Wasserstoffperoxid- oder tert-Butylhydroperoxid-Lösung (TBHP) getestet. Die eingesetzten metallhaltigen Alumophosphate wiesen eine katalytische Aktivität für die Cyclohexen-Oxidation bei 80 °C auf. Während der Reaktion entstanden 1,2-Cyclohexandiol, 2-Cyclohexenol, 2-Cyclohexenon, Cyclohexenoxid und Cyclohexandion als Hauptprodukte. Die aus technischen Gesichtspunkten interessante Adipinsäure konnte zu keinem Zeitpunkt beobachtet werden. Die Aktivität der eingesetzten Katalysatoren wird durch die unterschiedlichen in die Alumophosphate eingebauten Metalle beeinflusst. Auch die Topologie der hergestellten Materialien beeinflusste den Verlauf der Reaktion. Der Einsatz von TBHP und H2O2 als Oxidationsmittel führte teilweise zu einem unterschiedlichen Produktbild. Nach mehreren Stunden wurde eine Desaktivierung der Katalysatoren beobachtet. Durch eine erneute Kalzination der in der Katalyse einsetzen Proben konnte die Aktivität fast vollständig wieder hergestellt werden.
In der Disproportionierung von Ethylbenzol erwiesen sich die Co-, Mn-, Mg- und Zn-haltigen Alumophosphate als aktive Katalysatoren. Bei den Umsetzungen an Alumophosphaten mit unterschiedlichem Metallgehalt entstanden ortho-, meta- und para-Diethylbenzol als Hauptprodukte. Hierbei wiesen Mg-haltige Katalysatoren die höchste Aktivität auf. Bei einem Metallgehalt von nMg/nAl = 0,01 entstanden neben den bisher erwähnten Hauptprodukten auch Triethylbenzole. Die Aktivität der eingesetzten Alumophosphate nimmt in der Reihenfolge MgAPO > CoAPO > ZnAPO > MnAPO ab. Diese Reihenfolge steht im Einklang mit den Ergebnissen aus den Aciditäts-Untersuchungen mittels TPD. Die Porengeometrie der verwendeten Alumophosphate übt einen entscheidenden Einfluss auf das Produktbild aus. Weitporige Alumophosphate mit der AFI und ATS Topologie weisen die höchsten Umsätze an Ethylbenzol auf. Alumophosphate des AFO und AEL besitzen einen geringeren Porendurchmesser und zeigen eine geringere Aktivitat in der Disproportionierung von Ethylbenzol. Zudem treten wegen des geringeren Porendurchmessers formselektive Effekte auf. So wird das schlankere para-Diethylbenzol bevorzugt gebildet. Katalysatoren auf Basis des ATO Alumophosphates zeigten keine signifikante Aktivitat.
Image restoration and enhancement methods that respect important features such as edges play a fundamental role in digital image processing. In the last decades a large
variety of methods have been proposed. Nevertheless, the correct restoration and
preservation of, e.g., sharp corners, crossings or texture in images is still a challenge, in particular in the presence of severe distortions. Moreover, in the context of image denoising many methods are designed for the removal of additive Gaussian noise and their adaptation for other types of noise occurring in practice requires usually additional efforts.
The aim of this thesis is to contribute to these topics and to develop and analyze new
methods for restoring images corrupted by different types of noise:
First, we present variational models and diffusion methods which are particularly well
suited for the restoration of sharp corners and X junctions in images corrupted by
strong additive Gaussian noise. For their deduction we present and analyze different
tensor based methods for locally estimating orientations in images and show how to
successfully incorporate the obtained information in the denoising process. The advantageous
properties of the obtained methods are shown theoretically as well as by
numerical experiments. Moreover, the potential of the proposed methods is demonstrated
for applications beyond image denoising.
Afterwards, we focus on variational methods for the restoration of images corrupted
by Poisson and multiplicative Gamma noise. Here, different methods from the literature
are compared and the surprising equivalence between a standard model for
the removal of Poisson noise and a recently introduced approach for multiplicative
Gamma noise is proven. Since this Poisson model has not been considered for multiplicative
Gamma noise before, we investigate its properties further for more general
regularizers including also nonlocal ones. Moreover, an efficient algorithm for solving
the involved minimization problems is proposed, which can also handle an additional
linear transformation of the data. The good performance of this algorithm is demonstrated
experimentally and different examples with images corrupted by Poisson and
multiplicative Gamma noise are presented.
In the final part of this thesis new nonlocal filters for images corrupted by multiplicative
noise are presented. These filters are deduced in a weighted maximum likelihood
estimation framework and for the definition of the involved weights a new similarity measure for the comparison of data corrupted by multiplicative noise is applied. The
advantageous properties of the new measure are demonstrated theoretically and by
numerical examples. Besides, denoising results for images corrupted by multiplicative
Gamma and Rayleigh noise show the very good performance of the new filters.
Microcystine (MCs) und Nodularine (NODs) sind zyklische Hepatotoxine, die wegen ihrer strukturellen Modifikationen eine hohe Diversität aufweisen. Da Cyanobakterien, die diese Toxine produzieren, an vielen Standorten wachsen können, stellt eine Vergiftung durch MCs und NODs weltweit ein ernstes gesundheitliches Problem für Mensch und Tier dar.
Die Überwachung von Gewässern erfolgt bislang auf die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR mit Hilfe einer HPLC-UV-Vis-Messmethode gemäß der Norm ISO 20179. Dabei werden aber die ebenfalls vorkommenden MCs, NOD und die entsprechenden Desmethyl-Varianten, über deren Struktur-Wirkungsbeziehung wenig bekannt ist, nicht voneinander getrennt und gemeinsam miterfasst.
Durch diese Arbeit sollte die Auswirkung einer Hemmung von Proteinphosphatasen (PP1 und PP2A), über welche MCs und NODs in vivo und in vitro auf Hepatozyten Einfluss nehmen, in primären Ratten- und Humanhepatozyten untersucht werden. Außerdem sollte der Zusammenhang zwischen chemischer Struktur und toxikologischer Relevanz von MCs und NODs und ihrer Desmethyl-Varianten aufgeklärt werden.
Sowohl in primären Ratten- als auch in Humanhepatozyten konnte bestätigt werden, dass nicht nur die rechtlich relevanten MCs MC-LR, MC-RR und MC-YR für eine Überwachung von Lebensmitteln und Gewässern entscheidend sind, sondern alle getesteten MCs und NODs und deren desmethylierten Kongenere ein hohes zytotoxisches Potential aufweisen. Dabei kann aber keine direkte Abhängigkeit einer PP-Inhibierung und Zytotoxizität gesetzt werden. Vielmehr spielt die Toxikokinetik wie die Aufnahme der Toxine über spezifische Transporter (OATP) in die Leber und die Entgiftung über den Glutathion-Detoxifizierungsweg eine wichtige Rolle. Weiterhin konnte festgestellt werden, dass die zytotoxische Wirkung auf primäre humane Hepatozyten um ein Vielfaches geringer war als auf primäre Rattenhepatozyten, weshalb von einer Speziesabhängigkeit gesprochen werden kann.
Weiterhin wird durch diese Arbeit belegt, dass die MC- und NOD-vermittelte PP-Hemmung zeit- und konzentrationsabhängig sowohl Apoptosen auslöst und als auch in der Lage ist Apoptosemarker wie Bax und Bcl-xL zu beeinflussen und die MAPK-Signalkette aktiviert, was mit Zellproliferation in Verbindung steht. Dabei wies NOD eine stärkere Wirkung auf als MC-LR. Der ebenfalls untersuchte Akt-Signalweg zeigte interessanterweise keine Veränderung in der Kaskade, was auf eine mögliche Gegenregulation zurückgeführt werden kann.
Die in vitro Daten weisen darauf hin, dass die Exposition mit hohen Konzentrationen an MCs und NODs in vivo akut starke Leberschäden bis hin zum Tod verursachen. Geringere Konzentrationen dagegen bei einer Langzeitexposition mit kontaminiertem Wasser, Nahrungsergänzungsmitteln und Lebensmitteln MAPK-vermittelt tumorpromovierend und kanzerogen wirken können.
Ländliche Räume stehen vor der vielschichtigen Herausforderung,
vom Wachstum der metropolitanen Räume nicht abgehängt zu werden.
Die durch die EU geförderte Regionalisierung verschiebt Handlungserfordernisse
zunehmend von der lokalen auf eine interkommunale sowie regionale
Ebene.
Zur Bewältigung der zentralen demografischen, sozialen und
ökonomisch-strukturellen Aufgabenstellungen bedarf es der konsequenten
und zielorientierten Bündelung aller regionalen Kräfte.
In der Regionalentwicklung ist derweil jedoch festzustellen, dass
sich zahlreiche regionale Initiativen etablieren, die in räumlicher
und thematischer Überschneidung parallel zueinander Regionalentwicklung
betreiben, ohne miteinander abgestimmt zu sein.
Eine koordinierte Ausrichtung auf gemeinsame Ziele der Regionalentwicklung
und mit Blick auf eine gesamtregionale Profilierung erfolgt nicht. Dies steht
dem Anstreben nach einer koordinierten Regionalentwicklung kontraproduktiv
entgegen.
Ländliche Entwicklungsinitiativen wie insbesondere LEADER sind ihren
ursprünglich landwirtschaftlich-stämmigen Kinderschuhen entwachsen.
Ihre regionalen Entwicklungskonzepte, Projekte und Maßnahmen zeigen in
weiten Teilen regionale Wirkungsweise.
Weisen konkrete LEADER-Projekte Raumbedeutsamkeit auf, dann kann sich die
für den Raum jeweils verantwortliche Regionalplanung auf raumordnungsrechtliche
Kooperationslegitimationen berufen.
Solche Kooperationen zwischen LEADER und Regionalplanung finden in der
aktuellen Praxis der Regionalentwicklung jedoch nicht statt. Die daraus resultierenden
‚Parallelstrukturen der Regionalentwicklung’ stehen der Forderung nach einer Bündelung
der regionalen Kräfte direkt entgegen.
Mit Blick auf die Lösung der benannten demografischen, sozialen oder wirtschaftlichen
Herausforderungen im ländlichen Raum ist eine abgestimmte koordinierte Regionalentwicklung
jedoch unbedingt erforderlich. Nicht zuletzt kann durch optimierte Kooperationsstrukturen
im regionalen Raum beispielsweise die Effizienz von generierten Fördermitteln wesentlich
gesteigert werden. Nur durch die Effizienz der Fördermittel und der Entwicklungsstrategien
wiederum können synergetische Prozesse initiiert werden und die ländlichen Räume als
gemeinsamer Potenzialraum profitieren.
Mit der Optimierung der organisatorischen Rahmenbedingungen zum Miteinander von Regionalplanung
und ländlichen regionalen Entwicklungsprozessen (neben LEADER vor allem ILE) können
strategische Allianzen der Regionalentwicklung gefördert werden.
Bleiben diese wichtigen Weichenstellungen künftig weiterhin aus, könnten die ländlichen Räume
zunehmend an Bedeutung verlieren. Nur durch die gebotene organisatorische und thematische Bündelung
regionaler Initiativen und Ressourcen sind die Herausforderungen bestmöglich zu meistern und eine
koordinierte Regionalentwicklung praktikabel.
Die vorliegende Arbeit beschreibt die Trennung von kurzkettigen Alkan/Alken-Gemischen an nanostrukturierten porösen Adsorbentien. Zu diesem Zweck wurden unterschiedliche metallorganische Koordinationspolymere und Zeolithe synthetisiert und charakterisiert. Zur Untersuchung des Adsorptionsverhaltens dieser Adsorbentien wurden Adsorptionsisothermen von C2-, C3- und C4-Kohlenwasserstoffen bei verschiedenen Temperaturen gemessen. Die Messung der Adsorption der reinen Kohlenwasserstoffe ergab, dass die adsorbierte Stoffmenge mit der spezifischen Oberfläche des Adsorbens korreliert, sowie von der kritischen Temperatur des Adsorptivs abhängt und in der Reihenfolge C2 < C3 < C4 zunimmt. Eine Ausnahme hiervon bilden flexible metallorganische Koordinationspolymere, welche Atmungs- bzw. Porenöffnungseffekte zeigen. Die Isothermen dieser Materialien weisen Sprünge auf, wobei diese jedoch abhängig vom Druck, vom Adsorptiv und von der Temperatur sind. Die Trennung von Alkan/Alken-Gemischen an den hergestellten Adsorbentien wurde in einem kontinuierlich durchströmten Festbettadsorber untersucht. Es zeigten sich unterschiedliche Trennfaktoren in Abhängigkeit von der Porenöffnung und der Gerüststruktur der Adsorbentien. Die Untersuchung der Desorption der Kohlenwasserstoffe von Cu\(_3\)(btc)\(_2\) ergab, dass der Desorptionsprozess bei Raumtemperatur nur sehr langsam verläuft. Es zeigte sich, dass die zur Desorption erforderliche Temperatur nimmt steigender Kohlenstoffzahl des Kohlenwasserstoffs zunimmt.
Acrylamid und Acrolein gehören zu den alpha,beta-ungesättigten Carbonylverbindungen. Sie zeichnen sich wie andere alpha,beta-ungesättigte Carbonylverbindungen durch eine hohe Reaktionsfähigkeit aus. Einerseits können sie leicht mit Proteinen und DNA reagieren, was zytotoxische und genotoxische Wirkungen hervorrufen kann, andererseits können sie aber auch schnell durch Glutathionkonjugation detoxifiziert werden.
Acrylamid ist eine in großem Umfang produzierte Industriechemikalie, die hauptsächlich Anwendung bei der Herstellung von Polyacrylamidprodukten findet. Aus Acrylamid hergestellte Polymere und Copolymere werden in der Kosmetikindustrie, als Bindemittel bei der Papierherstellung, als Flockungsmittel in der Abwasseraufbereitung und in biochemischen Laboratorien verwendet. Nachdem Acrylamid-Hämoglobin-Addukte im Jahre 2002 auch in nicht Acrylamid-exponierten Personen gefunden wurden, vermutete man Lebensmittel als mögliche Expositionsquelle. Anschließende Studien konnten dies bestätigen und zeigten, dass Acrylamid beim Erhitzen von Lebensmitteln vor allem bei hohen Temperaturen im Verlauf der Maillard-Reaktion gebildet werden kann. Die World Health Organisation (WHO) beziffert die weltweite durchschnittliche Exposition mit Acrylamid über Lebensmittel auf 1-4 µg Acrylamid/kg Körpergewicht (KG) und Tag. Acrylamid zeigte in verschiedenen Studien neurotoxische, entwicklungs- und reproduktionstoxische, genotoxische und kanzerogene Wirkungen. Acrylamid wurde im Jahre 1994 von der International Agency for Research on Cancer (IARC) in die Gruppe 2A als Stoff eingestuft, der wahrscheinlich krebserzeugend beim Menschen ist.
Acrylamid wird im Organismus zum genotoxischen Metaboliten Glycidamid gegiftet. Glycidamid bildet DNA-Addukte vor allem mit dem N7 des Guanins. Glycidamid-DNA-Addukte konnten im Tierversuch an Nagern nach Verabreichung hoher Mengen Acrylamid in allen untersuchten Organen gefunden werden. Als Hauptweg der Entgiftung von Acrylamid und Glycidamid gilt die Bindung an Glutathion (GSH) und der Abbau und die Ausscheidung als Mercaptursäure (MA) in Urin. Aufgrund des oxidativen Metabolismus von Acrylamid hängt die biologische Wirkung wesentlich vom Gleichgewicht der giftenden und entgiftenden Metabolismuswege in der Leber ab.
Acrolein wird seit 1940 kommerziell zur Herstellung von Acrylsäure, dem Ausgangsprodukt für Acrylatpolymere industriell produziert. Außerdem kann Acrolein aus Aminosäuren, Fetten oder Kohlenhydraten während des Erhitzens von Lebensmitteln gebildet werden. Während der Zubereitung von kohlenhydratreichen Lebensmitteln kann Acrolein wie auch Acrylamid im Verlauf der Maillard-Reaktion entstehen. Acrolein ist als einfachster alpha,beta-ungesättigter Aldehyd hochreaktiv gegenüber Nukleophilen wie z.B. Thiol- oder Aminogruppen unter Ausbildung von Michael-Addukten. Die hohe Reaktivität und Flüchtigkeit von Acrolein führt dazu, dass derzeit nur wenig zuverlässige Daten zu Acrolein-Gehalten speziell in kohlenhydratreichen Lebensmitteln vorliegen; sofern Daten zu Gehalten vorhanden sind, bewegen sich diese im niedrigen µg/kg-Bereich. Zudem ist bisher ungeklärt, in welchem Ausmaß Acrolein zur humanen Gesamtexposition gegenüber hitzeinduzierten Schadstoffen neben Acrylamid in Lebensmitteln beiträgt. Die derzeitige Datenlage lässt eine eindeutige Risikobewertung nicht zu. Eine stetige Exposition mit Acrolein gilt als sicher. In verschiedenen Studien konnte gezeigt werden, dass die toxikologischen Effekte von Acrolein im Gegensatz zu Acrylamid insgesamt nicht auf einer erhöhten Tumorinzidenz beruhen. Daher wurde Acrolein von der IARC in Kategorie 3 eingestuft: Es gilt als möglicherweise krebserzeugend beim Menschen, allerdings ist die Datenlage nicht ausreichend, um eine eindeutige Beurteilung vornehmen zu können.
Ziel der vorliegenden Arbeit war es, die Toxikokinetik und -dynamik der beim Erhitzen von Lebensmitteln entstehenden Kontaminanten Acrylamid und Acrolein in vitro und in vivo zu untersuchen. Im Vordergrund stand die Erfassung dosisabhängiger Genotoxizität von Acrylamid sowie der MA als wichtigste Entgiftungsreaktion im Tierversuch im Bereich der derzeitigen Verbraucherexposition. Die Ergebnisse, insbesondere zur Toxikokinetik, sollten durch in vitro Versuche in primären Rattenhepatozyten untermauert werden. Außerdem sollte vergleichend die bisher kaum mithilfe von Biomarkern untersuchte nahrungsbezogene Exposition des Verbrauchers mit Acrylamid und Acrolein bestimmt werden. Eine Dosis-Wirkungsuntersuchung an Sprague Dawley (SD)-Ratten im Dosisbereich von 0,1 bis 10.000 µg/kg KG lieferte erstmals quantitative Informationen zur DNA-Adduktbildung durch den genotoxischen Acrylamid-Metaboliten Glycidamid bis in niedrigste Expositionsbereiche. In diesem Niedrigdosisbereich (0,1 bis 10 µg/kg KG) liegt die nach Einmaldosierung gemessene N7-GA-Gua-Bildung im unteren Bereich der humanen Hintergrundgewebsspiegel für DNA-Läsionen verschiedenen Ursprungs. Dieser Befund könnte die zukünftige Risikobewertung von Expositionen mit solchen genotoxischen Kanzerogenen auf eine neue und der Messung zugängliche Basis stellen. Mit der in dieser Arbeit eingesetzten extrem empfindlichen instrumentellen Analytik sind erstmals Messungen von genotoxischen Ereignissen bis in den Bereich der Verbraucherexposition möglich geworden. Es bleibt allerdings zu beachten, das Genotoxizität zwar eine notwendige, aber nicht hinreichende Bedingung für Mutagenität und maligne Transformation ist. Die auf ein genotoxisches Ereignis folgende biologische Antwort, muss jedoch in die Risikobewertung mit einbezogen werden.
In primären Rattenhepatozyten ließ sich bei Inkubation mit Acrylamid zeigen, dass GSH-Addukte deutlich früher bei niedrigeren Acrylamidkonzentrationen nachweisbar sind als Glycidamid und N7-GA-Gua-Addukte. Der direkte Vergleich der Bildung von Glycidamid mit jener der AA-GSH-Addukte ließ schließen, dass die Entgiftung von Acrylamid in primären Rattenhepatozyten bis zu dreifach schneller verläuft als die Giftung. Zusätzlich ließ sich erstmals zeigen, dass primäre Rattenhepatozyten neben der Kopplung von Xenobiotika an GSH, zumindest auch in kleinen Anteilen zur Umwandlung in die entsprechenden MA fähig sind.
Um das von Acrolein ausgehende Gefährdungspotential zu untersuchen, wurde dessen DNA-Adduktbildung in vitro untersucht. Als Biomarker für die Bildung eines Haupt-DNA-Adduktes wurde fünffach 15N-markiertes Hydroxypropanodeoxyguanosin (OH-[15N5]-PdG) synthetisiert und charakterisiert. DNA Inkubationsversuche mit Acrolein zeigten eine konzentrations- und zeitabhängige Bildung der OH-PdG-Addukte. Acrolein reagierte nur wenig langsamer als Glycidamid zu diesen Addukten.
Zur Untersuchung der Toxikokinetik von Acrylamid und Acrolein in vivo nach Aufnahme von hoch belasteten bzw. kommerziell erhältlichen Kartoffelchips wurden die Ergebnisse aus zwei Humanstudien durchgeführt und ausgewertet. Die Ausscheidungskinetiken Acrolein-assoziierter MA im Menschen korrelierten eindeutig mit der Aufnahme von Kartoffelchips. Der Vergleich der im Urin ausgeschiedenen Mengen an Acrolein- bzw. Acrylamid-assoziierten MA ließ auf eine wesentlich höhere nahrungsbezogene Exposition mit Acrolein (4- bis 12-fach) verglichen mit Acrylamid schließen. Analytische Messungen der Acroleingehalte in den Lebensmitteln hatten aber nur eine Kontamination ergeben, die nur einen geringen Anteil der expositionsbedingt im Urin erfassten MA-Mengen erklären kann. Ob Acrolein an der Lebensmittelmatrix in einer Weise gebunden vorliegt, dass es sich der analytischen Erfassung durch die zur Verfügung stehenden Verfahren wie Headspace-GC/MS entzieht und erst nach Aufnahme in den Organismus freigesetzt wird, wird Gegenstand künftiger Untersuchungen. Zusätzlich liefern die Ergebnisse beider Humanstudien starke Hinweise auf eine endogene Bildung von Acrolein, da auch in den Wash-out Phasen ein relativ hoher Anteil an Acrolein-assoziierten MA erfasst wurde. Zukünftige Untersuchungen sollten die endogene Exposition und die Bildungsmechanismen von Acrolein und anderen Alkenalen aus verschiedenen physiologischen Quellen genauer untersuchen, und in Beziehung setzen zur exogenen, ernährungsbezogenen Exposition. Ebenso sollten künftig verstärkt die Auswirkungen kombinierter Exposition durch solche erhitzungsbedingt gebildeten Stoffe untersucht werden.
Today, polygonal models occur everywhere in graphical applications, since they are easy
to render and to compute and a very huge set of tools are existing for generation and
manipulation of polygonal data. But modern scanning devices that allow a high quality
and large scale acquisition of complex real world models often deliver a large set of
points as resulting data structure of the scanned surface. A direct triangulation of those
point clouds does not always result in good models. They often contain problems like
holes, self-intersections and non manifold structures. Also one often looses important
surface structures like sharp corners and edges during a usual surface reconstruction.
So it is suitable to stay a little longer in the point based world to analyze the point cloud
data with respect to such features and apply a surface reconstruction method afterwards
that is known to construct continuous and smooth surfaces and extend it to reconstruct
sharp features.
Die Preformmontage ist ein zentrales Element moderner Prozessketten zur effizien-ten Herstellung von CFK-Komponenten integraler Bauweise. Ihre technologische Darstellung mittels der Ultraschall-Schweißtechnologie erschließt neue Potentiale für die binderbasierte Preform-Prozesskette bezüglich der Reduzierung von Prozesszeit und Energieverbrauch, der Steigerung des Automatisierungsgrades und der Verar-beitung komplexer Geometrien unter Einsatz von Hochtemperatur-Bindersystemen. Im Rahmen der vorliegenden Arbeit wurde die Ultraschall-Schweißtechnologie zur Montage bebinderter Preforms auf Basis grundlegender Untersuchungen entwickelt und anlagentechnisch umgesetzt. Studien der Wirkmechanismen des Prozesses zur Wärmeerzeugung und Laminatkompaktierung wurden durchgeführt. Die Gewichtung und Interaktion der Prozessparameter wurde mittels statistisch geplanter Versuche ermittelt und die mechanischen Eigenschaften verschweißter Laminate wurden ge-messen. Das aufgrund von Randeffekten stark ausgebildete Temperaturprofil im Pre-formlaminat wurde messtechnisch erfasst und rechnerisch modelliert. Die Studien bildeten die Grundlage zur Umsetzung eines robotergestützten, parameterüberwach-ten Ultraschall-Endeffektors.
In der vorliegenden Arbeit wurden die Verbesserungsmöglichkeiten der Mikro- und Ultrafiltration durch Ultraschall untersucht. Für die Analyse möglicher Mechanismen der Ultraschalleinkopplung, die zu einer Verbesserung der Membranfiltration führen könnten, wurden wichtige Erkenntnisse aus den beiden Technologiefeldern (Ultraschalltechnik und Membranfiltration) zusammengetragen. Für die Vielzahl der Ansätze zur Nutzung des Ultraschalls in der Membranfiltration wurde eine Systematik entwickelt. Zahlreiche Ansätze wurden in orientierenden Experimenten untersucht und bewertet. Ein wichtiger Aspekt bei der Bewertung der Methoden bestand in der Skalierbarkeit der Technologiekombinationen. Als Hauptakteure der Reinigungswirkung wurden gut sichtbare Bläschen in der Größenordnung von 10-500 µm identifiziert. Die erfolgreichste Methode stellt die durch Ultraschallreinigung unterstützte Rückspülung dar. Auf Basis dieser Erkenntnisse wurde eine Übertragung der Ultraschallreinigung auf ein handelsübliches Kapillarmembranmodul durchgeführt. Bei ersten Filtrationsversuchen mit natürlichem Oberflächenwasser konnten Schäden an der Membran festgestellt werden, die auf eine lokale Kavitationsstruktur an der Ankopplungsstelle des Ultraschallwandlers zurückzuführen waren. Bei geringeren Ultraschallleistungen und bei der Nutzung höherer Frequenzen traten keine Schäden an der Membran auf. Im Vergleich zu einem Referenzmodul konnten deutliche Verbesserungen durch die Einkopplung des Ultraschalls an verschiedenen Stoffsystemen nachgewiesen werden. Die Arbeit schließt mit Vorschlägen für Membranmodule mit integriertem Leistungsultraschall, die aus technischer Sicht empfehlenswert erscheinen.
The safety of embedded systems is becoming more and more important nowadays. Fault Tree Analysis (FTA) is a widely used technique for analyzing the safety of embedded systems. A standardized tree-like structure called a Fault Tree (FT) models the failures of the systems. The Component Fault Tree (CFT) provides an advanced modeling concept for adapting the traditional FTs to the hierarchical architecture model in system design. Minimal Cut Set (MCS) analysis is a method that works for qualitative analysis based on the FTs. Each MCS represents a minimal combination of component failures of a system called basic events, which may together cause the top-level system failure. The ordinary representations of MCSs consist of plain text and data tables with little additional supporting visual and interactive information. Importance analysis based on FTs or CFTs estimates the contribution of each potential basic event to a top-level system failure. The resulting importance values of basic events are typically represented in summary views, e.g., data tables and histograms. There is little visual integration between these forms and the FT (or CFT) structure. The safety of a system can be improved using an iterative process, called the safety improvement process, based on FTs taking relevant constraints into account, e.g., cost. Typically, relevant data regarding the safety improvement process are presented across multiple views with few interactive associations. In short, the ordinary representation concepts cannot effectively facilitate these analyses.
We propose a set of visualization approaches for addressing the issues above mentioned in order to facilitate those analyses in terms of the representations.
Contribution:
1. To support the MCS analysis, we propose a matrix-based visualization that allows detailed data of the MCSs of interest to be viewed while maintaining a satisfactory overview of a large number of MCSs for effective navigation and pattern analysis. Engineers can also intuitively analyze the influence of MCSs of a CFT.
2. To facilitate the importance analysis based on the CFT, we propose a hybrid visualization approach that combines the icicle-layout-style architectural views with the CFT structure. This approach facilitates to identify the vulnerable components taking the hierarchies of system architecture into account and investigate the logical failure propagation of the important basic events.
3. We propose a visual safety improvement process that integrates an enhanced decision tree with a scatter plot. This approach allows one to visually investigate the detailed data related to individual steps of the process while maintaining the overview of the process. The approach facilitates to construct and analyze improvement solutions of the safety of a system.
Using our visualization approaches, the MCS analysis, the importance analysis, and the safety improvement process based on the CFT can be facilitated.
Für die lösbare Verbindung von Bauteilen aus Polymerwerkstoffen sind Direktver-schraubungen das kostengünstigen Fügeverfahren. Nachteilig sind allerdings die durch das viskoelastische Verhalten der Polymerwerkstoffe bedingte zeit- und tem-peraturabhängige Abnahme der Vorspannkraft und deren weitere Beeinflussung durch den Wärmeausdehnungsunterschied von Polymerwerkstoff und Metall. Ziel der Arbeit ist es, durch den gekoppelten Einsatz von Experiment und FE-Simulation den Einfluss von Zeit und Temperatur auf die Vorspannkraft bei Direktverschraubungen in Polymerwerkstoffen zu beschreiben. Der Tubus aus Polymerwerkstoff, der auf-grund der Faserorientierung inhomogen und anisotrop ist, wird ortsaufgelöst unter-sucht, und hierauf aufbauend werden die lokalen Werkstoffparameter für die FE-Analyse ermittelt. Die FE-Analyse der Direktverschraubung selbst wird experimentell anhand des Vorspannkraftverlaufs sowie der Oberflächendeformation überprüft. Beim betrachteten Verbindungssystem ist deutlich zu beobachten, dass der Vor-spannkraftabbau hauptsächlich im Bereich der Entlastungsbohrung bis zu einer be-stimmten Einschraubtiefe stattfindet.
Anhand der Forschungserkenntnisse wird ein Untersuchungsdesign mit vier unterschiedlichen Bedingungen entwickelt, in dem die Probanden spielgerecht Strafstöße ausführen. Das Ziel der Untersuchung ist unter Einbezug der Strafstoßstrategien von Schützen mittels eines holistischen Verfahrens eine Mustererkennung über verlaufsorientierte komplexe Bewegungsmuster in der Strafstoßsituation auszuführen, um Individuen bezogene, richtungsspezifische und bedingungsabhängige Bewegungsmuster zu identifizieren. Die erste Aufgabenstellung erfasst die Strafstöße ungestört ohne Gegnereinwirkung (Baseline). In der zweiten und dritten Aufgabenstellung werden die Strafstöße jeweils gegen einen Torhüter unter Verwendung der Strategien Keeper-independent und Keeper-dependent ausgeführt. Die vierte Aufgabenstellung simuliert während der Ausführung des Schusses die Torwarthandlung am Point of no return. Die Ergebnisse zeigen, dass bezogen auf die Ziele Separierungen möglich sind. Zudem wird deutlich, dass die Ausführungsbedingungen (Strategiewahl, Torhüter) Einfluss auf die Bewegungsausführung haben und eine Veränderung in den Erkennungsraten von Bewegungsmustern festzustellen ist.
Nanoparticle-Filled Thermoplastics and Thermoplastic Elastomer: Structure-Property Relationships
(2012)
The present work focuses on the structure-property relationships of
particulate-filled thermoplastics and thermoplastic elastomer (TPE). In this work
two thermoplastics and one TPE were used as polymer matrices, i.e. amorphous
bisphenol-A polycarbonate (PC), semi-crystalline isotactic polypropylene (iPP),
and a block copolymer poly(butylene terephthalate)-block-poly(tetramethylene
glycol) TPE(PBT-PTMG). For PC, a selected type of various Aerosil® nano-SiO2
types was used as filler to improve the thermal and mechanical properties by
maintaining the transparency of PC matrix. Different types of SiO2 and TiO2
nanoparticles with different surface polarity were used for iPP. The goal was to
examine the influence of surface polarity and chemical nature of nanoparticles on
the thermal, mechanical and morphological properties of iPP composites. For
TPE(PBT-PTMG), three TiO2 particles were used, i.e. one grade with hydroxyl
groups on the particle surface and the other two grades are surface-modified with
metal and metal oxides, respectively. The influence of primary size and dispersion
quality of TiO2 particles on the properties of TPE(PBT-PTMG)/TiO2 composites
were determined and discussed.
All polymer composites were produced by direct melt blending in a twin-screw
extruder via masterbatch technique. The dispersion of particles was examined by
using scanning electron microscopy (SEM) and micro-computerized tomography
(μCT). The thermal and crystalline properties of polymer composites were characterized by using thermogravimetric analysis (TGA) and differential
scanning calorimetry (DSC). The mechanical and thermomechanical properties
were determined by using mechanical tensile testing, compact tension and
Charpy impact as well as dynamic-mechanical thermal analysis (DMTA).
The SEM results show that the unpolar-surface modified nanoparticles are better
dispersed in polymer matrices as iPP than polar-surface nanoparticles, especially
in case of using Aeroxide® TiO2 nanoparticles. The Aeroxide® TiO2 nanoparticles
with a polar surface due to Ti-OH groups result in a very high degree of
agglomeration in both iPP and TPE matrices because of strong van der Waals
interactions among particles (hydrogen bonding). Compared to unmodified
Aeroxide® TiO2 nanoparticles, the other grades of surface modified TiO2 particles
are very homogenously dispersed in used iPP and TPE(PBT-PTMG). The
incorporation of SiO2 nanoparticles into bisphenol-A PC significantly increases
the mechanical properties of PC/SiO2 nanocomposites, particularly the resistance
against environmental stress crazing (ESC). However, the transparency of
PC/SiO2 nanocomposites decreases with increasing nanoparticle content and
size due to a mismatch of infractive indices of PC and SiO2 particles. The different
surface polarity of nanoparticles in iPP shows evident influence on properties of
iPP composites. Among iPP/SiO2 nanocomposites, the nanocomposite
containing SiO2 nanoparticles with a higher degree of hydrophobicity shows
improved fracture and impact toughness compared to the other iPP/SiO2
composites. The TPE(PBT-PTMG)/TiO2 composites show much better thermal and mechanical properties than neat TPE(PBT-PTMG) due to strong chemical
interactions between polymer matrix and TiO2 particles. In addition, better
dispersion quality of TiO2 particles in used TPE(PBT-PTMG) leads to dramatically
improved mechanical properties of TPE(PBT-PTMG)/TiO2 composites.